Apache Spark 是专为大规模数据处理而设计的快速通用的计算引擎。
当 Spark 任务的文件名可控时,`Utils.unpack` 采用命令拼接的形式对 tar 文件进行解压,存在任意命令注入的风险。这是源于 Hadoop 中 unTar 函数存在问题,在其执行 shell 命令之前未正确转义文件名,直接拼接命令导致任意命令注入。
影响版本:
Spark Core 3.1.2, 3.2.1
漏洞利用需要在提交Spark Job中指定调用受影响的函数,实际风险较低。
升级至Spark Core 3.1.3, 3.2.2