PySpark 设置python的版本

PySpark 在工作程序中都需要使用的为默认环境的python版本,怎样把python的版本切换成3的版本,您可以通过 PYSPARK_PYTHON 指定要使用的Python版本。

具体步骤如下:

  • python3 环境需要提前安装好,如果没按照可以参考centos7 下python2与python3共存

  • 修改spark-env.sh文件, 在末尾添加export PYSPARK_PYTHON=/usr/bin/python3

  • 若为集群环境,需要把修改后的 spark-env.sh 分发到其他子节点的spark安装包下的conf目录下

  • 修改spark安装包bin目录下的pyspark,修改下图红色方框的位置,将原来PYSPARK_PYTHON=python改成PYSPARK_PYTHON=python3,同样的,其他子节点也都需要修改

PySpark 设置python的版本

1
2
3
4
5
6
7
8
if [[ -z "$PYSPARK_PYTHON" ]]; then
if [[ $PYSPARK_DRIVER_PYTHON == *ipython* && ! $WORKS_WITH_IPYTHON ]]; then
echo "IPython requires Python 2.7+; please install python2.7 or set PYSPARK_PYTHON" 1>&2
exit 1
else
PYSPARK_PYTHON=python3
fi
fi
  • 重启Spark,启动pyspark,可发现python的版本已切换成3.6.4的版本
「点点赞赏,手留余香」

    还没有人赞赏,快来当第一个赞赏的人吧!
0 条回复 A 作者 M 管理员
    所有的伟大,都源于一个勇敢的开始!
欢迎您,新朋友,感谢参与互动!欢迎您 {{author}},您在本站有{{commentsCount}}条评论