Spark学习,pyspark执行后默认启动Ipython
16lz
2021-01-22
环境:Spark-1.6 + ubuntu12.04 LTS+python-2.7.3+Ipython(已装好)
假设spark的根目录为/usr/local/spark:
cd /usr/local/spark
gedit load-spark-env.sh
打开该文件后,在前面加入:
export IPYTHON=1
export IPYTHON_OPTS=" "
重新启动spark 的python shell:
./pyspark
启动后可发现,默认启动的是Ipython的shell.
(Ipython 的 tab 自动补全真的很爽有木有!)