Windows下的PyCharm與Ubuntu下的Python的交互
實驗環境:
Windows10
Ubuntu18.04
Pycharm2019.1.2(專業版)
Python3.6.5
1、在Windows下與Ubuntu下新建目錄,作為兩個環節之間的連接橋梁
1.1 在Windows下的D盤新建SparkProgram目錄,具體的路徑地址如下 D:\SparkProgram
1.2 在Ubuntu下新建SparkProgram目錄,具體的路徑地址如下/home/hadoop/SparkProgram
# 新建目錄 $ sudo mkdir /home/hadoop/SparkProgram # 修改目錄的所有者權限 $ sudo -R hadoop:hadoop /home/hadoop/SparkProgram
2、查看Ubuntu的網絡環境以及python的版本
# 查看網絡配置,獲取IP地址 $ ifconfig $ whereis python # 查看當前的python安裝情況,獲得python執行目錄
網絡環境
Python安裝情況
3、Pycharm的配置
3.1、打開Pycharm,然后依次打開 File > Open ,找到 D:\SparkProgram 目錄 並打開,如下
3.2 打開Pycharm,然后依次打開 File > setting ,然后在Project:SparkProgram下找到 Project Interpreter,打開當前界面下的設置(右側小齒輪圖標),並進行添加(Add)操作,如圖:
3.3 在新增的設置上,選擇 SSH Interpreter 設置 , 通過第二步獲取的IP地址以及Ubuntu的用戶名進行參數設置,如下圖
3.4 配置完成后進入下一步的配置,要求輸入Ubuntu的密碼,如下圖:
3.5 配置完成后,將進入Python編譯器的配置以及映射目錄的處理,在這一個過程中,依據第二步獲取的python位置,以及第一步創建的映射目錄進行處理,這里需要注意,在完成Python編譯器的設置后,記得勾選 Execute code using this interpreter with root privileges via sudo 選項,這里關於目錄映射的修改可以通過 Sysc foldres 右側的文件圖標進行
4、 修改 SSH Terminal 下的默認編碼,將其設置為 UTF-8
5 在Tools下找到Deployment,打開其中的Configuration,進行mapping的設置 , 這里Local path 指的是 第一步創建的 D:\SparkProgram ; Deployment path 指的是 /home/hadoop/SparkProgram ,如圖
6 測試
在D:\SparkProgram下,新建一個demo.py 文件,輸入如下內容,
import matplotlib.pyplot as plt #創建圖形對象 fig = plt.figure() #添加子圖區域,參數值表示[left, bottom, width, height ] ax = fig.add_axes([0,0,1,1]) #准備數據 langs = ['C', 'C++', 'Java', 'Python', 'PHP'] students = [23,17,35,29,12] #繪制柱狀圖 ax.bar(langs,students) plt.show()
選擇當前創建的文件按,在Tools下找到Deployment,點擊 upload to hadoop@192.168.40.128 ,進行文件上傳, 然后去Ubuntu的 /home/hadoop/SparkProgram 目錄下,查看當前的內容
上傳后
在Ubuntu進行查看
# 切換目錄 $ cd /home/hadoop/SparkProgram # 查看內容 $ ls
在PyCharm運行demo.py