轉載:https://blog.csdn.net/u013109501/article/details/91987180
https://blog.csdn.net/Vancl_Wang/article/details/90349047
bert_utils: https://github.com/terrifyzhao/bert-utils
bert-Chinese-classification-task
一、環境依賴:
安裝Python、tensorflow
python 3.6.8 tensorflow 1.13.1 bert-serving-server 1.9.1 bert-serving-cline 1.9.1
二、安裝package
pip install bert-serving-server pip install bert-serving-client #可以指定版本 pip install bert-serving-client == 1.9.6
三、下載中文bert預訓練的模型(https://github.com/google-research/bert#pre-trained-models)
四、下載成功后,需要解壓。解壓成功后
五、啟動server,在cmd中輸入
bert-serving-start -model_dir D:\stuty\NLP\bert\chinese_L-12_H-768_A-12 -num_worker=1
參數-model_dir
用來指定上步解壓的模型路徑,參數num_worker=2
表示啟動了兩個worker,可以同時處理2個請求,因此如果用一台配置較高的機器單獨做為bert的server,可以通過設定該參數提供高並發支持。
(我當時worker=4的,電腦卡死了。注意model_dir一定要放入模型解壓后的地址。)
六、啟動成功后。運行代碼(csdn某博客的案例)
from bert_serving.client import BertClient bc = BertClient(ip='localhost',check_version=False, check_length=False) vec = bc.encode(['CSDN中文IT知識服務集團,業務有IT信息傳播、技術交流、教育培訓和專業技術人才服務。旗下有網絡社區、學習平台和交流平台。']) print(vec)
7.運行成功后的截圖