Bert-util安裝


轉載:https://blog.csdn.net/u013109501/article/details/91987180

https://blog.csdn.net/Vancl_Wang/article/details/90349047

bert_utils: https://github.com/terrifyzhao/bert-utils

bert-Chinese-classification-task

bert-as-service

google-research/bert

一、環境依賴:

  安裝Python、tensorflow

python 3.6.8
tensorflow 1.13.1
bert-serving-server 1.9.1
bert-serving-cline 1.9.1

 

二、安裝package

 pip install bert-serving-server

 pip install bert-serving-client

 #可以指定版本
 pip install bert-serving-client == 1.9.6

三、下載中文bert預訓練的模型(https://github.com/google-research/bert#pre-trained-models

四、下載成功后,需要解壓。解壓成功后

五、啟動server,在cmd中輸入

    bert-serving-start -model_dir D:\stuty\NLP\bert\chinese_L-12_H-768_A-12 -num_worker=1

參數-model_dir用來指定上步解壓的模型路徑,參數num_worker=2表示啟動了兩個worker,可以同時處理2個請求,因此如果用一台配置較高的機器單獨做為bert的server,可以通過設定該參數提供高並發支持。

(我當時worker=4的,電腦卡死了。注意model_dir一定要放入模型解壓后的地址。)

六、啟動成功后。運行代碼(csdn某博客的案例)

 

from bert_serving.client import BertClient
bc = BertClient(ip='localhost',check_version=False, check_length=False)
vec = bc.encode(['CSDN中文IT知識服務集團,業務有IT信息傳播、技術交流、教育培訓和專業技術人才服務。旗下有網絡社區、學習平台和交流平台。'])
print(vec)

7.運行成功后的截圖

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM