生產中的ML-1:Amazon Sagemaker-AWS,設置,訓練和部署


作者|Roshini Johri
編譯|VK
來源|Towards Data Science

將大規模的機器學習系統投入生產,建立一個漂亮的流線化功能庫,這已經成為我一個新痴迷的技術點。

我最近開始了一系列關於學習和教學如何做到這一點的三部分教程,以實現不同的機器學習工作流程。本文假設了機器學習模型的基本知識,並重點介紹了如何在生產中建立工作流和部署。

在本系列的第一部分中,我們將在Amazon Sagemaker上設置此功能。我們將使用sklearn的波士頓住房數據集。


機器學習生命周期

讓我們花點時間來回顧一下機器學習的生命周期。簡化的機器學習生命周期如下所示:

現在,第一部分,數據准備,實際上應該是包括數據預處理和用於接下來步驟所需的特征工程。我將簡要地概述這些步驟是什么樣子。

  • 獲取數據:這是一個從repo、etl等讀取數據的過程,將數據移動到一個位置,以形成訓練數據的原始版本。
  • 清理數據:這個階段更多的是做一些基本的清理,比如類型轉換、空處理、確保字符串/類別等是一致的
  • 准備/轉換:特征轉換、派生、高階特征,如交互特征、進行一些編碼等。

下一階段包括建模和評估階段:

  • 訓練模型:在這個階段,你的數據應該以特征向量的形式出現,標簽分為訓練、驗證和測試。在這個階段,你將讀取這些數據,在訓練集上訓練你的模型,在驗證集上調參並在測試集上進行測試!這也是你保存模型以進行評估的階段。
  • 評估模型:評估階段,判斷是否“我的模型做正確的事情”,是最重要的階段之一,我覺得我們從來沒有花足夠的時間在這個階段上。模型評估將幫助你了解模型性能。注意你的模型評估指標,並選擇正確的指標。

最后,也是我們閱讀本文的真正原因,部署。

  • 部署到生產環境:這是准備將模型發布到公共的階段。我們要注意概念漂移和模型衰減(由於底層分布的變化而導致性能的變化)
  • 監控/收集/評估數據:模型性能、輸入/輸出路徑、錯誤度量、日志、模型組件等都將被時間戳標記和記錄,應圍繞模型選擇建立度量監控和警報系統,以實現完美的管道!

以上是一個簡化但很漂亮的機器學習管道。現在讓我們看看如何使用Amazon Sagemaker設置一個。


Amazon Sagemaker

現在,第一步從創建AWS帳戶開始。如果你已經熟悉Amazon提供的實例(ec2實例)的類型,這會有所幫助。

如果沒有,可以查看這個鏈接:https://aws.amazon.com/sagemaker/pricing/instance-types/

Sagemaker實例針對運行機器學習(ML)算法進行了優化。實例的類型還取決於區域和可用區域。

如果你覺得過多地閱讀有關實例類型的詳細信息很無聊,那么就可以簡化成以下選項:

啟動ML的好實例:ml.m4.xlarge (not free)

啟動DL的好實例:ml.p2.xlarge (not free)

AWS Sagemaker EC2實例有與之關聯的默認配額。你可能不總是得到20,這也會隨着區域的不同而變化。

根據用例的不同,你可能需要請求和增加。這可以通過創建一個帶有AWS支持中心的案例來實現。請在這里查看更多信息:https://docs.aws.amazon.com/general/latest/gr/aws_service_limits.html

Sagemaker Notebook實例

現在要啟動sagemaker Notebook實例,請轉到aws帳戶服務來搜索sagemaker。進入sagemaker頁面后,單擊創建notebook實例。如下所示:

下一步是選擇IAM角色。首先,嘗試創建一個新角色,然后選擇none作為s3bucket,除非有一個s3bucket要從中讀取。另外,此時應該有一個可選的選擇來選擇git存儲庫。滾動到下方並單擊“創建Notebook實例”。

你可以看到正在創建的Notebook的狀態,一旦准備就緒,你可以選擇jupyter或jupyter lab。

如果你需要克隆你的git存儲庫,打開終端從右邊的jupyter面板,選擇new,並執行以下操作:

cd SageMaker

git clone myFunSagemakerRepo

這應該為你設置一個notebook實例和一個GitHub存儲庫。

Sagemaker會議和角色

我們將使用load_boston() 方法從sklearn獲取數據集。然后,我們將這個數據集拆分為訓練、驗證和測試集。

#加載數據
boston_data = load_boston()

#訓練數據
X_bos_pd = pd.DataFrame(boston_data.data, columns=boston_data.feature_names)

#目標
Y_bos_pd = pd.DataFrame(boston_data.target)

#訓練/測試分離
X_train, X_test, Y_train, Y_test = sklearn.model_selection.train_test_split(X_bos_pd, Y_bos_pd, test_size=0.20)

#訓練驗證分離
X_train, X_val, Y_train, Y_val = sklearn.model_selection.train_test_split(X_train, Y_train, test_size=0.33)

一旦訓練、驗證和測試數據集被創建,這些數據集需要上傳到s3(簡單存儲服務)存儲桶中,以便sagemaker容器在執行訓練作業時可以訪問它。

最好使用前綴指定位置,最好是型號名稱和版本,以確保路徑干凈。上傳后,你可以從控制台轉到s3服務並進行檢查。

prefix = 'boston-xgboost-example'

test_location = session.upload_data(os.path.join(data_dir, 'test.csv'), key_prefix=prefix)
val_location = session.upload_data(os.path.join(data_dir, 'validation.csv'), key_prefix=prefix)
train_location = session.upload_data(os.path.join(data_dir, 'train.csv'), key_prefix=prefix)

Sagemaker 訓練

在sagemaker中訓練機器學習模型涉及到創建訓練工作。我們將使用xgboost模型。請查看此處鏈接的文檔,以確保你查看了sagemaker要求和語法:https://docs.aws.amazon.com/sagemaker/latest/dg/xgboost.html

要訓練sagemaker模型,第一個任務是創建一個包含以下內容的訓練工作:

  • S3訓練/驗證集的位置(注:這應該是csv文件)

  • 模型的計算資源(這與我們用於Notebook的資源不同)

  • 輸出S3位置(模型)

  • 內置模型的Docker路徑

模型評估器

  • 為了訓練一個模型,我們需要創建一個模型估計器。這將包含如何訓練模型(配置)的信息。

  • 我們將使用名為get_image_uri的SageMaker實用程序方法來獲取內置算法容器的路徑

  • estimator初始化如下所示。我在這里用了一個付費的例子。

container = get_image_uri(session.boto_region_name, 'xgboost')

#xgboost estimator
xgb_estimator = sagemaker.estimator.Estimator(
container, 
role,      
train_instance_count=1,                                                                            train_instance_type='ml.m4.xlarge',                                                 output_path='s3://{}/{}/output'.format(session.default_bucket(), prefix),
sagemaker_session=session
)

模型超參數

xgb_estimator.set_hyperparameters(max_depth=5,
                        eta=0.2,
                        gamma=4,
                        min_child_weight=6,
                        subsample=0.8,
                        objective='reg:linear',
                        early_stopping_rounds=10,
                        num_round=200)
                        
train_s3 = sagemaker.s3_input(s3_data=train_location, content_type='csv')
validation_s3 = sagemaker.s3_input(s3_data=val_location, content_type='csv')

xgb_estimator.fit({'train': train_s3, 'validation': validation_s3})

模型評估

  • SageMaker使用transformer對象來評估模型。

  • 像estimator這樣的transformer對象需要知道instance_count和instance_type以及它需要轉換的測試數據的格式。為了讓transformer以批處理方式評估測試數據,我們需要讓它知道拆分類型是什么,以便將文件分成塊。

xgb_transformer = xgb_estimator.transformer(instance_count = 1, instance_type = 'ml.m4.xlarge')

xgb_transformer.transform(test_location, content_type='text/csv', split_type='Line')

xgb_transformer.wait()

現在,為了把數據從s3移回Notebook進行分析,我們把數據復制一遍

!aws s3 cp --recursive $xgb_transformer.output_path $data_dir

現在我們來評估!

Y_pred = pd.read_csv(os.path.join(data_dir, 'test.csv.out'), header=None)

模型部署

通過高級api進行模型部署非常簡單。我將展示一個示例,演示如何部署我們剛剛訓練過的上述模型。

#調用deploy方法啟動端點實例

xgb_predictor = xgb_estimator.deploy(initial_instance_count=1, instance_type='ml.m4.xlarge')

xgb_predictor.content_type = 'text/csv'
xgb_predictor.serializer = csv_serializer

Y_pred = xgb_predictor.predict(X_test.values).decode('utf-8')

#做完后別忘了關機/清理!
  • 與我們如何使用transformer對象進行評估類似,我們可以對部署的模型執行相同的操作。我們可以在不同的概念漂移(可能導致模型衰退的數據的底層分布的變化)運行后的比較這些結果。

  • 根據測試集的大小,我們可以決定是一次性發送數據還是分塊發送數據。

  • Xgb predictor需要知道文件的格式以及要使用的序列化器的類型。

這是一個非常簡單的方法,可以嘗試在AWS Sagemaker上設置第一個ml工作流。我建議你先從簡單的開始,然后再轉向復雜的。我們將在后面的文章中討論較低級別的api,並真正深入到細節中。但是為了獲得基本的理解,請嘗試使用一些簡單的數據集進行設置,並使用可用的不同模型。

清理

記得:

  • 刪除終端和終端配置
  • 刪除模型
  • 刪除s3存儲桶
  • 停止未使用的Notebook實例

SageMaker文檔:

開發人員文檔可在此處找到:https://docs.aws.amazon.com/sagemaker/latest/dg/

Python SDK文檔(也稱為高級方法)可在以下位置找到:https://sagemaker.readthedocs.io/en/latest/

在github上可以找到Python SDK代碼:https://github.com/aws/sagemaker-python-sdk

原文鏈接:https://towardsdatascience.com/ml-in-production-1-amazon-sagemaker-aws-setup-train-and-deploy-896086848cde

歡迎關注磐創AI博客站:
http://panchuang.net/

sklearn機器學習中文官方文檔:
http://sklearn123.com/

歡迎關注磐創博客資源匯總站:
http://docs.panchuang.net/


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM