Amazon SageMaker 常見問答集

一般問題

SageMaker 是一種全受管服務,可用於準備資料以及建置、訓練和部署機器學習 (ML) 模型,適用於具有全受管基礎設施、工具和工作流程的任何使用案例。

如需支援 SageMaker 的區域清單,請參閱 AWS 區域服務頁面。另外,如需詳細資訊,請參閱 AWS 一般參考指南中的區域端點

SageMaker 的設計可提供高可用性。沒有維護時段或計劃停機時間。SageMaker API 在 Amazon 經過驗證的高可用性資料中心執行,相關的服務堆疊複寫會在每個區域的三個設施中進行設定,在伺服器故障或可用區域中斷等狀況提供容錯能力。

SageMaker 會將程式碼存放至 ML 儲存磁碟區並由安全群組進行保護,並可選擇在靜態時進行加密。

SageMaker 確保 ML 模型成品和其他系統成品在傳輸和靜止狀態下全部經過加密。對 SageMaker API 和主控台發出的請求,都是透過安全 (SSL) 連線進行。您將 AWS Identity and Access Management 角色交給 SageMaker,提供許可讓它代您存取訓練與部署時所需的資源。您可以將加密的 Amazon Simple Storage Service (Amazon S3) 儲存貯體用於模型成品和資料,還可以將 AWS Key Management Service (KMS) 金鑰交給 SageMaker 筆記本、訓練任務和端點,以加密連接的 ML 儲存磁碟區。SageMaker 還支援 Amazon Virtual Private Cloud (Amazon VPC) 和 AWS PrivateLink 支援。

SageMaker 不使用或共享客戶模型、訓練資料或演算法。我們深知客戶非常在乎隱私權與資料安全。這就是為什麼 AWS 透過簡化、強大的工具,允許您決定存放內容的位置、保護傳輸中和靜態內容的安全,以及管理使用者對 AWS 服務和資源的存取,讓您完全擁有及控制您的內容。我們也實作技術與實體控制措施,旨在防止未經授權的存取或揭露您的內容。身為客戶,您保有自己內容的擁有權,由您選擇可處理、存放及託管內容的 AWS 服務。未經您的同意,我們不會出於任何目的存取您的內容。

您需支付用於託管筆記本、訓練模型、執行預測以及記錄輸出的 ML 運算、儲存和資料處理資源相關費用。使用 SageMaker,您可以選擇用於託管筆記本、訓練和模型主機的執行個體數量和類型。您只需按實際用量付費;既沒有最低費用,也無需前期承諾。如需詳細資訊,請參閱 Amazon SageMaker 定價Amazon SageMaker 定價計算器

您可以採用多種最佳實務來最佳化您的 SageMaker 資源使用情況。某些方法涉及組態最佳化;另一些方法涉及程式設計解決方案。可以在此部落格文章中找到有關此概念的完整指南,以及視覺化教學和程式碼範例。

SageMaker 提供一套完整的工作流程,不過可以在 SageMaker 中繼續使用現有工具。您可以根據業務需求,輕鬆將每個階段的結果傳送至 SageMaker 或者從 SageMaker 傳送至其他地方。

是。您可以在 SageMaker 筆記本執行個體中使用 R,其中包括預先安裝的 R 核心和 reticulate 程式庫。Reticulate 提供 Amazon SageMaker Python SDK 的 R 介面,有助於 ML 從業人員建置、訓練、調整及部署 R 模型。您現在可以在 Amazon SageMaker Studio 執行 R 的整合式開發環境 (IDE) RStudio。 

Amazon SageMaker Studio 提供單一的 Web 視覺化界面,您可以在其中執行所有 ML 開發步驟。SageMaker Studio 讓您可以完全存取、控制和洞察在準備資料以及建立、訓練和部署模型時需要執行的每個步驟。您可以快速上傳資料,建立新的筆記本,訓練和調整模型,在步驟之間來回移動以調整實驗,比較結果,以及將模型部署至一處,讓您的工作更有效率。在統一的 SageMaker Studio 視覺化介面中可以執行所有 ML 開發活動,包括筆記本、實驗管理、自動建立模型、偵錯和分析,以及模型偏離偵測。

使用 SageMaker Studio 無需額外付費。您只需支付在 SageMaker Studio 內使用的服務的基礎運算和儲存費用。

您可以在 Amazon SageMaker 開發人員指南中找到支援 SageMaker Studio 的區域。

Amazon SageMaker Clarify 透過偵測整個 ML 工作流程中的統計偏差來協助提高模型透明度。SageMaker Clarify 可檢查資料準備期間、訓練後和持續時間內的不平衡,還包括有助於說明 ML 模型及其預測的工具。您可以透過可解釋性報告共享調查結果。

測量 ML 模型中的偏差是減少偏差的第一步。您可以在訓練前 (做為資料準備)、訓練後 (使用 Amazon SageMaker Experiments) 以及部署模型推論期間 (使用 Amazon SageMaker Model Monitor) 測量偏差。20 多個偏差指標都對應於不同的公平概念。您可以針對受調查的應用程式和情況選擇適合的指標。例如,在訓練之前,您可以透過「類不平衡」等指標和群組間標籤分佈差異,來檢查訓練資料是否代表整體人口。SageMaker Clarify 會同時考量正向 (有利) 結果差異和個別標籤分佈差異,以偵測群組是否具代表性。訓練後或部署過程中,偏差指標則有助於衡量模型效能是否因群組而異及其差異程度。「相等呈現」和「不同影響」等指標可衡量正向預測的差異。精確度差異 (正向預測的正確可能性) 和召回率 (模型正確標記正向例子的可能性) 等「相等效能」指標可評估群組間的相等錯誤分佈。在這篇部落格文章中進一步了解。 

SageMaker Clarify 與 SageMaker Experiments 整合來提供功能重要性圖表,詳細說明模型訓練之後每個輸入對模型整體決策程序的重要性。這些詳細資訊可協助判斷特定模型輸入對整體模型行為的影響是否比預期更大。SageMaker Clarify 還透過 API 對單個預測進行解釋。 

ML 管控

SageMaker 在整個 ML 生命週期中提供專門打造的 ML 管控工具。透過 Amazon SageMaker 角色管理器,管理員可在幾分鐘之內定義最小許可。Amazon SageMaker 模型卡讓您可以更輕鬆地擷取、抓取和共享從概念到部署的基本模型資訊,Amazon SageMaker 模型儀表板則讓您了解生產模型的行為,在一處即可完成一切操作。如需
詳細資訊,請參閱使用 Amazon SageMaker 進行機器學習管控

您可以使用 SageMaker 角色管理器,在幾分鐘內定義最小許可。它透過預先建置的 IAM 政策目錄,為 ML 活動和角色提供一組基準許可。您可以保留基準許可,或根據您的特定需求進一步自定許可。透過一些自助提示,您可以快速輸入常見的治理建構模組,例如網路存取邊界和加密金鑰。SageMaker Role Manager 接著會自動產生 IAM 政策。您可以透過 AWS IAM 主控台發現產生的角色與關聯的政策。若要進一步針對您的使用案例定製許可,請將您的受管 IAM 政策連接到使用 SageMaker Role Manager 建立的 IAM 角色。您也可以新增標籤,以協助識別角色和組織各項 AWS 服務。

SageMaker 模型卡針對模型資訊建立單一真實來源,藉此協助您在整個 ML 生命週期集中和標準化模型文件。SageMaker 模型卡會自動填入訓練詳細資訊,以加速文件程序。您還可以新增詳細資訊,例如模型的用途和效能目標。您可以將模型評估結果附加至模型卡,並提供視覺化效果以獲得對模型效能的關鍵洞察。SageMaker 模型卡可匯出為 PDF 格式,輕鬆地與他人共享。

SageMaker 模型儀表板為您提供部署模型和端點的全面概觀,讓您透過一個窗格,即可追蹤資源和模型行為違規情況。透過與 SageMaker Model Monitor 和 SageMaker Clarify 整合,您還可從四個維度監控模型行為,包括資料和模型品質,以及偏差和特徵歸因漂移。SageMaker 模型儀表板還提供一種整合體驗,可針對缺失和非作用中模型監控任務,以及模型品質、資料品質、偏差漂移和特徵歸因漂移的模型行為偏差,來設定和接收提醒。您可以進一步檢查各個模型,並分析隨著時間影響模型效能的因素。接著您就能聯繫 ML 從業人員以採取修正措施。

基礎模型

SageMaker JumpStart 可協助您快速、輕鬆地入門 ML。SageMaker JumpStart 為最常見的使用案例提供了一組解決方案,只需幾個步驟即可輕鬆部署。這些解決方案是完全可自訂的,並展示了 AWS CloudFormation 範本和參考架構的使用,以便您可以加快 ML 之旅。SageMaker JumpStart 還提供了基礎模型且支援單一步驟部署和微調 150 多種熱門開放原始碼模型,如轉換器、物件偵測和映像分類模型。 

SageMaker JumpStart 提供專有和公有模型。如需可用基礎模型的清單,請參閱開始使用 Amazon SageMaker JumpStart

您可以透過 SageMaker Studio、SageMaker SDK 和 AWS 管理主控台存取基礎模型。若要開始使用專有基礎模型,您必須接受 AWS Marketplace 中的銷售條款。

否。您的推論和訓練資料不會遭到使用或與他人分享,藉此更新或訓練 SageMaker JumpStart 呈現給客戶的基本模型。

否。專有模型不允許客戶檢視模型權重和指令碼。

在提供 SageMaker Studio 的所有區域中都可以探索模型,但部署模型的能力會因所需執行個體類型的模型和執行個體可用性而有所不同。您可以從 AWS Marketplace 中的模型詳細資料頁面參閱 AWS 區域可用性和所需執行個體。

對於專有模型,您需要支付模型提供者決定的軟體定價,並根據使用的執行個體支付 SageMaker 基礎設施費用。對於公開可用的模型,您需要根據使用的執行個體支付 SageMaker 基礎設施費用。如需詳細資訊,請參閱 Amazon SageMaker 定價AWS Marketplace

安全性是 AWS 的最高優先事項,而 SageMaker JumpStart 的設計就是要確保安全。這就是為什麼 SageMaker 透過簡化、強大的工具,可協助您決定存放內容的位置、保護傳輸中和靜態內容的安全,以及管理使用者對 AWS 服務和資源的存取,讓您完全擁有及控制您的內容。

  1. 我們不會與 AWS Marketplace 中的模型賣方分享客戶訓練和推論資訊。同樣地,賣方的模型成品 (例如,模型權重) 也不會與買方分享。
  2. SageMaker JumpStart 不會使用客戶模型、訓練資料或演算法來改善其服務,也不會與第三方分享客戶訓練和推論資料。
  3. 在 SageMaker JumpStart 中,ML 模型成品會在傳輸和靜態中加密。
  4. AWS 共同責任模式下,AWS 會負責保護執行所有 AWS 服務的全球基礎設施。您有責任維護在此基礎架構上託管之內容的控制權。

使用者可以使用 AWS Marketplace 或 SageMaker JumpStart 中的模型,對模型輸出品質承擔責任,並確認個別模型描述中所述的功能和限制。

SageMaker JumpStart 包括來自 PyTorch Hub 和 TensorFlow Hub 的 150 多個預先訓練的公用模型。對於映像分類和物件偵測等視覺任務,您可以使用 ResNet、MobileNet 和 Single-Shot Detector (SSD) 等模型。對於句子分類、文字分類和問答等文字任務,您可以使用 BERT、RoBERTa 和 DistilBERT 等模型。

藉助 SageMaker JumpStart,資料科學家和 ML 開發人員可在其組織內輕鬆共享 ML 成品,包括筆記本和模型。管理員可設定一個可供定義的一組使用者存取的儲存庫。所有具有存取儲存庫許可的使用者都可瀏覽、搜尋和使用模型和筆記本,以及 SageMaker JumpStart 中的公開內容。使用者可選取成品,在 SageMaker JumpStart 中訓練模型、部署端點和執行筆記本。

藉助 SageMaker JumpStart,您可以在建置 ML 應用程式時加速上市。只需幾個步驟,組織內一個團隊建置的模型和筆記本即可輕鬆地與組織內的其他團隊共享。內部知識共享和資產重複使用可顯著提高組織的生產效率。

Amazon SageMaker Clarify 現在支援基礎模型評估。您可以評估、比較並選擇適合您的特定使用案例的最佳基礎模型。只需選擇您要針對給定任務評估的模型,例如問題回答或內容摘要。然後選擇評估標準 (例如準確性、公平性和穩健性),然後上傳您自己的提示資料集,或從內建的公開可用資料集中進行選擇。對於需要精細人為判斷的主觀條件或細緻內容,您可以選擇使用自己的人力,或使用 AWS 提供的受管理人力來檢閱回應。完成設定程序後,SageMaker Clarify 會執行其評估並產生報告,以便您可以輕鬆了解模型在關鍵條件上的執行情況。您可以使用評估精靈來評估 SageMaker JumpStart 中的基礎模型,也可以使用開放原始碼程式庫來評估不在 AWS 上託管的任何基礎模型。

是。管理員可以控制多個 AWS 帳戶和使用者主體能使用哪些 Amazon SageMaker JumpStart 模型。若要深入了解,請參閱相關文件

推論最佳化工具組可讓您輕鬆實作最新的推論最佳化技術,以在 Amazon SageMaker 上實現最先進的 (SOTA) 成本效能,同時節省開發人員數月的時間。您可以從 SageMaker 提供的熱門最佳化技術選單中進行選擇,並提前執行最佳化工作,針對效能和準確度量度測量結果進行比較,然後將最佳化模型部署到 SageMaker 端點以進行推論。該工具組處理模型最佳化的所有方面,因此您可以更專注於業務目標。

推論最佳化工具組可協助您改善生成式 AI 應用程式的成本效能和上市時間。完全受管的模型最佳化工具組提供易於使用的工具,讓您可以使用最新的最佳化技術。隨著時間推移,工具組不斷適應最先進的創新、新硬體和託管功能,因此可以隨著時間輕鬆升級到最佳可用的解決方案。

推論最佳化工具組支援最佳化技術,例如推測解碼、量化和編譯。您只需按幾下滑鼠即可選擇要新增至模型的最佳化功能,Amazon SageMaker 就會管理硬體採購的所有無差異化工作、選取深度學習容器和對應的調整參數來執行最佳化工作,然後將最佳化的模型成品儲存在您提供的 S3 位置中。

對於推測解碼,您可以開始使用 SageMaker 提供的草稿模型,因此您不必從頭開始建立自己的草稿模型,並要求路由和系統層級最佳化。透過量化,您只需選擇要使用的精準類型,然後開始基準測量效能與準確性的衡量。Amazon SageMaker 將產生全面的評估報告,讓您輕鬆分析效能與準確性之間的差異。透過編譯功能,針對最流行的模型及其組態,Amazon SageMaker 會在端點設定和擴展期間自動擷取已編譯的模型成品,從而無需提前執行編譯工作,從而節省硬體成本。

Amazon SageMaker 推論最佳化工具包有助於降低成本和時間來最佳化 GenAI 模型,讓您專注於業務目標。

低程式碼 ML

SageMaker Canvas 是一項無程式碼服務,具有直覺化、點按式介面,可讓您透過資料建立高度準確、以 ML 為基礎的預測。SageMaker Canvas 讓您能夠使用拖放式使用者介面存取和結合各種來源的資料,自動清除和準備資料,以最大限度地減少手動清理。SageMaker Canvas 運用各種最先進的 ML 演算法來尋找高度準確的預測模型,並提供直覺化介面來進行預測。您可以使用 SageMaker Canvas 在各種業務應用程式中進行更精確的預測,並透過共享模型、資料和報告輕鬆與企業中的資料科學家和分析師協作。若要進一步了解 SageMaker Canvas,請參閱 Amazon SageMaker Canvas 常見問答集

使用 SageMaker Canvas,可以依用量付費。SageMaker Canvas 可讓您以互動方式擷取、探索和準備來自多個來源的資料,使用您的資料訓練高度準確的 ML 模型,並產生預測。您的帳單取決於兩個部分:依據使用或登入 SageMaker Canvas 時數的工作階段費用,以及依據建置模型所用資料集大小的模型訓練費用。如需詳細資訊,請參閱 Amazon SageMaker Canvas 定價

ML 工作流程

Amazon SageMaker Pipelines 可協助您建立從資料準備至模型部署的全自動 ML 工作流程,這樣您就可以在生產中擴展至數千個 ML 模型。您可以使用 SageMaker Python SDK 建構管道,並從 SageMaker Studio 的視覺化介面檢視、執行和稽核這些管道。SageMaker Pipelines 負責管理步驟之間的資料,封裝程式碼配方,並協調其執行,將數月的編碼時間縮短到幾小時。每次工作流程執行時,都會保留處理的資料和採取的動作的完整記錄,以便資料科學家和 ML 開發人員可以快速地對問題偵錯。

您可以使用 SageMaker Pipeline 中的模型註冊步驟,將所有可部署的模型整合在單一位置。您或其他團隊成員便能透過 SageMaker Studio UI 或 Python SDK 探索、檢視和核准這些模型,以部署於 SageMaker Model Registry。
SageMaker Pipeline 由「步驟」組成。您可以選擇任何原生支援的步驟類型來構建調用各種 SageMaker 功能 (例如訓練、評估) 或其他 AWS 服務 (例如 EMR、Lambda) 的工作流程。您也可以使用「@step」Python 裝飾項目或將整個 Python 筆記本新增為 Pipeline 組件,將現有 ML Python 程式碼移到 SageMaker Pipeline。如需更多詳細資訊,請參閱「SageMaker Pipelines 開發人員指南」。
SageMaker Pipelines 會自動追蹤所有模型組成部分,並保留所有變更的稽核線索,從而消除手動追蹤,並可協助您實現合規目標。您可以使用 SageMaker Pipelines 追蹤資料、程式碼、已訓練模型等等。

使用 SageMaker Pipelines 無須額外付費。您只需為 SageMaker Pipelines 內使用的基礎運算或任何單獨的 AWS 服務付費。

是。適用於 Kubeflow Pipeline 的 Amazon SageMaker 元件是開放原始碼外掛程式,可讓您使用 Kubeflow Pipelines 定義 ML 工作流程,以及透過 SageMaker 進行資料標記、訓練和推論步驟。Kubeflow Pipelines 是 Kubeflow 的附加元件,可用來建置和部署可攜式和可擴展的完整 ML 管道。不過,使用 Kubeflow Pipeline 時,ML 營運團隊需要管理含有 CPU 和 GPU 執行個體的 Kubernetes 叢集,並始終維持高使用率以降低營運成本。在資料科學團隊中最大限度地使用叢集是一項挑戰,並會增加 ML 營運團隊的額外營運開銷。作為 ML 優化 Kubernetes 叢集的替代方案,您可以透過適用於 Kubeflow Pipeline 的 SageMaker 元件,利用 SageMaker 的強大功能,例如資料標記、全受管大規模超參數調整和分散式訓練任務、一鍵式安全和可擴展的模型部署,以及使用 Amazon Elastic Compute Cloud (Amazon EC2) Spot 執行個體進行經濟實惠的訓練,無需特別設定和管理 Kubernetes 叢集來執行 ML 任務。

使用適用於 Kubeflow Pipeline 的 SageMaker 元件無須額外付費。 

人工參與

人工參與是在整個機器學習生命週期中利用人工輸入來提高模型的準確性和相關性的過程。可以透過人工執行多種任務,從資料產生和註釋,到模型審查和客製化。人工干預對於生成式 AI 應用程式尤其重要,此處的「人」通常是指內容的申請者和消費者。因此,必須人工訓練基礎模型 (FM) 如何準確、安全和相關地回應使用者的提示。您可以套用人工回饋來協助您完成多個任務。首先,透過監督式學習 (人工模擬模型應如何回應使用者提示的風格、長度和準確性),以及使用人工回饋的強化學習 (人工對模型回應進行排名和分類),為生成式 AI 應用程式建立高品質的標籤訓練資料集。其次,使用人工產生的資料對特定任務自訂 FM,或使用您公司和領域的特定資料,並使模型輸出與您相關。

人工參與功能在建立和改進由 FM 支援的生成式 AI 應用程式中發揮著重要作用。經過任務指南訓練的高技能勞動力可以在活動 (如產生示範資料以訓練 FM、糾正和改善樣本回應、根據公司和產業資料微調模型等) 中提供回饋、指導、輸入和評估,作為防止毒害和偏見等的保障措施。因此,人工參與功能可以提高模型準確度和效能。 

Amazon SageMaker Ground Truth 提供最全面的人工參與功能。您有兩種方法可以使用 Amazon SageMaker Ground Truth:自助服務產品和 AWS 受管產品。在自助服務產品中,您的資料註釋者、內容創作者和提示工程師 (內部、供應商管理或利用公眾人群) 可以使用我們的低程式碼使用者介面來加速人工參與工作,同時可以靈活地建立和管理自己的自訂工作流程。在 AWS 受管產品 (SageMaker Ground Truth Plus) 中,我們會為您處理繁重的工作,其中包括為您的使用案例選擇和管理合適的員工團隊。SageMaker Ground Truth Plus 可設計和客製化端對端工作流程 (包括詳細的員工訓練和品質保證步驟),提供技術熟練且對特定任務進行過訓練的 AWS 受管團隊,能滿足您對資料品質、安全性和合規的要求。 

準備資料

SageMaker Data Wrangler 可減少為 ML 彙總和準備資料所需的時間。透過 SageMaker Studio 中的單一介面,只需幾個步驟,即可瀏覽和匯入來自 Amazon S3、Amazon Athena、Amazon Redshift、AWS Lake Formation、Amazon EMR、Snowflake 和 Databricks 的資料。您還可查詢並匯入從 50 多個資料來源傳輸,並透過 Amazon AppFlow 在 AWS Glue Data Catalog 中註冊的資料。SageMaker Data Wrangler 會自動載入、彙總和顯示原始資料。將資料匯入 SageMaker Data Wrangler 後,即可看到自動產生的資料欄摘要和長條圖。然後,您可透過 SageMaker Data Wrangler 資料品質和洞察報告,更深入地了解您的資料並識別潛在錯誤,該報告提供匯總統計資料和資料品質警告。您還可直接從 SageMaker Data Wrangler 執行 Amazon SageMaker Clarify 支援的偏差分析,以偵測資料準備期間的潛在偏差。您可以在此使用 SageMaker Data Wrangler 預先建置的轉換,來準備您的資料。在準備資料後,您可以使用 Amazon SageMaker Pipelines 建置完全自動化的 ML 工作流程,或將資料匯入 Amazon SageMaker Feature Store

SageMaker Data Wrangler 支援表格式、時間序列和影像資料,提供 300 多種預先設定的資料轉換來準備這些不同的資料模式。對於希望在 Data Wrangler 中為 NLP 使用案例準備文字資料的客戶,Data Wrangler 支援 NLTK 程式庫,以便客戶可透過在 Data Wrangler 中編寫自己的自訂轉換來準備文字資料。
SageMaker Data Wrangler 提供 300 多種預先建置、以 PySpark 為基礎的資料轉換選項,因此您無需編寫任何一行程式碼,即可轉換資料並擴展資料準備工作流程。此外,您可以使用 FM 支援的自然語言介面來轉換資料以用於 ML 模型,或者從 SageMaker Data Wrangler 的程式碼片段庫中編寫自訂程式碼片段。
SageMaker Data Wrangler 透過一組強大的預先設定的視覺化範本,協助您了解資料並識別潛在錯誤和極值。無需編寫一行程式碼,長條圖、散佈圖和特定於 ML 的視覺化效果 (如目標外洩偵測) 都可使用。您也可以建立和編輯自己的視覺化效果。

您需為用於 SageMaker Data Wrangler 的所有 ML 運算、儲存和資料處理資源付費。您可以在此處檢閱 SageMaker Data Wrangler 定價的所有詳細資訊。做為 AWS 免費方案的一部分,您也可以免費開始使用 SageMaker Data Wrangler。

SageMaker Data Wrangler 提供統一的體驗,讓您能夠準備資料,並在 SageMaker Canvas 中無縫訓練機器學習模型。SageMaker Canvas 會根據您的資料自動建置、訓練和調整最佳 ML 模型。您還可將 SageMaker Data Wrangler 中準備的功能與現有模型結合使用。您可以在使用者介面 (UI) 中設定任務,或使用協同運作程式碼匯出筆記本,藉此將 SageMaker Data Wrangler 處理任務設定為 Amazon SageMaker 訓練管道的一部分來執行。
您可以直接從 SageMaker Data Wrangler UI 設定和啟動 SageMaker 處理任務,包括排程資料處理任務和參數化資料來源,輕鬆地大規模轉換新的資料批次。
準備好資料後,SageMaker Data Wrangler 會提供不同的選項,將您的 SageMaker Data Wrangler 流程推送到生產,並與 MLOps 和 CI/CD 功能無縫整合。您可以直接從 SageMaker Data Wrangler UI 設定和啟動 SageMaker 處理任務,包括排程資料處理任務和參數化資料來源,輕鬆地大規模轉換新的資料批次。或者,SageMaker Data Wrangler 與 SageMaker 處理和 SageMaker Spark 容器無縫整合,讓您可以輕鬆使用 SageMaker 軟體開發套件將 SageMaker Data Wrangler 整合至生產工作流程中。
只需幾個步驟,SageMaker Data Wrangler 就會使用預設超參數來分割和訓練 XGBoost 模型。根據問題類型,SageMaker Data Wrangler 會提供模型摘要、特徵摘要和混淆矩陣,以快速為您提供洞察,以便您反覆利用資料準備流程。
SageMaker Data Wrangler 支援各種取樣技術,例如用於匯入資料的 top-K、隨機和分層取樣,因此您可以使用 SageMaker Data Wrangler UI 快速轉換資料。如果您使用的是大型或寬資料集,則可增加 SageMaker Data Wrangler 執行個體大小以改善效能。建立流程後,您可以使用 SageMaker Data Wrangler 處理任務來處理完整的資料集。
是的,您可以設定 SageMaker Feature Store,將其作為在 SageMaker Data Wrangler 中準備特徵的目的地。這可直接在 UI 中完成,或者匯出專門為處理資料而產生的筆記本,並將 SageMaker Feature Store 作為目的地。

SageMaker Feature Store 是全受管、專門打造的平台,用於存放、共用及管理機器學習 (ML) 模型特徵。您可以探索和共享功能,以透過安全存取和控制在模型與團隊之間 (包括跨 AWS 帳戶) 輕鬆重複使用。SageMaker Feature Store 支援線上和離線功能,以進行即時推論、批次推論和訓練。也能管理批次和串流特徵工程管道,以避免重複建立特徵並提高模型準確度。

離線特徵通常是用於訓練和批次推論的大量歷史資料。離線特徵儲存於高可用性、高耐用性的物件存放區中。
在應用程式中使用線上功能,以進行即時預測。線上功能由高輸送量的存放區提供,支援用戶端應用程式的個位數毫秒級延遲,以實現快速預測。
SageMaker Feature Store 會自動維護線上與離線功能之間的一致性,無需額外的管理或程式碼,以達成訓練和推論環境的一致性。
SageMaker 特徵存放區會維持所有特徵的時間戳記,並提供內建方法,協助您根據業務或合規需求,在任何時間點擷取特徵。您不必撰寫複雜的 SQL 查詢或大量程式碼,而是能呼叫內建的時間旅行和時間點精確聯結方法,以生成用於感興趣時段之訓練和批次推論的資料集

做為 AWS 免費方案的一部分,您可以免費開始使用 SageMaker Feature Store。使用 SageMaker Feature Store,您需為寫入到功能存放區以及從線上功能存放區的讀取和儲存付費。如需定價詳情,請參閱 Amazon SageMaker 定價

SageMaker 提供兩種資料標記產品,即 Amazon SageMaker Ground Truth Plus 和 Amazon SageMaker Ground Truth。這兩個選項都可讓您識別原始資料 (例如映像、文字檔案和影片),並新增資訊類標籤來為您的 ML 模型建立高品質的訓練資料集。若要進一步了解,請參閱 Amazon SageMaker 資料標記

地理空間資料代表地球表面的特徵或對象。第一種地理空間資料類型是向量資料,其使用點、線或多邊形等二維幾何圖形來表示道路和陸地邊界等對象。第二種地理空間資料類型是網格資料,例如透過衛星、航空平台或遠端感應資料擷取的影像。此資料類型使用像素矩陣來定義特徵所在的位置。您可以使用網格格式來儲存變化的資料。第三種地理空間資料是地理標記位置資料。其包含興趣點 (例如艾菲爾鐵塔),附上位置標籤的社交媒體發文、經緯度坐標,或不同類型和格式的街道地址。
SageMaker 地理空間功能使資料科學家和 ML 工程師可以更輕鬆地建置、訓練和部署 ML 模型,以使用地理空間資料進行預測。您可以使用自己的資料,例如來自 Amazon S3 的 Planet Labs 衛星資料,或從 AWS 上的開放資料、Amazon Location Service 和其他 SageMaker 地理空間資料來源取得資料。
您可以使用 SageMaker 地理空間 ML 功能,比 DIY 解決方案更快速地預測地理空間資料。SageMaker 地理空間功能使您可以更輕鬆地從現有客戶資料湖、開放原始碼資料集,和其他 SageMaker 地理空間資料來源存取地理空間資料。SageMaker 地理空間功能透過提供用於高效率資料準備、模型訓練和推論的專門打造的演算法,將建置自定基礎設施和資料預先處理功能的需求降到最低。您也可以使用來自 SageMaker Studio 的組織,建立與共享自訂視覺化與資料。SageMaker 地理空間功能包含用於農業、房地產、保險和金融服務領域常見用途的預先訓練的模型。

建置模型

您可以在 SageMaker 中使用全受管 Jupyter 筆記本進行完整的 ML 開發。利用雲端中多樣的運算最佳化與 GPU 加速執行個體選擇,彈性地擴展或縮減運算執行個體。

SageMaker Studio 筆記本是單一步驟 Jupyter 筆記本,能迅速啟動。基礎運算資源極具彈性,因此您可以輕鬆地調高或調低可用資源,而變更會在背景自動進行,不會中斷您的工作。SageMaker 還允許單一步驟共用筆記本。您可輕鬆地與他人共享筆記本,對方將獲得完全相同的筆記本,且儲存在同一位置。

使用 SageMaker Studio 筆記本時,您可以使用 IAM Identity Center 以公司憑證進行登入。在團隊內部和團隊之間共享筆記本很容易,因為共享時,會在與筆記本封裝的工作映像中自動追蹤執行筆記本所需的相依性。

SageMaker Studio IDE 中的筆記本具有一些重要功能,使其與執行個體型筆記本有所區別。首先,您可以快速啟動筆記本,而無須手動佈建執行個體並等待其運作。為了閱讀和執行筆記本而開啟 UI 時,啟動時間比執行個體型筆記本快速。您還能隨時在 UI 內靈活地選擇大量的執行個體類型。您不需要移至 AWS 管理主控台,即可啟動新執行個體並移植筆記本。每位使用者都有與特定執行個體分開獨立的隔離主目錄。此目錄啟動時會自動掛載至所有筆記本伺服器和核心,因此在您切換執行個體以檢視和執行筆記本時,仍然能夠存取筆記本和其他檔案。SageMaker Studio 筆記本與 AWS IAM Identity Center (AWS SSO 的後繼者) 整合,能讓您更輕鬆使用組織憑證存取筆記本。筆記本還與 SageMaker 和其他 AWS 服務中專用的 ML 工具整合,可用於完整的 ML 開發,從使用 Amazon EMR 上的 Spark 準備 PB 級資料,到訓練和偵錯模型、部署和監控模型及管理管道。
Studio IDE 中的 SageMaker 筆記本讓您可以使用所有 SageMaker 功能,例如分散式訓練、批次轉換和託管。您也可以從 SageMaker 筆記本存取其他服務,例如 Amazon S3、Amazon Redshift、AWS Glue、Amazon EMR 或 AWS Lake Formation 中的資料集。

ML 從業者可建立一個共享工作區,團隊成員可在其中一起閱讀和編輯 SageMaker Studio 筆記本。透過使用共享的步調,團隊成員可共同編輯同一個筆記本檔案,同時執行筆記本程式碼,並一起檢閱結果,以消除來回操作並簡化協作。在共享空間中,ML 團隊將擁有針對 BitBucket 和 AWS CodeCommit 等服務的內建支持,因此他們可以輕鬆管理筆記本的不同版本,並比較一段時間的變更。從筆記本中建立的任何資源,例如實驗和 ML 模型,都會自動儲存,並與建立資源的特定工作區關聯,因此團隊可以更輕鬆地保持條理,並加速 ML 模型開發。

使用 Studio IDE 中的 SageMaker Studio 筆記本時,需要支付運算和儲存費用。請參閱「Amazon SageMaker 定價」,了解各種運算執行個體類型的費用。您的筆記本和相關成品 (如資料檔案和指令碼) 會存放在 Amazon Elastic File System (Amazon EFS)。請參閱「Amazon EFS 定價」以了解儲存費用。SageMaker Studio 筆記本是 AWS 免費方案的一部分,您可以開始免費使用。

否。您可以在相同的運算執行個體上建立和執行多個筆記本。您只需支付使用的運算費用,而非個別項目。如需詳細資訊,請參閱我們的計量指南

除了筆記本,您還能在 SageMaker Studio 啟動和執行終端機和互動殼層,這些都可在相同的運算執行個體上完成。每個應用程式都在容器或映像內執行。SageMaker Studio 可針對資料科學和 ML,提供多種專用和預先設定的內建映像。

您可以透過 SageMaker Studio 視覺化界面和 AWS 管理主控台,監控和關閉 SageMaker Studio 筆記本使用的資源。 如需詳細資訊,請參閱文件

是,您需要持續支付運算的費用。這與在 AWS 管理主控台啟動 Amazon EC2 執行個體,然後關閉瀏覽器的情況相似。Amazon EC2 執行個體還在執行中,除非您明確關閉執行個體,否則仍須付費。

否,建立或設定 SageMaker Studio 網域無需付費,包含新增、更新和刪除使用者設定檔。

作為管理員,您可以在 AWS 帳單主控台查看包含 SageMaker Studio 在內的 SageMaker 分項費用。從 SageMaker 的 AWS 管理主控台,在上方功能表選擇服務、在搜尋方塊輸入「帳單」、從下拉式清單選取帳單,然後在左側面板選取帳單。在詳細資訊部分,可以選取 SageMaker 展開區域清單,然後逐一查看分項費用。

SageMaker Studio Lab 是一個免費的 ML 開發環境,免費提供運算、儲存 (高達 15GB) 和安全,供任何人使用 ML 進行學習和實驗。您只需一個有效的電子郵件 ID 即可開始使用,無需設定基礎設施或管理身分和存取權限,甚至無需註冊 AWS 帳戶。SageMaker Studio Lab 透過 GitHub 整合加速模型建置,已預先設定最熱門的 ML 工具、架構和程式庫,可讓您立即開始使用。SageMaker Studio Lab 會自動儲存您的工作,因此您無需在工作階段之間重新啟動。就像關閉筆記型電腦然後再回來一樣簡單。
SageMaker Studio Lab 適用於需要免費筆記本開發環境且無需設定 ML 課程和實驗的學生、研究人員和資料科學家。SageMaker Studio Lab 非常適合不需要生產環境但仍希望使用 SageMaker 功能的子集來提高 ML 技能的使用者。SageMaker 工作階段會自動儲存,可協助使用者從每個使用者工作階段的中斷處繼續。
SageMaker Studio Lab 是一項建置在 AWS 上的服務,它使用許多與 Amazon SageMaker Studio 相同的核心服務,例如 Amazon S3 和 Amazon EC2。與其他服務不同,客戶不需要 AWS 帳戶。相反,他們將使用電子郵件地址建立 SageMaker Studio Lab 特定帳戶。這將讓使用者可以存取有限的環境 (15 GB 的儲存空間和 12 小時的工作階段),以便他們執行 ML 筆記本。

SageMaker Canvas 能協助您無縫地探索您的帳戶有權存取的 AWS 資料來源,包括 Amazon S3 和 Amazon Redshift。您可以使用 SageMaker Canvas 視覺化、拖放式介面瀏覽和匯入資料。此外,您可以從本機磁碟拖放檔案,並使用預先建置的連接器從第三方來源 (如 Snowflake) 匯入資料。

連接來源、選取資料集並準備資料後,您可以選取要預測的目標資料欄以啟動模型建立任務。SageMaker Canvas 會自動識別問題類型,產生新的相關特徵,使用線性迴歸、邏輯迴歸、深度學習、時間序列預測和梯度提升等 ML 技術,測試一套全面的預測模型,並建置可根據您的資料集做出準確預測的模型。

訓練模型

SageMaker HyperPod 專為加速基礎模型 (FM) 訓練而建置,提供了針對大規模分散式訓練而最佳化的更具彈性的基礎設施,讓您能夠更快地在數千個加速器上進行訓練。此功能會自動偵測、診斷並從故障中恢復,因此您可以一次訓練 FM 數月,而不會中斷。SageMaker HyperPod 已預先設定 SageMaker 分散式訓練程式庫,可透過將模型訓練資料分配至較小的區塊,協助您有效地提高效能,以便在加速器之間平行處理。
如果您需要更長、更大的訓練工作負載,而且需要大量運算執行個體,例如 GPU 或 AWS 加速器,您可以使用 SageMaker HyperPod 獲得更具彈性的體驗,以縮短訓練時間。

是。SageMaker 可以自動在 AWS GPU 執行個體中分配深度學習模型和大型訓練集,而只需手動建置和最佳化這些分配策略所需的一小部分時間。SageMaker 套用的兩種分散式訓練技術是資料平行處理和模型平行處理。套用資料平行處理,可透過在多個 GPU 執行個體之間平均分配資料來提高訓練速度,允許每個執行個體同時訓練。對於太大而無法存放在單一 GPU 上,且在分配到多個 GPU 之前需要將模型分割為更小部分的的模型,模型平行處理很有用。在 PyTorch 和 TensorFlow 訓練指令碼中只需幾行額外代碼,SageMaker 將自動為您套用資料平行處理或模型平行處理,讓您更快地開發和部署模型。SageMaker 將使用圖形分割演算法判斷分割模型的最佳方法,以平衡每個 GPU 的運算,同時盡量減少 GPU 執行個體之間的通訊。SageMaker 還透過可充分利用 AWS 運算和網絡的演算法最佳化您的分散式訓練任務,以實現近線性擴展效率,這樣可讓您比手動開放原始碼實作更快地完成訓練。

SageMaker Experiments 可協助您組織和追蹤 ML 模型的疊代。SageMaker Experiments 透過自動擷取輸入參數、組態和結果,並將其儲存為「實驗」來協助您管理疊代。您可以建立 Amazon SageMaker 實驗,使用您所偏好的開發環境中的幾行程式碼來追蹤 ML 工作流程。您也可以使用 SageMaker Python SDK,將 SageMaker 實驗整合到 SageMaker 訓練指令碼。
SageMaker Debugger 可在訓練期間自動擷取即時指標 (如混淆矩陣和學習梯度),來協助提高模型準確性。在 SageMaker Studio 中,可將 SageMaker Debugger 中的指標視覺化以方便理解。當偵測到常見訓練問題時,SageMaker Debugger 也可以產生警告和補救建議。SageMaker Debugger 還可即時自動監控和分析系統資源 (如 CPU、GPU、網絡和記憶體),並提供有關重新分配這些資源的建議。這有助於您在訓練期間有效地使用資源,並有助於降低成本和資源。
受管 Spot 訓練與 SageMaker 搭配使用,可讓您使用 Amazon EC2 Spot 執行個體訓練 ML 模型,同時減少高達 90% 訓練模型的費用。
您可以在提交訓練任務時啟用受管 Spot 訓練選項,也可以指定要等待 Spot 容量的時間。然後,SageMaker 將使用 Amazon EC2 Spot 執行個體來執行任務並管理 Spot 容量。不管訓練任務正在執行還是正在等待容量,您都可以完全看到訓練任務的狀態。
當您可以靈活地執行訓練以及想要儘量降低訓練任務的費用時,受管 Spot 訓練是理想選擇。使用受管 Spot 訓練,您可以減少訓練 ML 模型的費用高達 90%。
受管 Spot 訓練將 Amazon EC2 Spot 執行個體用於訓練,且在 AWS 需要容量時可以優先佔用這些執行個體。因此,在容量可用時,受管 Spot 訓練任務能以較小的增量執行。發生中斷時,不需要從頭重新啟動訓練任務,因為 SageMaker 可以使用最新模型檢查點恢復訓練任務。內建架構和內建電腦視覺演算法與 SageMaker 搭配使用可啟用定期檢查點,您還可以使用自訂模型啟用檢查點。
我們建議使用定期檢查點作為長期執行訓練任務的一般最佳實務。如果優先佔用容量,這可阻止受管 Spot 訓練任務重新啟動。啟用檢查點時,SageMaker 會從上一個檢查點恢復受管 Spot 訓練任務。
完成受管 Spot 訓練任務後,您可以在 AWS 管理主控台中查看節省的費用,也可以用訓練任務執行的持續時間與計費的持續時間之間的百分比差異來計算節省的費用。無論受管 Spot 訓練任務中斷多少次,都只需按下載資料的持續時間支付費用。
受管 Spot 訓練可以與 SageMaker 中支援的所有執行個體搭配使用。

目前可用 SageMaker 的所有區域都支援受管 Spot 訓練。

使用 SageMaker 訓練模型時,資料集的大小沒有固定的限制。

SageMaker 包括線性迴歸、邏輯迴歸、K 均值叢集、主體元件分析、因式分解機器、神經主題建模、隱含狄利克雷分布、梯度提升樹、sequence2sequence、時間序列預測、word2vec 和映像分類等內建演算法。SageMaker 還提供優化的 Apache MXNet、Tensorflow、Chainer、PyTorch、Gluon、Keras、Horovod、Scikit-learn 和 Deep Graph Library 容器。此外,如果 Docker 映像檔符合記載的規格,SageMaker 也可以支援透過它提供的自訂訓練演算法。
大多數 ML 演算法都會公開用來控制基礎演算法運作方式的各種參數。這些參數一般稱為超參數,它們的值會影響訓練模型的品質。自動模型調校是為演算法找出一組超參數的程序,以產出優化的模型。
只要符合科學,您就可以在 SageMaker 的任何演算法上執行自動模型調校,包括內建 SageMaker 演算法、深度神經網路,或您以 Docker 映像檔格式帶入 SageMaker 的任意演算法。

目前沒有。在 SageMaker 內才能獲得最佳的模型調校效能和體驗。

目前,我們的調校超參數演算法是貝葉斯優化的自訂實作。主要目標是在調校過程中,優化客戶指定的目標指標。具體來說,它會檢查已完成訓練任務的物件指標,然後利用知識來推論超參數組合,以應用在下一個訓練任務。

否。特定超參數對模型效能的影響程度取決於多個因素,很難肯定地說某個超參數比其他更為重要,所以需要調校。對於 SageMaker 中的內建演算法,我們會確定某個超參數是否可進行調校。

超參數調校任務所需的時間取決於多個因素,包括資料大小、基礎演算法,還有超參數的值。此外,客戶可以選擇同時訓練任務的數量和訓練任務的總數。這些選擇都會影響超參數調校任務持續的時間長度。

目前沒有。目前,您需要指定單一目標指標來優化或變更演算法程式碼以發出新指標,這是兩個或多個實用指標間的加權平均,讓調校程序針對該目標指標進行優化。

超參數調校任務本身不需任何費用。但需根據模型訓練定價,依照超參數調校任務啟動的訓練任務支付費用。

SageMaker Autopilot 讓典型的 ML 工作流程完全自動化,包括功能預先處理、演算法選擇和超參數調校,同時特別重視分類和迴歸使用案例。另一方面,自動模型調校旨在調整任何模型,無論它是以內建演算法、深度學習架構或者是自訂容器為基礎。為了獲得靈活性,您必須手動選擇特定演算法、要調整的超參數以及相應的搜尋範圍。

強化學習是一項 ML 技術,可讓代理程式使用來自其動作和體驗的意見反應嘗試錯誤,在互動式環境中學習。

是的,除了受監督和非監督式學習模型外,您還可以在 SageMaker 中訓練強化學習模型。

雖然受監督和強化學習在輸入和輸出之間都使用映射,不同於受監督學習提供給代理程式的意見反應是用於執行任務的正確動作集,強化學習使用延遲的意見反應,當中的獎勵信號會經過最佳化以透過一序列的動作確保長期目標。

受監督學習技術的目標是要根據訓練資料中的模式來找到最好的答案,而無監督學習技術的目標是要找到資料點之間的相似性和差異性。相對來說,強化學習 (RL) 技術的目標是要學習如何達到想要的成果,甚至是在不清楚如何達成該成果時。因此,RL 更適合用來啟用代理程式可以進行自主性決策的智慧型應用程式,例如自駕車、HVAC、產業控制等等。

Amazon SageMaker RL 針對訓練 RL 模型支援許多不同的環境。您可以使用 AWS 服務,例如 AWS RoboMaker、開放原始碼環境或使用 Open AI Gym 界面開發的自訂環境,或是商業模擬環境,例如 MATLAB 和 SimuLink。

不需要,SageMaker RL 包含的 RL 工具組 (例如 Coach 和 Ray RLLib) 可提供 RL 代理程式演算法 (例如 DQN、PPO、A3C 等等) 的實作。

是的,您可以在 Docker 容器中使用自己的 RL 程式庫和演算法實作,並且在 SageMaker RL 中執行。

是。您甚至可以選取異質性叢集,其中的訓練可以在單一 GPU 執行個體上執行,而模擬可以在多個 CPU 執行個體上執行。

部署模型

在您建置和訓練模型之後,SageMaker 提供了三個用於部署的選項,以便您可以開始進行預測。即時推論適用於具有毫秒級延遲要求、承載大小高達 6 MB、且處理時間最多 60 秒的工作負載。批次轉換非常適合對大批資料進行離線預測,這些資料可以提前使用。非同步推論專為沒有低於一秒延遲要求、承載大小高達 1GB 且處理時間最多 15 分鐘的工作負載而設計。
SageMaker 非同步推論可將傳入的請求排入佇列,並以非同步方式處理。此選項非常適合承載大小很大和/或處理時間長的請求,這些請求在到達時需要進行處理。您可以選擇性設定自動擴展設定,以在未主動處理請求時將執行個體計數縮減規模為零,從而節省成本。

您可以在未主動處理請求時將 SageMaker 非同步推論端點執行個體計數縮減規模至零,以節省成本。您需要定義依「ApproximateBacklogPerInstance」自訂指標擴展的擴展政策,並將「MinCapacity」值設定為零。如需逐步說明,請瀏覽開發人員指南的自動擴展非同步端點部分。 

SageMaker 無伺服器推論是一個專門打造的無伺服器模型服務選項,可以輕鬆部署和擴展 ML 模型。SageMaker 無伺服器推論端點會自動啟動運算資源並根據流量進行縮減和擴展,讓您無需選擇執行個體類型、執行佈建容量或管理擴展。您可以選擇為無伺服器推論端點指定記憶體要求。您只需為執行推論程式碼的持續時間和處理的資料量付費,而無需為閒置期間付費。

SageMaker 無伺服器推論無需預先佈建容量和管理擴展政策,從而簡化了開發人員體驗。SageMaker 無伺服器推論可以根據使用模式在幾秒鐘內立即從數十個推論擴展至數千個推論,使其成為具有間歇性或不可預測流量的 ML 應用程式的理想選擇。例如,薪資處理公司使用的 chatbot 服務在月末的查詢量增加,而在本月其餘時間,流量是間歇性的。在這種情況下為整個月佈建執行個體並不劃算,因為您最終要為空閒期間付費。SageMaker Serverless Inference 透過為您提供開箱即用的自動和快速水平擴展,而無需您預先預測流量或管理擴展政策,從而協助解決這些類型的使用案例。此外,您只需為執行推論程式碼的運算時間 (以毫秒計費) 和資料處理付費,使其成為具有間歇性流量的工作負載的具成本效益的選項。
佈建並行功能可讓您在無伺服器端點上以可預測的效能和高擴展性部署模型,方法是讓您的端點針對指定數量的並行要求保持預熱。

使用隨需無伺服器端點時,如果您的端點一段時間沒有接收流量,然後突然收到新的請求,則端點可能需要一些時間才能啟動運算資源來處理請求。這稱為冷啟動。如果您的並行請求超過目前的並行請求用量,也會發生冷啟動。冷啟動時間取決於模型大小、下載模型所需的時間以及容器的啟動時間。

若要減少延遲設定檔中的變動性,您可以選擇性地為無伺服器端點啟用佈建並行功能。使用佈建並行功能,您的無伺服器端點隨時準備就緒,並可立即為突增流量提供服務,而不需要任何冷啟動。

與隨需無伺服器推論一樣,啟用佈建並行時,您需要支付用於處理推論請求的運算容量 (以毫秒計費) 以及處理的資料量。您也可以依據設定的記憶體、佈建的持續時間和啟用的並行數量來支付佈建並行用量的費用。如需詳細資訊,請參閱 Amazon SageMaker 定價

SageMaker 透過針對目前部署的模型測試其效能,幫助您執行影子測試以在生產發行前評估新的 ML 模型。SageMaker 以影子模式與目前的生產模型一起部署新模型,並將生產流量的使用者特定部分鏡像到新模型。它可選擇性記錄模型推論,以供離線比較。此外還提供一個即時儀表板,其中對生產模型和影子模型之間的關鍵效能指標進行比較,例如延遲和錯誤率,以協助您決定是否將新模型推送到生產中。
SageMaker 簡化了設定和監控影子變體的程序,因此您可以評估新 ML 模型在即時生產流量上的效能。SageMaker 讓您無需為影子測試編排基礎設施。它允許您控制測試參數,例如鏡像到影子變體的流量百分比和測試持續時間。因此,您可以從小處著手,在對模型效能有信心後,增加對新模型的推論請求。SageMaker 會建立一個即時儀表板,顯示關鍵指標之間的效能差異,因此您可以輕鬆比較模型效能,以評估新模型與生產模型的差異。

SageMaker Inference Recommender 可透過跨 SageMaker ML 執行個體自動執行效能基準測試和調校模型效能來減少將 ML 模型投入生產所需的時間。您現在可以使用 SageMaker Inference Recommender 將您的模型部署至可交付最佳效能並最大限度減少成本的端點。您可以在幾分鐘內開始使用 SageMaker Inference Recommender,同時選取執行個體類型並在數小時內取得最佳端點組態的建議,從而消除數週的手動測試和調校時間。使用 SageMaker Inference Recommender,您只需為負載測試期間使用的 SageMaker ML 執行個體付費,無需額外費用。

如果需要正確端點組態的建議來提高效能並降低成本,您應該使用 SageMaker Inference Recommender。以前,想要部署模型的資料科學家必須執行手動基準測試來選取正確的端點組態。他們必須先根據模型的資源要求和範例酬載,從 70 多種可用執行個體類型中選取正確的 ML 執行個體類型,然後最佳化模型以適應不同的硬體。接著,他們必須進行廣泛的負載測試,以驗證是否滿足延遲和輸送量要求且成本很低。SageMaker Inference Recommender 消除了這種複雜性,讓您可以輕鬆地:1) 透過執行個體建議在幾分鐘內開始使用;2) 跨執行個體類型進行負載測試,以在數小時內取得有關您的端點組態的建議;3) 自動調校容器和模型伺服器參數,並為指定的執行個體類型執行模型最佳化。
資料科學家可以從 SageMaker Studio、適用於 Python (Boto3) 的 AWS SDK 或 AWS CLI 存取 SageMaker Inference Recommender。他們可以在 SageMaker 模型登錄檔中的 SageMaker Studio 內取得已註冊模型版本的部署建議。資料科學家可以透過 SageMaker Studio、AWS SDK 或 AWS CLI 搜尋和篩選建議。

否,我們目前僅支援每個端點一個模型。

目前我們僅支援即時端點。

我們支援 Amazon SageMaker 支援的所有區域 (AWS 中國區域除外)。

是,我們支援所有類型的容器。Amazon EC2 Inf1 基於 AWS Inferentia 晶片,需要使用 Neuron 編譯器或 Amazon SageMaker Neo 編譯的模型成品。一旦您擁有 Inferentia 目標的編譯模型和關聯的容器映像 URI,就可以使用 SageMaker Inference Recommender 對不同的 Inferentia 執行個體類型進行基準測試。

SageMaker Model Monitor 可讓開發人員偵測並補救概念漂移。SageMaker Model Monitor 可自動偵測部署模型中的概念漂移,並提供詳細的提醒,以協助確定問題的來源。在 SageMaker 中訓練的所有模型都會自動發出關鍵指標,可在 SageMaker Studio 中收集和檢視這些指標。您可以從 SageMaker Studio 內部設定要收集的資料、檢視資料的方式,以及接收提醒的時間。

否。SageMaker 會代您操作該運算基礎設施,允許其執行運作狀態檢查、套用安全性修補程式和執行其他例行維護。您還可以在自己的託管環境中,部署那些利用自訂推論程式碼訓練而成的模型成品。

SageMaker 託管功能會利用 Application Auto Scaling 為您的應用程式自動擴展所需的效能。另外,您可以修改端點組態,然後就可以手動變更執行個體數量和類型,不用產生停機時間。

SageMaker 會將效能指標發送到 Amazon CloudWatch 指標,以便您可以追蹤指標,設定警示並自動對生產流量中的變更作出反應。另外,SageMaker 會將日誌寫入 Amazon CloudWatch Logs,以便您監控生產環境並進行疑難排解。

SageMaker 可以託管任何符合推論 Docker 映像檔記載規格的模型。這包括從 SageMaker 模型成品和推論程式碼建立的模型。

SageMaker 的設計旨在擴展到大規模的每秒交易。確切的數字會因部署的模型以及模型部署所在的執行個體數量和類型而異。

做為完全受管的服務,Amazon SageMaker 負責設定和管理執行個體、軟體版本相容性和修補版本。它還會為您提供端點的內建指標和日誌,您可以用來監控和接收提醒。透過 SageMaker 工具和引導式工作流程,簡化了整個 ML 模型封裝和部署流程,讓您輕鬆最佳化端點以達成所需的效能並節省成本。您只需在 SageMaker Studio 中按幾下滑鼠,或使用新的 PySDK,即可輕鬆部署 ML 模型,包括基礎模型。

批次轉換可讓您針對大型或小型批次資料進行預測。無須將資料集分解為多個區塊或管理即時端點。使用簡易的 API 時,您可以請求針對大量資料記錄進行預測,並快速、輕鬆地轉換資料。

SageMaker 支援下列端點選項:單一模型端點 - 在專用預留執行個體或無伺服器上託管之容器上的單一模型,可實現低延遲和高輸送量。多模型端點 - 使用共用基礎設施託管多個模型,以實現成本效益並最大化使用率。您可以控制每個模型可以使用多少運算和記憶體,以確保每個模型都可以存取其有效執行所需的資源。序列推論管道 - 多個容器共用專用預留執行個體並依序執行。您可以使用推論管道來結合預先處理、預測和後續處理資料科學任務。
您可以使用擴展政策來自動擴展基礎運算資源,以適應推論請求的波動。您可以分別控制每個 ML 模型的擴展政策,以輕鬆處理模型用量的變更,同時最佳化基礎設施成本。

SageMaker Edge Manager 可讓您更輕鬆地最佳化、保護、監控和維護各種邊緣裝置機群 (如智慧相機、機器人、個人電腦和行動裝置) 上的 ML 模型。SageMaker Edge Manager 可協助 ML 開發人員在各種邊緣裝置上大規模地操作 ML 模型。

若要開始使用 SageMaker Edge Manager,您需要在雲端中編譯和封裝已訓練 ML 模型,注册裝置,並使用 SageMaker Edge Manager 軟體開發套件準備裝置。為準備模型進行部署,SageMaker Edge Manager 會使用 SageMaker Neo 根據您的目標邊緣硬體編譯模型。編譯模型後,SageMaker Edge Manager 將使用 AWS 產生的金鑰對模型進行簽章,然後將模型與執行時間和所需的憑證封裝在一起,以便為部署做好準備。在裝置端,向 SageMaker Edge Manager 註冊您的裝置,下載 SageMaker Edge Manager 軟體開發套件,然後按照指示在裝置上安裝 SageMaker Edge Manager 代理。教學筆記本提供逐步範例,說明如何準備模型並使用 SageMaker Edge Manager 連接邊緣裝置上的模型。

SageMaker Edge Manager 支援具有 Linux 和 Windows 作業系統的通用 CPU (ARM、x86) 和 GPU (ARM、Nvidia) 型裝置。在一段時間內,SageMaker Edge Manager 將擴展以支援更多嵌入式處理器和行動平台,它們也受 SageMaker Neo 支援。

否,您不需要。您可以在其他地方訓練您的模型,或使用來自開放原始碼或您的模型供應商的預先訓練的模型。

是,您需要。SageMaker Neo 將模型轉換並編譯為可執行檔,然後封裝並部署至邊緣裝置上。在部署模型套件後,SageMaker Edge Manager 代理程式將解壓縮模型套件並在裝置上執行模型。

SageMaker Edge Manager 將模型套件存放在指定的 Amazon S3 儲存貯體中。您可以使用 AWS IoT Greengrass 提供的空中 (OTA) 部署功能,或您選擇的任何其他部署機制來將模型套件從 S3 儲存貯體部署至裝置。

Neo dlr 是開放原始碼執行期,僅執行 SageMaker Neo 服務編譯的模型。相較於開放原始碼 dlr,SageMaker Edge Manager 軟體開發套件包含企業級裝置代理,具有額外的安全、模型管理和模型服務功能。SageMaker Edge Manager 軟體開發套件適用於大規模生產部署。

以下 6 個區域可使用 SageMaker Edge Manager:美國東部 (維吉尼亞北部)、美國東部 (俄亥俄)、美國西部 (奧勒岡)、歐洲 (愛爾蘭)、歐洲 (法蘭克福) 和亞太區域 (東京)。如需詳細資訊,請參閱 AWS 區域服務清單

SageMaker Neo 能讓 ML 模型訓練一次,即可在雲端和邊緣隨處執行。SageMaker Neo 會自動將使用常見 DL 架構建置、可用來在多個硬體平台上部署的模型最佳化。最佳化模型的執行速度最多可提高 25 倍,且耗用的資源少於一般 ML 模型的十分之一。

若要開始使用 SageMaker Neo,請登入 SageMaker 主控台,選擇訓練模型,遵循範例來編譯模型,並將產生的模型部署到您的目標硬體平台。

SageMaker Neo 包含兩個主要元件 – 編譯器和執行期。首先,SageMaker Neo 編譯器可讀取不同架構匯出的模型。然後將架構特定的函數和操作轉換為跨架構的中繼表示法。下一步是執行一序列的最佳化。然後編譯器會為最佳化操作產生二進位程式碼,並將它們寫入共用的物件程式庫。編譯器也會將模型定義和參數儲存至不同的檔案。在執行期間,SageMaker Neo 執行期會載入編譯器產生的成品 – 模型定義、參數和共用的物件程式庫,以便執行模型。

不需要。您可以在任何位置訓練模型,並使用 SageMaker Neo 來將它們針對 SageMaker ML 執行個體或 AWS IoT Greengrass 支援的裝置進行最佳化。

SageMaker Neo 目前支援為電腦視覺應用程式提供動力的最常見度學習模型,以及 SageMaker 中現今所使用的最常見決策樹模型。SageMaker Neo 會將在 MXNet 和 TensorFlow 中訓練的 AlexNet、ResNet、VGG、Inception、MobileNet、SqueezeNet 和 DenseNet 模型,以及在 XGBoost 中訓練的分類和隨機分割森林模型的效能最佳化。

您可以在 SageMaker Neo 文件中找到受支援的雲端執行個體邊緣裝置和架構版本的清單。

若要查看支援區域的清單,請檢視 AWS 區域清單

Amazon SageMaker Savings Plans

SageMaker Savings Plans 提供一種適用於 SageMaker 的靈活用量型定價模式,可換取在 1 年或 3 年期的用量承諾 (以 USD/小時計費)。SageMaker Savings Plans 提供最大靈活性,並協助您降低高達 64% 的成本。這些計劃會自動套用至符合資格的 SageMaker ML 執行個體用量,包括 SageMaker Studio Notebook、SageMaker On-Demand Notebook、SageMaker Processing、SageMaker Data Wrangler、SageMaker Training、SageMaker Real-Time Inference,以及 SageMaker Batch Transform,而不論執行個體系列、大小或區域為何。例如,您可以隨時將用量從美國東部 (俄亥俄) 執行的 CPU 執行個體 ml.c5.xlarge 變更為美國西部 (奧勒岡) 執行的 ml.Inf1 執行個體,以推論工作負載,並自動繼續支付 Savings Plans 的價格。
如果您具有一致的 SageMaker 執行個體用量 (以 USD/小時計費),並使用多個 SageMaker 元件或期望您的技術組態 (如執行個體系列或區域) 隨時間的推移而變更,SageMaker Savings Plans 可讓您更輕鬆地最大程度實現節省,同時靈活地根據應用程式需求或新創新變更基礎技術組態。Savings Plans 費率會自動套用至所有符合資格的 ML 執行個體用量,而無需手動修改。
您可以從 AWS 管理主控台中的 AWS Cost Explorer 或使用 API/CLI 來開始使用 Savings Plans。透過使用 AWS Cost Explorer 中提供的建議,您可以輕鬆地選擇 Savings Plans,以實現最大節省。建議的小時承諾基於您的歷史隨需用量,以及您選擇的方案類型、期限和支付方式。註冊 Savings Plan 後,您的運算用量將自動以 Savings Plans 的折扣價收費,任何超出承諾的用量,則將以正常的隨需費率收費。
適用於 SageMaker 的 Savings Plans 與適用於 Amazon EC2 的 Savings Plans 的差異在於他們所包含的服務。SageMaker Savings Plans 僅適用於 SageMaker ML 執行個體用量。

Savings Plans 可以在 AWS Organization/合併帳單系列內的任何帳戶中購買。依預設,Savings Plans 中提供的益處適用於 AWS Organization/合併帳單系列的所有帳戶中的用量。然而,您也可以選擇將 Savings Plans 的益處僅限於購買項目的帳戶。