Perguntas frequentes sobre o Amazon SageMaker

Geral

O SageMaker é um serviço totalmente gerenciado para preparar dados e criar, treinar e implantar modelos de machine learning (ML) para qualquer caso de uso com infraestrutura, ferramentas e fluxos de trabalho totalmente gerenciados.

Para obter uma lista das regiões compatíveis com o SageMaker, acesse a página de serviços regionais da AWS. Para obter mais informações, consulte os endpoints regionais no guia de referência geral da AWS.

O SageMaker foi projetado para oferecer alta disponibilidade. Não há janelas de manutenção nem tempos de inatividade programados. As APIs do SageMaker são executadas nos data centers comprovados e de alta disponibilidade da Amazon, com replicação da pilha de serviços configurada em três instalações em cada região para fornecer tolerância a falhas em caso de falha de servidor ou interrupção de zona de disponibilidade.

O SageMaker armazena código em volumes de armazenamento de Machine Learning, protegidos por grupos de segurança e, opcionalmente, criptografados quando ociosos.

O SageMaker garante que os artefatos de modelos de machine learning e outros artefatos de sistema sejam criptografados quando em trânsito e quando ociosos. As solicitações para a API e o console do SageMaker são realizadas em uma conexão segura (SSL). Você envia os perfis do AWS Identity and Access Management ao SageMaker para fornecer permissões de acesso a recursos em seu nome para treinamento e implantação. Você pode usar buckets criptografados do Amazon Simple Storage Service (Amazon S3) para modelar artefatos e dados, além de enviar uma chave do AWS Key Management Service (AWS KMS) para notebooks, tarefas de treinamento e endpoints do SageMaker para criptografar o volume associado de armazenamento de machine learning. O SageMaker também oferece suporte à Amazon Virtual Private Cloud (Amazon VPC) e ao AWS PrivateLink.

O SageMaker não usa nem compartilha modelos de clientes, dados de treinamento ou algoritmos. Sabemos que os clientes se preocupam muito com a privacidade e a segurança dos dados. É por isso que a AWS oferece a você a propriedade e o controle sobre o seu conteúdo por meio de ferramentas simplificadas e avançadas que permitem determinar onde o conteúdo será armazenado, proteger o conteúdo ocioso e em trânsito e gerenciar o acesso de seus usuários a serviços e recursos da AWS. Também implementamos controles técnicos e físicos projetados para evitar o acesso e a divulgação não autorizados do seu conteúdo. Como cliente, você mantém a propriedade sobre o seu conteúdo e seleciona quais serviços da AWS podem processar, armazenar e hospedar esse conteúdo. Não acessamos seu conteúdo para qualquer finalidade sem o seu consentimento.

Você paga pelos recursos de computação, armazenamento e processamento de dados de Machine Learning usados para hospedar o notebook, treinar o modelo, executar previsões e registrar as saídas. Com o SageMaker, você pode selecionar o número e o tipo de instância usada para o caderno hospedado para treinamento e para hospedagem de modelos. O pagamento é feito conforme o uso. Não há taxas mínimas nem compromissos antecipados. Para obter detalhes, consulte os preços do Amazon SageMaker e a Calculadora de preços do Amazon SageMaker.

Há diversas práticas recomendadas que você pode adotar para otimizar o uso de recursos do SageMaker. Algumas abordagens envolvem otimizações de configurações, enquanto outras envolvem soluções programáticas. Esta publicação de blog oferece um guia completo sobre esse conceito, com tutoriais visuais e amostras de código.

O SageMaker oferece um fluxo de trabalho completo e total, mas você pode continuar a usar suas ferramentas atuais com o SageMaker. É possível transferir facilmente os resultados de cada fase para dentro e para fora do SageMaker para atender a requisitos de negócios.

Sim. Você pode usar o R nas instâncias de cadernos do SageMaker, que incluem um kernel R pré-instalado e a biblioteca de reticulação. A reticulação oferece uma interface R ao Amazon SageMaker Python SDK, ajudando os profissionais de ML a criar, treinar, ajustar e implantar modelos R. Você também pode iniciar o RStudio, um ambiente de desenvolvimento integrado (IDE) para R no Amazon SageMaker Studio.  

O Amazon SageMaker Studio fornece uma interface visual única baseada na Web em que você pode executar todas as etapas de desenvolvimento de ML. O SageMaker Studio fornece total acesso, controle e visibilidade em cada etapa necessária para preparar dados, criar, treinar e implantar modelos. Você pode fazer upload de dados, criar novos notebooks, treinar e ajustar modelos, alternar entre as etapas para ajustar experimentos, comparar resultados e implantar modelos na produção em um único local com rapidez, aumentando muito a sua produtividade. Todas as atividades de desenvolvimento de ML, incluindo notebooks, gerenciamento de experimentos, criação automática de modelos, depuração e criação de perfil e detecção de desvio de modelo, podem ser executadas na interface visual unificada do SageMaker Studio.

Não há cobrança adicional pela utilização do SageMaker Studio. Você paga apenas pelas taxas de computação e armazenamento subjacentes referentes aos serviços que usa no SageMaker Studio.

Você pode encontrar as regiões nas quais há suporte ao SageMaker Studio no Guia do desenvolvedor do Amazon SageMaker.

O Amazon SageMaker Clarify ajuda a aprimorar a transparência do modelo detectando tendências estatísticas ao longo de todo o fluxo de trabalho de ML. O SageMaker Clarify verifica os desequilíbrios durante a preparação dos dados, após o treinamento e continuamente ao longo do tempo, além de incluir também ferramentas para ajudar a explicar os modelos de ML e suas previsões. As conclusões podem ser compartilhadas por meio de relatórios de explicabilidade.

Medir tendências em modelos de ML é uma primeira etapa para a mitigação de tendências. O viés pode ser medido antes do treinamento (como parte da preparação dos dados), após o treinamento (usando o Amazon SageMaker Experiments) e durante a inferência de um modelo implantado (com o Amazon SageMaker Model Monitor). Cada uma das mais de 20 métricas de tendência corresponde a uma noção diferente de justiça. Você escolhe métricas válidas para o aplicativo e a situação que está sendo investigada. Por exemplo, antes do treinamento, métricas como desequilíbrio de classes e diferenças na distribuição de rótulos entre grupos verificam se os dados do treinamento representam a população geral. O SageMaker Clarify considera as diferenças positivas (favoráveis) de resultados e as diferenças de distribuição de rótulos individuais para detectar se um grupo está sub-representado. Após o treinamento ou durante a implantação, as métricas de tendências ajudam a medir se e quanto o desempenho do modelo é diferente entre os grupos. Métricas como Representação Igual e Impacto Disparado medem as diferenças nas previsões positivas. Métricas de Desempenho Igual, como diferença na precisão (probabilidade de uma previsão positiva estar correta) e revocação (probabilidade de o modelo rotular corretamente um exemplo positivo), avaliam a distribuição igual de erros entre os grupos. Saiba mais nesta publicação do blog. 

O SageMaker Clarify é integrado aos SageMaker Experiments para fornecer um gráfico de importância do recurso, detalhando a importância de cada entrada para o processo de tomada de decisão geral do seu modelo após o modelo ter sido treinado. Esses detalhes podem ajudar a identificar se uma determinada entrada do modelo exerce mais influência do que deveria no comportamento geral do modelo. O SageMaker Clarify também oferece explicações para previsões individuais disponíveis por meio de uma API. 

Governança de ML

O SageMaker oferece ferramentas de governança de ML específicas para todo o ciclo de vida do ML. Com o Gerenciador de Perfis do Amazon SageMaker, os administradores podem definir permissões mínimas em minutos. Os Cartões de Modelos do Amazon SageMaker facilita a captura, recuperação e compartilhamento de informações essenciais do modelo, desde a concepção até a implantação. E com o Painel de Modelos do Amazon SageMaker, você acompanha o comportamento do modelo em produção, tudo em único lugar. Para
obter mais informações, consulte com o Amazon SageMaker.

Você pode definir permissões mínimas em minutos com o SageMaker Role Manager. Ele fornece um conjunto inicial de permissões para atividades e personas de ML com um catálogo de políticas de IAM pré-configuradas. Você pode manter as permissões iniciais ou personalizá-las de acordo com suas necessidades específicas. Com algumas instruções autoguiadas, você pode inserir rapidamente estruturas de governança comuns como limites de acesso à rede e chaves de criptografia. Em seguida, o SageMaker Role Manager vai gerar automaticamente as políticas do IAM. Você pode encontrar as funções geradas e políticas associadas no console do AWS IAM. Para personalizar as permissões para os seus casos de uso, associe suas políticas do IAM ao perfil do IAM que você criar com o SageMaker Role Manager. Você também pode adicionar tags para ajudar a identificar os perfis e organizá-los nos serviços da AWS.

Os SageMaker Model Cards ajudam você a centralizar e padronizar a documentação dos modelos por todo o ciclo de vida de ML ao criar uma única fonte confiável para informações de modelos. Os SageMaker Model Cards preenchem automaticamente os detalhes de treinamento para agilizar o processo de documentação. Você também pode adicionar detalhes como o propósito do modelo e as metas de performance. Você pode associar resultados de avaliação do modelo ao cartão do modelo e fornecer visualizações para obter insights importantes sobre a performance do modelo. Os SageMaker Model Cards podem ser facilmente compartilhados com outras pessoas em um arquivo PDF exportado.

O SageMaker Model Dashboard fornece uma visão abrangente dos modelos implantados e endpoints para que você acompanhe os recursos e violações de comportamento do modelo em um único painel. Ele permite que você acompanhe o comportamento do modelo em quatro dimensões, incluindo qualidade de dados e do modelo e viés do modelo e desvio de atribuição de recurso por meio da sua integração com o SageMaker Model Monitor e com o SageMaker Clarify. O SageMaker Model Dashboard também proporciona uma experiência integrada para configuração e recebimento de alertas de trabalhos de monitoramento de modelos inativos ou ausentes e desvios no comportamento do modelo por qualidade do modelo, qualidade dos dados, desvio de tendência e desvio de atribuição de recurso. Você também pode inspecionar modelos individuais e analisar fatores que afetam a performance do modelo ao longo do tempo. Em seguida, pode solicitar que os profissionais de ML façam as correções necessárias.

Modelos básicos

O SageMaker JumpStart ajuda você a começar a usar o ML de modo rápido e fácil. O SageMaker JumpStart oferece um conjunto de soluções para os casos de uso mais comuns que podem ser implantados prontamente em apenas algumas etapas. As soluções são totalmente personalizáveis e mostram o uso de modelos do AWS CloudFormation e arquiteturas de referência para que você possa acelerar sua jornada de ML. O SageMaker JumpStart também fornece modelos básicos e oferece suporte para implantação com uma etapa e o ajuste fino de mais de 150 modelos populares de código aberto, como modelos de transformadores, detecção de objetos e classificação de imagens. 

O SageMaker JumpStart fornece modelos proprietários e públicos. Para obter uma lista dos modelos básicos disponíveis, consulte Conceitos básicos do Amazon SageMaker JumpStart.

Você pode acessar modelos básicos por meio do SageMaker Studio, do SageMaker SDK e do Console de Gerenciamento da AWS. Para começar a usar modelos básicos proprietários, você deve aceitar os termos de venda no AWS Marketplace.

Não. Seus dados de inferência e treinamento não serão usados nem compartilhados para atualizar ou treinar o modelo básico que o SageMaker JumpStart apresenta aos clientes.

Não. Modelos proprietários não permitem que os clientes visualizem pesos e scripts de modelos.

Os modelos podem ser descobertos em todas as regiões em que o SageMaker Studio estiver disponível, mas a capacidade de implantar um modelo difere de acordo com a disponibilidade do modelo e da instância do tipo de instância necessário. Você pode consultar a disponibilidade da região da AWS e a instância exigida na página de detalhes do modelo no AWS Marketplace.

Para modelos proprietários, há cobrança pelo preço do software determinado pelo fornecedor do modelo e as cobranças de infraestrutura do SageMaker com base na instância usada. Para modelos disponíveis ao público, são cobradas taxas de infraestrutura do SageMaker com base na instância usada. Para obter mais informações, consulte Preços do Amazon SageMaker e o AWS Marketplace.

A segurança é a principal prioridade na AWS, e o SageMaker JumpStart foi projetado para ser seguro. É por isso que o SageMaker oferece a você a propriedade e o controle sobre o seu conteúdo por meio de ferramentas simplificadas e poderosas que ajudam você a determinar onde o conteúdo será armazenado, proteger o conteúdo ocioso e em trânsito e gerenciar o acesso dos seus usuários a serviços e recursos da AWS.

  1. Não compartilhamos informações de inferência e treinamento de clientes com vendedores de modelos no AWS Marketplace. Da mesma forma, os artefatos do modelo do vendedor (por exemplo, pesos de modelos) não são compartilhados com o cliente.
  2. O SageMaker JumpStart não usa modelos de clientes, dados de treinamento ou algoritmos para melhorar seu serviço e não compartilha dados de treinamento e inferência de clientes com terceiros.
  3. No SageMaker JumpStart, os artefatos dos modelos de ML são criptografados em trânsito e em repouso.
  4. No Modelo de Responsabilidade Compartilhada da AWS, a AWS é responsável por proteger a infraestrutura global que administra toda a AWS. Você é responsável por manter o controle sobre seu conteúdo hospedado nessa infraestrutura.

Ao usar um modelo do AWS Marketplace ou do SageMaker JumpStart, os usuários assumem a responsabilidade pela qualidade da saída do modelo e reconhecem os recursos e as limitações descritos na descrição individual do modelo.

O SageMaker JumpStart inclui mais de 150 modelos pré-treinados do PyTorch Hub e do TensorFlow Hub disponíveis publicamente. Para tarefas de visão, como classificação de imagens e detecção de objetos, você pode aproveitar modelos como o RESNET, MobileNet e single-shot detector (SSD). Para tarefas de texto, como classificação de frases, classificação de textos e respostas a perguntas, você pode usar modelos como BERT, RoBERTa e DistilBERT.

Com o SageMaker JumpStart, cientistas de dados e desenvolvedores de ML podem facilmente compartilhar artefatos de ML, incluindo notebooks e modelos, dentro da organização. Os administradores podem configurar um repositório acessível para um grupo definido de usuários. Todos os usuários com permissão de acesso ao repositório podem explorar, pesquisar e usar modelos e notebooks, bem como todo o conteúdo público dentro do SageMaker JumpStart. Os usuários podem selecionar artefatos para treinar modelos, implantar endpoints e executar notebooks no SageMaker JumpStart.

Com o SageMaker JumpStart, você pode agilizar o tempo de introdução no mercado ao desenvolver aplicativos de ML. Os modelos e notebooks desenvolvidos por uma equipe podem ser facilmente compartilhados com outras equipes dentro da sua organização em apenas algumas etapas. O comportamento interno de conhecimento e a reutilização de ativos pode aumentar a produtividade da sua organização de forma significativa.

O Amazon SageMaker Clarify agora é compatível com a avaliação do modelo de base. Você pode avaliar, comparar e selecionar os melhores modelos de base para seu caso de uso específico. Basta escolher o modelo que deseja avaliar para uma determinada tarefa, como responder perguntas ou resumir conteúdo. Em seguida, selecione os critérios de avaliação (por exemplo, precisão, imparcialidade e robustez) e carregue um conjunto de dados próprio de prompts ou selecione um dos conjuntos de dados integrados disponíveis publicamente. Para critérios subjetivos ou conteúdo diferenciado que exijam julgamento humano sofisticado, você pode decidir aproveitar sua própria força de trabalho ou usar uma força de trabalho gerenciada fornecida pela AWS para analisar as respostas. Depois de concluir o processo de configuração, o SageMaker Clarify executa as avaliações e gera um relatório, para que você possa entender facilmente a performance do modelo em relação aos principais critérios. Você pode avaliar os modelos de base no SageMaker JumpStart usando o assistente de avaliação ou qualquer modelo de base que não esteja hospedado na AWS usando a biblioteca de código aberto.

Sim. Os administradores podem controlar quais modelos do Amazon SageMaker JumpStart são visíveis e utilizáveis por seus usuários em várias contas da AWS e entidades principais de usuários. Para saber mais, consulte a documentação.

O kit de ferramentas de otimização de inferências facilita a implementação das técnicas mais recentes de otimização de inferências para alcançar uma performance de custo de última geração (SOTA) no Amazon SageMaker, ao mesmo tempo em que economiza meses de tempo para os desenvolvedores. Você pode escolher entre um menu de técnicas de otimização populares fornecidas pelo SageMaker e executar trabalhos de otimização com antecedência, comparar o modelo para métricas de performance e precisão e, em seguida, implantar o modelo otimizado em um endpoint do SageMaker para inferência. O kit de ferramentas trata de todos os aspectos da otimização do modelo, para que você possa se concentrar mais nos seus objetivos de negócios.

O kit de ferramentas de otimização de inferências ajuda você a melhorar os custos, a performance e o tempo de comercialização de aplicações de IA generativa. O kit de ferramentas de otimização de modelos totalmente gerenciado oferece acesso às técnicas de otimização mais recentes, com ferramentas fáceis de usar. Também é fácil fazer upgrade com o passar do tempo para a melhor solução disponível, pois o kit de ferramentas se adapta continuamente às inovações de última geração, novos recursos de hardware e hospedagem.

O kit de ferramentas de otimização de inferências oferece suporte a técnicas de otimização, como Decodificação especulativa, Quantização e Compilação. Você pode escolher as otimizações que deseja adicionar ao seu modelo com alguns cliques, e o Amazon SageMaker gerenciará todo o trabalho pesado indiferenciado de adquirir o hardware, selecionar o contêiner de aprendizado profundo e os parâmetros de ajuste correspondentes para executar os trabalhos de otimização e, em seguida, salvar os artefatos do modelo otimizado no local do S3 fornecido por você.

Para Decodificação especulativa, você pode começar a usar o modelo preliminar fornecido pelo SageMaker, o que evita ter de criar seus próprios modelos preliminares do zero e solicitar otimizações em nível de sistema e roteamento. Com a Quantização, basta escolher o tipo de precisão que deseja usar e inicia um trabalho de benchmark para medir as compensações entre performance e precisão. O Amazon SageMaker gerará um relatório de avaliação abrangente para que você possa analisar facilmente a relação entre performance e precisão. Com a Compilação, para os modelos mais populares e suas configurações, o Amazon SageMaker buscará automaticamente os artefatos do modelo compilado durante a configuração e a escalabilidade do endpoint, eliminando a necessidade de executar trabalhos de compilação com antecedência e economizando assim em custos de hardware.

O kit de ferramentas de otimização de inferências do Amazon SageMaker ajuda a reduzir seus custos e o tempo para otimizar modelos de IA generativa, permitindo que você se concentre em seus objetivos de negócios.

ML com baixo código

O SageMaker Canvas é um serviço sem código com uma interface intuitiva do tipo apontar e clicar, que permite que você crie previsões baseadas em machine learning altamente precisas a partir dos seus dados. O SageMaker Canvas permite que você acesse e combine dados de várias origens usando uma interface de usuário do tipo arrastar e soltar, limpando e preparando os dados automaticamente para minimizar a limpeza manual. O SageMaker Canvas aplica uma variedade de algoritmos de ML de última geração para encontrar modelos preditivos altamente precisos e fornece uma interface intuitiva para fazer previsões. Você pode usar o SageMaker Canvas para fazer previsões muito mais precisas em uma variedade de aplicações de negócios e colaborar facilmente com cientistas e analistas de dados em sua empresa, compartilhando seus modelos, dados e relatórios. Para saber mais sobre o SageMaker Canvas, consulte Perguntas frequentes sobre o Amazon SageMaker Canvas.

Com o SageMaker Canvas, você paga com base na utilização. O SageMaker Canvas permite que você ingira, explore e prepare seus dados de diversas origens de forma interativa, treine modelos de ML altamente precisos com seus dados e gere previsões. Dois componentes determinam a sua fatura: cobrança por sessão com base no número de horas em que o SageMaker Canvas foi usado ou estava conectado e cobrança pelo treinamento do modelo com base no tamanho do conjunto de dados utilizado para construir o modelo. Para obter mais informações, consulte preços do Amazon SageMaker Canvas.

Fluxos de trabalho de ML

O Amazon SageMaker Pipelines ajuda você a criar fluxos de trabalho de ML totalmente automatizados, da preparação de dados até a implantação do modelo, para que seja possível escalar para milhares de modelos de ML em produção. É possível criar pipelines com o SageMaker Python SDK e visualizá-los, executá-los e auditá-los na interface visual do SageMaker Studio. O SageMaker Pipelines cuida do gerenciamento de dados entre as etapas, empacotando as fórmulas de código e orquestrando sua execução, reduzindo meses de codificação a algumas horas. Sempre que um fluxo de trabalho é executado, um registro completo dos dados processados e das ações realizadas é mantido para que os cientistas de dados e desenvolvedores de ML possam depurar problemas rapidamente.

Você pode usar uma etapa de registro de modelo em seu pipeline do SageMaker para consolidar todos os modelos candidatos à implantação em um só lugar. Posteriormente, você ou outra pessoa da sua equipe poderá descobrir, revisar e aprovar esses modelos para implantação no Registro de Modelos do SageMaker por meio da interface do usuário do SageMaker Studio ou do Python SDK.
Um pipeline do SageMaker é composto por “etapas”. Você pode escolher qualquer um dos tipos de etapas com suporte nativo para compor um fluxo de trabalho que invoca vários atributos do SageMaker (por exemplo, treinamento, avaliação) ou outros serviços da AWS (por exemplo. EMR, Lambda). Você também pode aplicar lift-and-shift em seu código do Python de ML existente no pipeline do SageMaker usando o decorador do python “@step” ou adicionando cadernos do python inteiros como componentes do pipeline. Para obter mais detalhes, consulte o guia do desenvolvedor de pipelines do SageMaker.
O SageMaker Pipelines rastreia automaticamente todos os constituintes do modelo e mantém uma trilha de auditoria de todas as alterações, eliminando o rastreamento manual, e pode ajudar você a cumprir as metas de conformidade. Você pode rastrear dados, códigos, modelos treinados e muito mais com o SageMaker Pipelines.

Não há cobrança adicional pelo SageMaker Pipelines. Você paga somente pela computação subjacente ou por quaisquer serviços separados da AWS que usar no SageMaker Pipelines.

Sim. Os componentes do Amazon SageMaker para Kubeflow Pipelines são plug-ins de código aberto que permitem o uso do Kubeflow Pipelines para definir fluxos de trabalho de ML e usar o SageMaker para as etapas de rotulagem, treinamento e inferência de dados. O Kubeflow Pipelines é um complemento do Kubeflow que permite a criação e a implantação de pipelines completos de ML portáteis e escaláveis. No entanto, quando usam o Kubeflow Pipelines, as equipes de operações de ML precisam gerenciar um cluster do Kubernetes com instâncias de CPU e GPU, além de manter uma alta utilização constante para reduzir os custos operacionais. A maximização da utilização de um cluster entre equipes de ciência de dados é um desafio e adiciona sobrecarga operacional às equipes de operações de ML. Como alternativa para um cluster Kubernetes otimizado para ML, com os componentes do SageMaker para Kubeflow Pipelines você pode aproveitar os recursos avançados do SageMaker, como rotulagem de dados, trabalhos totalmente gerenciados de ajuste de hiperparâmetros e de treinamento distribuído em larga escala, implantação segura e escalonável de modelos com um clique e treinamento econômico usando instâncias spot do Amazon Elastic Compute Cloud (Amazon EC2) sem precisar configurar e gerenciar clusters do Kubernetes especificamente para a execução de trabalhos de ML.

Não há cobrança adicional pelo uso dos componentes do SageMaker para Kubeflow Pipelines. 

Humano-in-the-loop

Human-in-the-loop é o processo de aproveitar a contribuição humana em todo o ciclo de vida do ML para melhorar a precisão e a relevância dos modelos. As pessoas podem realizar uma variedade de tarefas, desde a geração e anotação de dados até a revisão e personalização do modelo. A intervenção humana é especialmente importante para aplicações de IA generativa, em que os humanos normalmente são tanto o solicitante quanto o consumidor do conteúdo. Portanto, é fundamental que as pessoas treinem os modelos de base (FMs) para responder com precisão, segurança e relevância às solicitações dos usuários. O feedback humano pode ser aplicado para ajudar você a concluir várias tarefas. Primeiro, criar conjuntos de dados de treinamento rotulados de alta qualidade para aplicações de IA generativa por meio de aprendizado supervisionado (em que uma pessoa simula o estilo, a duração e a precisão de como um modelo deve responder às solicitações do usuário) e o aprendizado por reforço com feedback humano (em que uma pessoa ordena e classifica as respostas do modelo). Segundo, usar dados gerados por humanos para personalizar FMs em tarefas específicas ou com dados específicos da empresa e domínio e tornar a saída do modelo relevante para você.

Os recursos human-in-the-loop desempenham um papel importante na criação e no aprimoramento de aplicações de IA generativa alimentadas por FMs. Uma força de trabalho humana altamente qualificada, treinada de acordo com as diretrizes das tarefas, pode fornecer feedback, orientação, contribuições e avaliação em atividades, como gerar dados de demonstração para treinar FMs, corrigir e melhorar as respostas das amostras, ajustar um modelo com base em dados da empresa e do setor, agir como uma proteção contra toxicidade e preconceitos e muito mais. Os recursos human-in-the-loop, portanto, podem melhorar a precisão e a performance do modelo. 

O Amazon SageMaker Ground Truth oferece o conjunto mais abrangente de recursos human-in-the-loop. Há duas maneiras de usar o Amazon SageMaker Ground Truth: uma oferta de autoatendimento e uma oferta gerenciada pela AWS. Na oferta de autoatendimento, seus anotadores de dados, criadores de conteúdo e engenheiros de prompts (internos, gerenciados pelo fornecedor ou público) podem usar nossa interface de usuário de baixo código para acelerar tarefas simples e ter flexibilidade para criar e gerenciar fluxos de trabalho personalizados. Na oferta gerenciada pela AWS (SageMaker Ground Truth Plus), cuidamos do trabalho pesado para você, que inclui selecionar e gerenciar a força de trabalho certa para seu caso de uso. O SageMaker Ground Truth Plus projeta e personaliza um fluxo de trabalho de ponta a ponta (incluindo treinamento detalhado da força de trabalho e etapas de garantia de qualidade) e fornece uma equipe qualificada gerenciada pela AWS que é treinada nas tarefas específicas e atende aos requisitos de qualidade, segurança e conformidade de dados da empresa. 

Preparar dados

O SageMaker Data Wrangler reduz o tempo de agregação e preparação de dados para ML. A partir de uma única interface no SageMaker Studio, é possível navegar e importar dados do Amazon S3, Amazon Athena, Amazon Redshift, AWS Lake Formation, Amazon EMR, Snowflake e do Databricks em apenas algumas etapas. Além disso, é possível consultar e importar dados transferidos de mais de 50 fontes de dados e registrados no Catálogo de Dados do AWS Glue pelo Amazon AppFlow. O SageMaker Data Wrangler faz o carregamento, agregação e exibição dos dados brutos automaticamente. Após importar seus dados no SageMaker Data Wrangler, você pode ver colunas de resumo e histogramas gerados automaticamente. Você pode então analisar seus dados mais a fundo para identificar possíveis erros com o relatório de qualidade dos dados e insights do SageMaker Data Wrangler, que fornece um resumo estatístico e alertas de qualidade. Você também pode executar uma análise de tendência com o SageMaker Clarify diretamente no SageMaker Data Wrangler para detectar possíveis tendências durante a preparação de dados. Ali, você pode usar as transformações predefinidas do SageMaker Data Wrangler para preparar seus dados. Depois que os dados estiverem preparados, você pode criar fluxos de trabalho de ML totalmente automatizados com o Amazon SageMaker Pipelines ou importar os dados para o Amazon SageMaker Feature Store.

O SageMaker Data Wrangler aceita dados tabulares, de séries temporais e de imagens, oferecendo mais de 300 transformações de dados pré-configuradas para preparar diferentes modalidades de dados. Para clientes que desejam preparar dados de texto no Data Wrangler para casos de uso de PLN, o Data Wrangler oferece suporte à biblioteca NLTK para que os clientes possam preparar dados de texto criando transformações personalizadas no Data Wrangler.
O SageMaker Data Wrangler oferece uma seleção de mais de 300 transformações de dados desenvolvidas previamente e baseadas em PySpark para que você possa transformar os dados e escalar o fluxo de trabalho de preparação de dados sem a necessidade de escrever uma única linha de código. Além disso, é possível transformar os dados para os modelos de ML usando uma interface de linguagem natural com tecnologia de FM ou criar um trecho de código personalizado da biblioteca de trechos do SageMaker Data Wrangler.
O SageMaker Data Wrangler ajuda você a entender seus dados e identificar possíveis erros e valores extremos com um conjunto de modelos robustos e pré-configurados de visualização. Histogramas, gráficos de dispersão e visualizações específicas de ML, como detecção de vazamento de destino, estão todos disponíveis sem necessidade de se escrever uma única linha de código. Você também pode criar e editar suas próprias visualizações.

Você paga por todos os recursos de computação, armazenamento e processamento de dados de ML que utiliza no SageMaker Data Wrangler. Você pode revisar todos os detalhes dos preços do SageMaker Data Wrangler aqui. Como parte do nível gratuito da AWS, você também pode começar a usar o SageMaker Data Wrangler gratuitamente.

O SageMaker Data Wrangler oferece uma experiência unificada que possibilita preparar dados e treinar um modelo de machine learning no SageMaker Canvas sem complicações. O SageMaker Canvas desenvolve, treina e ajusta automaticamente os melhores modelos de ML com base em seus dados. Você também pode usar atributos preparados no SageMaker Data Wrangler com seus modelos existentes. Você pode configurar o processamento de trabalhos do SageMaker Data Wrangler para ser executado como parte do seu pipeline de treinamento do SageMaker configurando o trabalho na interface do usuário (IU) ou exportando um notebook com o código de orquestração.
Você pode configurar e iniciar os trabalhos do SageMaker Processing diretamente na IU do SageMaker Data Wrangler, inclusive agendar o seu trabalho de processamento de dados e parametrizar suas fontes de dados para transformar novos lotes de dados em escala com facilidade.
Depois que você tiver preparado seus dados, o SageMaker Data Wrangler oferece diferentes opções para promover seu fluxo do SageMaker Data Wrangler para produção e integra perfeitamente com MLOps e recursos de CI/CD. Você pode configurar e iniciar os trabalhos do SageMaker Processing diretamente na IU do SageMaker Data Wrangler, inclusive agendar o seu trabalho de processamento de dados e parametrizar suas fontes de dados para transformar novos lotes de dados em escala com facilidade. Alternativamente, o SageMaker Data Wrangler se integra perfeitamente ao SageMaker Processing e ao contêiner do SageMaker Spark, permitindo que você use o SDK do SageMaker para integrar o SageMaker Data Wrangler no seu fluxo de trabalho de produção.
Em algumas etapas, o SageMaker Data Wrangler divide e treina um modelo XGBoost com hiperparâmetros padrão. Com base no tipo de problema, o SageMaker Data Wrangler fornece um resumo do modelo, um resumo dos atributos e uma matriz de confusão para que você tenha informações rápidas para poder iterar seus dados nos fluxos de preparação.
O SageMaker Data Wrangler oferece suporte a várias técnicas de amostragem, como top-K, aleatória e estratificada para importação de dados, para que você possa transformar seus dados rapidamente usando a IU do SageMaker Data Wrangler. Se você estiver usando conjuntos de dados grandes ou largos, pode aumentar o tamanho da instância do SageMaker Data Wrangler para melhorar a performance. Depois de criar seu fluxo, você pode processar o seu conjunto de dados completo usando os trabalhos de processamento do SageMaker Data Wrangler.
Sim, você pode configurar o arquivo de atributos SageMaker como um destino para seus atributos preparados no SageMaker Data Wrangler. Isso pode ser feito diretamente na IU ou você pode exportar um notebook gerado especificamente para processamento de dados com o SageMaker Feature Store como um destino.

O arquivo de atributos SageMaker Feature é uma plataforma totalmente gerenciada e desenvolvida para armazenar, compartilhar e gerenciar recursos para modelos de machine learning (ML). Os atributos podem ser descobertos e compartilhados para facilitar a reutilização entre modelos e equipes com acesso e controle seguros, inclusive entre contas da AWS. O arquivo de atributos SageMaker oferece suporte a recursos online e offline para inferência em tempo real, inferência em lote e treinamento. Ele também gerencia canais de engenharia de atributos em lote e streaming para reduzir a duplicação na criação de atributos e melhorar a precisão do modelo.

Geralmente, os atributos off-line correspondem a grandes volumes de dados históricos que são usados ​​para o treinamento e para a inferência em lote. Os atributos off-line são mantidos em um armazenamento de objetos de alta disponibilidade e alta durabilidade.
Os atributos on-line são usados ​​em aplicações com a finalidade de realizar previsões em tempo real. Os atributos on-line são disponibilizados por um armazenamento com alto throughput, que oferece suporte para latências de milissegundos de um dígito em aplicações cliente, proporcionando previsões rápidas.
O arquivo de atributos SageMaker mantém automaticamente a consistência entre os atributos online e offline sem gerenciamento ou código adicionais, para garantir a consistência em todos os ambientes de treinamento e inferência.
O SageMaker Feature Store mantém carimbos de data/hora para todos os atributos e fornece métodos integrados que ajudam você a recuperar atributos a qualquer momento, para necessidades comerciais ou de conformidade. Em vez da criação de consultas SQL complexas ou da escrita de longos códigos, é possível usar métodos integrados para acessar diferentes datas e realizar junções precisas de pontos no tempo, possibilitando a geração de conjuntos de dados para treinamento e inferência em lote para o período desejado.

Comece a usar o arquivo do SageMaker Feature Store gratuitamente como parte do nível gratuito da AWS. Com a SageMaker Feature Store, você paga para gravar na loja de recursos e ler e armazenar na loja de recursos online. Para obter detalhes dos preços, consulte preços do Amazon SageMaker.

O SageMaker oferece duas ofertas de rotulagem de dados: Amazon SageMaker Ground Truth Plus e Amazon SageMaker Ground Truth. Ambas as opções permitem a identificação de dados brutos, como imagens, arquivos de texto e vídeos, e a adição de rótulos informativos para criar conjuntos de dados de treinamento de alta qualidade para seus modelos de ML. Para saber mais, consulte Rotulagem de dados do Amazon SageMaker.

Dados geoespaciais representam características ou objetos na superfície da Terra. O primeiro tipo de dado geoespacial é um vetor de dados que usa elementos geométricos bidimensionais como pontos, linhas ou polígonos para representar objetos como estradas e limites de terras. O segundo tipo de dado geoespacial são dados rasterizados como imagens capturadas por satélite, plataformas aéreas ou dados de sensoriamento remoto. Esse tipo de dado usa uma matriz de pixels para definir onde os atributos estão localizados. Você pode usar formatos rasterizados para armazenar dados variáveis. Um terceiro tipo de dado geoespacial são os dados com geotag da localização. Isso inclui pontos de interesse, como a Torre Eiffel, por exemplo, locais marcados em publicações nas redes sociais, coordenadas de latitude e longitude ou diferentes estilos e formatos de endereços físicos.
Os recursos geoespaciais do SageMaker facilitam para cientistas de dados e engenheiros de ML as tarefas de criar, treinar e implantar modelos de ML para fazer previsões usando dados geoespaciais. Você pode trazer seus próprios dados, como dados de satélite da Planet Labs do Amazon S3, ou adquirir dados do Open Data na AWS, do Amazon Location Service e de outras fontes de dados geoespaciais do SageMaker.
Você pode usar os recursos geoespacial do SageMaker para fazer previsões sobre dados geoespaciais mais rapidamente do que soluções do tipo “faça você mesmo”. Os recursos geoespaciais do SageMaker facilitam o acesso aos dados geoespaciais dos data lakes existentes dos clientes, conjuntos de dados de código aberto e outras fontes de dados geoespaciais do SageMaker. Os recursos geoespaciais do SageMaker minimizam a necessidade de criar funções personalizadas de infraestrutura e pré-processamento de dados, oferecendo algoritmos específicos para preparação eficiente de dados, treinamento de modelos e inferência. Você também pode criar e compartilhar visualizações e dados personalizados dentro da sua organização com o SageMaker Studio. Os recursos geoespaciais do SageMaker incluem modelos pré-treinados para usos comuns em agricultura, imóveis, seguros e serviços financeiros.

Criar modelos

É possível usar cadernos Jupyter totalmente gerenciados no SageMaker para o desenvolvimento completo de ML. Aumente ou diminua a escala verticalmente de instâncias de computação com uma ampla seleção de instâncias otimizadas para computação e com GPU acelerada na nuvem.

Os cadernos do SageMaker Studio são cadernos Jupyter que podem ser iniciados rapidamente com uma etapa. Os recursos de computação subjacentes são totalmente elásticos. Portanto, você pode aumentar ou reduzir facilmente os recursos disponíveis, e as alterações ocorrem automaticamente em segundo plano sem interromper seu trabalho. O SageMaker também permite o compartilhamento de blocos de anotações com uma etapa. Você pode compartilhar facilmente cadernos com outros usuários e eles receberão exatamente o mesmo caderno, salvo no mesmo local.

Com os cadernos do SageMaker Studio, você pode fazer login com suas credenciais corporativas usando o IAM Identity Center. É fácil compartilhar notebooks dentro das equipes e entre elas, pois as dependências necessárias para a execução de um notebooks são rastreadas automaticamente em imagens de trabalho encapsuladas com o notebooks quando ele é compartilhado.

Os cadernos nos IDEs do SageMaker Studio oferecem alguns atributos importantes que os diferenciam dos cadernos baseados em instâncias. Primeiro, é possível iniciar cadernos com rapidez, sem a necessidade do provisionamento manual de uma instância e a espera de que ela esteja operacional. O tempo de inicialização da execução da IU para leitura e execução de um caderno é mais rápido do que os cadernos baseados em instância. Você também tem a flexibilidade de escolher entre uma grande coleção de tipos de instância diretamente da IU a qualquer momento. Não será mais necessário acessar o Console de Gerenciamento da AWS para iniciar novas instâncias e fazer a portabilidade dos seus cadernos. Cada usuário tem um diretório inicial isolado, independente de uma instância específica. Esse diretório é montado automaticamente em todos os servidores de cadernos e kernels à medida que são inicializados, permitindo que você acesse seus cadernos e outros arquivos mesmo que mude de instância para visualizar e executar seus cadernos. Os notebooks do SageMaker Studio são integrados ao Centro de Identidade do AWS IAM (sucessor do AWS SSO), facilitando o uso de suas credenciais organizacionais para acessá-los. Eles também são integrados a ferramentas de ML com propósito específico no SageMaker e a outros serviços da AWS para o desenvolvimento completo de ML, desde a preparação de dados em escala de petabytes usando o Spark no Amazon EMR, o treinamento e a depuração de modelos, até a implantação e o monitoramento de modelos e o gerenciamento de pipelines.
Os cadernos do Amazon SageMaker nos IDEs do Studio oferecem acesso a todos os atributos do SageMaker, como treinamento distribuído, transformação em lote e hospedagem. Você também pode acessar outros serviços, como conjuntos de dados no Amazon S3, no Amazon Redshift, no AWS Glue, no Amazon EMR ou no AWS Lake Formation a partir dos cadernos do SageMaker.

Profissionais de ML podem criar uma área de trabalho compartilhada onde os membros da equipe podem ler e editar notebooks do SageMaker Studio juntos. Ao usar os espaços compartilhados, os colegas de equipe podem coeditar o mesmo arquivo de notebook, executar o código do notebook simultaneamente e analisar os resultados juntos para eliminar idas e vindas e simplificar a colaboração. Nos espaços compartilhados, as equipes de ML terão suporte integrado para serviços como BitBucket e AWS CodeCommit para que possam gerenciar com facilidade diferentes versões do notebook e comparar alterações ao longo do tempo. Todos os recursos criados dentro dos notebooks, como experimentos e modelos de ML, são automaticamente gravados e associados ao espaço de trabalho específico no qual foram criados para facilitar a organização e agilizar o desenvolvimento de modelos de ML.

Quando você usa cadernos do SageMaker em IDEs do Studio, paga por computação e armazenamento. Consulte os preços do Amazon SageMaker para ver a cobrança por tipo de instância de computação. Seus blocos de anotações e artefatos associados, como arquivos de dados e scripts, são persistidos no Amazon Elastic File System (Amazon EFS). Consulte os preços do Amazon EFS para ver as taxas de armazenamento. Como parte do nível gratuito da AWS, você pode começar a usar gratuitamente os cadernos no SageMaker Studio.

Não. Você pode criar e executar vários blocos de anotações na mesma instância de computação. Você paga apenas pela computação utilizada e não por itens individuais. Leia mais sobre isso em nosso guia de medição.

Além dos notebooks, você também pode iniciar e executar terminais e shells interativos no SageMaker Studio, tudo na mesma instância de computação. Cada aplicação é executada em um contêiner ou em uma imagem. O SageMaker Studio fornece várias imagens incorporadas, criadas e pré-configuradas especificamente para ciência de dados e ML.

Você pode monitorar e desativar os recursos usados pelos cadernos do SageMaker Studio usando a interface visual do SageMaker Studio e o Console de Gerenciamento da AWS. Consulte a documentação para obter mais detalhes.

Sim, você continuará a ser cobrado pela computação. Esta situação é semelhante a iniciar instâncias do Amazon EC2 no Console de Gerenciamento da AWS e depois fechar o navegador. As instâncias do Amazon EC2 continuam em execução e a cobrança continua ativa, a menos que encerre explicitamente a instância.

Não. A criação e configuração de um domínio do SageMaker Studio não é cobrada, assim como a inclusão, alteração e exclusão de perfis de usuário.

Como administrador, você pode ver a lista de cobranças discriminadas do SageMaker, incluindo o SageMaker Studio, no Console de Faturamento da AWS. No Console de Gerenciamento da AWS para o SageMaker, selecione Serviços no menu superior, digite cobrança na caixa de pesquisa, selecione Cobrança na lista suspensa e Cobrança no painel esquerdo. Na seção Detalhes, você pode selecionar SageMaker para ampliar a lista de regiões e detalhar as cobranças por item.

O SageMaker Studio Lab é um ambiente de desenvolvimento de ML gratuito que fornece computação, armazenamento (até 15 GB) e segurança, tudo sem custo, para qualquer pessoa aprender e experimentar ML. Tudo que você precisa para começar é um ID de e-mail válido. Você não precisa configurar a infraestrutura ou gerenciar a identidade e o acesso ou até mesmo se cadastrar em uma conta da AWS. O SageMaker Studio Lab acelera a criação de modelos por meio da integração do GitHub e vem pré-configurado com as ferramentas, estruturas e bibliotecas de ML mais populares para você começar imediatamente. O SageMaker Studio Lab salva automaticamente seu trabalho para que você não precise reiniciá-lo entre as sessões. É tão fácil quanto fechar seu laptop e voltar mais tarde.
O SageMaker Studio Lab se destina a estudantes, pesquisadores e cientistas de dados que precisam de um ambiente gratuito para desenvolvimento de notebooks sem necessidade de configuração para suas aulas e experimentos de ML. O SageMaker Studio Lab é ideal para usuários que não precisam de um ambiente de produção, mas ainda desejam um subconjunto de funcionalidades do SageMaker para aprimorar suas habilidades de ML. As sessões do SageMaker são salvas automaticamente, ajudando os usuários a continuar de onde pararam em cada sessão.
SageMaker Studio Lab é um serviço criado na AWS e usa muitos dos mesmos serviços essenciais do Amazon SageMaker Studio, como Simple Storage Service (Amazon S3) e Amazon EC2. Ao contrário de outros serviços, os clientes não precisarão de uma conta da AWS. Em vez disso, eles criarão uma conta específica do SageMaker Studio Lab com um endereço de e-mail. Isso dará ao usuário acesso a um ambiente limitado (15 GB de armazenamento e sessões de 12 horas) para executar cadernos de ML.

O SageMaker Canvas ajuda você a descobrir perfeitamente as fontes de dados da AWS às quais sua conta tem acesso, incluindo o Simple Storage Service (Amazon S3) e o Amazon Redshift. Você pode navegar e importar dados usando a interface visual do tipo arrastar e soltar do SageMaker Canvas. Além disso, você pode arrastar e soltar arquivos do disco local e usar conectores predefinidos para importar dados de fontes de terceiros, como o Snowflake.

Depois de conectar as origens, selecionar um conjunto de dados e preparar seus dados, você pode selecionar a coluna de destino que deseja prever para iniciar um trabalho de criação de modelo. O SageMaker Canvas identifica automaticamente o tipo de problema, gera novos atributos relevantes, testa um conjunto abrangente de modelos preditivos usando técnicas de ML como regressão linear, regressão logística, aprendizado profundo, previsão de séries temporais e boosting de gradiente, e cria o modelo que faz previsões precisas com base no seu conjunto de dados.

Treinar modelos

O SageMaker HyperPod foi desenvolvido especificamente para acelerar o treinamento de modelos de base (FMs). Ele fornece uma infraestrutura mais resiliente, otimizada para treinamento distribuído em grande escala, permitindo que você treine em milhares de aceleradores com mais rapidez. Ele detecta, diagnostica e se recupera automaticamente das falhas, para que você possa treinar FMs por meses seguidos sem interrupções. O SageMaker HyperPod é pré-configurado com as bibliotecas de treinamento distribuídas do SageMaker para ajudar você a melhorar a performance de forma eficiente, distribuindo os dados de treinamento do modelo em partes menores, para que possam ser processados em paralelo nos aceleradores.
Se você precisar de workloads de treinamento maiores e mais longas que exijam uma grande quantidade de instâncias de computação, como GPUs ou aceleradores da AWS, você pode usar o SageMaker HyperPod para uma experiência mais resiliente e reduzir o tempo de treinamento.

Sim. O SageMaker pode distribuir automaticamente modelos de aprendizado profundo e grandes conjuntos de treinamento em instâncias de GPU da AWS em uma fração do tempo necessário para construir e otimizar essas estratégias de distribuição manualmente. As duas técnicas de treinamento distribuído aplicadas pelo SageMaker são paralelismo de dados e paralelismo de modelos. O paralelismo de dados é aplicado para melhorar as velocidades de treinamento, dividindo os dados igualmente em várias instâncias de GPU, permitindo que cada instância treine simultaneamente. O paralelismo de modelos é útil para modelos muito grandes para serem armazenados em uma única GPU, o que exige que o modelo seja particionado em partes menores antes de ser distribuído em várias GPUs. Com apenas algumas linhas de código adicional em seus scripts de treinamento PyTorch e TensorFlow, o SageMaker aplicará automaticamente o paralelismo de dados ou o paralelismo de modelo para você, permitindo que você desenvolva e implante seus modelos mais rapidamente. O SageMaker determinará a melhor abordagem para dividir seu modelo usando algoritmos de particionamento gráfico para equilibrar a computação de cada GPU, ao mesmo tempo minimizando a comunicação entre instâncias de GPU. O SageMaker também otimiza seus trabalhos de treinamento distribuído por meio de algoritmos que utilizam totalmente a infraestrutura de computação e rede da AWS para obter eficiência de escalabilidade quase linear, o que permite concluir o treinamento com mais rapidez em comparação com as implementações de código aberto manuais.

O SageMaker Experiments ajuda na organização e no monitoramento de iterações para modelos de ML. O SageMaker Experiments ajuda a gerenciar as iterações ao capturar automaticamente os parâmetros de entrada, as configurações e os resultados, armazenando-os como "experimentos". Você pode criar um experimento do Amazon SageMaker para rastrear seus fluxos de trabalho de ML com algumas linhas de código do ambiente de desenvolvimento de sua preferência. Você também pode integrar os experimentos do SageMaker em seu script de treinamento do SageMaker usando o SageMaker Python SDK.
O SageMaker Debugger captura automaticamente métricas em tempo real durante o treinamento, como matrizes de confusão e gradientes de aprendizado, para ajudar a melhorar a precisão do modelo. As métricas do SageMaker Debugger podem ser visualizadas no SageMaker Studio para facilitar o entendimento. O SageMaker Debugger também pode gerar avisos e conselhos de correção quando problemas comuns de treinamento são detectados. O SageMaker Debugger também monitora automaticamente e cria perfis de recursos do sistema, como CPU, GPU, rede e memória em tempo real e fornece recomendações sobre a realocação destes recursos. Isso ajuda você a usar seus recursos de modo eficiente durante o treinamento e ajuda a reduzir custos e recursos.
O treinamento gerenciado de spots com o SageMaker permite treinar modelos de ML usando instâncias spot do Amazon EC2 e reduzir o custo do treinamento de modelos em até 90%.
Você habilita a opção de Treinamento gerenciado de spots ao enviar suas tarefas de treinamento e também especifica por quanto tempo aguardará a capacidade spot. O SageMaker usará instâncias spot do Amazon EC2 para executar seu trabalho e gerenciará a capacidade spot. Você tem total visibilidade do status dos trabalhos de treinamento, seja enquanto eles estão em execução, seja enquanto eles estão aguardando capacidade.
O treinamento gerenciado de spots é ideal quando você tem flexibilidade com suas execuções de treinamento e quando quer minimizar o custo dos seus trabalhos de treinamento. Com o treinamento gerenciado de spots, você pode reduzir o custo de treinamento de modelos de ML em até 90%.
O treinamento gerenciado de spots usa instâncias spot do Amazon EC2 para treinamento, e essas instâncias poderão ser pré-esvaziadas quando a AWS precisar de capacidade. Como resultado, os trabalhos do treinamento gerenciado de spots podem ser executadas em pequenos incrementos como e quando a capacidade se tornar disponível. Os trabalhos de treinamento não precisam ser reiniciadas do zero quando há um interrupção, pois o SageMaker pode retomar trabalhos de treinamento usando o ponto de verificação mais recente do modelo. As frameworks integradas e os algoritmos integrados de visão computacional com o Amazon SageMaker habilitam pontos de verificação periódicos, sendo possível habitá-los com modelos personalizados.
Recomendamos usar pontos de verificação periódicos como prática recomendada para a execução prolongada de trabalhos de treinamento. Isso impede que seus trabalhos de treinamento gerenciado de spots sejam reinicializados se a capacidade for pré-esvaziada. Quando você habilita os pontos de verificação, o SageMaker retoma suas tarefas de Treinamento gerenciado de spots desde o ponto de verificação mais recente.
Depois de concluir um trabalho de treinamento gerenciado de spots, você pode ver a economia no Console de Gerenciamento da AWS e também calcular a economia de custo como a diferença percentual entre a duração do trabalho de treinamento e a duração que foi faturada. Independentemente de quantas vezes seus trabalhos de treinamento gerenciado de spots foram interrompidos, você será cobrado somente uma vez com base no tempo gasto para baixar os dados.
O treinamento gerenciado de spots pode ser usado com todas as instâncias compatíveis com o SageMaker.

O treinamento gerenciado de spots é compatível com todas as regiões em que o SageMaker está atualmente disponível.

Não há limites fixos para o tamanho do conjunto de dados que pode ser usado para modelos de treinamento com o SageMaker.

O SageMaker inclui algoritmos integrados para regressão linear, regressão logística, clusters k-means, análise de componente principal, máquinas de fatoração, modelagem de tópicos neural, alocação latente de dirichlet, árvores reforçadas com gradiente, sequence2sequence, previsão de séries temporais, word2vec e classificação de imagens. O SageMaker também fornece contêineres otimizados do Apache MXNet, Tensorflow, Chainer, PyTorch, Gluon, Keras, Horovod, Scikit-learn e Deep Graph Library. Além disso, o SageMaker oferece suporte a algoritmos de treinamento personalizados fornecidos por meio de uma imagem do Docker de acordo com a especificação documentada.
A maioria dos algoritmos de ML expõe diversos parâmetros que controlam a como o algoritmo subjacente opera. Geralmente, esses parâmetros são mencionados como hiperparâmetros e seus valores afetam a qualidade dos modelos treinados. O ajuste automático de modelos é o processo de encontrar um conjunto de hiperparâmetros de um algoritmo que gera um modelo ideal.
Você pode executar o ajuste automático de modelos no SageMaker para qualquer algoritmo, desde que cientificamente viável, incluindo algoritmos incorporados do SageMaker, redes neurais profundas ou algoritmos arbitrários a serem incorporados ao SageMaker na forma de imagens do Docker.

Não neste momento. A performance e a experiência do ajuste de modelos são melhores dentro do SageMaker.

No momento, o algoritmo de ajuste de hiperparâmetros é uma implementação personalizada da otimização Bayesiana. Essa implementação se destina a otimizar uma métrica de objetivo especificada pelo cliente durante todo o processo de ajuste. Especificamente, a implementação verifica a métrica do objeto de trabalhos de treinamento concluídos e usa esse conhecimento para inferir a combinação de hiperparâmetros para o próximo trabalho de treinamento.

Não. O impacto de determinados hiperparâmetros sobre a performance do modelo depende de vários fatores. É difícil afirmar com certeza se um hiperparâmetro é mais importante do que os demais e, portanto, precisa de ajuste. Para algoritmos incorporados ao SageMaker, informamos se um hiperparâmetro é ou não ajustável.

A duração do trabalho de ajuste de um hiperparâmetro depende de vários fatores, incluindo o tamanho dos dados, o algoritmo subjacente e os valores dos hiperparâmetros. Além disso, os clientes podem escolher o número de trabalhos de treinamento simultâneos e o seu número total. Todas essas escolhas afetam a duração do trabalho de ajuste de hiperparâmetros.

Não neste momento. No momento, é necessário especificar uma única métrica de objetivo a ser otimizada ou alterar o código do algoritmo para emitir uma nova métrica, que é a média ponderada entre duas ou mais métricas úteis, e fazer o processo de ajuste otimizar considerando esta nova métrica de objetivo.

O trabalho de ajuste de hiperparâmetros não é cobrado. Os trabalhos de treinamento, iniciados pelo trabalho de ajuste de hiperparâmetros, serão cobrados de acordo com o preço de treinamento do modelo.

O SageMaker Autopilot automatiza tudo em um fluxo de trabalho típico de ML, incluindo pré-processamento de recursos, seleção de algoritmos e ajuste de hiperparâmetros, concentrando-se especificamente em casos de uso de classificação e regressão. Por outro lado, o ajuste automático de modelos se destina a ajustar qualquer modelo, não importando se ele é baseado em algoritmos integrados, frameworks de aprendizado profundo ou contêineres personalizados. Em troca da flexibilidade, você deve escolher manualmente o algoritmo específico, os hiperparâmetros a serem ajustados e os intervalos de pesquisa correspondentes.

Aprendizado por reforço é uma técnica de ML que permite que um atendente aprenda em um ambiente interativo por tentativa e erro, usando feedback recebido por suas próprias ações e experiências.

Sim, você pode treinar modelos de aprendizado por reforço no SageMaker, além dos modelos de aprendizado supervisionado e não supervisionado.

Embora ambos os aprendizados usem mapeamento entre entrada e saída, ao contrário do aprendizado supervisionado em que o feedback fornecido para o atendente é o conjunto correto de funções para execução de uma tarefa, o aprendizado por reforço usa um feedback atrasado em que sinais de recompensa são otimizados para garantir um objetivo em longo prazo por meio de uma sequência de ações.

Enquanto o objetivo das técnicas de aprendizado supervisionado é encontrar a resposta certa com base nos padrões dos dados de treinamento, o objetivo das técnicas de aprendizado não supervisionado é encontrar semelhanças e diferenças entre os pontos de dados. Em contraste, o objetivo das técnicas de aprendizado por reforço (RL) é aprender como alcançar um resultado desejado mesmo quando não estiver claro o que deve ser feito para isso. Como resultado, o RL é mais adequado para habilitar aplicações inteligentes, em que um atendente pode tomar decisões autônomas, como robótica, veículos autônomos, HVAC, controle industrial e muito mais.

O RL do Amazon SageMaker oferece suporte a diversos ambientes diferentes para treinamento de modelos de RL. Use produtos da AWS, como o AWS RoboMaker, ambientes de código aberto ou ambientes personalizados desenvolvidos usando interfaces Open AI Gym, ou ambientes de simulação comerciais, como o MATLAB e o SimuLink.

Não, o RL do SageMaker inclui toolkits de RL, como Coach and Ray RLLib, que oferecem implementações de algoritmos de atendente de RL, como DQN, PPO, A3C e muito mais.

Sim, você pode usar suas próprias bibliotecas de RL e implementações de algoritmo em contêineres Docker e executá-las no RL do SageMaker.

Sim. Também é possível selecionar um cluster heterogêneo onde o treinamento pode ser executado em uma instância da GPU e as simulações podem ser executadas em várias instâncias da CPU.

Implantar modelos

Depois de criar e treinar modelos, o SageMaker oferece três opções para implantá-los para que você possa começar a fazer previsões. A inferência em tempo real é adequada para workloads com requisitos de latência de milissegundos, tamanhos de carga útil de até 6MB e tempos de processamento de até 60 segundos. A transformação em lote é ideal para previsões offline em grandes lotes de dados que estão disponíveis antecipadamente. A inferência assíncrona se destina a workloads sem requisitos de latência de subsegundo, com tamanhos de carga útil de até 1GB e tempos de processamento de até 15 minutos.
A inferência assíncrona do SageMaker produz filas de solicitações de entrada e as processa de forma assíncrona. Essa opção é ideal para solicitações com grandes tamanhos de carga útil e/ou longos tempos de processamento que precisam ser processados à medida que chegam. Opcionalmente, é possível definir configurações de escalabilidade automática para reduzir a escala na vertical da instância a zero quando ela não estiver processando ativamente as solicitações para economizar custos.

É possível reduzir a escala verticalmente da contagem de instâncias de endpoint de inferência assíncrona do SageMaker a zero para economizar custos quando você não estiver processando ativamente as solicitações. Você precisa definir uma política de escalabilidade para escalar a métrica personalizada 'ApproximateBacklogPerInstance' e definir o valor 'MinCapacity' a zero. Para obter instruções detalhadas, visite a seção escalar um endpoint assíncrono automaticamente no guia do desenvolvedor. 

Inferência Sem Servidor do SageMaker é uma opção de serviço de modelo sem servidor desenvolvida para fins específicos que facilita a implantação e a escala de modelos de ML. Os pontos de extremidade de Inferência Sem Servidor do SageMaker iniciam automaticamente os recursos de computação e aumentam e diminuem a escala dependendo do tráfego, eliminando a necessidade de você escolher o tipo de instância, executar a capacidade provisionada ou gerenciar o escalonamento. Opcionalmente, você pode especificar os requisitos de memória para seu endpoint de inferência sem servidor. Você paga apenas pela duração da execução do código de inferência e pela quantidade de dados processados, não pelos períodos ociosos.

A Inferência Sem Servidor do SageMaker simplifica a experiência do desenvolvedor ao eliminar a necessidade de provisionar capacidade antecipadamente e gerenciar políticas de escalabilidade. A Inferência Sem Servidor do SageMaker pode escalar instantaneamente de dezenas a milhares de inferências em segundos com base nos padrões de uso, tornando-o ideal para aplicações de ML com tráfego intermitente ou imprevisível. Por exemplo, um serviço de chatbot usado por uma empresa de processamento de folha de pagamento vivencia um aumento nas consultas no final do mês, enquanto no restante do mês o tráfego é intermitente. O provisionamento de instâncias para o mês inteiro em tais cenários não é econômico, pois você acaba pagando por períodos ociosos. A inferência sem servidor do SageMaker ajuda a lidar com esses tipos de casos de uso ao fornecer redução da escala automática e rápida pronta para uso, sem a necessidade de prever o tráfego antecipadamente ou gerenciar políticas de escalabilidade. Além disso, você paga apenas pelo tempo de computação para executar seu código de inferência (cobrado em milissegundos) e pelo processamento de dados, tornando esta uma opção econômica para workloads com tráfego intermitente.
A simultaneidade provisionada permite que você implante modelos em endpoints de tecnologia sem servidor com desempenho previsível e alta escalabilidade, mantendo seus endpoints aquecidos para um número específico de solicitações simultâneas.

Com endpoints de tecnologia sem servidor sob demanda, se seu endpoint não receber tráfego por um tempo e, de repente, receber novas solicitações, pode levar algum tempo até que seu endpoint ative os recursos de computação para processar as solicitações. Isso é chamado de inicialização a frio. Uma inicialização a frio também pode ocorrer se suas solicitações simultâneas excederem o uso atual da solicitações simultâneas. O tempo de inicialização a frio depende do tamanho do modelo, do tempo necessário para fazer o download do modelo e do tempo de inicialização do contêiner.

Para reduzir a variabilidade em seu perfil de latência, você pode ativar a Simultaneidade Provisionada para seus endpoints de tecnologia sem servidor. Com a Simultaneidade provisionada, seus endpoints de tecnologia sem servidor estão sempre prontos e podem atender instantaneamente picos de tráfego, sem inicialização a frio.

Assim como na Inferência Sem Servidor sob demanda, quando a simultaneidade provisionada é ativada, você paga pela capacidade computacional usada para processar solicitações de inferência, cobrada por milissegundo, e pela quantidade de dados processados. Você também paga pelo uso da simultaneidade provisionada, com base na memória configurada, na duração provisionada e na quantidade de simultaneidade habilitada. Para obter mais informações, consulte Preços do Amazon SageMaker.

O SageMaker ajuda você a executar testes de sombra para avaliar um novo modelo de ML antes da liberação em produção, testando sua performance em comparação com o modelo já implantado. O SageMaker implanta o novo modelo em modo sombra junto com o modelo atual em produção e espelha uma porção definida pelo usuário do tráfego de produção para o novo modelo. Opcionalmente, ele registra as inferências do modelo em um log para comparação offline. Ele também oferece um painel em tempo real com a comparação das principais métricas de performance, como latência e taxa de erros, entre o modelo em produção e o sombra para ajudar a decidir se o novo modelo deve ser promovido para produção.
O SageMaker simplifica o processo de definição e monitoramento de variantes sombra para que você possa avaliar a performance do novo modelo de ML com o tráfego real de produção. O SageMaker elimina a necessidade de orquestrar a infraestrutura para testes de sombra. Ele permite que você controle parâmetros, como a porcentagem de tráfego espelhado para a variante sombra e a duração do teste. Como resultado, você pode começar pequeno e aumentar as solicitações de inferência para o novo modelo depois que estiver mais confiante quanto à performance dele. O SageMaker cria painéis em tempo real que mostram as diferenças de performance nas principais métricas para que você possa comparar e avaliar as diferenças de performance entre o novo modelo e o modelo em produção.

O SageMaker Inference Recommender reduz o tempo necessário para colocar os modelos de ML em produção, automatizando a comparação de performance e ajustando a performance do modelo em instâncias de ML do SageMaker. Agora você pode usar o SageMaker Inference Recommender para implantar seu modelo em um endpoint que oferece o melhor performance e minimiza os custos. Você pode começar a usar o SageMaker Inference Recommender em minutos enquanto seleciona um tipo de instância e obter recomendações para configurações de endpoint ideais em horas, eliminando semanas de teste manual e tempo de ajuste. Com o SageMaker Inference Recommender, você paga apenas pelas instâncias do SageMaker ML usadas durante os testes de carga e não há cobrança adicional.

Você deve usar o SageMaker Inference Recommendation se precisar de recomendações para a configuração correta do endpoint para melhorar a performance e reduzir custos. Anteriormente, os cientistas de dados que desejavam implantar seus modelos tinham que executar benchmarks manuais para selecionar a configuração de endpoint correta. Eles tiveram que primeiro selecionar o tipo de instância de ML correto entre os mais de 70 tipos de instância disponíveis com base nos requisitos de recursos de seus modelos e cargas úteis de amostra e, em seguida, otimizar o modelo para levar em conta diferentes hardwares. Em seguida, eles tiveram que realizar testes de carga extensos para validar se os requisitos de latência e taxa de transferência foram atendidos e se os custos são baixos. O SageMaker Inference Recommendation elimina essa complexidade tornando mais fácil para você: 1) começar em minutos com uma recomendação de instância; 2) conduzir testes de carga em todos os tipos de instância para obter recomendações sobre a configuração do seu endpoint em poucas horas; e 3) ajustar automaticamente os parâmetros do contêiner e do servidor de modelo, bem como realizar otimizações de modelo para um determinado tipo de instância.
Os cientistas de dados podem acessar o SageMaker Inference Recommendation do SageMaker Studio, AWS SDK for Python (Boto3) ou AWS CLI. Eles podem obter recomendações de implantação no SageMaker Studio no registro de modelo do SageMaker para versões de modelo registradas. Os cientistas de dados podem pesquisar e filtrar as recomendações por meio do SageMaker Studio, do AWS SDK ou da AWS CLI.

Não, atualmente só oferecemos suporte a um único modelo por endpoint.

Atualmente, oferecemos suporte apenas a endpoints em tempo real.

Oferecemos suporte a todas as regiões com suporte ao Amazon SageMaker, exceto as regiões da AWS China.

Sim, oferecemos suporte a todos os tipos de contêineres. A Inf1 do Amazon EC2, baseada no chip AWS Inferentia, requer um artefato de modelo compilado usando o compilador Neuron ou o Amazon SageMaker Neo. Depois de ter um modelo compilado para um alvo do Inferentia e o URI da imagem do contêiner associado, você pode usar o SageMaker Inference Recommender para avaliar diferentes tipos de instância do Inferentia.

O SageMaker Model Monitor permite que os desenvolvedores detectem e corrijam o desvio do conceito. O SageMaker Model Monitor detecta automaticamente desvios de conceito nos modelos implantados e fornece alertas detalhados que ajudam a identificar a origem do problema. Todos os modelos treinados no SageMaker emitem automaticamente as principais métricas que podem ser coletadas e visualizadas no SageMaker Studio. No SageMaker Studio, você pode configurar os dados a serem coletados, como visualizá-los e quando receber alertas.

Não. O SageMaker opera a infraestrutura de computação em seu nome, o que permite executar verificações de integridade, aplicar patches de segurança e realizar outras manutenções de rotina. Você também pode implantar os artefatos do modelo do treinamento com código de inferência personalizado no seu próprio ambiente de hospedagem.

A hospedagem do SageMaker escala automaticamente a performance necessária para a aplicação usando Application Auto Scaling. Além disso, você pode alterar manualmente o número e o tipo das instâncias sem que haja tempo de inatividade pela modificação da configuração do endpoint.

O SageMaker emite métricas de performance para o Amazon CloudWatch Metrics para que você possa rastrear métricas, definir alarmes e reagir automaticamente a mudanças no tráfego de produção. Além disso, o SageMaker escreve logs para o Amazon Cloudwatch Logs, o que permite monitorar e solucionar problemas do ambiente de produção.

O SageMaker pode hospedar qualquer modelo que siga a especificação documentada para imagens de Docker de inferência. Isso inclui os modelos criados de artefatos de modelo e código de inferência do SageMaker.

O SageMaker foi criado para escalar para um grande número de transações por segundo. O número preciso varia em função do modelo implantado e do número e do tipo de instâncias nas quais o modelo é implantado.

Como um serviço totalmente gerenciado, o Amazon SageMaker se encarrega de configurar e gerenciar instâncias, compatibilidades de versões de software e versões de patches. Ele também fornece métricas e logs integrados para endpoints que você pode usar para monitorar e receber alertas. Com as ferramentas e fluxos de trabalho guiados do SageMaker, todo o processo de empacotamento e implantação do modelo de ML é simplificado, facilitando a otimização dos endpoints para alcançar a performance desejada e economizar. Você pode implantar facilmente os modelos de ML, incluindo modelos de base, com apenas alguns cliques no SageMaker Studio ou usando o novo PySDK.

O Batch Transform permite que você execute previsões em dados em lotes grandes ou pequenos. Não é preciso dividir o conjunto de dados em diversas partes nem gerenciar endpoints em tempo real. Com uma API simples, você pode solicitar previsões para um grande número de registros de dados e transformar os dados de maneira rápida e fácil.

O SageMaker oferece suporte às seguintes opções de endpoint: endpoints de modelo único, um modelo em um contêiner hospedado em instâncias dedicadas ou sem servidor para baixa latência e alto throughput. Endpoints multimodelo: hospede vários modelos usando uma infraestrutura compartilhada para obter economia e maximizar a utilização. Você pode controlar o volume de computação e memória que cada modelo pode usar para garantir que cada modelo tenha acesso aos recursos necessários para uma execução eficiente. Pipelines de inferência serial: vários contêineres que compartilham instâncias dedicadas e executam em uma sequência. Use um pipeline de inferência para combinar tarefas da ciência de dados que incluem pré-processamento, previsões e pós-processamento.
Você pode usar políticas de escalabilidade para escalar automaticamente os recursos computacionais subjacentes, visando acomodar as flutuações nas solicitações de inferência. Controle as políticas de escalabilidade para cada modelo de ML separadamente para lidar com as mudanças no uso do modelo com facilidade e, ao mesmo tempo, otimizar os custos de infraestrutura.

O SageMaker Edge Manager torna mais fácil otimizar, proteger, monitorar e manter modelos de ML em frotas de dispositivos de borda, como câmeras inteligentes, robôs, computadores pessoais e dispositivos móveis. O SageMaker Edge Manager ajuda os desenvolvedores de ML a operar modelos de ML em uma variedade de dispositivos de borda em escala.

Para começar a usar o SageMaker Edge Manager, você precisa compilar e empacotar seus modelos de ML treinados na nuvem, registrar seus dispositivos e prepará-los com o SDK do SageMaker Edge Manager. Para preparar o seu modelo para implantação, o SageMaker Edge Manager usa o SageMaker Neo para compilar o seu modelo para o hardware de borda de destino. Depois que o modelo é compilado, o SageMaker Edge Manager assina o modelo com uma chave gerada pela AWS e, em seguida, empacota o modelo com seu tempo de execução e as credenciais necessárias para prepará-lo para a implantação. No lado do dispositivo, você registra seu dispositivo com o SageMaker Edge Manager, baixa o SDK do SageMaker Edge Manager e, em seguida, segue as instruções para instalar o agente SageMaker Edge Manager nos seus dispositivos. O caderno do tutorial fornece um exemplo detalhado de como você pode preparar os modelos e conectá-los em dispositivos de borda com o SageMaker Edge Manager.

O SageMaker Edge Manager é compatível com dispositivos baseados em CPU (ARM, x86), GPU (ARM, Nvidia) comuns, com sistemas operacionais Linux e Windows. Com o passar tempo, o SageMaker Edge Manager se expandirá para ser compatível com mais processadores integrados e plataformas móveis que também são compatíveis com o SageMaker Neo.

Não, você não precisa. Você pode treinar seus modelos em outro lugar ou usar um modelo pré-treinado de código aberto ou de seu fornecedor de modelos.

Sim, você precisa. O SageMaker Neo converte e compila seus modelos em um executável que você pode empacotar e implantar em seus dispositivos de borda. Assim que o pacote do modelo for implantado, o agente SageMaker Edge Manager desempacotará o pacote do modelo e executará o modelo no dispositivo.

O SageMaker Edge Manager armazena o pacote do modelo no bucket do Simple Storage Service (Amazon S3) especificado. Você pode usar o recurso de implantação sem fios fornecido pelo AWS IoT Greengrass ou qualquer outro mecanismo de implantação da sua escolha para implantar o pacote de modelo do seu bucket do S3 nos dispositivos.

Neo dlr é um tempo de execução de código aberto que executa apenas modelos compilados pelo serviço SageMaker Neo. Em comparação com a dlr de código aberto, o SDK do SageMaker Edge Manager inclui um atendente de nível corporativo no dispositivo com segurança adicional, gerenciamento de modelo e recursos de serviço de modelos. O SDK do SageMaker Edge Manager é adequado para implantação de produção em escala.

Você pode usar o SageMaker Edge Manager em seis regiões: Leste dos EUA (Norte da Virgínia), Leste dos EUA (Ohio), Oeste dos EUA (Oregon), Europa (Irlanda), Europa (Frankfurt) e Ásia-Pacífico (Tóquio). Acesse a Lista de serviços regionais da AWS para obter detalhes.

O SageMaker Neo permite que modelos de ML sejam treinados uma vez e executados em qualquer lugar na nuvem e na borda. O SageMaker Neo otimiza automaticamente os modelos criados com frameworks populares de DL que podem ser usados para implantação em várias plataformas de hardware. Os modelos otimizados são executados até 25 vezes mais rápido e consomem menos de um décimo dos recursos dos modelos de ML típicos.

Para começar a usar o SageMaker Neo, faça login no console do SageMaker, escolha um modelo treinado, siga o exemplo para compilar modelos e implante o modelo resultante na plataforma de hardware de destino.

O SageMaker Neo contém dois componentes principais: um compilador e um tempo de execução. Primeiro, o compilador SageMaker Neo lê os modelos exportados por frameworks diferentes. Em seguida, ele converte as funções e operações específicas para cada estrutura em uma representação intermediária indiferente à estrutura. Depois, realiza uma série de otimizações. Em seguida, o compilador gera código binário para as operações otimizadas e grava em uma biblioteca de objetos compartilhados. O compilador também salva a definição do modelo e os parâmetros em arquivos separados. Durante a execução, o tempo de execução do SageMaker Neo carrega os artefatos gerados pelo compilador: definição do modelo, parâmetros e a biblioteca de objetos compartilhados para executar o modelo.

Não. Você pode treinar os modelos em outros lugares e usar o SageMaker Neo para otimizá-los para instâncias de ML do SageMaker ou dispositivos compatíveis do AWS IoT Greengrass.

Atualmente, o SageMaker Neo oferece suporte à maioria dos modelos de DL que alimentam os aplicativos de visão computacional e os modelos de árvore de decisões mais populares usados no SageMaker atualmente. O SageMaker Neo otimiza o desempenho dos modelos AlexNet, ResNet, VGG, Inception, MobileNet, SqueezeNet e DenseNet treinados em MXNet e TensorFlow e modelos de floresta de corte de classificação e aleatórios treinados em XGBoost.

Você encontra as listas de instâncias de nuvem, dispositivos de borda e versões de framework com suporte na documentação do SageMaker Neo.

Para ver uma lista das regiões com suporte, consulte a lista de serviços regionais da AWS.

Amazon SageMaker Savings Plans

Os SageMaker Savings Plans oferecem um modelo de definição de preço flexível baseado em uso para o SageMaker, em troca de um compromisso com uma quantidade consistente de uso (medida em USD/hora) por um período de um ou três anos. Os SageMaker Savings Plans fornecem a maior flexibilidade e ajudam a reduzir seus custos em até 64%. Esses planos são aplicados automaticamente a usos de instâncias de ML qualificadas do SageMaker, incluindo cadernos do SageMaker Studio, cadernos sob demanda do SageMaker, SageMaker Processing, SageMaker Data Wrangler, SageMaker Training, SageMaker Real-Time Inference e SageMaker Batch Transform, independentemente da família, tamanho ou região das instâncias. Por exemplo, você pode alterar o uso de uma instância de CPU ml.c5.xlarge em execução no Leste dos EUA (Ohio) para uma instância ml.Inf1 no Oeste dos EUA (Oregon) para workloads de inferência a qualquer momento e continuar automaticamente a pagar o preço dos Savings Plans.
Se você tem uma quantidade consistente de uso de instâncias do SageMaker (medidas em USD/hora) e usa vários componentes do SageMaker, ou espera que sua configuração de tecnologia (por exemplo, família de instâncias ou, região) mude ao longo do tempo, o SageMaker Savings Plans simplifica a maximização das suas economias e, ao mesmo tempo, proporciona flexibilidade para alterar a configuração de tecnologia subjacente com base nas necessidades da aplicação ou em inovações. A taxa do Savings Plans é aplicada automaticamente a todo o uso de instâncias de ML qualificadas sem modificações manuais necessárias.
Você pode começar a usar os Savings Plans no Explorador de Custos da AWS no Console de Gerenciamento da AWS ou usando a API/CLI. Você pode facilmente assumir um compromisso no Savings Plans usando as recomendações fornecidas no AWS Cost Explorer para obter as maiores economias. O compromisso por hora recomendado é baseado no uso histórico sob demanda e na escolha do tipo de plano, período de vigência e opção de pagamento. Depois de se cadastrar em um Savings Plan, seu uso de computação será cobrado automaticamente pelos preços com desconto para Savings Plans, e qualquer uso além do seu compromisso será cobrado a taxas regulares sob demanda.
A diferença entre o Savings Plans para o SageMaker e o Savings Plans para o Amazon EC2 está nos serviços que eles incluem. Os SageMaker Savings Plans só se aplicam ao uso de instâncias de ML do SageMaker.

Os Savings Plans podem ser adquiridos em qualquer conta dentro de uma família do AWS Organization/Faturamento consolidado. Por padrão, o benefício fornecido pelos Savings Plans é aplicável ao uso em todas as contas de uma família do AWS Organization/faturamento consolidado. No entanto, você também pode optar por restringir o benefício dos Savings Plans apenas à conta que os comprou.