Clientes de Amazon SageMaker

Vea cómo las organizaciones líderes en todo el mundo utilizan Amazon SageMaker para crear, entrenar e implementar modelos de machine learning (ML).

Articul8 AI

“Amazon SageMaker HyperPod nos ayudó mucho a administrar y operar nuestros recursos computacionales de manera más eficiente con un tiempo de inactividad mínimo. Fuimos los primeros en adoptar el servicio HyperPod basado en Slurm y nos beneficiamos de sus características de facilidad de uso y resiliencia, lo que se tradujo en una mejora de la productividad de hasta un 35 % y una rápida ampliación de nuestras operaciones de GenAI. Como empresa de Kubernetes, nos complace dar la bienvenida al lanzamiento de la compatibilidad de Amazon EKS con SageMaker HyperPod. Esto supone un punto de inflexión para nosotros, ya que se integra perfectamente con nuestros canales de entrenamiento existentes y nos facilita aún más la administración y el funcionamiento de nuestros clústeres de Kubernetes a gran escala. Además, esto también ayuda a nuestros clientes finales, ya que ahora podemos empaquetar y producir esta capacidad en nuestra plataforma GenAI, lo que permite a nuestros clientes ejecutar sus propias cargas de trabajo de entrenamiento y ajuste de forma más ágil”.

Arun Subramaniyan, fundador y director ejecutivo de Articul8 AI

Observea

“Como startup e investigadora de IA que avanza rápidamente, el soporte de Amazon EKS en SageMaker HyperPod fue fundamental para acelerar nuestro tiempo de comercialización. Con SageMaker Hyperpod, pudimos lanzar una plataforma estable y segura para ofrecer aplicaciones de procesamiento de alto rendimiento (HPC) en contenedores como un servicio a nuestros clientes finales, entre los que se incluyen los principales programas universitarios de investigación de IA, startups de IA y empresas tradicionales. Gracias al uso de SageMaker HyperPod, nuestros clientes y equipos internos ya no tienen que preocuparse por operar y configurar el plano de control de Kubernetes, y SageMaker HyperPod proporciona el rendimiento de la red y las configuraciones optimizadas para respaldar cargas de trabajo de HPC complejas. Con EKS Support en SageMaker HyperPod, podemos reducir el tiempo que dedicábamos a tareas pesadas indiferenciadas en la administración de infraestructuras y reducir los costos operativos en más de un 30 %.”

Vamsi Pandari, fundador de Observea

IA recursiva

“Se simplificó todo el proceso. Con SageMaker HyperPod, podemos aprovechar las características de resiliencia de los clústeres que identifican y recuperan automáticamente los trabajos de entrenamiento desde el último punto de control guardado en caso de que se produzca un fallo de hardware. Ejecutamos cargas de trabajo muy diversas, desde aplicaciones, inferencias y entrenamiento, con Kubernetes como hilo conductor. Para nosotros, Amazon EKS con SageMaker HyperPod simplemente funciona: los nodos entran en nuestro clúster”.

Nathan Wilce, jefe de infraestructura y datos, Recursal

Rocket Companies

Rocket Mortgage

“Rocket Mortgage se enorgullece de estar a la vanguardia de la integración de la inteligencia artificial y la ciencia de datos en el proceso de ser propietario de una vivienda, con AWS como socio clave. Con Amazon SageMaker, estamos transformando nuestras operaciones de machine learning y aumentando la eficiencia y la precisión. El editor visual de las canalizaciones de SageMaker permite realizar evaluaciones rápidas del rendimiento de los nuevos LLM de código abierto ejecutándolos a través de nuestro proceso de validación automatizado. Esto minimiza el tiempo necesario para evaluar las nuevas versiones, lo cual es crucial en un panorama que cambia rápidamente. La facilidad de uso permite a nuestros equipos de ciencia de datos centrarse en la innovación en lugar de en la reescritura del código”.

Shawn Malhotra, Chief Technology Officer de Rocket Companies

SatSure

SatSure, líder mundial en soluciones de inteligencia geoespacial para la toma de decisiones, utiliza datos de observación de la Tierra y modelos de aprendizaje profundo para generar información para diversos casos de uso, desde la supervisión de cultivos en cualquier condición climática y la puntuación de riesgos agrícolas hasta la detección de cambios en la cubierta terrestre, la administración de vegetación, el riesgo de incendios y la identificación de características del terreno.
 

“Aprovechamos las canalizaciones de Amazon SageMaker para crear modelos para una aplicación que identifique los límites de las explotaciones agrícolas en imágenes de satélite de baja resolución. Desarrollar modelos de aprendizaje profundo de última generación a partir de grandes conjuntos de datos de imágenes de satélite es extremadamente difícil. Podemos centrarnos más en la innovación de la IA y dedicar menos tiempo a los procesos manuales porque las canalizaciones nos permiten automatizar el procesamiento frecuente de datos, el entrenamiento de modelos y el despliegue de modelos. La interfaz de usuario de arrastrar y soltar permite a los nuevos científicos de datos del equipo avanzar rápidamente y crear flujos de trabajo de machine learning sin conocimientos especializados sobre un marco de orquestación de flujo de trabajo específico”.

Prateep Basu, Fundador y Director ejecutivo de SatSure Ltd.

EagleView

“Para satisfacer la demanda de nuestros clientes de información de datos de alta calidad, investigamos y ofrecemos constantemente nuevas capacidades respaldadas por machine learning. La nueva interfaz de usuario de arrastrar y soltar en las canalizaciones de Amazon SageMaker proporcionará a nuestros científicos de datos una forma de centrarse en los problemas más difíciles de visión artificial (CV) sin preocuparse por los MLOP. Estamos creando canalizaciones que permiten a los científicos de datos registrar sus modelos en SageMaker sin tener que coordinar con los ingenieros de aprendizaje automático para optimizar el entorno de servicio de modelos. El proceso de varios pasos desplegará automáticamente los modelos registrados en los puntos de enlace de Amazon SageMaker Inference en entornos de control de calidad para realizar pruebas de carga y, si los ingenieros de aprendizaje automático lo aprueban, en entornos de producción. La velocidad general de nuestro desarrollo continuo de machine learning ha mejorado significativamente porque las canalizaciones de Amazon SageMaker facilitan la integración con otros servicios de AWS (CI/CD, servicios de mensajería) para crear flujos de trabajo de machine learning altamente personalizados”.

Garrett Hemann, Director de IA y ML de EagleView

Thomson Reuters

GoDaddy

En GoDaddy, nuestro objetivo es ayudar a los emprendedores a tener éxito brindándoles las herramientas para establecer sus negocios. “Atendemos a clientes con necesidades diversas. Con frecuencia se comunican con las empresas a las que dan soporte las 24 horas del día y a través de varios canales, como el correo electrónico, el chat y las redes sociales”, afirma Jing Xi, vicepresidente de aprendizaje automático aplicado e inteligencia artificial de GoDaddy. “Hoy en día, la IA generativa iguala el campo de juego para las pequeñas empresas al darles una increíble cantidad de poder y conocimiento, normalmente reservados a las grandes corporaciones, al alcance de la mano. Sin embargo, uno de los mayores desafíos a los que se enfrentan nuestros equipos de desarrollo de IA generativa es tratar de averiguar qué FM es la adecuada para sus aplicaciones empresariales. Para nosotros, es importante poder comparar fácilmente los modelos en función de los criterios específicos que son más importantes para nuestros clientes y lograr el equilibrio adecuado entre el costo del modelo, la latencia y la precisión y el rendimiento del modelo. La nueva capacidad de evaluación de modelos de Amazon SageMaker nos ayuda a acelerar el tiempo que lleva pasar de la idea a la implementación, ya que elimina las complejidades que implica el proceso de selección de modelos y permite realizar fácilmente la experimentación, el desarrollo, el despliegue y la administración de nuevas versiones de estos modelos. Nos entusiasma ampliar el acceso a esta nueva capacidad a más equipos para que nuestros desarrolladores puedan aumentar su productividad y aprovechar aún más el poder de la IA generativa para que los clientes desarrollen sus negocios.”
“GoDaddy ha estado a la vanguardia en la utilización de machine learning (ML) para ofrecer características centradas en el cliente, así como para mejorar la rentabilidad en nuestras operaciones internas. Nuestros científicos de ML trabajan en numerosos proyectos para cumplir con estos objetivos. La rápida iteración en el flujo de trabajo de ML de la selección de datos, el registro de experimentos, la administración de artefactos de modelos mediante el uso de un registro de modelos y el despliegue es esencial para ofrecer valor. La necesidad de una herramienta hecha a medida como MLflow era un requerimiento firme y claro de nuestros científicos de ML. Amazon SageMaker ofrece una plataforma administrada y gobernada para los científicos de ML para flujos de trabajo de ML integrales y, al permitir el uso de una herramienta estándar del sector como MLflow dentro de SageMaker, mejora nuestro ciclo de vida de desarrollo de modelos”. Obtenemos la seguridad y madurez de nivel empresarial de productos como el Registro de modelos de Amazon SageMaker, al tiempo que aprovechamos el seguimiento de experimentos de ML estándar del sector a través de MLflow. La adopción de MLflow de SageMaker en nuestros equipos redujo la carga operativa que supone mantener nuestras propias instancias alojadas de MLflow, al tiempo que mantiene nuestra velocidad de entrega y permite una mayor colaboración. Nos complace haber colaborado con el equipo de SageMaker desde las primeras fases para consolidar esta oferta de productos y, al mismo tiempo, ofrecer valor a nuestros científicos de ML.”

Karthik Iyer, director de Ingeniería de Machine Learning

KBC

KBC

“En KBC Bank, creemos que incentivar a nuestros científicos de datos con las herramientas adecuadas es esencial para impulsar la innovación. Una forma eficaz de innovar es mediante la experimentación continua, que nos permite explorar nuevas ideas y mejorar nuestros modelos. MLflow proporciona una plataforma sólida para gestionar y documentar experimentos. Tenerlo como servicio gestionado mejorará la experiencia de usuario de nuestros científicos de datos, al tiempo que simplificará la configuración y el mantenimiento de nuestra plataforma de machine learning.”

Thiago Alves, ingeniero de MLOps

Wallapop

Wallapop

“Para gestionar de manera eficaz el creciente número de experimentos de ML y garantizar el éxito del despliegue de los modelos, es crucial contar con un sistema sólido de seguimiento de experimentos y registro de modelos. MLflow proporciona una solución eficiente para este propósito, ya que permite un seguimiento fluido de todos los experimentos de ML en detalle, lo que requiere modificaciones mínimas en nuestra base de código. Esto facilita la selección del modelo óptimo para Wallapop y garantiza un proceso de desarrollo de ML ágil y eficiente. Por lo tanto, tener esta plataforma directamente integrada y administrada dentro de AWS permite a nuestro equipo centrarse en el valor real de nuestras soluciones de ML, en lugar de realizar todo el trabajo arduo que requeriría dicho servicio.”

Martí Jordà Roca, ingeniero de Machine Learning

Gran Abid

Gran Abid

“Amazon SageMaker nos permite crear modelos de machine learning distribuidos a gran escala con facilidad. En lugar de depender de procesos manuales, podemos automatizar la mayor parte del desarrollo sin problemas dentro de Amazon SageMaker. Necesitamos una forma confiable de hacer un seguimiento del rendimiento de nuestros trabajos de capacitación automatizada para poder compararlos, encontrar los mejores modelos e implementarlos. La integración con MLflow nos permite hacerlo sin la ardua tarea de configurar y administrar MLflow por nuestra cuenta. Esto mejora aún más nuestro flujo de trabajo, ya que proporciona una sólida funcionalidad para la comparación de modelos y el registro de modelos, lo que mejora de manera significativa nuestra eficiencia de desarrollo y despliegue.”

Eyal Trabelsi, arquitecto de datos

Toyota Connected

Toyota Connected

“Amazon SageMaker con MLflow ha proporcionado un gran valor gracias a su integración sencilla pero muy eficaz con SageMaker para el seguimiento y la administración de experimentos y la calidad de los modelos. La integración nativa de MLflow con Amazon SageMaker ha facilitado nuestras tareas de seguimiento y promoción de modelos. Al ser un servicio administrado, no tenemos que preocuparnos por la infraestructura subyacente, lo que nos permite centrarnos en mejorar nuestros modelos y acelerar nuestro ciclo de desarrollo.”

Sumeet Kishnani, director científico de datos

Thomson Reuters

Thomson Reuters

“Thomson Reuters ha estado a la vanguardia del desarrollo de la IA durante más de 30 años y nos comprometemos a ofrecer soluciones significativas que ayuden a nuestros clientes a obtener resultados más rápido, con un mejor acceso a información fiable. Para acelerar nuestra innovación en IA generativa, además de asociarnos con proveedores de LLM, también estamos explorando el entrenamiento de modelos personalizados de manera más eficiente con nuestro contenido único y patentado y nuestra experiencia humana. Las bibliotecas de entrenamiento distribuido de SageMaker HyperPod nos ayudan a mejorar el rendimiento del entrenamiento de modelos a gran escala. Además, su característica de resiliencia ahorra tiempo a medida que supervisamos y administramos la infraestructura. El entrenamiento de nuestros modelos fundacionales en SageMaker HyperPod aumentará nuestra velocidad de comercialización y nos ayudará a ofrecer soluciones de calidad a nuestros clientes a buen ritmo”.

Joel Hron, director de IA y laboratorios de Thomson Reuters

“Pudimos cumplir nuestros requisitos de entrenamiento de modelos lingüísticos extensos con Amazon SageMaker HyperPod. Con Amazon EKS en SageMaker HyperPod, pudimos ampliar la capacidad y ejecutar con facilidad trabajos de entrenamiento, lo que nos permitió aprovechar las ventajas de los LLM en áreas como el resumen legal y la clasificación”.

John Duprey, ingeniero distinguido de Thomson Reuters Labs

Hugging Face

Hugging Face

“Hugging Face ha utilizado SageMaker HyperPod para crear nuevos e importantes modelos fundacionales abiertos, como StarCoder, IDEFICS y Zephyr, que se han descargado millones de veces. Las capacidades de resiliencia y rendimiento de SageMaker HyperPod, diseñadas de forma específica, han permitido a nuestro equipo de ciencia abierta centrarse en innovar y publicar mejoras importantes en la forma en que se crean los modelos fundacionales, en lugar de en administrar la infraestructura. Nos gustó especialmente la forma en que SageMaker HyperPod puede detectar fallos de hardware de ML y reemplazar con rapidez el hardware defectuoso sin interrumpir el entrenamiento continuo del modelo. Dado que nuestros equipos necesitan innovar con rapidez, esta característica automatizada de recuperación de trabajos nos ayudó a minimizar las interrupciones durante el proceso de formación del modelo básico, lo que nos permitió ahorrar cientos de horas de entrenamiento en tan solo un año”.

Jeff Boudier, head of Product en Hugging Face.

Hugging Face

Perplexity AI

“Buscábamos la infraestructura de ML adecuada para aumentar la productividad y reducir los costos con el fin de crear modelos de lenguajes grandes de alto rendimiento. Tras realizar algunos experimentos satisfactorios, cambiamos a AWS desde otros proveedores de la nube para utilizar Amazon SageMaker HyperPod. Hemos estado utilizando HyperPod durante los últimos cuatro meses para crear y ajustar los LLM para impulsar el motor de respuestas conversacionales de Perplexity, que responde a las preguntas junto con las referencias proporcionadas en forma de citas. Como SageMaker HyperPod supervisa de forma automática el estado del clúster y corrige los fallos de la GPU, nuestros desarrolladores pueden centrarse en la creación de modelos en lugar de dedicar tiempo a administrar y optimizar la infraestructura subyacente. Las bibliotecas paralelas de modelos y datos integradas de SageMaker HyperPod nos ayudaron a optimizar el tiempo de entrenamiento en las GPU y a duplicar el rendimiento del entrenamiento. Como resultado, nuestros experimentos de entrenamiento ahora pueden ejecutarse dos veces más rápido, lo que significa que nuestros desarrolladores pueden iterar con mayor rapidez y así acelerar el desarrollo de nuevas experiencias de IA generativa para nuestros clientes”.

Aravind Srinivas, cofundador y CEO de Perplexity AI

Hugging Face

Workday

“Más de 10 000 organizaciones de todo el mundo confían en Workday para administrar sus activos más valiosos: sus personas y su dinero. Brindamos soluciones responsables y transparentes a los clientes al seleccionar el mejor modelo fundacional que refleje las políticas de nuestra empresa en torno al uso responsable de la IA. Para tareas como la creación de descripciones de puestos, que deben ser de alta calidad y promover la igualdad de oportunidades, probamos la nueva capacidad de evaluación de modelos en Amazon SageMaker y nos entusiasma la posibilidad de medir los modelos fundacionales a través de métricas como el sesgo, la calidad y el rendimiento. Esperamos poder utilizar este servicio en el futuro para comparar y seleccionar modelos que se ajusten a nuestros estrictos criterios de IA responsable”.

Shane Luke, vice president of AI and Machine Learning de Workday.
 

Hugging Face

Salesforce

“En Salesforce, tenemos un enfoque de ecosistema abierto para los modelos fundacionales, y Amazon SageMaker es un componente vital que nos ayuda a escalar nuestra arquitectura y acelerar nuestra comercialización. Con la nueva capacidad de inferencia de SageMaker, pudimos colocar todos nuestros modelos en un único punto de conexión de SageMaker que administraba de forma automática toda la asignación de recursos y el uso compartido de los recursos computacionales, lo que aceleraba el rendimiento y reducía el costo de despliegue de los modelos básicos”.

Bhavesh Doshi, vice president of Engineering de Salesforce.
 

Freddy's

Bain & Co

“Uno de los mayores desafíos para Aura es extraer información significativa de un vasto conjunto de datos profesionales no estructurados. Al emplear modelos de lenguaje de gran tamaño a través de Amazon SageMaker Canvas, automatizamos el proceso de extracción de datos y transformamos la forma en que las empresas evalúan las competencias de la fuerza laboral y las estructuras organizativas. Este enfoque no solo nos ayudó a escalar el análisis de datos, sino que también superó las limitaciones de los métodos tradicionales de análisis de datos, como la coincidencia de palabras clave. Con las nuevas capacidades de preparación de datos y LLM de SageMaker Canvas, Aura puede calificar y comparar cuantitativamente a las empresas en función de la eficacia de su estructura organizativa, las habilidades de la fuerza laboral y el desempeño en términos de resultados financieros”.

Purna Doddapaneni, CTO de Founder’s Studio y socio de Bain & Co.

Hugging Face

Wix

“La inferencia de Amazon SageMaker nos ayuda a implementar modelos en varias zonas de disponibilidad y a ejecutar predicciones a escala, ya sea en línea o en modo por lotes”.

Itamar Keller, Research and Development Team Leader de Wix

Hugging Face

Qred

“Con una plataforma centralizada que utiliza Amazon SageMaker, el cumplimiento es más sencillo. Es más simple agregar datos confidenciales cuando los tenemos centralizados y protegidos”.

Lezgin Bakircioglu, Chief Technology Officer de Qred

Stability AI

Stability AI

“Como empresa líder en IA generativa de código abierto, nuestro objetivo es maximizar la accesibilidad de la IA moderna. Estamos creando modelos fundacionales con decenas de miles de millones de parámetros, que requieren una infraestructura que pueda escalar un rendimiento de entrenamiento optimizado. Con la infraestructura administrada y las bibliotecas de optimización de SageMaker HyperPod, podemos reducir el tiempo y los costos de formación en más de un 50 %. Hace que nuestro entrenamiento de modelos sea más resistente y eficaz para crear modelos de última generación con mayor rapidez”.

Emad Mostaque, fundador y CEO - Stability AI

iFood
“En iFood, nos esforzamos por satisfacer a nuestros clientes a través de nuestros servicios que utilizan tecnologías como el machine learning (ML). Crear un flujo de trabajo completo y fluido para desarrollar, entrenar e implementar modelos ha sido una parte fundamental de nuestro viaje para escalar el ML. Las canalizaciones de Amazon SageMaker nos permiten crear rápidamente numerosos flujos de trabajo de ML escalables y automatizados y facilitan la implementación y la administración eficaz de nuestros modelos. SageMaker Pipelines nos permite ser más eficaces en nuestro ciclo de desarrollo. Continuamos destacando nuestro liderazgo en la utilización de IA y ML para ofrecer un servicio de atención al cliente y una eficacia superiores con todas estas nuevas capacidades de Amazon SageMaker”.

Sandor Caetano, Chief Data Scientist de iFood

Care.com
“Una industria de atención donde los suministros satisfagan la demanda es esencial para el crecimiento económico tanto de una familia particular como del PBI de la nación. Estamos entusiasmados con Amazon SageMaker Pipelines, puesto que creemos que nos ayudará a escalar mejor con nuestros equipos de ciencia de datos y desarrollo, mediante la utilización de un conjunto consistente y selecto de datos con el que podemos crear canalizaciones de modelos de machine learning (ML) escalables e integrales, que abarquen desde la preparación de los datos hasta su implementación. Con las capacidades de Amazon SageMaker recientemente anunciadas, podemos acelerar el desarrollo y la implementación de nuestros modelos de ML para diferentes aplicaciones, a fin de ayudar a nuestros clientes a tomar mejores decisiones mediante recomendaciones más rápidas en tiempo real”.

Clemens Tummeltshammer, gerente de ciencia de Datos de Care.com

3M
“Con el uso de ML, 3M está mejorando los productos de eficacia comprobada, como el papel de lija, e innovando en muchos otros ámbitos, incluido el de la sanidad. A medida que planeamos escalar el proceso de machine learning en más áreas de 3M, vemos cómo la cantidad de datos y modelos crecen rápidamente y se multiplican año tras año. Estamos entusiasmados con las nuevas características de SageMaker porque nos ayudarán a escalar. Amazon SageMaker Data Wrangler facilita la preparación de datos para el entrenamiento de modelos y el almacén de características de Amazon SageMaker elimina la necesidad de crear repetidamente las mismas características del modelo. Por último, Amazon SageMaker Pipelines nos ayudará a automatizar la preparación de datos y la creación e implementación de modelos en un flujo de trabajo integral, para así poder acelerar el tiempo de comercialización de nuestros modelos. Nuestros investigadores esperan aprovechar el nuevo ritmo de la ciencia en 3M”.

David Frazee, Technical Director de 3M Corporate Systems Research Lab

“Con Amazon SageMaker JumpStart, pudimos experimentar con varios modelos básicos, seleccionar los que mejor se adaptaban a nuestras necesidades en el sector de la salud y lanzar rápidamente aplicaciones de ML mediante la implementación de modelos de SageMaker que cumplen con la HIPAA. Esto nos ha permitido mejorar la velocidad y la escala del proceso de entrada de datos para las recetas y la atención al cliente”.

Alexandre Alves, ingeniero jefe, Amazon Pharmacy

Canva
“En Canva, tenemos la misión de dar poder al mundo para diseñar y hacer que sea fácil para cualquier persona crear algo bello en cualquier dispositivo. Con la IA generativa, estamos ayudando a los usuarios a dar vida a sus ideas con el menor esfuerzo posible. Gracias a SageMaker JumpStart, podemos capacitar a nuestros equipos para iniciarse en la IA generativa y probar diversos modelos fundacionales. En nuestro hackathon global, los Canvanauts pudieron desplegar fácilmente una amplia variedad de modelos fundacionales y poner en marcha sus proyectos. Fue una parte clave del éxito de nuestro hackathon”.

Nic Wittison, Engineering Lead for AI Products en Canva

Dovetail
“En Dovetail, ayudamos a las organizaciones a mejorar la calidad de sus productos y servicios mediante el poder de comprender mejor a sus clientes. Con Amazon SageMaker JumpStart, podemos acceder a modelos básicos de vanguardia, probarlos e implementarlos fácilmente. Usamos AI21 Jurassic-2 Mid para permitir un resumen mejorado y pudimos integrarlo en nuestra aplicación SaaS en cuestión de semanas, en lugar de tardar meses en implementarlo. Nuestros clientes ahora pueden extraer y comprender de manera eficiente la información que obtienen de sus datos y, al mismo tiempo, mantener la privacidad y seguridad de datos».

Chris Manouvrier, director de arquitectura empresarial, Dovetail

Lexitas
“Nuestros clientes tienen miles de documentos legales y el proceso de analizarlos es tedioso y lleva mucho tiempo. A menudo, no hay forma de obtener respuestas rápidamente, como entender quién hizo una pregunta en un testimonio. Ahora, con Amazon SageMaker JumpStart, podemos acceder a modelos fundacionales de última generación para potenciar nuestros productos, de modo que los clientes pueden abordar una gran variedad de casos de uso, como la detección de contradicciones y la búsqueda semántica, a través de miles de documentos a la vez. Ahora los abogados pueden aprovechar las transcripciones pasadas para prepararse para eventos futuros, al tiempo que mantienen las estrictas necesidades de seguridad y conformidad”.

Jason Primuth, Chief Innovation Officer en Lexitas

Tyson
“En Tyson Foods, seguimos buscando formas nuevas de utilizar machine learning (ML) en nuestro proceso de producción para mejorar la productividad. Utilizamos modelos de clasificación de imágenes para identificar productos de la línea de producción que requieren etiquetas de empaque. Sin embargo, los modelos de clasificación de imágenes deben volver a entrenarse con imágenes nuevas del campo de forma recurrente. Amazon SageMaker JumpStart permite a nuestros científicos de datos compartir modelos de ML con ingenieros de soporte para que puedan entrenar modelos de ML con datos nuevos sin escribir código. Esto acelera el tiempo de comercialización de las soluciones de ML, promueve mejoras continuas y aumenta la productividad”.

Rahul Damineni, científico de datos especialista, Tyson Foods

Mission Automate
«Gracias a Amazon SageMaker JumpStart, podemos lanzar soluciones de machine learning en cuestión de días para satisfacer las necesidades de predicción de machine learning con mayor rapidez y fiabilidad.»

Alex Panait, director ejecutivo de Mission Automate

Mycase
«Gracias a Amazon SageMaker JumpStart, podemos tener mejores puntos de inicio, lo que nos permite implementar soluciones de machine learning para sus propios casos de uso en un periodo que comprende entre 4 y 6 semanas, en lugar de entre 3 y 4 meses.»

Gus Nguyen, ingeniero de software, MyCase

Pivotree
«Con Amazon SageMaker JumpStart, podemos crear aplicaciones de ML con mayor rapidez, como la detección automática de anomalías o la clasificación de objetos, y lanzar soluciones desde la prueba de concepto hasta la producción en cuestión de días.»

Milos Hanzel, arquitecto de plataformas de Pivotree  

Bundesliga
Bundesliga Match Facts, con tecnología de AWS, proporciona una experiencia más interactiva durante los partidos de fútbol a seguidores de la Bundesliga de todo el mundo. Con Amazon SageMaker Clarify, la Bundesliga puede explicar ahora de manera interactiva cuáles son algunos de los componentes clave y subyacentes al determinar qué llevó al modelo de ML a predecir un determinado valor de goles esperados. Conocer las respectivas atribuciones de la característica y explicar los resultados ayuda a depurar el modelo y aumentar la confianza en los algoritmos de ML, lo que genera predicciones de mayor calidad.
 
“Amazon SageMaker Clarify se integra sin problemas en el resto de la plataforma digital Bundesliga Match Facts y es clave en la estrategia a largo plazo de estandarización de nuestros flujos de trabajo de ML en Amazon SageMaker. Al usar la innovadora tecnología de AWS, como el machine learning, para ofrecer información en profundidad y proporcionar a los seguidores una mayor comprensión de las decisiones que se toman en el campo en décimas de segundo, Bundesliga Match Facts permite a los espectadores obtener más información sobre las decisiones clave de cada partido”.

Andreas Heyden, vicepresidente ejecutivo de innovaciones digitales de DFL Group

“Con Amazon SageMaker JumpStart, Slack puede acceder a modelos fundacionales de última generación para impulsar Slack AI y, al mismo tiempo, priorizar la seguridad y la privacidad. Los clientes de Slack ahora pueden buscar de forma más inteligente, resumir las conversaciones al instante y ser más productivos”.

Jackie Rocca, vicepresidenta de Productos de IA en Slack

capcom
CAPCOM es una empresa de juegos japonesa famosa por títulos como Monster Hunter y Street Fighter. Para mantener la satisfacción de los usuarios, CAPCOM necesitaba asegurar la calidad de juego e identificar ratios de abandono y las tendencias asociadas.
 
“La combinación de AutoGluon y Amazon SageMaker Clarify permitió a nuestro modelo de abandono de clientes predecir el abandono de clientes con una precisión del 94 %. SageMaker Clarify nos ayuda a entender el comportamiento del modelo al proporcionar explicabilidad mediante los valores SHAP. Con SageMaker Clarify, redujimos el costo de cálculo de los valores SHAP hasta en un 50 % en comparación con un cálculo local. La solución conjunta nos permite comprender mejor el modelo y mejorar el nivel de satisfacción del cliente con un mayor índice de precisión y un importante ahorro de costos”.

Masahiro Takamoto, jefe del grupo de datos, CAPCOM

DOMO
Domo forma parte de Business Cloud y está transformando la manera de administrar las empresas con la creación de una inteligencia empresarial para todo el mundo. Con Domo, los procesos críticos que tardaban semanas, meses o más ahora pueden hacerse en un abrir y cerrar de ojos, en minutos o segundos, en una escala antes imposible.
 
“Domo ofrece un conjunto escalable de soluciones de ciencia de datos que son fáciles de usar y comprender para cualquier persona en una organización. Con Clarify, nuestros clientes disponen de información importante sobre la forma en que sus modelos de IA hacen predicciones. La combinación de Clarify con Domo aumenta la velocidad y la inteligencia de la IA para nuestros clientes al poner la tecnología de la IA en manos de todos en sus negocios y ecosistemas”.

Doctor Ben Ainscough, director de IA y ciencia de datos de Domo

Varo

Varo Bank es un banco digital con sede en Estados Unidos que utiliza el ML y la IA para ayudar a tomar decisiones basadas en riesgos más rápidas y así ofrecer sus productos y servicios innovadores a los clientes.

“Varo tiene un fuerte compromiso con la transparencia y las explicaciones de los modelos de ML y estamos encantados de ver que los resultados de Amazon SageMaker Clarify nos hacen avanzar en nuestros esfuerzos”.

Sachin Shetty, Head of Data Science de Varo Money

Aurora

LG AI Research pretende liderar la próxima era de la IA mediante el uso de Amazon SageMaker para entrenar e implementar modelos de ML con mayor rapidez.

“Recientemente presentamos a Tilda, la artista de IA desarrollada por EXAONE, un sistema de IA gigantesco que puede procesar 250 000 000 de conjuntos de datos de pares de texto e imágenes de alta definición. La IA multimodal permite a Tilda crear una nueva imagen por sí misma, con su capacidad de explorar más allá del lenguaje que percibe. Amazon SageMaker fue fundamental en el desarrollo de EXAONE, debido a sus capacidades de entrenamiento distribuido y escalable. En concreto, debido a la enorme capacidad de computación necesaria para entrenar a esta IA gigantesca, es muy importante un procesamiento paralelo eficiente. También necesitábamos administrar de forma continua los datos a gran escala y ser flexibles para responder a los datos recién adquiridos. Con el entrenamiento de modelos de Amazon SageMaker y las bibliotecas de entrenamiento distribuido, lo optimizamos y entrenamos el modelo un 59 % más rápido, sin modificaciones importantes en nuestro código de entrenamiento”.

Seung Hwan Kim, Vice President y Vision Lab Leader, LG AI Research

Aurora
“En AI21 Labs ayudamos a las empresas y a los desarrolladores a utilizar modelos lingüísticos de vanguardia para cambiar la forma en que sus usuarios interactúan con el texto, sin necesidad de conocimientos de PNL. Nuestra plataforma para desarrolladores, AI21 Studio, proporciona acceso a la generación de texto, el resumen inteligente e incluso la generación de código, todo ello basado en nuestra familia de grandes modelos lingüísticos. Nuestro modelo Jurassic-Grande (TM) entrenado hace poco con 17 000 millones de parámetros se entrenó con Amazon SageMaker. Amazon SageMaker hizo que el proceso de entrenamiento de modelos fuera más fácil y eficiente, y funcionó perfectamente con la biblioteca DeepSpeed. Como resultado, pudimos escalar con facilidad los trabajos de entrenamiento distribuidos a cientos de GPU Nvidia A100. El modelo Grande proporciona una calidad de generación de texto similar a la de nuestro modelo de 178 000 millones de parámetros, mucho más grande, a un costo de inferencia mucho menor. Como resultado, nuestros clientes que implementan Jurassic-Grande en producción pueden atender a millones de usuarios en tiempo real a diario y disfrutar de la ventaja de la economía unitaria mejorada sin sacrificar la experiencia del usuario”. 

Dan Padnos, Vice President Architecture de AI21 Labs

Aurora

Gracias a Amazon SageMaker y a la biblioteca de datos distribuidos en paralelo de Amazon SageMaker (SMDDP), Torc.ai, líder en vehículos autónomos desde 2005, está comercializando camiones de conducción autónoma para el transporte seguro, sostenido y de larga distancia en el sector del transporte de mercancías.

“Mi equipo ahora puede ejecutar con facilidad trabajos de entrenamiento distribuido a gran escala mediante el entrenamiento de modelos de Amazon SageMaker y la biblioteca paralela de datos distribuidos (SMDDP) de Amazon SageMaker, que incluye terabytes de datos de entrenamiento y modelos con millones de parámetros. El entrenamiento de modelos distribuidos de Amazon SageMaker y el SMDDP nos han ayudado a escalar sin problemas sin tener que administrar la infraestructura de entrenamiento. Redujo nuestro tiempo de entrenamiento de los modelos de varios días a unas pocas horas, lo que nos permitió reducir nuestro ciclo de diseño e incorporar nuevas capacidades de vehículos autónomos a nuestra flota más rápido que nunca”.

Derek Johnson, Vice President of Engineering de Torc.ai

Aurora

Sophos, líder mundial en soluciones y servicios de ciberseguridad de próxima generación, usa Amazon SageMaker para entrenar sus modelos de ML de manera más eficiente.

“Nuestra potente tecnología detecta y elimina archivos astutamente mezclados con malware. Sin embargo, emplear modelos XGBoost para procesar conjuntos de datos de varios terabytes consumía mucho tiempo y, a veces, simplemente no era posible con un espacio de memoria limitado. Con la formación distribuida de Amazon SageMaker, podemos entrenar con éxito un modelo XGBoost ligero que es mucho más pequeño en disco (hasta 25 veces más pequeño) y en memoria (hasta cinco veces más pequeño) que su predecesor. Gracias al ajuste automático de modelos de Amazon SageMaker y al entrenamiento distribuido en instancias de spot, podemos modificar y volver a entrenar los modelos de manera rápida y eficaz sin ajustar la infraestructura de entrenamiento subyacente necesaria para escalar a conjuntos de datos tan grandes”.

Konstantin Berlin, Head of Artificial Intelligence de Sophos

Lea el blog »

Aurora
“El machine learning avanzado y la simulación a escala de Aurora son fundamentales para desarrollar nuestra tecnología de forma segura y rápida, y AWS ofrece el alto rendimiento que necesitamos para mantener nuestro progreso. Con su escala prácticamente ilimitada, AWS admite millones de pruebas virtuales para validar las capacidades del Aurora Driver, de modo que pueda sortear de forma segura los innumerables casos extremos de la conducción en el mundo real”. 

Chris Urmson, CEO de Aurora

Vea el video »

Hyundai
“Usamos modelos de visión artificial para segmentar las escenas, lo cual es importante para comprenderlas. Antes tardábamos 57 minutos en entrenar el modelo para un período, lo que nos ralentizaba. Con la biblioteca de paralelismo de datos de Amazon SageMaker y con la ayuda del Amazon ML Solutions Lab, pudimos capacitarnos en seis minutos con un código de entrenamiento optimizado en instancias de 5ml.p3.16xlarge. Gracias a la reducción de 10 veces en el tiempo de entrenamiento, podemos dedicar más tiempo a preparar los datos durante el ciclo de desarrollo”. 

Jinwook Choi, Senior Research Engineer, Hyundai Motor Company

Lea el blog »

Latent Space
“En Latent Space, estamos creando un motor de juego renderizado neuronal en el que cualquiera puede crear a la velocidad del pensamiento. Impulsados por los avances en el modelado del lenguaje, estamos trabajando para incorporar la comprensión semántica del texto y las imágenes para determinar qué generar. Nuestro objetivo actual es utilizar la recuperación de información para aumentar el entrenamiento de modelos a gran escala, para lo cual contamos con canalizaciones sofisticadas de ML. Esta configuración presenta un desafío además del entrenamiento distribuido, ya que se están entrenando múltiples orígenes de datos y modelos al mismo tiempo. Por lo tanto, estamos aprovechando las nuevas capacidades de entrenamiento distribuido de Amazon SageMaker para escalar de manera eficiente el entrenamiento para modelos generativos de gran tamaño”.

Sarah Jane Hong, cofundadora/Chief Science Officer de Latent Space

Lea el blog »

musixmatch
“Musixmatch usa Amazon SageMaker para crear modelos de procesamiento de audio y procesamiento de lenguaje natural (NLP) y está experimentando con Hugging Face con Amazon SageMaker. Elegimos Amazon SageMaker porque permite a los científicos de datos crear, entrenar y ajustar modelos de forma iterativa y rápida sin tener que preocuparse por administrar la infraestructura subyacente, lo que significa que los científicos de datos pueden trabajar de manera más rápida e independiente. A medida que la empresa ha crecido, también lo han hecho nuestros requisitos para entrenar y ajustar modelos de PNL más grandes y complejos. Siempre estamos buscando formas de acelerar el tiempo de entrenamiento y, al mismo tiempo, reducir los costos de entrenamiento, por lo que nos entusiasma el compilador de entrenamiento de Amazon SageMaker. El compilador de entrenamiento de SageMaker proporciona formas más eficientes de usar las GPU durante el proceso de entrenamiento y, con la perfecta integración entre el compilador de entrenamiento de SageMaker, PyTorch y bibliotecas de alto nivel como Hugging Face, hemos visto una mejora significativa en el tiempo de entrenamiento de nuestros modelos basados en transformadores, que ha pasado de semanas a días, además de reducir los costos de entrenamiento”.

Loreto Parisi, Artificial Intelligence Engineering Director de Musixmatch

AT&T

AT&T Cybersecurity mejoró la detección de amenazas al requerir predicciones casi en tiempo real mediante puntos de conexión multimodelo de Amazon SageMaker.

“Los puntos de conexión multimodelo de Amazon SageMaker no solo son rentables, sino que también nos brindan un pequeño aumento de rendimiento al simplificar la forma en la que almacenamos nuestros modelos”.

Matthew Schneid, Chief Architect - AT&T

Más información »
Forethought

Forethought Technologies, un proveedor de soluciones de IA generativa para el servicio de atención al cliente, redujo los costos hasta en un 80 % con Amazon SageMaker.

“Al migrar a los puntos de conexión multimodelo de Amazon SageMaker, redujimos nuestros costos hasta en un 66 % y, al mismo tiempo, proporcionamos una mejor latencia y mejores tiempos de respuesta a los clientes”.

Jad Chamoun, Director of Core Engineering de Forethought Technologies

Más información »
Bazaarvoice

Bazaarvoice redujo los costos de inferencia ML en un 82 % mediante la inferencia sin servidor de SageMaker.

“Al usar la inferencia sin servidor de SageMaker, podemos hacer ML de manera eficiente a escala, obteniendo rápidamente una gran cantidad de modelos a un costo razonable y con una baja sobrecarga operativa”.

Lou Kratz, Principal Research Engineer de Bazaarvoice

Más información »
Tapjoy

Tapjoy utiliza Amazon SageMaker para implementar modelos ML en días en lugar de meses.

“Antes tardábamos entre tres y seis meses para entrenar, crear e implementar un modelo. Ahora, con SageMaker, podemos hacerlo en una semana, quizá incluso menos”.

Nick Reffitt, Vice President of Data Science and Engineering de Tapjoy

Más información »
Zendesk

Zendesk alojó miles de modelos de ML en puntos de conexión multimodales (MME) de Amazon SageMaker para su característica de macros sugerida y logró ahorrar un 90 % en costos de inferencia en comparación con los puntos de conexión dedicados.

“Implementamos miles de modelos de ML, personalizados para nuestros más de 100 000 clientes, mediante puntos de conexión multimodelo (MME) de Amazon SageMaker. Gracias a SageMaker MME, creamos una capacidad de inferencia multiusuario y compatible con SaaS para alojar varios modelos por punto de conexión, lo que reduce el costo de inferencia en un 90 % en comparación con los puntos de conexión dedicados”.

Chris Hausler, Head of AI/ML de Zendesk

Más información »

Amazon Pharmacy

“Con Amazon SageMaker JumpStart, pudimos experimentar con varios modelos básicos, seleccionar los que mejor se adaptaban a nuestras necesidades en el sector de la salud y lanzar rápidamente aplicaciones de ML mediante la implementación de modelos de SageMaker que cumplen con la HIPAA. Esto nos ha permitido mejorar la velocidad y la escala del proceso de entrada de datos para las recetas y la atención al cliente”.

Alexandre Alves, Principal Engineer de Amazon Pharmacy

Intuit

“Con Amazon SageMaker, podemos agilizar nuestras iniciativas de inteligencia artificial a escala mediante la creación y la implementación de nuestros algoritmos en la plataforma. Crearemos novedosos algoritmos de inteligencia artificial y de aprendizaje automático a gran escala y los implementaremos en esta plataforma para resolver problemas complejos que puedan traer prosperidad a nuestros clientes”.

Ashok Srivastava, director de datos de Intuit

GE Healthcare

Con el aprovechamiento de datos y análisis en hardware, software y biotecnología, GE Healthcare transforma los servicios de salud mediante el suministro de mejores resultados a proveedores y pacientes. 

“Amazon SageMaker permite a GE Healthcare acceder a potentes herramientas y servicios de inteligencia artificial a fin de fomentar un mejor cuidado de los pacientes. La escalabilidad de Amazon SageMaker y la posibilidad de integrarlo con servicios nativos de AWS agrega un valor enorme para nosotros. Estamos ansiosos por ver de qué manera la colaboración continua entre GE Health Cloud y Amazon SageMaker impulsará mejores resultados para nuestros socios proveedores de servicios de sanidad y brindará un mejor cuidado de los pacientes”.

Sharath Pasupunuti, jefe de Ingeniería de inteligencia artificial de GE Healthcare

ADP, Inc.

ADP es una empresa líder mundial en tecnología que ofrece soluciones de administración de capital humano (HCM). ADP DataCloud aprovecha los datos inigualables de la fuerza laboral de ADP de más de 30 millones de empleados para brindar información procesable que pueda ayudar a los ejecutivos a tomar decisiones en tiempo real para administrar mejor sus negocios.

“Retener y atraer talento es difícil, por eso continuamos mejorando ADP DataCloud con capacidades de inteligencia artificial para ayudar a los empleados a mantener equipos fuertes. Utilizamos AWS Machine Learning, incluido Amazon SageMaker, para identificar rápidamente los patrones de la fuerza laboral y predecir los resultados antes de que sucedan, por ejemplo, la rotación de empleados o el impacto de un aumento en la compensación. Por aprovechar AWS como nuestra plataforma principal para inteligencia artificial y machine learning, hemos reducido el tiempo para implementar modelos de machine learning de 2 semana a solo 1 día”.

Jack Berkowitz, vicepresidente senior de Desarrollo de Productos, ADP, Inc.

BASF Digital Farming

La misión de BASF Digital Farming es ayudar a los agricultores a tomar decisiones más inteligentes y contribuir a resolver el reto de alimentar a una creciente población mundial, al mismo tiempo que se reduce la huella medioambiental.

“Amazon SageMaker y la tecnología de AWS relacionada son compatibles con la experimentación rápida y proporcionan una funcionalidad y API fáciles de usar que reducen los obstáculos de entrada para la adopción del machine learning. De este modo, podemos liberar rápidamente todo el potencial de valor de los casos de uso de machine learning”.

Dr. Christian Kerkhoff, director de Automatización de Datos de BASF Digital Farming GmbH

Cerner

Cerner

Cerner Corporation es una compañía mundial de salud y tecnología que ofrece distintas soluciones, servicios, dispositivos y hardware de tecnología de información de salud (HIT, Health Information Technology).

“Cerner se enorgullece de impulsar la innovación con la inteligencia artificial y machine learning en una gran variedad de experiencias clínicas, financieras y operativas. A través de las nuevas capacidades creadas por el Ecosistema de Machine Learning y el Procesamiento de lenguaje natural de Cerner, y gracias a nuestra colaboración con AWS, aceleramos la innovación escalable para todos nuestros clientes. Amazon SageMaker es un componente importante que permite a Cerner cumplir el objetivo de brindar valor a los clientes a través de IA/ML. Además, Amazon SageMaker proporciona a Cerner la capacidad de aprovechar diferentes marcos, como TensorFlow y PyTorch, así como la capacidad de integrarse con varios servicios de AWS”.

Doctor Sasanka Are, vicepresidente de Cerner

600x400-dow-jones_logo.jpg

Dow Jones

Dow Jones & Co. es un proveedor internacional de noticias e información empresarial que distribuye contenido a consumidores y organizaciones a través de periódicos, sitios web, aplicaciones móviles, videos, boletines, revistas, bases de datos patentadas, conferencias y emisiones radiales.

“Como en Dow Jones continuamos enfocándonos en la integración de machine learning en nuestros productos y servicios, AWS ha sido un excelente socio para ese proceso. Con una experiencia que culminó en nuestro reciente hackathon de Machine Learning, el equipo de AWS suministró formación técnica a los participantes acerca de Amazon SageMaker y Amazon Rekognition, además de ofrecer soporte en el mismo día a todos los equipos. El resultado fue que nuestros equipos desarrollaron ideas excelentes acerca de cómo podemos aplicar machine learning. Continuaremos desarrollando muchas de estas ideas en AWS. El evento fue un éxito rotundo y una muestra de cómo puede funcionar una colaboración excelente”.

Ramin Beheshti, director grupal de Tecnología y Productos de Dow Jones

Advanced Microgrid Solutions

Advanced Microgrid Solutions

Advanced Microgrid Solutions (AMS) es una compañía de servicios y plataforma del sector energético cuyo objetivo es agilizar la transformación mundial en pos de una economía basada en energías limpias. Para ello, facilita la implementación y optimización de activos para energías limpias. La NEM utiliza un mercado de subastas en el cual todas las partes realizan ofertas para consumir o proveer energía cada 5 minutos. La tarea implica predecir la demanda y sugerir ofertas dinámicas en cuestión de minutos, al mismo tiempo que se procesan grandes volúmenes de datos de mercado. A fin de resolver este desafío, AMS creó un modelo de aprendizaje profundo mediante el uso de TensorFlow on Amazon SageMaker. Aprovecharon el ajuste automático de modelos de Amazon SageMaker para encontrar los mejores parámetros de modelos y crear un modelo propio en semanas. El modelo mostró mejoras en previsiones de mercado para todos los productos energéticos en la medición de energía neta, lo que se traducirá en un incremento significativo de la eficiencia.

ProQuest

ProQuest

ProQuest reúne la colección más grande del mundo de revistas, libros electrónicos, fuentes primarias, tesis, noticias y videos. Además, crea soluciones de flujo de trabajo eficientes que ayudan a las bibliotecas a hacer crecer sus colecciones. Los productos y servicios de ProQuest se usan en bibliotecas académicas, escolares, K-12, públicas, corporativas y gubernamentales en 150 países.

“Colaboramos con AWS para crear una experiencia de usuario de videos más atractiva para los patrones de biblioteca, y así lograr que sus búsquedas devuelvan resultados más relevantes. Mediante AWS ML Solutions Lab, probamos diferentes algoritmos usando Amazon SageMaker, realizamos ajustes sobre los modelos usando optimización de hiperparámetros y automatizamos la implementación de modelos de aprendizaje automático. Estamos muy contentos con los resultados hasta el momento, y actualmente tenemos en cuenta las tecnologías de aprendizaje automático para otros productos”.

Allan Lu, vicepresidente de Herramientas de Búsqueda, Servicios y Plataformas de ProQuest

Celgene

Celgene es una empresa biofarmacéutica global que tiene el compromiso de mejorar la calidad de vida de los pacientes en todo el mundo. Su objetivo es el descubrimiento, el desarrollo y la comercialización de terapias innovadoras para pacientes con cáncer, enfermedades inmunoinflamatorias u otras necesidades de índole médica insatisfechas.

“En Celgene, buscamos ofrecer tratamientos realmente innovadores que ayuden a cambiar y mejorar la vida de los pacientes alrededor del mundo. Con Amazon SageMaker y Apache MXNet, se han facilitado y agilizado las tareas de crear y entrenar modelos de aprendizaje profundo para desarrollar soluciones y procesos. Además, podemos ampliar nuestros esfuerzos con facilidad para descubrir tratamientos y producir medicamentos. El uso de las instancias de SageMaker y Amazon EC2 P3 ha acelerado nuestros modelos de tiempo de entrenamiento y la productividad, lo que permite a nuestro equipo centrarse en investigaciones y descubrimientos revolucionarios”.

Lance Smith, director de Celgene

Atlas Van Lines

Atlas Van Lines es la segunda compañía de transporte más grande de América del Norte, creada en 1948 por un grupo de emprendedores pertenecientes a la industria del traslado y el almacenamiento. La organización se creó con la única meta de realizar traslados de una costa a la otra respetando la regla de oro del negocio. Además de una presencia sólida, Atlas cuenta con requisitos de calidad de agentes estrictos que exceden a los de la industria.

Durante las temporadas altas, la red de agentes de Atlas trabaja de manera conjunta en todos los mercados para satisfacer las demandas de los clientes. Tradicionalmente, su capacidad para predecir la capacidad era manual y muy ardua. Confiaban en el conocimiento e instinto de recursos con muchos años de experiencia. Atlas contaba con los datos históricos desde 2011 en adelante y deseaba encontrar una manera de ajustar la capacidad y los precios de manera dinámica en función de las demandas futuras del mercado.

Atlas trabajó con Pariveda Solutions, un socio consultor preferente de APN, que lo ayudó a destrabar la posibilidad de administrar los precios y la capacidad de manera proactiva en la industria del transporte de larga distancia. Pariveda preparó los datos, desarrolló y evaluó el modelo de machine learning, y ajustó el rendimiento. Usaron Amazon SageMaker para entrenar y optimizar el modelo y, luego, lo exportaron con la capacidad modular de Amazon SageMaker para poder ejecutarlo con Amazon EC2.

Edmunds

Edmunds

Edmunds.com es un sitio web de venta de vehículos que ofrece información sobre vehículos detallada y actualizada constantemente a más de 20 millones de visitantes al mes.

“Tenemos una iniciativa estratégica para poner el aprendizaje automático al alcance de todos nuestros ingenieros. Amazon SageMaker es clave para ayudarnos a cumplir esta meta, ya que facilita que los ingenieros puedan crear, entrenar e implementar modelos y algoritmos de aprendizaje automático a escala. Estamos ansiosos por ver de qué manera Edmunds usará SageMaker a fin de crear nuevas soluciones en la organización para nuestros clientes”.

Stephen Felisan, director de Información de Edmunds.com

Hotels.com

Hotels.com

Hotels.com es una marca de alojamiento internacional líder que cuenta con 90 sitios web localizados en 41 idiomas.

“En Hotels.com, siempre estamos interesados en diferentes maneras de agilizar las tareas, aprovechar las últimas tecnologías y conservar nuestro espíritu innovador. Con Amazon SageMaker, el entrenamiento distribuido, los algoritmos optimizados y las características de hiperparámetros integradas deberían permitir a mi equipo crear rápidamente modelos más precisos en nuestros conjuntos de datos más grandes, lo que reduce considerablemente el tiempo necesario para implementar un modelo en producción. Es tan solo una llamada a la API. Amazon SageMaker reducirá de manera significativa la complejidad del aprendizaje automático, lo que nos permitirá crear una mejor experiencia para nuestros clientes rápidamente”.

Matt Fryer, vicepresidente y director científico de datos de Hotels.com y Expedia Affiliate Network

Formosa Plastics

Formosa Plastics Corporation es un proveedor en crecimiento de integración vertical de resinas plásticas y productos petroquímicos. Formosa Plastics ofrece una línea completa de resinas de cloruro de polivinilo, polietileno y polipropileno, soda cáustica y otros productos petroquímicos que brindan la consistencia, el rendimiento y la calidad que exigen los clientes.

“Formosa Plastics es una de las principales compañías petroquímicas de Taiwán y se encuentra entre los principales fabricantes de plásticos del mundo. Decidimos explorar el machine learning para permitir una detección más precisa de defectos y reducir los costos de mano de obra manual. Por lo tanto, recurrimos a AWS como nuestro proveedor de nube preferido para ayudarnos a hacerlo. AWS ML Solutions Lab trabajó con nosotros en cada paso del proceso, desde un taller de descubrimiento para definir los casos de uso empresarial, hasta la creación y selección de los modelos de ML apropiados para la implementación real. Mediante el uso de Amazon SageMaker, la solución de aprendizaje automático redujo a la mitad el tiempo que nuestros empleados dedicaban a la inspección manual. Con la ayuda de Solutions Lab, ahora podemos optimizar el modelo de SageMaker nosotros mismos y seguir avanzando a medida que cambian las condiciones”.

Bill Lee, vicepresidente adjunto de Formosa Plastics Corporation

Voodoo

Voodoo es una empresa líder en juegos móviles con más de 2 mil millones de descargas de juegos y más de 400 millones de usuarios activos mensuales (MAU). Ellos ejecutan su propia plataforma de publicidad y usan el aprendizaje automático para mejorar la precisión y la calidad de las ofertas publicitarias que se muestran a sus usuarios.

“En Voodoo, necesitamos mantener una base de jugadores cada vez más activa y comprometida. Por estandarizar nuestras cargas de trabajo de inteligencia artificial y machine learning en AWS, podemos iterar al ritmo y la escala que necesitamos para seguir haciendo crecer nuestro negocio e involucrar a nuestros jugadores. Con Amazon SageMaker, podemos decidir en tiempo real qué anuncio se debe mostrar a nuestros jugadores e invocar nuestro punto de enlace más de 100 millones de veces por más de 30 millones de usuarios diariamente, esto representa cerca de mil millones de predicciones por día. Con AWS machine learning, pudimos poner en producción un modelo preciso en menos de una semana, con el apoyo de un pequeño equipo, y pudimos construir sobre él continuamente a medida que nuestro equipo y nuestro negocio crecen”.

Aymeric Roffé, Director de Tecnología, Voodoo

Regit

Regit, anteriormente denominado Motoring.co.uk, es una empresa de tecnología automotriz y el servicio online para motoristas líder en el Reino Unido. Prestan servicios de administración digital de automóviles a partir de las patentes y suministran a los conductores avisos informativos sobre recordatorios, seguros e impuestos del Ministerio de Transporte (MOT).

Regit trabajó con Peak Business Insight, un socio consultor avanzado de APN, para implementar “modelos de Machine Learning categóricos” a fin de gestionar categorías y datos de variables de forma simultánea para generar predicciones sobre la probabilidad de que los usuarios cambien sus automóviles, lo que resulta en una venta para Regit.

Peak usó servicios de AWS, como Amazon SageMaker, para la incorporación, el modelado y la generación de datos en tiempo real. Amazon SageMaker gestiona 5000 solicitudes a la API por día para Regit. Para ello, ajusta la escala y se adapta a los requisitos de datos relevantes ininterrumpidamente y administra la entrega de resultados de clasificaciones principales. Simultáneamente, instancias de Amazon Redshift y Amazon Elastic Compute Cloud (Amazon EC2) optimizan de manera eficiente y continua los resultados y el desempeño de los modelos. Con Peak, Regit logró predecir cuáles de sus 2,5 millones de usuarios cambiarán sus automóviles y cuándo. Eso significa que pueden atender a los clientes de una manera más personalizada y enfocada, lo que incrementa los ingresos del centro de atención telefónica en más de un 25 %.

Realtor.com

Realtor.com

La red Move, Inc., que incluye realtor.com®, Doorsteps® y Moving.com™, suministra información, herramientas y conocimientos profesionales sobre bienes raíces en una familia de sitios web y experiencias móviles destinada a consumidores y profesionales del sector de bienes raíces.

“Creemos que Amazon SageMaker es una incorporación transformadora para el conjunto de herramientas de realtor.com® destinadas a asistir a los consumidores en su camino para convertirse en propietarios de sus hogares. Los flujos de trabajo de aprendizaje automático, que históricamente demoraban mucho tiempo, como el entrenamiento y la optimización de modelos, pueden realizarse con mayor eficiencia y quedar a cargo de un conjunto más amplio de desarrolladores, lo que permite a nuestros científicos de datos y analistas enfocarse en la creación de la experiencia más enriquecedora para nuestros usuarios”.

Vineet Singh, director de datos y vicepresidente sénior de Move, Inc.

Grammarly

Grammarly

Los algoritmos de Grammarly ayudan diariamente a millones de personas a comunicarse de una manera más eficiente a través de asistencia de escritura en varias plataformas mediante dispositivos, con una combinación de procesamiento de lenguaje natural y tecnologías de aprendizaje automático avanzadas.

“Amazon SageMaker nos permite desarrollar nuestros modelos de TensorFlow en un entorno de entrenamiento distribuido. Nuestros flujos de trabajo también se integran con Amazon EMR para tareas de preprocesamiento a fin de que podamos extraer los datos de Amazon S3, filtrados con EMR y Spark a partir de un bloc de notas de Jupyter y, a continuación, realizar el entrenamiento en Amazon SageMaker con el mismo bloc de notas. SageMaker también es flexible para nuestros diferentes requisitos de producción. Podemos ejecutar inferencias en el mismo SageMaker o, si solo necesitamos el modelo, lo descargamos de S3 y ejecutamos las inferencias de nuestras implementaciones de dispositivos móviles para clientes que usan iOS y Android”.

Stanislav Levental, líder técnico de Grammarly

Slice Labs

Slice Labs, con su sede en Nueva York y operaciones en todo el mundo, es el primer proveedor de seguros bajo demanda para plataformas en la nube. Slice ofrece sus servicios al mercado de negocio a consumidor (B2C) con ofertas de seguros individuales bajo demanda, y al mercado B2B permitiendo a las empresas crear productos de seguros digitales intuitivos.

“En Slice, somos muy conscientes de la naturaleza cambiante de las necesidades en materia de seguros de los clientes. Por lo tanto, elegimos a AWS como nuestra plataforma en la nube debido a su amplia gama de servicios, flexibilidad y reputación sólida entre las aseguradoras. Utilizamos una amplia variedad de servicios de AWS para respaldar nuestro negocio, incluido AWS machine learning a fin de ayudar a conectar a los clientes con las mejores opciones de seguro en función de sus necesidades. En nuestro trabajo con aseguradoras y compañías tecnológicas que buscan construir y lanzar productos de seguros inteligentes, hemos visto ahorros enormes en costos y beneficios de productividad con AWS. Por ejemplo, hemos reducido el tiempo de adquisición en un 98 %, de 47 días a 1 día. Nos complace continuar expandiéndonos geográficamente y en términos de nuestro uso de la nube con AWS”.

Philippe Lafreniere, director principal de crecimiento - Slice Labs

DigitalGlobe

DigitalGlobe

“Como proveedor líder a nivel mundial de análisis, datos e imágenes terrestres de alta resolución, DigitalGlobe trabaja diariamente con grandes volúmenes de datos.

“Como proveedor líder a nivel mundial de análisis, datos e imágenes terrestres de alta resolución, DigitalGlobe trabaja diariamente con grandes volúmenes de datos. DigitalGlobe facilita a las personas encontrar, obtener acceso y ejecutar operaciones de cómputo en nuestra biblioteca de imágenes completa de 100 PB, que se almacena en la nube de AWS, para poder implementar procesos de aprendizaje profundo en imágenes satelitales. Nuestro objetivo es utilizar Amazon SageMaker para entrenar modelos en petabytes de conjuntos de datos de imágenes de observación de la Tierra con blocs de notas de Jupyter alojados, para que los usuarios de la plataforma de big data geoespacial (GBDX) de DigitalGlobe puedan pulsar un botón, crear un modelo e implementar todo en un único entorno distribuido ajustable a escala”.

Dr. Walter Scott, director de tecnología de Maxar Technologies y fundador de DigitalGlobe

Intercom

Intercom

Los productos de mensajería de Intercom se integran sin inconvenientes con los sitios web y las aplicaciones móviles de otras compañías para ayudarlos a adquirir y atraer clientes y brindarles apoyo. La empresa, fundada en 2011, tiene oficinas en San Francisco, Londres, Chicago y Dublín.

“En Intercom, tenemos un equipo en expansión de científicos de datos y de ingenieros orientados a los datos, y frecuentemente deseamos iterar de manera rápida y explorar soluciones nuevas para los productos basados en los datos. Antes de Amazon SageMaker, probamos muchas opciones diferentes para diseñar estos productos, pero cada una de ellas vino acompañada de desafíos: compartir códigos era difícil, hacer pruebas en conjuntos de datos grandes era lento y aprovisionar y administrar el hardware por nuestra cuenta era problemático. SageMaker llegó y solucionó todos nuestros problemas. Lo usamos en particular con el objeto de desarrollar algoritmos para nuestras plataformas de búsqueda y características de machine learning, y descubrimos que los Jupyter Notebook alojados de SageMaker nos permiten crear e iterar rápidamente. Esencialmente, el hecho de que SageMaker sea un servicio administrado permite que mi equipo se centre en las tareas del momento. Amazon SageMaker es un servicio extremadamente valioso para nosotros en Intercom, y nos complace continuar utilizándolo cada vez más a medida que nuestra empresa crece”.

Kevin McNally, científico de datos sénior de Machine Learning de Intercom

Kinect Energy Group

Kinect Energy Group

Kinect Energy Group es una subsidiaria de World Fuel Services, una compañía de la lista Fortune 100 que brinda servicios de asesoría para la adquisición de energía, cumplimiento de suministros y soluciones de gestión de transacciones y pagos a clientes comerciales e industriales, principalmente en las industrias de aviación, transporte marítimo y terrestre. Kinect Energy es un proveedor de energía clave de los países nórdicos y depende de los recursos naturales de energía que ofrece el clima ventoso de la región.

El negocio se ha catapultado recientemente con la introducción de una serie de servicios de AI/ML de AWS. Con Amazon SageMaker, la compañía puede predecir las próximas tendencias climáticas y, por lo tanto, los precios de la electricidad de los próximos meses, lo que posibilita un comercio de energía a largo plazo sin precedentes que representa un enfoque de vanguardia líder en la industria.

“Comenzamos a utilizar Amazon SageMaker y, con la ayuda del equipo de AWS ML Solutions y del equipo de arquitectura de soluciones, tomamos impulso con el Innovation Day y el impacto ha sido tremendo desde entonces. Hemos desarrollado nuestro propio equipo de IA varias veces para aprovechar al máximo las nuevas ventajas que ofrecen las tecnologías de AWS. Nos beneficiamos de nuevas formas al establecer precios basados en el clima que aún no ha ocurrido. Hemos hecho todo lo posible con AWS, incluido el almacenamiento de nuestros datos en S3, el uso de Lambda para la ejecución y las funciones de pasos además de SageMaker. Además, gracias a la colaboración comprometida de AWS ML Solutions Lab, ahora somos autosuficientes, capaces de iterar los modelos que hemos creado y de continuar mejorando nuestro negocio”.

Andrew Stypa, analista líder de negocios de Kinect Energy Group

Frame.io

Frame.io

Frame.io es la plataforma idónea para todo lo relacionado con videos. Frame.io, la plataforma líder para tareas de revisión y colaboración relacionadas con videos que usan más de 700 000 clientes en todo el mundo, es la solución a la que acude toda la gama de profesionales que trabaja con videos (desde profesionales independientes hasta empresas) para revisar, aprobar y distribuir videos.

“Como se trata de una plataforma para tareas de colaboración y revisión de videos nativa en la nube que se encuentra disponible para usuarios de todo el mundo, es fundamental que ofrezcamos un nivel de seguridad de primera clase a nuestros clientes. Con el modelo de detección de anomalías integrado en Amazon SageMaker, pudimos aprovechar machine learning para identificar, detectar y bloquear rápidamente cualquier solicitud IP no deseada y así garantizar que el contenido multimedia de nuestros clientes permanezca seguro y protegido en todo momento. Empezar a usar Amazon SageMaker, mantenerlo en funcionamiento con el transcurso del tiempo, ajustar su escala en función de nuestra plataforma y adaptarlo a nuestros flujos de trabajo específicos fue un proceso simple y sin complicaciones. Además, con la ayuda de los blocs de notas de Jupyter en SageMaker, pudimos probar diferentes modelos para mejorar el nivel de precisión y recuperación de maneras que logran que Frame.io sea aún más seguro”.

Abhinav Srivastava, vicepresidente y director de Seguridad de la Información de Frame.io

Cookpad

Cookpad

Cookpad es el servicio de intercambio de recetas más grande de Japón, con alrededor de 60 millones de usuarios mensuales en Japón y aproximadamente 90 millones de usuarios mensuales a nivel internacional.

“Debido a la creciente demanda de un uso del servicio de recetas de Cookpad más fácil, nuestros científicos de datos crearán más modelos de machine learning para optimizar la experiencia del usuario. En el intento de reducir la cantidad de iteraciones de tareas de entrenamiento para lograr un mejor desempeño, observamos que la implementación de puntos de enlace de inferencia de aprendizaje automático suponía un desafío importante que estaba retrasando nuestros procesos de desarrollo. A los fines de automatizar la implementación de modelos de aprendizaje automático y que los científicos de datos pudieran implementar modelos por su cuenta, usamos las API de inferencia de Amazon SageMaker y comprobamos que Amazon SageMaker eliminaría la necesidad de que los ingenieros de aplicaciones tuvieran que implementar modelos de aprendizaje automático. Anticipamos la automatización de este proceso con Amazon SageMaker en producción”. 

Yoichiro Someya, ingeniero de investigación de Cookpad

Fabulyst

Fabulyst

Fabulyst es una empresa emergente con sede en la India dedicada al comercio de moda que ofrece una experiencia más positiva y personalizada a los compradores y mejores conversiones a los minoristas a través de la IA.

“Fabulyst facilita a los compradores las compras perfectas haciendo coincidir los artículos del inventario con las consultas específicas y personalizadas de los usuarios (por ejemplo, adaptándose a su tipo de cuerpo o al tono de su piel). Al mismo tiempo, ayudamos a los minoristas a conseguir conversiones más efectivas mediante el uso de la visión computarizada para pronosticar las tendencias mensuales basadas en datos de las redes sociales, búsquedas, blogs, etc., y para etiquetar automáticamente esas tendencias en los catálogos de nuestros clientes minoristas. Fabulyst utiliza AWS para ofrecer nuestras mejores soluciones, incluido Amazon SageMaker para manejar las muchas predicciones que respaldan nuestras ofertas. Con el apoyo de SageMaker y otros servicios de AWS, podemos garantizar valor a nuestros usuarios, como un aumento del 10 % en los ingresos incrementales para los minoristas, y confiar en nuestra capacidad de ofrecer resultados excelentes en todo momento.”

Komal Prajapati, fundador y director ejecutivo de Fabulyst

Terragon Group

Terragon Group

Terragon Group es una empresa de tecnología de marketing y datos que permite a las empresas aprovechar el valor de su información para poder llegar a la audiencia africana usuaria de dispositivos móviles. Con el correr de los años, Terragon Group se convirtió en un líder del sector de dispositivos móviles que atiende marcas locales y multinacionales de diferentes lugares del mundo. Para poder entregar el mensaje publicitario correcto al usuario correcto y en el momento correcto, es necesario llevar a cabo tareas de personalización, por lo que Terragon usa datos, información e inteligencia artificial a los fines de permitir a las empresas llegar a la audiencia correcta en África.

“Amazon SageMaker nos proporciona un flujo de trabajo de machine learning integral sin la necesidad de contar con una infraestructura subyacente. Nuestros equipos de ciencia de datos y machine learning pueden pasar rápidamente de la exploración de datos a la capacitación y producción de modelos en solo un par de horas. Para una empresa con sede en África con escaso talento en ingeniería, no habría otra forma en que hubiéramos podido construir e implementar modelos ML que resolvieran problemas de la vida real en menos de 90 días.”

Deji Balogun, director de tecnología de Terragon Group

SmartNews

SmartNews

SmartNews es la aplicación de noticias más grande de Japón. Ofrece información de calidad a más de 11 millones de usuarios activos de todo el mundo. Mediante el uso de tecnologías basadas en machine learning, SmartNews hace llegar a los usuarios las novedades más relevantes e interesantes. Los algoritmos de machine learning de SmartNews evalúan millones de artículos, señales sociales e interacciones humanas para suministrar el 0,01 % destacado de las historias que más importan, de inmediato.

“Nuestra misión, que consiste en encontrar y entregar historias de calidad al mundo, cuenta con tecnología de AWS y, especialmente, de Amazon SageMaker, que nos ha permitido agilizar el ciclo de desarrollo para poder atender a nuestros clientes. Utilizar Amazon SageMaker nos ayudó en gran medida con nuestros métodos de gestión de noticias, incluida la clasificación de artículos con aprendizaje profundo, la predicción del valor de tiempo de vida y el modelado combinado de texto e imágenes. Esperamos poder llegar aún más alto con Amazon SageMaker y otras soluciones de inteligencia artificial de AWS”.

Kaisei Hamamoto, cofundador y codirector ejecutivo de SmartNews, Inc.

Pioneer

Pioneer

Pioneer es una empresa multinacional que se especializa en entretenimiento digital, lo que incluye servicios de movilidad y electrónica del automóvil. Pioneer se rige por su filosofía empresarial de “mover el corazón y tocar el alma” y proporciona a sus clientes productos y servicios que pueden ayudarlos en su vida diaria.

“Gracias al uso de Amazon SageMaker y las características del entrenamiento de modelos, como el ajuste de modelo automático, pudimos desarrollar modelos de machine learning de alta precisión y continuar garantizando la privacidad de nuestros clientes. También esperamos aprovechar AWS Marketplace para machine learning, tanto para algoritmos como para modelos entrenados previamente, con el objetivo de construir una plataforma de monetización”.

Kazuhiro Miyamoto, gerente general del departamento de Ingeniería de Servicios de Información de Pioneer

dely

Dely

Dely ejecuta el mejor servicio gastronómico por video de Japón, Kurashiru. Se esfuerza diariamente para suministrar servicios culinarios que impacten al mundo. Kurashiru ayuda a muchas personas todos los días con videos que presentan una variedad de recetas sabrosas para adornar las mesas. En Japón, decenas de millones de personas miran y escuchan el servicio de recetas mensual.

“Excedimos las 15 millones de descargas de nuestra aplicación móvil desde que lanzamos el popular servicio Kurashiru hace 2,5 años. Creemos que es fundamental el uso de tecnologías avanzadas, como machine learning, para poder entregar el contenido correcto a nuestros usuarios. Para lograrlo, usamos Amazon SageMaker, que nos ayudó a crear e implementar en producción modelos de machine learning en 90 días. También mejoramos en un 15 % la tasa de clics mediante la personalización de contenido”.

Masato Otake, director de tecnología de Dely, Inc.

Ayla Networks

Ayla Networks

Ayla Networks, con su sede en San Francisco, es una compañía de software de plataforma IoT como servicio que desarrolla soluciones tanto para los consumidores como para los mercados comerciales.

“En Ayla Networks, detectamos que nuestros clientes utilizan principalmente la infraestructura de AWS debido a su escalabilidad y confiabilidad comprobadas. En particular, observamos que los fabricantes comerciales utilizan Amazon SageMaker para aprovechar los datos de rendimiento del equipo obtenidos de Ayla Cloud. Con Amazon SageMaker y nuestro producto de CI de Ayla, los negocios pueden obtener información y detectar anomalías que lleven a mejorar la calidad de los productos y los servicios, incluso a predecir fallas de seguridad en las máquinas y solucionarlas antes de que sucedan. Esta solución mantiene a nuestros clientes operando sin problemas, de manera que sus negocios pueden continuar creciendo, produciendo y escalando sin preocupaciones”.

Prashanth Shetty, vicepresidente de Marketing Internacional de Ayla Networks

FreakOut

FreakOut

FreakOut es una empresa líder en tecnología que se enfoca en publicidad digital. La empresa ofrece productos para las transacciones de inventarios publicitarios en tiempo real en publicidad en Internet, así como también análisis de datos para navegar por la web. FreakOut aprovecha machine learning para realizar predicciones de la tasa de clics (CTR) y la tasa de conversión (CVR).

“Estamos en el proceso de migración de los entornos de entrenamiento de machine learning de las instalaciones locales a Amazon SageMaker. Amazon SageMaker nos ofrece una solución más escalable para nuestra compañía. Gracias a la característica de ajuste de modelo automático de Amazon SageMaker, podemos optimizar y estimar modelos de alta precisión que cumplan con nuestros requisitos”.

Jiro Nishiguchi, director de tecnología de FreakOut

Wag!

Wag!

“En Wag!, tenemos que satisfacer las necesidades de oferta y demanda en un mercado bilateral. Vimos la oportunidad de utilizar el aprendizaje automático, impulsado por AWS, para predecir la demanda de pasear perros de nuestros clientes. Al estandarizar nuestras aplicaciones de aprendizaje automático en AWS, podemos satisfacer el crecimiento continuo de nuestras necesidades comerciales mediante la iteración a un ritmo y escala enormemente mejorados a pesar de los recursos de ingeniería limitados. Con Amazon SageMaker, podemos acelerar nuestra experimentación de aprendizaje automático, comprimiendo 45 días de tiempo computacional para entrenar el modelo en 3 días”.

Dave Bullock, vicepresidente de Tecnología de Ingeniería y Operaciones - Wag Labs Inc.

Print

Infoblox

Infoblox es el líder en servicios de red seguros administrados en la nube, diseñados para administrar y proteger el núcleo de la red, es decir, DNS, DHCP y administración de direcciones IP (conocidos de manera conjunta como DDI).

“En Infoblox, creamos un servicio de análisis de seguridad DNS con Amazon SageMaker que detecta actores malintencionados que crean elementos homográficos para hacerse pasar por objetivos con nombres de dominio altamente valiosos y usarlos para enviar malware, robar información de los usuarios y atacar la reputación de una marca. AWS es nuestro estándar empresarial para la nube, y podemos aprovechar las múltiples funciones que ofrece SageMaker para acelerar el desarrollo del modelo de machine learning. Mediante el uso de las capacidades de ajuste de modelo automático de SageMaker, hemos escalado nuestro experimento y hemos mejorado la precisión en un 96,9 %. Gracias a SageMaker, nuestro detector de homógrafos IDN, una parte de nuestro servicio de análisis de seguridad, ha identificado más de 60 millones de resoluciones de dominios homográficos y continúa encontrando millones más cada mes, lo que ayuda a nuestros clientes a detectar el abuso de marca más rápido”.

Femi Olumofin, arquitecto de soluciones - Infoblox

NerdWallet

NerdWallet

NerdWallet, una empresa de finanzas personales ubicada en San Francisco, ofrece valoraciones y comparaciones de productos financieros, como tarjetas de crédito, bancos, inversiones, préstamos y seguros.

“NerdWallet se basa en gran medida en la ciencia de datos y machine learning a fin de conectar a los clientes con productos financieros personalizados. Decidimos estandarizar nuestras cargas de trabajo de aprendizaje automático en AWS porque nos permitía modernizar rápidamente nuestras prácticas de ingeniería de ciencia de datos, eliminar obstáculos y acelerar los tiempos de entrega. Gracias a Amazon SageMaker, nuestros científicos de datos pueden dedicar más tiempo a búsquedas estratégicas y emplear más energía en nuestra ventaja sobre la competencia: nuestra información sobre los problemas que solucionamos a nuestros usuarios”.

Ryan Kirkman, gerente principal de ingeniería - NerdWallet

Splice

Splice

Splice es una plataforma creativa creada por y para músicos, que permite a los artistas librear su auténtico potencial creativo. Esta empresa emergente de creación musical con modelo por suscripción se fundó en 2013, y ahora cuenta con más de tres millones de músicos que exploran su catálogo en busca de sonidos perfectos.

“A medida que nuestro catálogo de sonidos y presets crece, también lo hace el desafío de encontrar el sonido correcto. Por este motivo Splice ha invertido en crear las mejores funciones de descubrimiento y búsqueda. Al estandarizar nuestras cargas de trabajo de aprendizaje automático en AWS, conseguimos crear una nueva propuesta para el usuario cuyo objetivo era hacer que fuera más fácil que nunca conectar a los músicos con los sonidos que están buscando. Desde el lanzamiento de Similar Sounds, hemos visto un aumento cercano al diez por ciento en conversiones de búsqueda. Gracias a Amazon SageMaker, hemos creado el complemento perfecto para nuestra búsqueda basada en texto, de modo que ahora nuestros usuarios pueden navegar por nuestro catálogo y descubrir sonidos de formas que antes no eran posibles”.

Alejandro Koretzky, jefe de machine learning e ingeniero principal, Splice

Audeosoft

Audeosoft

“Antes de comenzar el traspaso a machine learning, solo teníamos la capacidad de buscar el texto de un curriculum vitae, pero nuestra falta de capacidades de reconocimiento óptico de caracteres significaba que no se podían buscar todos los CV. Con Amazon Textract, ahora podemos extraer contenido en cada tipo de documento y tenemos la competencia para indexar todos los archivos cargados en un clúster de Elasticsearch. Ahora, todos los documentos cargados se pueden buscar mediante Elasticsearch, lo que proporciona velocidades de búsqueda 10 veces más rápidas que la búsqueda SQL original. Además, implementamos la vectorización de palabras con Amazon SageMaker para agregar palabras clave relacionadas con una consulta de búsqueda. Este proceso nos permite clasificar y calificar con precisión a los candidatos y nos ayuda a eliminar los errores causados por sinónimos o redacciones alternativas utilizadas en los CV. Con Amazon SageMaker y Amazon Textract, podemos ofrecer candidatos más aptos y con mejores características para los responsables de contratación. El rendimiento estable, la disponibilidad en todo el mundo y la fiabilidad son factores clave de éxito para Audeosoft. Cuando tomamos la decisión de asociarnos con AWS hace casi 8 años, sabíamos que sería un socio excelente para el futuro. Al seleccionar AWS como nuestro proveedor de nube preferido, tenemos un socio que tiene el mismo impulso y el mismo deseo innovar igual que nosotros durante los próximos años”.

Marcel Schmidt, director de tecnología en Audeosoft

Freshworks

Freshworks

Freshworks es un unicornio SaaS B2B con sede en EE. UU. / India que atiende a pequeñas y medianas empresas (SMB) y empresas del mercado medio en todo el mundo. Freshworks ofrece un portfolio de aplicaciones fáciles de usar aunque potentes para los flujos de trabajo de la interacción con clientes y empleados.

"En Freshworks, hemos construido nuestra oferta insignia de inteligencia artificial y aprendizaje automático, Freddy AI Skills, con modelos hiperpersonalizados que ayudan a los agentes a abordar consultas de usuario y solucionar de manera exitosa los tiques de soporte, los equipos de ventas y marketing priorizan las oportunidades y cierran tratos rápidamente, y los gerentes de éxito de los clientes reducen el riesgo de abandono de clientes y hacen crecer el negocio. Elegimos estandarizar nuestras cargas de trabajo de aprendizaje automático en AWS dado que pudimos crear, capacitar e implementar fácilmente modelos de aprendizaje automático optimizados para los casos de uso de nuestros clientes. Gracias a Amazon SageMaker, hemos creado más de 30 000 modelos para 11 000 clientes a la vez que reducimos el tiempo de capacitación para estos modelos de 24 horas a menos de 33 minutos. Con SageMaker Model Monitor, podemos llevar un registro de los desvíos de datos y volver a capacitar los modelos para garantizar precisión. Freddy AI Skills tiene tecnología de Amazon SageMaker y está en constante evolución gracias a acciones inteligentes, información de datos profundos y conversaciones basadas en intenciones”.

Tejas Bhandarkar, director de productos sénior, Freshworks Platform

Veolia

Veolia

Veolia Water Technologies es una empresa de diseño con experiencia y un proveedor especializado de soluciones y servicios tecnológicos destinados al tratamiento de aguas y aguas residuales.

“En tan solo ocho semanas, trabajamos con AWS para desarrollar un prototipo que anticipa cuándo deben limpiarse o reemplazarse los filtros de membrana para agua en nuestras plantas desalinizadoras. Con Amazon SageMaker, creamos un modelo de ML que aprende de los patrones anteriores y predice la evolución futura de los indicadores de taponamiento. La estandarización de las cargas de trabajo de machine learning en AWS nos permitió reducir costos y evitar tiempos de inactividad, al mismo tiempo que mejoramos la calidad del agua producida. Estos resultados no hubieran sido posibles sin la experiencia técnica, la confianza y la dedicación de ambos equipos para logar una sola meta: un suministro de agua limpio y seguro sin interrupciones”.

Aude GIARD, directora digital - Veolia Water Technologies

Sportradar

Sportradar

Sportradar, un proveedor líder de datos deportivos, ofrece este tipo de datos en tiempo real a más de 65 ligas en todo el mundo. En un esfuerzo por generar conocimientos de vanguardia, la empresa colaboró con Amazon ML Solutions Lab para desarrollar un indicador de goles de fútbol.

“Presentamos deliberadamente uno de los problemas de visión artificial más difíciles posibles al equipo de Amazon ML Solutions Lab para probar las capacidades de AWS Machine Learning, y estoy muy impresionado con los resultados. El equipo creó un modelo de ML para predecir goles de fútbol en 2 segundos antes del juego en vivo mediante Amazon SageMaker. Este modelo por sí solo nos ha abierto las puertas a muchas nuevas oportunidades comerciales. Esperamos estandarizar nuestras cargas de trabajo de aprendizaje automático en AWS porque podemos crear, capacitar e implementar modelos que promuevan la innovación en nuestro negocio y cumplan con nuestros requisitos de costos y latencia”.  

Ben Burdsall, jefe de tecnología, Sportradar

Roche

Roche

F. Hoffmann-La Roche AG (Roche) es una empresa multinacional suiza de ciencias biológicas que se especializa en productos farmacéuticos y diagnóstico.

“Quería presionar a mis equipos a sistematizar nuestros flujos de trabajo de machine learning en la nube por lo que trabajamos con el laboratorio de soluciones de machine learning para ofrecer talleres de Amazon SageMaker, que demuestren cómo SageMaker simplifica el proceso de producción de machine learning para los científicos de datos. Desde el taller, el 80 % de nuestras cargas de trabajo de machine learning funciona en AWS, lo que ayuda a nuestros equipos a poner los modelos de machine learning a producir tres veces más rápido”. SageMaker y la pila de AWS nos permiten usar recursos informáticos para capacitarnos bajo demanda sin las limitaciones de disponibilidad que tienen las capacitaciones en las instalaciones”.  

Gloria Macia, científica de datos, Roche

Guru_Logos

Guru

“En Guru, creemos que el conocimiento que necesita para hacer su trabajo debería encontrarlo a usted. Somos una solución de gestión del conocimiento que capta la información más valiosa de su equipo y la organiza en una única fuente de veracidad. Aprovechamos la IA para recomendarle conocimientos en tiempo real donde trabaja, asegurarnos de que permanezcan verificados y ayudarlo a administrar mejor su base de conocimientos general. Nuestro equipo cada vez mayor de ciencia de datos del producto enfrenta todos los desafíos del equipo de ML de la vida moderna, creación, formación y desarrollo de sistemas de ML a escala, y confiamos en Amazon SageMaker como medio para superar algunos de estos desafíos. Actualmente aprovechamos SageMaker Inference para implementar con mayor velocidad nuestros modelos de ML para la producción, donde nos ayudan a cumplir con nuestro principal objetivo: proporcionar valor a nuestros clientes”.  

Nabin Mulepati, ingeniero de ML del personal, Guru

Amazon Operations

Amazon Operations

Como parte del compromiso de Amazon con la seguridad de sus asociados durante la pandemia de COVID-19, el equipo de Amazon Operations (Operaciones de Amazon) ha implementado una solución de machine learning (ML) para ayudar a mantener los protocolos de distanciamiento social en más de 1000 edificios de operaciones en todo el mundo. Amazon Operations colaboró con Amazon Machine Learning Solutions Lab en la creación de modelos de visión artificial de última generación para calcular la distancia mediante Amazon SageMaker.

“Al estandarizar nuestras cargas de trabajo de ML en AWS y trabajar con expertos en el ML Solutions Lab, creamos un novedoso conjunto de modelos que calculamos que ahorrará hasta un 30 % de nuestro trabajo de revisión manual. Amazon SageMaker nos permite dedicar más tiempo a centrarnos en la seguridad y aumentar la precisión al reducir la necesidad de cientos de horas de revisión manual por día”.

Russell Williams, director de desarrollo de software - Amazon OpsTech IT

Freddy's

Freddy’s Frozen Custard & Steakburgers

Freddy’s Frozen Custard & Steakburgers es un restaurante de comida rápida e informal que ofrece una combinación única de hamburguesas de carne, salchichas de Viena, patatas fritas y otros sabrosos productos, todos cocinados en el momento, además de deliciosas natillas congeladas recién batidas. Freddy's se fundó en 2002 y en 2004 otorgó franquicias; actualmente tiene casi 400 restaurantes en 32 estados.

“Antes, simplemente elegíamos dos restaurantes parecidos, pero ahora comprendemos realmente la relación entre los productos del menú, los clientes y los locales. Amazon SageMaker Autopilot, que respalda la nueva funcionalidad de ML de Domo, ha aumentado de forma exponencial la fuerza de nuestros equipos de marketing y compra para tratar nuevas ideas y mejorar la experiencia de nuestros clientes”.

Sean Thompson, director de TI de Freddy’s

Freddy's

Vanguard

“Nos entusiasma que nuestros científicos e ingenieros de datos de Vanguard tengan ahora la capacidad de colaborar en un único bloc de notas para realizar análisis y utilizar el machine learning. Ahora que Amazon SageMaker Studio cuenta con integraciones incorporadas con Spark, Hive y Presto, que se ejecutan en Amazon EMR, nuestros equipos de desarrollo pueden ser más productivos. Este entorno de desarrollo único permitirá que nuestros equipos de trabajo se concentren en crear, entrenar e implementar modelos de machine learning”.

Doug Stewart, Senior Director of Data and Analytics de Vanguard

Freddy's

Provectus

“Esperábamos una característica para crear y administrar clústeres de Amazon EMR directamente desde Amazon SageMaker Studio, de forma que nuestros clientes puedan ejecutar flujos de trabajo de Spark, Hive y Presto directamente desde los cuadernos de Amazon SageMaker Studio. Nos entusiasma que Amazon SageMaker ahora haya incorporado de forma nativa esta capacidad para simplificar la administración de los trabajos de Spark y de machine learning. Esto ayudará a los ingenieros y científicos de datos de nuestros clientes a colaborar de forma más eficaz para realizar análisis de datos interactivos y desarrollar canalizaciones de machine learning con transformaciones de datos basadas en EMR”.

Stepan Pushkarev, CEO – Provectus

Freddy's

Climate

“En Climate, nos gusta proporcionar a los agricultores de todo el mundo información precisa para que tomen decisiones controladas por datos y puedan optimizar el rendimiento de cada hectárea. Para lograrlo, invertimos en tecnologías como las herramientas de machine learning que permiten crear modelos a partir de entidades medibles conocidas como características, por ejemplo, el rendimiento de un campo de cultivo. Gracias al almacén de características de Amazon SageMaker, podemos acelerar el desarrollo de modelos de ML mediante un almacén de características central al que se puede acceder y reutilizar en varios equipos con facilidad. Asimismo, facilita el acceso a las características en tiempo real con el almacén en línea o la ejecución de estas de forma programada mediante el almacén sin conexión para diferentes casos de uso. Gracias al almacén de características de SageMaker, podemos desarrollar modelos de ML mucho más rápido”.


Atul Kamboj, Senior Data Scientist - iCare, NSW Government Insurance and Care agency, AustraliaDaniel McCaffrey, Vice President, Data and Analytics, Climate

Featured customers - 26

Experian

“En Experian, creemos que es nuestra responsabilidad brindar a los consumidores los medios para comprender y utilizar los créditos en lo que respecta a su vida financiera, y ayudar a los acreedores a administrar el riesgo crediticio. A medida que sigamos aplicando prácticas recomendadas para crear nuestros modelos financieros, buscaremos soluciones que agilicen la elaboración de productos que utilicen la tecnología de machine learning. El almacén de características de Amazon SageMaker nos proporciona un modo seguro de almacenar y reutilizar características en nuestras aplicaciones de ML. La capacidad de mantener la consistencia de las aplicaciones en tiempo real y por lotes en varias cuentas supone un requisito clave para nuestra empresa. El uso de las nuevas capacidades del almacén de características de Amazon SageMaker nos permite capacitar a nuestros clientes para que asuman el control de su crédito y reduzcan los costos en la nueva economía”.

Geoff Dzhafarov, Chief Enterprise Architect, Experian Consumer Services

Freddy's

Dena

“En DeNA, nuestra misión es generar efectos positivos e interés mediante el uso de Internet y la IA o el ML. Nuestro objetivo principal es proporcionar servicios basados en el valor, por lo que queremos asegurarnos de que nuestros negocios y servicios están preparados para lograr dicho objetivo. Nos gustaría descubrir y reutilizar características en toda la organización y el almacén de características de Amazon SageMaker nos sirve ayuda, ya que supone una manera fácil y eficiente de reutilizar características para diferentes aplicaciones. El almacén de características de Amazon SageMaker también nos ayuda a mantener definiciones de características estándar y a contar con una metodología consistente a medida que entrenamos los modelos y los implementamos en la fase de producción. Con estas nuevas capacidades de Amazon SageMaker, podemos entrenar e implementar modelos de ML con mayor rapidez, lo que nos lleva a continuar con nuestro propósito de ofrecer a nuestros clientes los mejores servicios”.

Kenshin Yamada, General Manager / AI System Dept System Unit, DeNA

Freddy's

United Airlines

“En United Airlines, usamos machine learning (ML) para mejorar la experiencia del cliente al proporcionar ofertas personalizadas, lo cual permite a los clientes estar listos con Travel Readiness Center. Nuestro uso del ML también se extiende a las operaciones en aeropuertos, la planificación de red y la programación de vuelos. A medida que salimos de la pandemia, Amazon SageMaker jugó un papel fundamental en Travel Readiness Center, lo cual nos permitió manejar grandes volúmenes de certificados de pruebas de COVID y tarjetas de vacunación mediante la automatización de modelos basada en documentos. Con las nuevas capacidades de gobernanza de Amazon SageMaker, hemos aumentado el control y la visibilidad de nuestros modelos de machine learning. SageMaker Role Manager simplifica en gran medida el proceso de configuración del usuario al proporcionar permisos de referencia y actividades del ML para cada persona asociada a los roles de IAM. Con las tarjetas modelo de SageMaker, nuestros equipos pueden capturar y compartir de manera proactiva información sobre el modelo para la revisión y, al usar el panel modelo de SageMaker, pudimos buscar y visualizar modelos implementados en MARS, nuestra plataforma interna del ML. Con todas estas capacidades nuevas de gobernanza, nos ahorramos una cantidad de tiempo significativa y podemos escalar verticalmente”.

Ashok Srinivas, Director of ML Engineering and Ops de United Airlines

Freddy's

Capitec

“En Capitec, tenemos una amplia gama de científicos de datos en nuestras líneas de producción que crean diferentes soluciones del ML. Nuestros ingenieros de ML administran una plataforma de modelos centralizada creada en Amazon SageMaker para empoderar el desarrollo y despliegue de todas estas soluciones del ML. Sin herramientas integradas, supervisar los esfuerzos de modelos tiende a la documentación inconexa y una falta de visibilidad del modelo. Con las tarjetas modelo de SageMaker, podemos supervisar muchos metadatos de modelos en un entorno unificado y el panel modelo de SageMaker nos brinda visibilidad en el rendimiento de cada modelo. Además, SageMaker Role Manager simplifica el proceso de administrar el acceso para científicos de datos en nuestras diferentes líneas de productos. Cada uno de ellos contribuyen a que nuestra gobernanza de modelos pueda garantizar la confianza que nuestros clientes depositan en nosotros como proveedor de servicios financieros”.

Dean Matter, ML Engineer, Capitec Bank

Freddy's

Lenovo

Lenovo™, el fabricante de PC número 1 a nivel mundial, incorporó recientemente Amazon SageMaker a su última oferta de mantenimiento predictivo.  Ashok Srinivas, Director of ML Engineering and Ops de United Airlines.

“El nuevo administrador de periféricos SageMaker permitirá eliminar el esfuerzo manual necesario para optimizar, supervisar y mejorar continuamente los modelos después del despliegue. Con él, esperamos que nuestros modelos se ejecuten más rápido y consuman menos memoria que con otras plataformas de machine learning comparables. El administrador de periféricos SageMaker nos permite realizar muestreos automáticos de datos en la periferia, enviarlos de forma segura a la nube y supervisar la calidad de cada modelo en cada dispositivo de forma continua tras el despliegue. Esto nos permite supervisar, mejorar y actualizar de forma remota los modelos de nuestros dispositivos periféricos en todo el mundo y, al mismo tiempo, nos ahorra tiempo y costos a nosotros y a nuestros clientes”.

Igor Bergman, Lenovo Vice President, Cloud & Software of PCs and Smart Devices.

Freddy's

Basler AG

Basler AG es un fabricante líder de cámaras digitales y accesorios de alta calidad para la industria, la medicina, el transporte y una variedad de otros mercados.

“Basler AG ofrece soluciones inteligentes de visión artificial en una variedad de industrias, incluidas las aplicaciones de fabricación, médicas y minoristas. Nos complace ampliar nuestra oferta de software con nuevas características que son posibles gracias al administrador de periféricos de Amazon SageMaker. Para garantizar que nuestras soluciones de machine learning sean eficaces y fiables, necesitamos una herramienta de MLOps escalable desde la periferia a la nube que nos permita supervisar, mantener y mejorar de forma continua los modelos de machine learning en los dispositivos periféricos. El administrador de periféricos SageMaker nos permite realizar muestreos automáticos de datos en la periferia, enviarlos de forma segura a la nube y supervisar la calidad de cada modelo en cada dispositivo de forma continua tras el despliegue. Esto nos permite supervisar, mejorar y actualizar de forma remota los modelos de nuestros dispositivos periféricos en todo el mundo y, al mismo tiempo, nos ahorra tiempo y costos a nosotros y a nuestros clientes”.

Mark Hebbel, Head of Software Solutions de Basler.

NWG_LOGO_HZ_POS_RGB_forpsd

NatWest Group

NatWest Group, una importante empresa de servicios financieros, estandarizó su modelo de desarrollo de ML y el proceso de despliegue en toda la organización, lo que redujo el ciclo de respuesta y permitió crear nuevos entornos de ML en dos días en lugar de 40 días, así como reducir el tiempo de evaluación de los casos de uso de ML de 40 a 16 semanas.

Freddy's

AstraZeneca

“En lugar de crear muchos procesos manuales, podemos automatizar la mayor parte del proceso de desarrollo de ML simplemente dentro de Amazon SageMaker Studio”. 

Cherry Cabading, Global Senior Enterprise Architect – AstraZeneca

Freddy's

Janssen

Con los servicios de AWS, incluido Amazon SageMaker, Janssen implementó un proceso automatizado de MLOps que mejoró la precisión de las predicciones del modelo un 21 % e incrementó la velocidad de la ingeniería de características aproximadamente un 700 %, lo que ayudó a Janssen a reducir los costos al tiempo que incrementaron la eficiencia.
Freddy's

Qualtrics

“Amazon SageMaker mejora la eficiencia de los equipos de MLOps con las herramientas necesarias para probar y desplegar modelos de machine learning a escala”.

Samir Joshi, ML Engineer – Qualtrics

Freddy's

Deloitte

“Amazon SageMaker Data Wrangler nos permite abordar las necesidades de preparación de datos con una gran colección de herramientas de transformación que aceleran el proceso de preparación de datos de ML necesario para llevar nuevos productos al mercado. A su vez, nuestros clientes se benefician del ritmo al que escalamos los modelos implementados, lo que nos permite ofrecer resultados medibles y sostenibles que satisfagan las necesidades de los clientes en cuestión de días en lugar de meses”.

Frank Farrall, Principal, AI Ecosystems and Platforms Leader de Deloitte

Freddy's

NRI

“Como socio consultor premier de AWS, nuestros equipos de ingeniería están trabajando en conjunto con AWS para crear soluciones innovadoras a fin de ayudar a los clientes a mejorar de forma continua la eficacia de sus operaciones. El ML es la base de nuestras soluciones innovadoras, pero el flujo de trabajo de preparación de datos conlleva técnicas de preparación de datos sofisticadas que, como resultado, tardan bastante tiempo en rendir de forma operativa en un entorno de producción. Con Amazon SageMaker Data Wrangler, nuestros científicos de datos pueden completar todos los pasos del flujo de trabajo de preparación de datos, incluida la selección, limpieza, exploración y visualización de datos, lo que nos ayuda a acelerar el proceso de preparación de datos y a preparar con facilidad los datos para el ML. Gracias a Amazon SageMaker Data Wrangler, podemos preparar más rápidamente datos para el ML”.

Shigekazu Ohmoto, Senior Corporate Managing Director de NRI Japan

Freddy's

Equilibrium

“A medida que nuestra presencia en el mercado de la administración sanitaria de la población continúa expandiéndose a más pagadores, proveedores, administradores de beneficios de farmacia y otras organizaciones sanitarias, necesitábamos una solución que permitiera automatizar los procesos de manera integral para los orígenes de datos que alimentan nuestros modelos de ML, incluidos los datos de reclamos, inscripciones y farmacia. Con Amazon SageMaker Data Wrangler, ahora podemos acelerar el tiempo que toma agregar y preparar los datos para el ML mediante un conjunto de flujos de trabajo que son más fáciles de validar y reutilizar. Esto ha mejorado de manera considerable el tiempo de entrega y la calidad de nuestros modelos, ha aumentado la eficacia de nuestros científicos de datos y ha reducido en casi un 50 % el tiempo de preparación de datos. Además, SageMaker Data Wrangler nos ha permitido ahorrar iteraciones de ML y bastante tiempo de GPU, lo que aceleró todo el proceso de principio a fin para nuestros clientes, ya que ahora podemos crear mercados de datos con miles de características, incluidas las de farmacia, códigos de diagnósticos, visitas a sala de urgencias, estadías en el hospital, así como otros determinantes demográficos y sociales. Gracias a SageMaker Data Wrangler, podemos transformar datos con una eficacia superior para crear conjuntos de datos de entrenamiento, generar conocimientos sobre los datos antes de ejecutar los modelos de ML y preparar los datos del mundo real para la inferencia y predicción a escala”.

Lucas Merrow, CEO de Equilibrium Point IoT

Freddy's

iCare Insurance y Care NSW

iCare es una agencia gubernamental de Nueva Gales del Sur que ofrece un seguro de compensación laboral a más de 329 000 empleadores de los sectores público y privado en Nueva Gales del Sur (Australia) y a sus 3,2 millones de empleados. Además, iCare asegura a constructores y propietarios de viviendas, brinda tratamiento y cuidados a las personas gravemente heridas en las carreteras de Nueva Gales del Sur y protege más de 266 600 millones de dólares de activos del Gobierno de Nueva Gales del Sur, incluidos la Ópera de Sídney, el puente de la bahía de Sídney, escuelas y hospitales.

“En Insurance and care (iCare) NSW, nuestra visión es cambiar la forma en que las personas piensan sobre el seguro y la atención. Amazon SageMaker ha permitido a iCare crear y entrenar modelos de aprendizaje profundo para la identificación temprana de pacientes con enfermedades a largo plazo causadas por el polvo. Esta identificación temprana puede prevenir condiciones que pongan en peligro la vida. Según estudios anteriores, los signos de silicosis no se detectaron o no se pudieron detectar en el 39 % de los pacientes. El diagnóstico asistido por IA ha permitido a los médicos identificar correctamente el 80 % de los casos, en comparación con el 71 % de los diagnósticos no asistidos. Tras implementar este proyecto, vamos a asignar recursos a Amazon SageMaker para desarrollar soluciones y procesos en otros proyectos, ya que ha demostrado ser más rápido y sencillo que antes, y podemos ampliar fácilmente nuestros esfuerzos para brindar atención a la población de Nueva Gales del Sur”.

Atul Kamboj, Senior Data Scientist - iCare, NSW Government Insurance and Care agency en Australia