Anuncio de la disponibilidad normal del servicio de modelos de ladrillos de datos


Evento digital de aprendizaje automático

Habilitación de ML de producción a escala con Lakehouse

14 de marzo, 9 a. m. PDT / 4 p. m. GMT

Estamos encantados de anunciar la disponibilidad normal de Servicio de modelo de ladrillos de datos. Mannequin Serving implementa modelos de aprendizaje automático como una API REST, lo que le permite crear aplicaciones ML en tiempo actual, como recomendaciones personalizadas, chatbots de servicio al cliente, detección de fraudes y más, todo sin la molestia de administrar la infraestructura de servicio.

Con el lanzamiento de Databricks Mannequin Serving, ahora puede implementar sus modelos junto con su infraestructura de capacitación y datos existente, lo que simplifica el ciclo de vida de ML y cut back los costos operativos.

(incrustar)https://www.youtube.com/watch?v=AxutwsFN4BM(/incrustar)

“Al hacer el servicio de modelos en la misma plataforma donde viven nuestros datos y donde entrenamos modelos, hemos podido acelerar las implementaciones y reducir el mantenimiento, lo que finalmente nos ayuda a cumplir con nuestros clientes e impulsar una vida más placentera y sostenible en todo el mundo”. – Daniel Edsgärd, director de ciencia de datos de Electrolux

Desafíos con la construcción de sistemas ML en tiempo actual

Los sistemas de aprendizaje automático en tiempo actual están revolucionando la forma en que operan las empresas al brindar la capacidad de realizar predicciones o acciones inmediatas basadas en los datos entrantes. Las aplicaciones como los chatbots, la detección de fraudes y los sistemas de personalización se basan en sistemas en tiempo actual para brindar respuestas instantáneas y precisas, mejorando las experiencias de los clientes, aumentando los ingresos y reduciendo el riesgo.

Sin embargo, la implementación de dichos sistemas sigue siendo un desafío para las empresas. Los sistemas de ML en tiempo actual necesitan una infraestructura de servicio rápida y escalable que requiere conocimiento experto para construir y mantener. La infraestructura no solo debe admitir el servicio, sino que también debe incluir búsquedas de funciones, monitoreo, implementación automatizada y reentrenamiento de modelos. Esto a menudo da como resultado que los equipos integren herramientas dispares, lo que aumenta la complejidad operativa y genera gastos generales de mantenimiento. Las empresas a menudo terminan gastando más tiempo y recursos en el mantenimiento de la infraestructura en lugar de integrar ML en sus procesos.

Modelo de producción que sirve en Lakehouse

Databricks Mannequin Serving es la primera solución de servicio en tiempo actual sin servidor desarrollada en una plataforma unificada de datos e IA. Esta solución de servicio única acelera el camino de los equipos de ciencia de datos hacia la producción al simplificar las implementaciones y reducir los errores a través de herramientas integradas.

Modelo de producción que sirve en Lakehouse

Elimine los gastos generales de gestión con Mannequin Serving en tiempo actual

Databricks Mannequin Serving brinda un servicio de alta disponibilidad, baja latencia y sin servidor para implementar modelos detrás de una API. Ya no tiene que lidiar con la molestia y la carga de administrar una infraestructura escalable. Nuestro servicio completamente administrado se encarga de todo el trabajo pesado por usted, eliminando la necesidad de administrar instancias, mantener la compatibilidad de versiones y parchear las versiones. Los puntos finales aumentan o disminuyen automáticamente para satisfacer los cambios en la demanda, lo que ahorra costos de infraestructura y optimiza el rendimiento de la latencia.

“El ajuste de escala automático rápido mantiene los costos bajos y nos permite escalar a medida que aumenta la demanda de tráfico. Nuestro equipo ahora dedica más tiempo a crear modelos para resolver problemas de los clientes en lugar de depurar problemas relacionados con la infraestructura”. – Gyuhyeon Sim, director normal de Letsur.ai

Acelere las implementaciones a través de Lakehouse-Unified Mannequin Serving

Databricks Mannequin Serving acelera las implementaciones de modelos ML al proporcionar integraciones nativas con varios servicios. Ahora puede administrar todo el proceso de ML, desde la ingesta de datos y el entrenamiento hasta la implementación y el monitoreo, todo en una sola plataforma, creando una vista consistente en todo el ciclo de vida de ML que minimiza los errores y acelera la depuración. Mannequin Serving se integra con varios servicios de Lakehouse, incluidos

  • Integración de la tienda de funciones: se integra a la perfección con Databricks Function Retailer, lo que proporciona búsquedas en línea automatizadas para evitar el sesgo en línea/fuera de línea. Usted outline las funciones una vez durante el entrenamiento y recuperaremos y uniremos automáticamente las funciones relevantes para completar la carga útil de inferencia.
  • Integración de MLflow: se conecta de forma nativa al registro de modelos de MLflow, lo que permite una implementación rápida y fácil de modelos: solo proporcione el modelo y prepararemos automáticamente un contenedor listo para producción y lo implementaremos para computación sin servidor
  • Calidad y diagnóstico (próximamente): Seize automáticamente solicitudes y respuestas en una tabla Delta para monitorear y depurar modelos o generar conjuntos de datos de entrenamiento
  • Gobernanza unificada: Administre y gobierne todos los activos de datos y ML, incluidos los que devour y produce el servicio de modelos, con Unity Catalog.

“Al hacer el servicio de modelos en una plataforma unificada de datos e IA, hemos podido simplificar el ciclo de vida de ML y reducir los gastos generales de mantenimiento. Esto nos permite redirigir nuestros esfuerzos hacia la expansión del uso de IA en más de nuestro negocio”. – Vincent Koc, responsable de datos del grupo hipages

Capacite a los equipos con la implementación simplificada

Databricks Mannequin Serving simplifica el flujo de trabajo de implementación de modelos, lo que permite a los científicos de datos implementar modelos sin necesidad de conocimientos o experiencia de infraestructura complejos. Como parte del lanzamiento, también estamos introduciendo terminales de servicio, que desacoplan el registro del modelo y el URI de puntuación, lo que da como resultado implementaciones más eficientes, estables y flexibles. Por ejemplo, ahora puede implementar varios modelos detrás de un único punto remaining y distribuir el tráfico como desee entre los modelos. La nueva interfaz de usuario y API de servicio facilitan la creación y administración de puntos finales. Los puntos finales también proporcionan métricas y registros integrados que puede usar para monitorear y recibir alertas.

Primeros pasos con el servicio de modelos de Databricks

  • Registro para la próxima conferencia para aprender cómo Databricks Mannequin Serving puede ayudarlo a crear sistemas en tiempo actual y obtener información de los clientes.
  • ¡Dale una vuelta! Comience a implementar modelos ML como una API REST
  • Profundice en el servicio de modelos de Databricks documentación
  • Revisar la guía para migrar del servicio de modelos de MLflow heredado al servicio de modelos de bricks

Related Articles

Comments

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Same Category

spot_img

Stay in touch!

Follow our Instagram