
Los clientes de Databricks ahora pueden ejecutar sus modelos de aprendizaje automático directamente desde la plataforma del proveedor, lo que elimina la necesidad de administrar y mantener una infraestructura separada para las cargas de trabajo de ML, como recomendaciones de productos, detección de fraudes y chatbots.
Ladrillos de datos busca distinguirse entre los proveedores de análisis en la nube a través de sus capacidades de ML e IA y al ofrecer características prediseñadas y bajo demanda necesarias para crear entornos de ML, como cuadernos de ciencia de datos, tiendas de funciones, registros de modelos y catálogos de ML.
Ahora puede agregar Databricks Mannequin Serving a esa lista de capacidades. Al ejecutar cargas de trabajo de inferencia de ML de producción directamente desde la plataforma Lakehouse, los clientes se benefician a través de una integración más estrecha con el linaje, la gobernanza y el monitoreo de datos y modelos, cube la compañía.
Con Databricks Mannequin Serving, el proveedor de San Francisco promete escalar la infraestructura subyacente según sea necesario para dar cuenta de las demandas de carga de trabajo de ML. Eso elimina la necesidad de pagar al private operativo para administrar y escalar la infraestructura, ya sea en la nube o en las instalaciones, para dar cuenta de los aumentos y disminuciones en los recursos necesarios para atender la carga de trabajo de ML en tiempo actual.
Pero lo que es más importante, ejecutar la carga de trabajo de servicio en la misma infraestructura donde se desarrolló cut back la necesidad de integrar sistemas dispares, como los que se necesitan para búsquedas de características, monitoreo, implementación automatizada y reentrenamiento de modelos, cube la compañía.
“Esto a menudo da como resultado que los equipos integren herramientas dispares, lo que aumenta la complejidad operativa y genera gastos generales de mantenimiento”, escriben los funcionarios de Databricks en una publicación de weblog hoy. “Las empresas a menudo terminan gastando más tiempo y recursos en el mantenimiento de la infraestructura en lugar de integrar ML en sus procesos.
Vincent Koc, jefe de datos en hipages Group, es uno de los primeros usuarios de la nueva oferta. “Al hacer el servicio de modelos en una plataforma unificada de datos e inteligencia synthetic, hemos podido simplificar el ciclo de vida de ML y reducir los gastos generales de mantenimiento”, afirma en el sitio internet de Databricks. “Esto nos permite redirigir nuestros esfuerzos hacia la expansión del uso de la IA en una mayor parte de nuestro negocio”.
La nueva oferta ya está disponible en AWS y microsoft azure. Las empresas pueden acceder al modelo ML administrado por Databricks invocando una API REST. El componente de servicio de ML se ejecuta sin servidor, cube la compañía. Las capacidades de calidad y diagnóstico, que permitirán que el sistema seize automáticamente solicitudes y respuestas en una tabla delta para monitorear y depurar modelos o generar conjuntos de datos de capacitación, estarán disponibles pronto, cube la compañía.
Se compartirá más información sobre Databricks Mannequin Serving durante el próximo evento de la compañía. Evento digital de aprendizaje automáticoque se llevará a cabo el 14 de marzo a las 9 am PT.
Artículos relacionados:
El informe del MIT y Databricks encuentra la clave de gestión de datos para escalar la IA
Databricks refuerza la gobernanza y el uso compartido seguro en Lakehouse
Por qué el código abierto de Databricks Delta Lake Desk Format es un gran problema