Noticias

Podcast de IA de Ubuntu: comprensión de MLOps y observabilidad

podcast

¡Bienvenido al podcast de IA de Ubuntu! Desde experimentos divertidos hasta proyectos empresariales, la inteligencia artificial se convierte en el foco de la innovación, la transformación digital y la optimización.

La tecnología de código abierto democratiza el acceso a herramientas de aprendizaje automático de última generación y abre la puerta a todos los que estén dispuestos a embarcarse en su viaje hacia la inteligencia artificial.

Ubuntu AI será su guía en la industria, donde una comunidad de personas con ideas afines se reúne y genera un impacto.

Escuche el podcast de IA de Ubuntu en sporify

En este episodio hablamos de la observabilidad en MLOps.

Cuando pensamos en observabilidad, hablamos de alertas, paneles, registros, cosas que ayudan a las personas a comprender mejor lo que sucede con el sistema. ¿Es correcto?

La gente solía hablar de los tres pilares de la observabilidad. En cierto modo no estoy de acuerdo con esta forma de ver el problema. Pero básicamente está en su forma más simple: registros, métricas y seguimiento.

¿Qué piensas sobre por qué es importante monitorear las pilas de MLOps y que tus esfuerzos de MLOps son más que solo la pila en sí, verdad?

Por lo tanto, existen dos tipos principales diferentes de seguimiento en dichos sistemas. Uno es la infraestructura misma. Este será el trabajo estándar que realizará Azeris, ya que MlOps Stack es solo otra carga de trabajo informática. Todavía se ejecuta sobre algunos clústeres de Kubernetes o nubes públicas. Hay trabajos en ejecución, funciones y contenedores, y necesita observabilidad básica en todos ellos.

Sin embargo, hay una capa observable adicional que está más centrada en los negocios y en lo que está haciendo el canal mlops y su uso práctico. Básicamente, monitorear los datos que fluyen a través de todo el sistema, verificar la desviación de los datos, verificar si faltan datos o cualquier tipo de detección de anomalías y cambios en los patrones que están cambiando pero que no queremos que cambien, todas esas son cosas importantes que debe marcarse como esta alerta en esta configuración porque no desea ejecutar el modelo en producción porque no ha proporcionado ningún dato durante mucho tiempo o tiene problemas como este.

Y, dado que estamos hablando de modelos, los modelos en sí, también pueden tener problemas como la deriva del modelo o incluso que la API del modelo sea inaccesible.

Escuche episodios completos en las principales plataformas de transmisión de podcasts. Suscríbete a nuestro canal y sé uno de los primeros oyentes de los podcasts de Canonical.

LEER  MicroSOM adopta MCU de la serie STM32MP1

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba