
2024 es el año de Genai. En comparación con el año anterior, la adopción de Genai se duplicó a medida que se producen más y más proyectos de rendimiento y más proyectos se implementan en producción (Fuente: Gartner). En el mismo informe, la organización respondió que usaron IA en más de uno de los negocios, y el 65% de los encuestados mencionó que usaron Genai en una característica.
Sin embargo, 2024 no es solo un resultado de Genai increíble, sino que también plantea un año de desafíos: la seguridad, la facilidad de uso y las operaciones simplificadas siguen siendo los obstáculos centrales que las organizaciones aún deben abordar. Entonces, ¿qué preportamos en el espacio de IA este año? ¿Dónde debe la comunidad guiar su energía? Echemos un vistazo rápido a 2024 y luego echemos un vistazo más profundo a qué esperar de la IA en 2025.
Ai en 2024
A principios del año pasado, dijimos que 2024 fue el año de la IA, y es seguro decir que teníamos razón; es cierto que era una predicción muy segura. En los últimos 12 meses, en la especificación, nos hemos comprometido a hacer flujos de trabajo de producción de AI/ML para ayudar a las organizaciones a escalar sus esfuerzos y producir sus proyectos. Hemos realizado una serie de proyectos de IA con nuestros socios, incluidos Nvidia, Microsoft, AWS, Intel y Dell, como la integración de NVIDIA NIMS y Charmed Kubeflow para simplificar el despliegue de aplicaciones Genai.
También somos buenos para comprometernos a trabajar siempre estrechamente con la comunidad. Casi al mismo tiempo que el proyecto Upstream, tenemos 2 versiones de Kubeflow encantadas que ejecutan el programa beta para que los innovadores puedan acceder a él temprano. Dado que las dificultades operativas siguen siendo un desafío para la mayoría de los usuarios de Kubeflow, lo que dificulta la adopción en las empresas, hemos estado desarrollando modelos de implementación que requieren solo unos pocos clics. Si no es así, puede registrarse aquí.
La generación de energía mejorada (RAG) de recuperación es uno de los casos de uso de Genai más comunes que muchas organizaciones priorizan. Las herramientas de código abierto como OpenSearch, KServe y Kubeflow son críticas para estos casos de uso. Desbloqueos de la computación confidencial con datos altamente sensibles y les ayuda a continuar funcionando.
¿Es el año de los agentes de IA en 2025?
En cuanto a 2025, con mucho, uno de los temas más populares es los agentes de IA. Estos sistemas pueden realizar tareas autodeterminadas independientemente, interactuando con el entorno para lograr tareas predeterminadas. El CEO de NVIDIA, Jensen Huang, declara que «los agentes de IA serán desplegados» (fuente), que indica un mayor interés en el tema y el cambio de una aplicación de Genai común a un caso de uso específico donde la organización desea priorizar.
Las empresas podrán adoptar rápidamente agentes de IA en sus funciones comerciales, pero esto no abordará ni abordará todas las expectativas de la creación de AI/ML. Los agentes de IA todavía enfrentan muchos desafíos que la industria está tratando de superar con el tiempo:
- Seguridad: ¿Estamos hablando del modelo, infraestructura o equipo que ejecuta el agente de IA, y garantizar que la seguridad sea fundamental para permitir que las organizaciones generalicen a la producción y cumplan con las auditorías.
- Integración: el paisaje AI/ML generalmente está disperso, y el espacio proxy no es una excepción. Construir una pila de extremo a extremo que no solo permita diferentes envoltorios, sino que también proporciona un uso optimizado o optimizado de los recursos disponibles sigue siendo un desafío.
- Guarderrail: los riesgos de los agentes de IA están relacionados principalmente con el comportamiento engañoso que pueden afectar. Por lo tanto, las organizaciones deben establecer barandillas para proteger cualquier entorno de grado de producción para no ponerlos en riesgo.
- Operación: Si bien los experimentos son una fruta de bajo colgante, cualquier proyecto de AI que ejecuta la producción viene con gastos generales operativos y las empresas deben simplificar para expandir su innovación.
Seguridad: el núcleo de los proyectos de IA
Involucremos en este desafío de seguridad. de acuerdo a OrcaEl 62% de las organizaciones implementan paquetes de IA con al menos una vulnerabilidad. A medida que la adopción de IA crece en la producción, la seguridad de las herramientas, los datos y los modelos es igualmente importante.
Ya sea que hablemos de contenedores que las organizaciones usan para construir infraestructura de IA o soluciones de extremo a extremo, el mantenimiento seguro de los paquetes utilizados sigue siendo una prioridad en 2025. Reducir el número de vulnerabilidades se está convirtiendo en una tarea obligatoria. Quiere lanzar un proyecto en producción. Para las empresas que consideran soluciones de código abierto, suscripciones como Ubuntu Pro son adecuadas porque protegen una variedad de envases que son útiles para AI/ML, incluidos Python, Numpy y MLFlow.
A medida que la industria crece, la informática confidencial también crecerá en la adopción en la nube pública y en las instalaciones. Se espera que la ejecución de cargas de trabajo ML utilizando datos altamente confidenciales sea un caso de uso más común, lo que desafiará a los proveedores de IA a que sus plataformas MLOPS se ejecuten en máquinas confidenciales.
Ai en el borde
El interés en Edge AI continúa aumentando. Se espera que esta parte del ciclo de vida de ML crezca a medida que se ejecutan más modelos en producción y se implementan en dispositivos Edge. Las ventajas de IA de casi todos son obvias, pero en 2025, las organizaciones deberán abordar algunos desafíos comunes para avanzar, incluida la conectividad de la red, el tamaño del dispositivo y la seguridad.
La implementación de IA en el borde también introduce desafíos que rodean el mantenimiento del modelo que van más allá del empaque del modelo. Las organizaciones buscan soluciones que admitan actualizaciones de Delta, si fallan, desplazan automáticamente y a la gestión de versiones. En 2025, la adopción de AI Edge se acelerará, y la huella de modelos que se ejecuta en una gama más amplia de hardware de silicio aumentará.
Especificaciones en el espacio de IA: ¿Cómo será el 2025?
El compromiso de Canonical de proporcionar software de código abierto con diseño seguro continúa en 2025. Además de los diferentes artefactos que ya tenemos en nuestros productos (como OpenSearch, Kubeflow y Mlflow), hemos ampliado nuestra capacidad para ayudar a nuestros clientes y socios de manera personalizada. Todo esta aquí Ayudará a las organizaciones a proteger sus imágenes de contenedores de código abierto para diferentes aplicaciones, incluidas Edge AI y Genai.
A lo largo de 2025, puede esperar ver más liderazgo de pensamiento en todo en AI/ML. Compartiremos las mejores prácticas basadas en nuestros clientes y nuestras propias experiencias. Continuaremos desarrollando Solución de extremo a extremo de código abierto que ayuda a las organizaciones a ejecutar IA a escala.
Obtenga más información sobre nuestras soluciones Edge Ai y Infraestructura de Genai.
Si tiene curiosidad sobre dónde comenzar o desea acelerar su viaje de ML, optimice el uso de recursos y mejore su experiencia interna, nuestros talleres de MLOPS pueden ayudarlo a diseñar su infraestructura de IA para cualquier caso de uso. Pase 5 días en el sitio con expertos en especificaciones y lo ayudarán a mejorar su equipo y resolver los problemas más apremiantes relacionados con MLOPS y AI/ML. Obtenga más información aquí o póngase en contacto con nuestro equipo: