La ventosa ciudad de Denver, en Colorado, fue el epicentro de una nueva convocatoria del Red Hat Summit. Las ruedas del evento giraron en torno al futuro del código abierto, la tecnología de nube híbrida y el ascenso de la IA Generativa, en constante evolución.
En la apertura de sesión -a la que asistieron empresas, expertos y consultores- Matt Hicks, CEO de Red Hat, enumeró los caminos que abrió la IA sólo en el último año y adelantó que esta tecnología no será exclusiva de ningún proveedor, ya que estará en todas partes y basada en el código abierto.
“Lo que sólo se podía conseguir en modelos de billones de parámetros, hoy puede ser replicado en magnitudes más pequeños. Capacidades que tan sólo hace un año estaban asociadas a hardware bastante exótico y de alta gama, hoy pueden correr en una portátil”, sintetizó Hicks.
Para Red Hat, esto es indicativo de que las plataformas de IA deben constituirse en sistemas flexibles para poder apoyar a las empresas a medida que avanzan en la adopción de sus necesidades y recursos.
Las claves del crecimiento
Para lograr un equilibrio entre los costos de mantenimiento de los actuales sistemas y la adopción de nuevas soluciones, es crucial disponer infraestructuras de IA flexibles, escalables y resilientes, que combinen hardware y software de múltiples proveedores.
“Hay que entender que no existe un único proveedor general de todo. Por eso es importante que haya variedad y que las opciones se mantengan abiertas. Contar con un enfoque abierto y elástico, centrado en la innovación, es esencial para avanzar hacia un cielo lleno de nubes”, sostiene German Soracco, VP, Commercial Sales, Latin America.
Sin embargo, al cruzar de los modelos de IA de la experimentación a producción, muchos se enfrentan a mayores costos de hardware, inquietudes respecto de la privacidad de los datos y falta de confianza a la hora de compartir su base de información.
La IA generativa evoluciona rápidamente y a muchas organizaciones les resulta difícil crear una plataforma central que resulte confiable y sea capaz de ejecutarse en modo local o en la nube.
Por esta razón, Red Hat expandió su cartera Lightspeed para incluir GenIA y desde esta plataforma promover la productividad y la eficiencia de los equipos que utilizan OpenShift y Enterprise Linux, ayudando a superar las brechas de habilidades en el sector y simplificando la gestión del ciclo de vida de las aplicaciones.
“La GenAI constituye un avance revolucionario para las empresas. El RHEL AI y el proyecto InstructLab, junto con Red Hat OpenShift AI, se concibieron para reducir muchas de las barreras que enfrenta la GenAI en toda la nube híbrida: desde el déficit de habilidades en ciencia de datos hasta la cantidad de recursos requeridos”, comentó Jorge Payró, country manager de Red Hat para Argentina.
El poder de las alianzas
Y aunque la IA ocupó un sitial destacado en los lanzamientos de productos de Red Hat Summit, como ocurre con cualquier software de código abierto, el éxito también depende de las alianzas con sus socios y competidores.
Así, durante la cumbre anual, se consolidaron los lazos con tres de las firmas de diseño y fabricación de chips y GPUs más relevantes a nivel global: Nvidia, Intel y AMD, para reforzar sus soluciones de nube híbrida.
Esta coalición busca ofrecer soluciones que aprovechen los productos de IA de Intel, incluidos los aceleradores Intel Gaudi, los procesadores Xeon y Core y las GPU Intel Arc.
La infraestructura de nube híbrida resultante permitirá a las organizaciones desarrollar, entrenar y desplegar modelos de IA de manera fluida y escalable desde el centro de datos hasta el edge, garantizando la interoperabilidad y la portabilidad de las cargas de trabajo.
Para solucionar estas exigencias, Red Hat e Intel aplican un enfoque de nube híbrida en el que la pila de IA no se limita a una sola nube o a un único centro de datos.
La colaboración con Intel tiene por objetivo ofrecer soluciones integrales de IA que aprovechen los aceleradores Gaudi, los procesadores Xeon y Core y las GPU Intel Arc.
A medida que las industrias dependen cada vez más de la IA gen –desde la creación de contenidos, hasta la investigación científica– es fundamental el papel que juegan los aceleradores de hardware para fomentar la innovación y extender los límites.
Junto con una plataforma de CPU escalable y de alto rendimiento, las GPU son esenciales tanto para las etapas de entrenamiento, como las de inferencia que impulsan estas cargas de trabajo de IA.
La colaboración con Nvidia permitirá combinar modelos de IA entrenados con Red Hat OpenShift AI para desarrollar aplicaciones de IA gen en una única plataforma MLOps de confianza.
Siguiendo esta línea, Red Hat y Oracle anuncian la disponibilidad general de Red Hat OpenShift en Oracle Cloud Infrastructure (OCI).
Esta colaboración combina la plataforma de aplicaciones de nube híbrida líder del sector impulsada por Kubernetes con la nube distribuida, lo que permite que las configuraciones certificadas y compatibles de Red Hat OpenShift se ejecuten en OCI.