RedHat Summit: “La IA no será construida sobre un vendedor único. Será open source”

LinkedIn
Twitter
Facebook
WhatsApp
Email
La compañía lanzó la plataforma RHEL AI y OpenShift AI que permite el desarrollo y despliegue de aplicaciones de inteligencia artificial basado en el modelo abierto.

(Denver, Estados Unidos) La velocidad del avance en la inteligencia artificial (IA) empresarial, junto con las considerables barreras de entrada y la dificultad para encontrar talento, fueron los desafíos empresariales que busca responder Red Hat, la compañía líder en software de código abierto, en sus anuncios en el Red Hat Summit 2024.

En el evento anual, uno de los principales mensajes fue el enfoque open-source (código abierto) en el desarrollo de lA. Este enfoque implica el uso de códigos de libre acceso, reutilizables, transparentes y abiertos a colaboraciones con distintos actores, incluso de aquellos que no pertenecen a la misma organización.

Chris Wright, el director de tecnología de Red Hat, expresó a la prensa: “Los modelos de IA ‘open’ actuales llevan un asterico. Aunque hay una accesibilidad para utilizarlos, aún falta transparencia en cuanto a su funcionamiento interno”. “Nuestro objetivo es ampliar estos límites, permitiendo que los mismos modelos puedan ser ofrecidos como productos licenciados de código abierto”, agregó.

Wright explicó que el marco open-source brinda a los desarrolladores una mayor flexibilidad y capacidad de decisión sobre cómo utilizar y entrenar modelos de IA con sus propios datos, sin necesidad de construirlos desde cero. Además, lo más importante es que las comunidades tecnológicas pueden contribuir a la construcción y evolución de estos modelos.

Un ejemplo destacado fue el del Hospital Infantil de Boston, que colaboró con Red Hat para crear una herramienta de reconstrucción de imágenes de cerebros de fetos a partir de miles de imágenes digitales, con el fin de detectar anomalías, como la espina bífida. Esta herramienta permitió a los médicos obtener la imagen reconstruida en menos de dos horas, facilitando un diagnóstico preciso y, en última instancia, una cirugía efectiva.

Al mismo tiempo, el hospital decidió abrir este modelo de IA para que otros centros de salud de todo el mundo accedan a la misma tecnología, aportar a la mejora del modelo, como también entrenarlo con sus propios datos dentro de un ambiente con condiciones de seguridad y protección de información.

La IA se vuelve transversal en el portafolio de Red Hat

Durante el evento, Red Hat anunció la implementación de IA basada en código abierto en su portafolio de productos, como en el sistema operativo Red Hat Enterprise Linux (RHEL) con RHEL AI y en su plataforma de desarrollo multinube OpenShift con OpenShift AI.

Con estas nuevas herramientas, más que ofrecer modelos de IA a sus clientes, la compañía busca habilitar a las organizaciones desarrollar, probar e implementar sus propios modelos de IA generativa (GenAI), así como crear y distribuir aplicaciones de IA a gran escala en la nube híbrida.

“RHEL AI incorpora todos los valores que ofrece RHEL como plataforma, habilitando el hardware y proporcionando consistencia, seguridad y escalabilidad, ahora adaptados para entornos de IA”, explicó Adrián Cambareri, gerente de la unidad de negocios de RHEL para la operación en Latinoamérica.

Además, Red Hat ha integrado funcionalidades de GenAI como una solución al déficit de talento en TI. Por un lado, anunciaron la expansión de las capacidades de Lightspeed, el asistente de IA que permite a los desarrolladores crear código a partir de un lenguaje más simple, para RHEL y OpenShift.

Finalmente, la compañía especificó que RHEL AI se basa en InstructLab, una comunidad de código abierto que permite a los desarrolladores crear y contribuir a modelos de lenguaje de gran tamaño (LLM). La contribución no se limita solo a científicos de datos, sino que también se abre a aquellos que puedan aportar sus conocimientos y habilidades para crear, con solo unos pocos ejemplos, una gran cantidad de datos sintéticos que, a su vez, se utilizarán para entrenar los modelos de IA.

Red Hat en América Latina

Entre las operaciones de Red Hat, América Latina es una de las regiones que más crece, duplicando sus ingresos cada tres años, según indicó Paulo Bonucci, vicepresidente de Red Hat para América Latina.

“Esto demuestra el potencial de mercado que tenemos a pesar de todos los desafíos que enfrentamos como región, como la inflación, los conflictos sociales, políticos y económicos. El mercado sigue buscando evolución, modernización, mayor competitividad, velocidad al mercado y seguridad”, afirmó.

En cuanto a la adopción de la IA, Bonucci expresó optimismo, señalando que entre el 70% y el 75% del sistema operativo Linux pagado en la región es proporcionado por Red Hat, y que apuntan a ofrecer primero los nuevos servicios a esta base de clientes.

Una vez más, la característica de código abierto de la plataforma de desarrollo de Red Hat se convierte en una ventaja para abordar los desafíos corporativos, afirma la compañía. En primer lugar, al ser compartida con la comunidad, el proceso de construcción de sus productos es transparente.

Además, es compatible con un amplio ecosistema de proveedores de nube y hardware, lo que permite a las compañías elegir entre distintos datacenters, ya sea en sus instalaciones o en la nube, para crear aplicaciones. Esto también brinda mayor seguridad, ya que los desarrolladores pueden optar por mantener la infraestructura en sus propias instalaciones en lugar de alojarla en un centro de datos de terceros.

“Entre los atributos de la infraestructura híbrida se encuentra la libertad de elección, la seguridad, la consistencia y el control de la infraestructura. Normalmente, puedes obtener uno de estos atributos a expensas de los demás. Pero lo que nosotros ofrecemos es acceso a todos ellos sin sacrificar ninguno”, afirmó Cambareri.

Para expandir los nuevos servicios de IA, Red Hat anunció que continuará fortaleciendo su estrategia de socios. “Hoy en día, los clientes tienen necesidades específicas y requieren un socio, incluso antes que nosotros, para crear modelos de IA particulares”, explicó Sandra Vaz, la directora senior del ecosistema de socios . Para ello, han desarrollado el programa Partner Practice Accelerator para capacitarlos en estas nuevas categorías de soluciones.

“En América Latina, necesitamos esta contribución para crecer y escalar. Por ejemplo, en algunas islas de Centroamérica y el Caribe no tenemos oficinas, pero nuestros socios y el ecosistema de ventas contribuyen y aceleran la adopción de nuestros productos”, concluyó.

LinkedIn
Twitter
Facebook
WhatsApp
Email

Noticias relacionadas

Translate »