¿Cómo se ve el futuro de la Inteligencia Artificial? Veamos cinco maneras en que esta tecnologia cambiará nuestro mundo como lo conocemos.
El dominio de la IA será esencial para mantenerse relevantes a medida que la tecnología transforme todos los campos.
Por: Kirk Bresniker | Asociado en HPE y arquitecto jefe en Hewlett Packard Labs
La IA generativa (GenIA), impulsada por los modelos de lenguaje de gran tamaño, está redefiniendo las industrias, marcando una clara división entre la vida antes y después de su surgimiento.
Desde hace más de una década, tanto la Inteligencia Artificial (IA) como el aprendizaje automático (ML, por sus siglas en inglés), han estado creando nuevas capacidades para las empresas y los investigadores.
Ya sea el uso del análisis predictivo para pronosticar el mantenimiento de los equipos, herramientas de visión computacional para dotar de vista a los robots de la línea de ensamblado automático o gemelos digitales, para simular el comportamiento de fábricas, ciudades, e incluso, economías.
La lista de aplicaciones impulsadas por la Inteligencia Artificial (IA) se expande cada vez más.
Sin embargo, ninguna de esas innovaciones ha captado la imaginación de las personas y las empresas como la IA generativa (GenIA).
Meses, años y décadas
A lo largo de los últimos dos años, el mundo ha pasado por un cambio tectónico debido al surgimiento de los modelos de lenguaje de gran tamaño (LLM, por sus siglas en inglés), los cuales conforman los cimientos de las aplicaciones de GenIA. Las réplicas se seguirán sintiendo durante décadas.
Yo crecí en Silicon Valley, donde siempre estábamos esperando “el gran evento telúrico” que cambiaría nuestras vidas, de la noche a la mañana. Aunque esa metáfora se usa todo el tiempo en el mundo de la tecnología, esta vez es apropiada.
La capacidad de hacer preguntas a los chatbots de GenIA usando lenguaje natural y que generen respuestas a partir de casi toda la información humana registrada, afectará todas las actividades basadas en conocimiento que realicen los humanos.
En el futuro, miraremos hacia atrás y veremos una clara demarcación: la vida antes y después de los LLM.
¿Cómo será exactamente ese futuro? He aquí una mirada anticipada al final de la década, para imaginar cómo formaremos alianzas con las tecnologías de Inteligencia Artificial del mañana.
1.- Los modelos de IA reemplazarán las aplicaciones y los sistemas operativos empresariales
Hoy en día, utilizamos un conjunto de aplicaciones para realizar funciones básicas como buscar en bases de datos, enviar mensajes o crear documentos con las herramientas que conocemos bien.
En el futuro, pediremos a un representante basado en IA que nos proporcione respuestas o realice estas tareas. Y este, además:
- Agrupará modelos que hayan demostrado ser seguros y compatibles,
- Escribirá o reescribirá aplicaciones en tiempo real
- Y negociará, tanto en términos como en condiciones, a favor de nuestros intereses.
Su representante de IA resolverá, simultáneamente, ecuaciones de física, economía, derecho y más, para decidir la mejor manera de implementar cada secuencia de tareas.
También evaluará la forma de organizar los modelos y buscar información en fuentes adicionales, según sea necesario.
El representante de IA también recordará las solicitudes pasadas y anticipará las futuras.
Todo ello con el fin de adaptarse al comportamiento de los usuarios y crear sistemas sumamente personalizados para ellos.
2.- La generación y operación de los modelos de Inteligencia Artificial será más transparente
En la actualidad, los científicos de datos y los ingenieros de IA que desarrollan modelos avanzados, a menudo, no pueden explicar cómo llegan a un determinado resultado.
La magnitud de las entradas, la naturaleza del entrenamiento y la enorme potencia computacional requerida para producir un modelo, se combinan para hacer que los de Inteligencia Artificial sean inexplicables.
Y, aunque en algunos casos esto sea aceptable, al tratarse de su adopción para un uso específico en una empresa altamente regulada, la transparencia será clave para su implementación.
A medida que estos modelos se vuelvan cada vez más importantes en la toma de decisiones críticas, observaremos un proceso iterativo de legislación, litigio, negociación e innovación entre los reguladores, las empresas y las comunidades donde operan.
Este proceso, probablemente, continuará reflejando diferencias en tolerancia al riesgo, valores y prioridades en cada industria y región.
Los modelos de Inteligencia Artificial también deberán ser más transparentes respecto a los recursos que consumen.
No se puede hablar del futuro de la IA sin considerar las cantidades sin precedentes de electricidad, agua, talento y dinero requeridas para entrenar un modelo de vanguardia.
Y, aunque hoy en día el impresionante número de recursos destinados al entrenamiento es un tema central, debemos prepararnos para que siga aumentando.
La infraestructura actual de las principales redes sociales está dimensionada para cientos de miles de inferencias por usuario/hora. Pero ¿cuántos recursos serán necesarios para soportar millones de inferencias cada hora del día para 8.000 millones de personas?
Los operadores de los modelos fundacionales deberán ser explícitos sobre el origen de la energía, la infraestructura y la información utilizadas en sus modelos. Ello permitirá a las organizaciones tomar decisiones informadas sobre si los conocimientos que estos modelos ofrecen justifican su costo.
3.- La sostenibilidad se convertirá en una prioridad global y la Inteligencia Artificial nos llevará en esa dirección
Cada elemento dentro de la infraestructura informática mundial, es decir, cada componente en cada rack de cada centro de datos, deberá optimizarse para la sostenibilidad.
Los responsables de la toma de decisiones tendrán que determinar si el valor de cada resultado empresarial justifica el gasto energético necesario para producirlo.
Desde extraer los minerales, fabricar la infraestructura e implementarla a escala para reunir la información. También la energía para entrenar e inferir los resultados: necesitaremos contabilizar cada julio de energía, cada byte de información y cada litro de agua utilizado.
Una de las principales razones por las que Hewlett Packard Enterprise adoptó la refrigeración líquida directa (DLC, por sus siglas en inglés) en sus sistemas de computación de alto rendimiento es la eficiencia energética que esta tecnología ofrece.
La refrigeración líquida puede reducir la huella de carbono y los costos de refrigeración de un centro de datos en casi un 90% anual.
Pese a que llevamos décadas desarrollando esta tecnología para las aplicaciones de supercomputación más demandantes en ciencia e ingeniería, ahora se está incorporando en los centros de datos. Y esto está ocurriendo a una escala 40 veces mayor para las implementaciones de IA que requieren gigavatios de energía.
Para poner estas cifras en contexto, las supercomputadoras de exaescala más rápidas del mundo, Frontier, Aurora y El Capitan, operan a unos 25 megavatios. Ello que equivale a un poco más de lo que consumen 20.000 hogares promedio en EE.UU.
Los centros de datos del futuro consumirán más de un gigavatio, el equivalente a lo que consumen 833.000 hogares promedio en EE.UU.
HPE se compromete a llevar la eficiencia al límite en todos los aspectos de la tecnología de la información: computación, almacenamiento y redes.
Los gemelos digitales basados en el aprendizaje por refuerzo pueden optimizar las necesidades de energía, transporte y comunicación de los sistemas a gran escala.
¿Por qué? Esto es gracias a que:
- Identifican el desperdicio en el ecosistema energético
- Anticipan las fluctuaciones en la demanda
- Y sugieren estrategias para gestionar la red de manera más eficiente utilizando fuentes de energía renovable
4.- El desarrollo de nuevos LLM requerirá nuevos paradigmas computacionales
Los LLM más avanzados, actualmente, están escalando a trillones de parámetros. Esto representa el número de variables que pueden ajustarse para mejorar la precisión de las predicciones del modelo.
La gran incógnita es si un mayor número de parámetros producirá modelos aún más eficientes. De ser así, la próxima generación de modelos requerirá una cantidad mucho mayor de parámetros, además de volúmenes de datos y gigavatios de potencia de cómputo aún más altos.
El instituto de investigación Epoch AI estima que el modelo más costoso hasta la fecha, Gemini Ultra, tiene un costo combinado de capital y operación de US$ 800 millones.
Si el ritmo actual de desarrollo de los LLM continúa, en una década podríamos gastar el equivalente al presupuesto anual global de TI para entrenar un modelo a la vez.
En otras palabras, llegaremos al límite de nuestra capacidad para entrenar modelos más grandes con las tecnologías existentes. Incluso si las nuevas tecnologías y algoritmos lograran acercarse a la eficiencia de entrenamiento de las inteligencias biológicas, representaría un obstáculo aún mayor.
¿Por qué? Pues porque la inferencia de estos modelos podría realizarse millones de veces por hora, para cada uno de los 8.000 millones de habitantes del planeta.
¿Podemos darnos el lujo de brindar a todos acceso a un futuro optimizado con IA?
La computación fotónica podría permitirnos construir dispositivos de baja latencia y bajo consumo energético para realizar inferencias en el extremo. Esto gracias a que éstos sistemas utilizan ondas de luz para el almacenamiento y procesamiento de datos.
Probablemente, entrenar a la próxima generación de LLMs requerirá tecnologías y algoritmos que aún se encuentran en desarrollo. Todavía estan en manos de equipos de investigación, como el nuestro en Hewlett Packard Labs.
El objetivo final es lograr que la IA sea capaz de un verdadero razonamiento deductivo.
Los aceleradores basados en la física pueden ser la clave para una nueva dimensión de comportamientos de IA que, con el tiempo, nos lleven a la inteligencia artificial general.
5.- El impacto más grande de la IA será en el comportamiento humano
Así como nos hemos adaptado a las computadoras, al Internet y a los teléfonos inteligentes en las últimas tres décadas, debemos adaptarnos a la IA y aprender a usarla de manera eficaz.
Nuestro CEO, Antonio Neri, suele decir que todos en HPE deberían cursar una especialidad en IA.
Lo que quiere decir con esto es que cada equipo y todos sus integrantes deben explorar las posibilidades de esta tecnología. Deben preguntarse si lo que están haciendo hoy podría hacerse de manera más eficaz y eficiente con esta tecnología.
La respuesta no siempre será sí. Pero cada persona dentro de cada organización debe estar dispuesta a reflexionar seriamente sobre la pregunta.
Aunque no creo que los robots vayan a quitarnos el trabajo, estoy convencido de que, si quieres destacar en la ciencia, la ingeniería, la industria o, incluso, las artes, necesitarás ser competente en Inteligencia Artificial.
Si no sabes cómo aprovechar esta tecnología, podrías ser reemplazado por alguien que sí lo sepa.