¿Cómo aprovechar esa era dorada que la GenIA parece haber iniciado, sin matar a la gallina de los huevos de oro?
A medida que las compañías obtengan resultados asombrosos con la IA en 2025, la operatividad y la confianza serán imperativos factibles.
Por: Scott Zoldi | Director de Analítica (CAO) de FICO
No cabe la menor duda: el 2025 se siente como si entráramos a la era dorada de la inteligencia artificial (IA).
Las enormes inversiones de las empresas en Inteligencia Artificial y en IA Generativa (GenIA) están produciendo ganancias reales en productividad e ingresos.
Entonces, ¿cómo podemos lograr que la gallina de los huevos de oro siga poniendo huevos?
En 2025, pienso que las compañías, revitalizadas por las motivaciones adecuadas y empoderadas con las herramientas correctas, obtendrán resultados confiables y repetibles con la IA y la GenIA.
Pero solo si operativizan estas tecnologías y demuestran su credibilidad.
He aquí mis predicciones sobre AI y GenAI para este nuevo año:
Las compañías descubrirán que no toda la IA es GenIA
A medida que la era dorada de la IA se consolide, las compañías asumirán con seriedad la capacidad de maximizar el valor empresarial de sus inversiones en Inteligencia Artificial.
Después de analizar los problemas de negocio que desean resolver, las empresas aplicarán su experiencia y aprendizajes en IA para determinar:
-
Qué oportunidades de negocio son las más adecuadas para la GenAI
-
Y cuáles son mejores para las técnicas de IA tradicionales y el machine learning interpretable
Esto es esencial, especialmente, en las áreas sumamente reguladas. También para la toma de decisiones críticas.
De hecho, más del 80% de todos los sistemas de IA en producción actualmente no son de IA Generativa.
Entonces, pese a que las organizaciones ahora cuentan con un arsenal proverbial de capacidades de IA, no deben intentar enroscar un tornillo con un martillo.
Elegir las herramientas adecuadas de IA requiere científicos de datos que conozcan a detalle los requisitos empresariales y operativos y que puedan evaluar las fortalezas o debilidades relativas de la IA o la GenIA.
Los procesos “Human on the loop”, en los cuales las personas participan en varios aspectos de la organización, serán clave para definir si un problema empresarial necesita:
-
Decisiones determinantes del machine learning interpretable
-
Capacidad de auditoría
-
U otros requisitos de implementación
Elegir correctamente entre la IA tradicional y la GenIA será fundamental para el éxito de las inversiones en IA.
Operativizar la IA es un reto… pero se volverá más sencillo
Operativización no es precisamente una palabra fácil de pronunciar.
Sin embargo, este concepto, que significa: “convertir ideas conceptuales abstractas en observaciones medibles”, puede lograrse de manera sistemática.
Ello si los sistemas de IA y GenIA se implementan de forma repetible y medible a través de una combinación optimizada de personas, procesos y tecnología.
Muchas empresas no saben cómo operativizar la IA ni por dónde empezar a hacerlo.
En mi puesto en FICO, he desarrollado cinco principios de operativización que forman la estructura de cualquier implementación de I teligencia Artificial:
1.- Comenzar con un equipo de primer nivel
La implementación de la IA debe diseñarse y ejecutarse por los mejores profesionales de ciencia de los datos.
No sólo por aquellos con credenciales académicas, sino con experiencia real en la aplicación de la IA para resolver problemas empresariales. Estos siempre son más complejos de lo que parecen a simple vista.
2.- Inventar la IA para el sector o necesidad específica
Además del equipo de ciencia de los datos, toda la organización debe estar enfocada en utilizar soluciones de IA para resolver problemas empresariales críticos.
Esto incluye cuantificar primero la necesidad empresarial y, en ocasiones, inventar nuevos algoritmos para atenderla.
3.- Desarrollar algoritmos de IA para una implementación eficiente del software
Una implementación de IA exitosa requiere que los científicos de machine leraning/IA:
- Participen en el proceso de diseño del software
- Definan los requisitos
- Y conozcan las limitaciones que se aplican a sus algoritmos
4.- Ofrecer una ejecución de baja latencia y alto rendimiento
Los recursos de computación en la nube, bien diseñados, pueden operativizar los sistemas de toma de decisiones basados en IA para satisfacer las necesidades empresariales.
El rendimiento en tiempo real exige conocimiento absoluto de toda la cadena de flujo de datos, preprocesamiento, análisis de datos en tiempo real, almacenamiento NoSQL, redundancia del sistema y otros activos.
5.- Busque incansablemente una IA Responsable
Para que la inteligencia artificial genere valor empresarial, debe ser ética, explicable y auditable.
Esos son los conceptos clave de la IA Responsable: un conjunto de principios y prácticas que permiten operativizar la implementación de la inteligencia artificial, para lograr resultados empresariales de alto impacto dentro de límites éticos y legales importantes.
Tanto la responsabilidad como la capacidad explicativa son fundamentales para la IA Responsable. Y pueden alcanzarse mediante el uso de una tecnología de blockchain inmutable, que codifique todos los aspectos de la implementación del modelo de IA.
La misma gobernabilidad de IA con blockchain puede emplearse para definir métricas operativas y supervisar la IA en producción. Ello que permite obtener valor fuera del laboratorio de ciencia de los datos.
Aumentarán los casos de uso de GenIA específicos para el dominio de datos
Por otra parte, en 2025 habrá más compañías que desarrollarán sus propios modelos de lenguaje pequeños (SLM, por sus siglas en inglés).
También surgirán modelos de lenguaje enfocados (FLM, por sus siglas en inglés).
Estos serán capaces de abordar el aspecto más complejo de los LLM, mediante un corpus de datos por dominio específico.
Dichos modelos deberán contar con anclajes de conocimiento relevantes. Ello asegurará que las respuestas basadas en tareas de los FLM estén fundamentadas en la realidad.
Estos mismos FLM ayudarán a legitimar las aplicaciones de Agentic IA, que aún están en sus primeras etapas,ero requieren modelos LLM sumamente especializados para tareas específicas, que operen con altos niveles de precisión y control.
El uso generalizado de los FLM puede generar otro resultado positivo: reducir el impacto ambiental de la GenAI.
Según estimaciones de la industria, una sola consulta en ChatGPT consume entre 10 y 50 veces más energía que una búsqueda en Google. En un nivel más alto, el informe más reciente de la ONU sobre la Economía Digital sugiere que los centros de datos operados por Google, Amazon, Meta, Apple y Microsoft (GAMAM) consumieron más de 90 TWh (teravatios-hora. O 1.000 gigavatios-hora [GWh]) de energía.
Es decir, más que países enteros como Finlandia, Bélgica, Chile o Suiza.
A medida que las empresas buscan formas de cumplir sus objetivos de sostenibilidad más allá de la compra de créditos de carbono, los FLM pueden generar un impacto significativo mientras producen mejores resultados para las empresas.
Las compañías crearán sus propios modelos de lenguaje pequeños y enfocados
Por otra parte, en 2025 habrá más compañías que desarrollarán sus propios modelos de lenguaje pequeños (SLM, por sus siglas en inglés).
También surgirán modelos de lenguaje enfocados (FLM, por sus siglas en inglés).
Estos serán capaces de abordar el aspecto más complejo de los LLM, mediante un corpus de datos por dominio específico.
Dichos modelos deberán contar con anclajes de conocimiento relevantes. Ello asegurará que las respuestas basadas en tareas de los FLM estén fundamentadas en la realidad.
Estos mismos FLM ayudarán a legitimar las aplicaciones de Agentic IA, que aún están en sus primeras etapas,ero requieren modelos LLM sumamente especializados para tareas específicas, que operen con altos niveles de precisión y control.
El uso generalizado de los FLM puede generar otro resultado positivo: reducir el impacto ambiental de la GenAI.
Según estimaciones de la industria, una sola consulta en ChatGPT consume entre 10 y 50 veces más energía que una búsqueda en Google. En un nivel más alto, el informe más reciente de la ONU sobre la Economía Digital sugiere que los centros de datos operados por Google, Amazon, Meta, Apple y Microsoft (GAMAM) consumieron más de 90 TWh (teravatios-hora. O 1.000 gigavatios-hora [GWh]) de energía.
Es decir, más que países enteros como Finlandia, Bélgica, Chile o Suiza.
A medida que las empresas buscan formas de cumplir sus objetivos de sostenibilidad más allá de la compra de créditos de carbono, los FLM pueden generar un impacto significativo mientras producen mejores resultados para las empresas.
Las puntuaciones de confianza en la IA fomentarán la credibilidad en la GenAI
Las puntuaciones de confianza en la IA, tales como las relacionadas con los FLM, fomentarán la confianza en la GenIA. Esta puntuación de confianza en IA secundaria, independiente y basada en el riesgo, además de las estrategias basadas en ella, permite operativizar la GenIA a escala con una precisión medible.
Las puntuaciones de confianza en la IA reflejan tres aspectos:
-
La probabilidad de que los datos contextuales clave (como la documentación de un producto) con los cuales se entrenó el FLM para una tarea específica se utilicen para proporcionar la respuesta.
-
El modelo de confianza en IA da certeza en que el resultado del FLM esté basado en una relevancia estadística suficiente. Los LLM funcionan con distribuciones de probabilidad y, si no hay suficientes datos de entrenamiento para crear una distribución estadísticamente significativa o una serie de alternativas viables, el modelo de confianza en IA no confiará en la respuesta.
-
Alineación con los anclajes de conocimiento, es decir, alineación con hechos verificables en lugar de sólo datos. La distinción entre “la verdad” y “los datos” es uno de los desafíos más persistentes de la tecnología LLM y de la IA en general.
Las puntuaciones de confianza en la IA pueden integrarse en un sistema de gestión de riesgos adecuado, a fin de que las empresas puedan decidir si confiarán en la respuesta de un FLM, lo que representa una verdadera estrategia de operatividad.
Mirar hacia adelante y hacia atrás
Estoy entusiasmado por ver cómo se desarrollan mis predicciones sobre IA y GenIA en esta era dorada de la inteligencia artificial.
Al mirar atrás, mis predicciones sobre IA del 2024 fueron bastante acertadas, aquí algunas de ellas:
-
La IA auditable hará que la rendición de cuentas sea atractiva: Sí, la idea de usar blockchain para gestionar el desarrollo de los modelos logró una buena visibilidad y avance en 2024.
-
Lo pequeño será hermoso: Sí, han surgido nuevos enfoques más pequeños en torno a la funcionalidad de los LLM, tales como los FLM, que ayudan a reducir la complejidad de los LLM.
-
Los humanos se reafirmarán: Sí, a medida que los errores de los chatbots y otras aplicaciones de GenAI fueron más evidentes en 2024, lo que generó críticas, incluso Gartner proporcionó orientación sobre los casos en que no debe usarse la GenAI.