La IA responsable debe ser un objetivo y no una aspiraciĂłn. De allĂ la importancia de una gobernanza bien planeada. Eso incluye, por supuesto, a la GenIA.Â
Una presentaciĂłn reciente en el Festival Mundial de IA en Cannes con Uri Tintore, fundador y copresidente de Belvo refuerza esta necesidad.Â
Por: Scott Zoldi | Director de AnalĂtica (CAO) de FICO
Recientemente asistĂ al Festival Mundial de IA en Cannes (WAICF, por sus siglas en inglĂ©s) en Cannes, Francia, donde escuchĂ© llamados urgentes por establecer una gobernanza a la inteligencia artificial generativa (GenAI, por sus siglas en inglĂ©s).Â
Los cientĂficos de datos clamaban por gobernar la tecnologĂa de manera mucho más eficaz, con transparencia y protecciones.Â
Observé también una exuberancia irracional por la GenAI, con presentadores que aseguraban que ésta generará billones de dólares al año en productividad global.
Mientras el debate se llevaba a cabo, pude compartir la fuerza del enfoque pragmático y controlado de FICO en torno a la implementaciĂłn de la IA.Â
Me enorgullece que FICO asuma con tanta seriedad la aplicaciĂłn de la inteligencia artificial y del machine learning (ML), a travĂ©s de un enfoque estructurado en la gobernanza de la IA responsable que enfatiza el ML interpretable, la IA Ă©tica, la palatabilidad, la IA auditable y la responsabilidad. Â
“¡Los modelos lingĂĽĂstico grandes (LLM) no sirven para nada!”
El primer dĂa del evento, el vicepresidente y cientĂfico en jefe de IA en Meta, Yann LeCun, presentĂł la conferencia “Objective-Driven AI: towards AI systems that can learn, remember, reason, and plan“ (La IA orientada a objetivos: hacia sistemas de IA capaces de aprender, recordar, razonar y planear), donde ofreciĂł una perspectiva tĂ©cnica sumamente informada sobre porquĂ©, en sus palabras,
“¡Los modelos lingĂĽĂstico grandes (LLM) no sirven para nada!” (Ni tampoco el aprendizaje automático, desde su punto de vista). Su perspectiva no sorprende, ya que a diario escuchamos acerca de los fracasos Ă©picos de la GenAI, tales como chatbots de LLM que alucinan sobre la justicia o las polĂticas de reembolso de tarifas aĂ©reas. O generadores de imágenes que ilustra, claramente, lo peor en estereotipos raciales. Â
Estoy viendo surgir una contracultura. LeCun resumiĂł su visiĂłn negativa sobre los LLMs en:
- El aprendizaje supervisado (AS) requiere grandes nĂşmeros de muestras etiquetadas.
- El aprendizaje de refuerzo (AR) requiere cantidades descabelladas de pruebas.
- El aprendizaje autosupervisado (AA) funciona muy bien, pero la predicción generativa sólo funciona para texto y otras modalidades discretas… [lo que conduce a]
- Los LLM tienen conocimientos limitados de la realidad subyacente; no tienen sentido comĂşn ni memoria ni pueden planear su respuesta.
LeCun continuĂł su presentaciĂłn describiendo una arquitectura de IA orientada a objetivos que puede “aprender, razonar [y] planear, pero que es segura y controlable”, lo que abre un camino mucho más gobernable “hacia una inteligencia de máquina autĂłnoma”. Â
Sentado entre el pĂşblico, me alegrĂł escuchar a otro cientĂfico de datos reconocer las limitaciones y los riesgos de la tecnologĂa de IA y GenAI.Â
Estoy totalmente de acuerdo con la conclusiĂłn de LeCun: si no respetamos estas limitaciones, arriesgamos lastimarnos a nosotros mismos o a nuestras aplicaciones. Y los adelantos necesarios en GenAI podrĂan tornarse lentos, restringirse o, incluso, prohibirse.
Exuberancia irracional a escala
En el lado opuesto del espectro, Nayur Khan, de la práctica QuantumBlack AI de McKinsey, pintĂł el futuro de la GenAI de color rosa. PresentĂł un argumento estadĂsticamente completo de que la GenAI puede generar 4.4 billones de dĂłlares en productividad global anual y ayudar a las organizaciones a lograr una ventaja competitiva.Â
Las estadĂsticas que compartiĂł fueron:
- El doble de menciones de IA en las llamadas de ganancias del S&P 500, lo que indica un alza en interés y/o implementaciones.
- Un incremento de más del 400% en inversión VC global en la IA generativa.
- La posibilidad de automatizar del 60% al 70% del trabajo de los empleados.
Un artĂculo del New York Times ahonda aĂşn más en el elemento de la automatizaciĂłn y cita un informe reciente del McKinsey Global Institute:
La mitad de todo el trabajo se automatizará entre 2030 y 2060, afirma el informe.
McKinsey ya habĂa predicho que la IA automatizarĂa la mitad de todo el trabajo entre 2035 y 2075, pero la potencia de las herramientas de la IA generativa, las cuales incursionaron en el escenario tecnolĂłgico el año pasado, aceleraron la predicciĂłn de la compañĂa. Â
“La IA generativa tiene el potencial de cambiar la anatomĂa del trabajo al aumentar las capacidades de los trabajadores mediante la automatizaciĂłn de sus actividades individuales”, dice el informe.
Sin embargo, la presentaciĂłn de Khan incluyĂł una importante nota al pie: menos del 10% de las compañĂas pueden generar un impacto de IA a escala. Pienso que esta es una cifra en la que hay que enfocarse, y, ciertamente, es el problema que debe resolverse.Â
Considero que la oposiciĂłn inevitable contra la IA por su percibida “incapacidad de ofrecer valor empresarial”, es el impacto hacia el cual se dirige la actual exuberancia irracional.Â
Pero esto, de hecho, es una cuestiĂłn relacionada con las personas, no un problema tecnolĂłgico. Â
FICO ha logrado excelentes resultados con la IA responsable
La mayorĂa de las presentaciones en WAICF se centraron en la IA generativa. No obstante, la sesiĂłn encabezada por FICO, “Using blockchain, Responsible AI and open banking to expand credit access” (Utilizar el blockchain, la IA responsable y la banca abierta para ampliar el acceso al crĂ©dito), explorĂł una aplicaciĂłn operada bajo los principios de la IA responsable y disponible para mejorar las decisiones de crĂ©dito en Brasil.Â
Presenté junto con Uri Tintore, fundador y copresidente de nuestro socio Belvo, y cubrimos lo siguiente:
- La situaciĂłn de Open Finance en Brasil y la disponibilidad de datos.
- La necesidad de una IA responsable que sea robusta, explicable, Ă©tica y auditable.
- La necesidad de un machine learning interpretable, que permita abordar la “caja negra” del ML, para incrementar la transparencia y la responsabilidad.
- El uso del blockchain en el desarrollo de modelos de IA para asegurar la auditabilidad.
Uri explicĂł en detalle cĂłmo utilizar los datos de Open Finance requiere un procesamiento profundo, asĂ como un enriquecimiento de datos complejos.Â
TambiĂ©n por quĂ© Belvo eligiĂł a FICO para desarrollar y operativizar los modelos de machine learning de la IA responsable, de manera tal de conocer mejor el comportamiento financiero de los clientes y mejorar los resultados futuros a travĂ©s de los datos enriquecidos.Â
Luego, describĂ cĂłmo la estrategia de FICO expande la inclusiĂłn financiera a travĂ©s de un machine learning interpretable para abordar la “caja negra del ML”. La Figura 1 presenta una versiĂłn simplificada de ese proceso.Â
Figura 1. Belvo utiliza la tecnologĂa de desarrollo de perfiles transaccionales de FICO para obtener una perspectiva contextual del comportamiento financiero del cliente. Y emplea el machine learning interpretable para producir un puntaje (score) de Open Finance que pueda mejorar la inclusividad financiera en Brasil.
Todo el desarrollo y operaciĂłn de Belvo Open Finance Score, impulsado por FICO, se codifica de manera inmutable en un modelo de IA con gobernanza de blockchain.Â
El blockchain asegura que los modelos de machine learning y las relaciones en los datos que impulsan esos modelos sean explicables y justificable. Ello constituye la base de una gobernanza exitosa de la IA.Â
Asimismo, la codificaciĂłn permite implementar tĂ©cnicas avanzadas como el análisis transaccional y el machine learning interpretable, el cual permite utilizar esos datos del cliente para mejorar los resultados.  Â
El poder del análisis transaccional: 6 veces más préstamos con 3 veces menos pérdidas
Con la intenciĂłn de de demostrar el potencial de Belvo Open Finance Score, compartimos un escenario “antes”, a manera de un caso de estudio de un proveedor de servicios financieros de Brasil.Â
Esta instituciĂłn tenĂa una tasa de rechazo de crĂ©dito muy alta (~84%) y una tasa de impago del 20% en los prĂ©stamos aprobados, lo que indicaba una buena oportunidad para mejorar los resultados de negocios.
Con la puntuaciĂłn de Open Finance presentamos una estrategia sencilla para extender crĂ©dito al 20% de las solicitudes rechazadas con la puntuaciĂłn más alta y rechazar el 50% de las autorizaciones con la puntuaciĂłn más baja.Â
Esto se traducirĂa en una tasa de impago de sĂłlo el 6% pero en un acceso a crĂ©dito mucho mayor.Â
ÂżEl resultado? Seis veces más prĂ©stamos con tasas de pĂ©rdidas tres veces más bajas, lo cual proporcionaba una oportunidad capaz de cambiarle la vida a la poblaciĂłn sin servicios financieros en Brasil. Â
Figura 2. Belvo Open Finance Score, impulsado por FICO, permite que 6 veces más solicitantes de crédito reciban préstamos, con un riesgo de pérdida 3 veces menor para el banco.
De eso se trata la IA responsable
FICO piensa que es sumamente importante no poner en peligro la oportunidad de mejorar los futuros financieros. Ya sea por aplicar de forma descuidada una IA no interpretable o por utilizar de manera irresponsable la IA, el ML y los datos que pueden impulsar el cambio.Â
Esto requiere disciplina y dedicar tanto tiempo como cuidado a implementar una estructura de gobernanza de la IA responsable.
Para funcionar exitosamente a largo plazo y hacer frente al escrutinio regulativo, una estrategia de gobernanza de la IA debe aplicar los constructos de la IA auditable, tales como blockchain de gobernanza de la IA, para cumplir con esas normas de la IA responsable. Â