Algunas de las fallas que llevaron a la IA Responsable fueron expuestas durante 2021 en artículos, podcasts y conversaciones negativos.
Por: Scott Zoldi | Chief Analytics Officer de FICO
Tras varios años de tratar (y siempre fracasar) de estar a la altura del despliegue publicitario, la inteligencia artificial fue profundamente doblegada en el 2021 por la opinión pública.
Por fortuna, los científicos de datos están reconociendo la fragilidad del poder de la toma de decisiones de la IA y han creado controles compensatorios.
Estos incluyen la IA Auditable y la IA Humilde: mis predicciones sobre estas para el 2022 son que las veremos unirse a la IA Explicable y la IA Ética bajo el paraguas de la IA Responsable.
Esta última será el estándar de oro que debiera utilizarse para desarrollar sistemas de inteligencia artificial confiables y seguros.
Pero primero revisemos los conceptos de la IA Auditable y la IA Humilde, según predicen los especialistas, se utilizarán ampliamente en el 2022.
La IA Responsable se ha convertido en un problema real
Recapitulemos un par de puntos sobre lo que sucedió con la IA en el 2021.
La adopción de la IA se disparó a lo largo de la pandemia. Una encuesta de PwC encontró que el 86 % de las compañías encuestadas afirmaron que la misma se convirtió en una “tecnología de uso general” en su compañía en el 2021.
Algunas de las fallas de la IA fueron dolorosamente aparentes en el año, en una infinidad de artículos, podcasts y conversaciones negativos.
El futurista, Bernard Marr creó una conversación concisa sobre los impactos negativos de la IA, incluyendo:
- Prejuicios acerca de la Inteligencia Artifucial
- Pérdida de algunos empleos
- Un cambio en la experiencia humana
- Hackeo acelerado
- Terrorismo de la IA
El camino hacia delante: ética desde el diseño
El 15 de septiembre de 2021 el mundo avanzó significativamente hacia lograr una IA Responsable con el lanzamiento de IEEE 7000, el primer estándar que, tal como lo describe Politico AI:
“Enseñará a las compañías tecnológicas a desarrollar tecnología que generará valor humano y social, en vez de solo dinero”.
Sarah Spiekermann, de la Universidad de Economía y Negocios de Viena – quien participó en el esfuerzo de IEEE 7000 – afirmó en Político que el estándar determinará que una IA “buena” será aquella que brinde a las compañías control sobre:
- La calidad de los datos utilizados en el sistema de Inteligencia Artificial
- Los procesos de selección que alimentan esta tecnología
- El diseño de algoritmos
- La evolución de la lógica de la Inteligencia Artificial
“Las mejores técnicas disponibles para un nivel suficiente de transparencia respecto a la manera en que la IA aprende y llega a sus conclusiones”, por citar a Sarah Spiekermann.
Considero que la transparencia y la ética desde el diseño es el único camino que seguir y con el IEEE 7000, parece que este objetivo podría cumplirse en el futuro próximo.
Hacia la IA Responsable: la Auditable y la Humilde
Para desarrollar sistemas de Inteligencia Artificial que cumplan con la implementación de los estándares de la IA Responsable como el IEEE 7000, dos ramas nuevas de la Inteligencia Artificiall se generalizarán en el 2022.
1. La IA Auditable
Es una inteligencia artificial que deja rastro de cada detalle sobre sí misma, incluyendo todos los puntos siguientes puntos:
- Datos
- Variables
- Transformaciones
- Y procesos de modelos…
- … tales como aprendizaje automático
- Diseño de algoritmos
- Y lógica de modelos
La IA Auditable debe estar respaldada por infraestructuras de desarrollo de modelos firmemente establecidas como las de cadena de bloques (Blockchain) que FICO utiliza para este fin.
Básicamente, la Inteligencia Artificia Auditable cumple el requisito de transparencia del estándar IEEE 7000.
Aquí, mi predicción es que las aspiraciones de lograr una IA Responsable dejarán de ser promesas vacías y se convertirán en medidas de gobernanza de desarrollo de modelos que sean oficiales, se transcriban programáticamente y estén respaldados por la tecnología de cadena de bloques.
De igual importancia, la versión Auditable ofrece pruebas de su adherencia a los estándares de desarrollo de modelos de la IA Responsable y apoya directamente su función conectada, la Humilde.
2. La Inteligencia Artificial Humilde
Es una inteligencia artificial que sabrá que no está segura sobre la respuesta correcta.
Se enfoca en la incertidumbre de las decisiones de Inteligencia Artificial y utiliza medidas de incertidumbre (como una puntuación numérica de la incertidumbre) para cuantificar los niveles de confianza del modelo en su propia toma de decisiones, con detalles sobre la decisión individual y el elemento de los datos.
En otras palabras, la IA Humilde nos ayuda a confiar más en cada puntuación que produce y el consumidor que afecta, no solo en la precisión de la puntuación misma en un grupo completo de consumidores.
Pese a que he escrito artículos de blog sobre la IA Humilde en el pasado, observo un movimiento que se aleja por completo de los modelos complejos para determinar con mayor exactitud cuándo utilizar un modelo más complejo o un modelo menos complejo que tenga mejor evidencia de apoyo.
Pienso que en el 2022 los modelos se analizarán y evaluarán por cada transacción, con puntuaciones de confianza asignadas.
Esto proporcionará a las personas una guía explícita sobre cómo, cuándo y si deben utilizarse los resultados de un modelo específico en la toma de decisiones, en particular si la inteligencia artificial muestra que el modelo es más incierto respecto a las decisiones tomadas sobre algún tipo de transacciones o clientes.
La capacidad de determinar si un modelo es adecuado variará entre los ejemplos calificados; p. ej., para algunas clientes el modelo es muy cierto y tiene gran confianza estadística, pero para otros no.
Este es un componente fundamental de la IA Responsable, tal que cuando la confianza de un modelo es insuficiente, esos clientes pueden ser calificados por un modelo alternativo que tenga mejor confianza estadística y, por lo tanto, recibir un resultado más justo.
Esto se alinea directamente con el IEEE 7000 y aprovecha el hecho de que la toma de decisiones del modelo de Inteligencia Artificiall puede ser más o menos cierta para diferentes personas.
La IA Responsable requiere que esa incertidumbre se refleje en las decisiones.
Una relación fluída y complementaria
Tanto IA Auditable como la Humilde son simbólicas. Cuando se desarrolle de forma adecuada, la Inteligencia Artificial Auditable establecerá el criterio y las medidas de incertidumbre que trasladarán la toma de decisiones a los modelos alternativos, una medida consistente con el enfoque de la IA Humilde.
El criterio para utilizar los modelos de la IA Humilde y los modelos alternativos debe establecerse durante el periodo de desarrollo del mismo, con base a las:
- Fortalezas
- Debilidades
- Y transparencia derivadas…
- … durante el desarrollo y transcribirse en el registro de la IA Auditable.
Por último, ambas Inteligencias Artificiales ayudarán a incrementar la confianza en las decisiones generadas por los sistemas de IA: el mejor catalizador para ayudar a que esta tecnología recupere y se gane la confianza de los medios.