A medida que el mundo empresarial pasa del uso teórico de la Inteligencia Artificial a la toma de decisiones a escala de producción, la IA Responsable se torna esencial.
Una vez que hemos hablado de la IA explicable y la IA ética, revisaremos ahora los dos principios restantes de la IA responsable.
Por: Scott Zoldi | Director de Analítica (CAO) de FICO
El uso de la Inteligencia Artificial (IA) ha aumentado drásticamente, tanto para informar como para definir estrategias y servicios en una multitud de industrias: desde salud hasta comercio minorista. E, incluso, ha desempeñado un papel significativo en la lucha contra el COVID-19.
Sin embargo, la adopción masiva y los volúmenes crecientes de la Inteligencia Artificial (IA) generada digitalmente están generando nuevos desafíos para las empresas y los gobiernos. Esto convierte a la IA responsable en una consideración fundamental para garantizar, no solo precisión sino, también, imparcialidad.
La IA responsable asegura que los sistemas de Inteligencia Artificial (IA) y los modelos de machine learning sean explicables, éticos, robustos y auditables, gracias a los cuatro principios que la sostienen.
La semana pasada, en la primera parte de este artículo, hablamos de la IA explicable y la IA ética. En esta entrega, exponemos los últimos dos principios, concluyendo con una guía sobre los pasos para una IA responsable exitosa.
Principio 3: IA robusta
La IA robusta es una metodología de desarrollo bien definida. El uso adecuado de datos históricos, de entrenamiento y de prueba; una definición sólida de rendimiento.
Una selección cuidadosa de la arquitectura de los modelos, así como procesos para las pruebas de estabilidad, simulación y gobernabilidad de los modelos.
Es importante que las organizaciones de ciencia de los datos se adhieran a estos factores y los apliquen como una norma de la Inteligencia Artificial (IA).
Principio 4: IA auditable
La IA auditable significa “desarrollarla bien desde el principio”, y conforme a las normas corporativas definidas para el desarrollo de modelos de IA, cuyo cumplimiento debe demostrarse.
Los modelos deben crearse con base en un estándar de desarrollo de modelos aplicable a toda la empresa, con repositorios de código compartidos, arquitecturas de modelo aprobadas, variables sancionadas y normas establecidas para pruebas tanto de sesgo como en estabilidad de modelos.
Esto reduce considerablemente los errores en el desarrollo de modelos que, de otro modo, se expondrían en la producción, reduciendo el valor comercial anticipado y afectando a los clientes negativamente.
Cuando las condiciones cambian, la IA auditable permite a los científicos de datos determinar cómo responderán las operaciones. También como verificar si la Inteligencia Artificial sigue siendo imparcial y confiable, o si deben ajustarse las estrategias que hacen uso del modelo.
La IA auditable se ejecuta y codifica a través de una cadena de bloques de gobernanza del desarrollo de modelos de Inteligencia Artificial, formada durante el proceso de desarrollo del modelo. Esta conserva todos los detalles del modelo y se encuentra disponible de inmediato, cada vez que cambian los entornos de los datos.
La IA auditable no es una serie de “buenas intenciones”. Es un registro inalterable del cumplimiento del estándar para el desarrollo de modelos de Inteligencia Artificial, que permite a las organizaciones:
- Desarrollarlos correctamente con base en ese estándar
- Brindar pruebas inmutables de su cumplimiento
- Y producir activos que cumplan tanto con los requisitos regulativos como con los de gobernanza.
De la teoría a la práctica
A medida que el mundo empresarial pasa del uso teórico de la Inteligencia Artificial a la toma de decisiones a escala de producción, la IA auditable se vuelve esencial. Esto enfatiza la implementación (y uso) de un estándar claramente definido para el desarrollo de modelos de Inteligencia Artificial, lo cual asegura que ningún modelo se lance a producción sin cumplir todos los aspectos y requisitos de dicho estándar.
La IA auditable permite que la IA responsable sea una realidad, ya que establece un riguroso proceso de auditoría que documenta el cumplimiento del estándar de gobernanza de desarrollo de una compañía durante la producción del modelo.
Esto evita investigaciones aleatorias y retrospectivas después de concluido el desarrollo del modelo.
Además, ofrece beneficios adicionales: si las empresas identifican con precisión y lo antes posible cuándo un modelo empieza a fallar, y lo detienen al momento, pueden ahorrarse innumerables problemas.
Así como, también, evitar el daño reputacional y las demandas legales que surgen cuando la Inteligencia Artificial falla fuera del laboratorio de ciencia de datos.
Manual de la IA responsable
No cabe duda de que la comunidad empresarial está comprometida a impulsar la transformación por medio de la automatización basada en la Inteligencia Artificial.
Sin embargo, los altos ejecutivos y los consejos de administración deben ser conscientes de los riesgos asociados con esta tecnología, así como de las mejores prácticas para mitigarlos de manera proactiva.
Las decisiones tomadas por algoritmos de Inteligencia Artificial pueden parecer insensibles e, incluso, negligentes. Ya que el uso de la IA aleja el proceso de toma de decisiones de las personas a las que dichas decisiones afectan.
El equipo de Inteligencia Artificial de FICO cuenta con décadas de experiencia en el desarrollo de innovación analítica en un entorno sumamente regulado.
Para ayudar a nuestros clientes, desarrollamos un manual de la IA responsable que explora:
- Uso adecuado de datos históricos de entrenamiento y evaluación
- Métricas bien definidas para rendimiento aceptable
- Selección minuciosa de la arquitectura del modelo
- Procesos para la evaluación, interpretación, eliminación de sesgo y gobernanza de los modelos
Este manual de IA ofrece un panorama de los ocho pasos más importantes: