Luego de los avances en Inteligencia Artificial, crear soluciones éticas en esta tecnología se ha vuelto un desafío.
Evitar los sesgos y capitalizar el potencial de esta tecnología será una de las tareas que dominarán 2025.
Aunque las grandes empresas llevan la delantera, no está en la solas en la implementación de Inteligencia Artificial (IA) en las distintas áreas.
No obstante, experiencias previas qué alimenta eon modelos con sesgos, como la experiencia vivida por Amazon en 2014, nos advierten de la necesidad de crear modelos más justos.
El desarrollo de soluciones éticas de IA, capaces de ser inclusivas y con los menores sesgos posibles es, aún, un desafío. Los fracasos en lograrlo así lo demuestran.
Si se pregunta por qué ha sido tan difícil, solo debe ver un noticiero cualquiera y recordar que la IA es tan inteligente como los humanos la entrenan para serlo.
Por ello, siempre habrá la posibilidad de que prejuicios humanos pueden filtrarse, incluso sin intención.
“Sabemos que los distintos gobiernos tienen normativas. Pero existe una gran necesidad de que las organizaciones apliquen normativas y marcos para intentar minimizar las soluciones de IA poco éticas”, puntualizó la VP Revenue Latam de Infobip, Janeth Rodríguez.
Mejorar con con soluciones éticas de IA
Para la ejecutiva de Infobip, buscar y lograr diseñar soluciones éticas de IA supone adoptar un enfoque seguro en el desarrollo de la Inteligencia Artificial.
¿Por qué? Porque el objetivo tanto de los ingenieros como de los gobiernos y hasta directores ejecutivos debe ser dar prioridad al uso respetuoso de los datos.
Considera Rodríguez que es necesario crear un sistema de IA que sea transparente y tenga una brújula moral. Ese es el objetivo final de la IA ética.
En esencia, este tipo de soluciones pretende mitigar el riesgo de situaciones poco éticas y evitar el daño a cualquier ser humano.
“Las regulaciones exhaustivas de la ley de protección de datos no están a la altura de la velocidad de desarrollo de la IA, por lo que las empresas necesitan sus propios sistemas para mantenerse bajo control a medida que se avanza en el desarrollo de la IA”, explica Janeth Rodríguez, VP Revenue Latam de Infobip.
Desde Infobip presentan cuatro claves para crear soluciones de IA éticas en 2025:
1.- Comprender el sector y la finalidad para la que se ha diseñado la solución
Cada industria puede tener un efecto diferente en consideraciones éticas como:
-
Religión
-
Sexo y género
-
Educación
-
Origen socioeconómico
-
Ubicación geográfica
-
Origen cultural
-
Niveles de competencia lingüística
-
Capacidades físicas
-
Y acceso tecnológico
Por ejemplo, un sector con un alto riesgo de desarrollar IA poco ética sería el de los sistemas judiciales.
Las soluciones de IA podrían utilizarse para la elaboración de perfiles criminales, recomendaciones de sentencias, asesoramiento jurídico y asistencia.
Pero pueden crear sesgos basados en los datos de entrenamiento, lo que podría tener implicaciones poco éticas que pueden afectar, drásticamente, a la vida de alguien.
Mientras que, en el comercio minorista, una solución ética de IA puede utilizarse para un chatbot de atención al cliente, un asistente personal de compras o ayudar a generar recomendaciones personalizadas para campañas de marketing.
Si la Inteligencia Artificial (IA) está mal entrenada y genera una respuesta poco ética, lo más probable es que afecte a la reputación de una marca. Pero tendrá poco o ningún impacto en la vida del cliente.
2.- Abordar los sesgos
Al igual que a los humanos, a la IA le gusta poner a la gente en cajas, asignando etiquetas positivas y negativas aprendidas de los datos a diferentes grupos.
Para corregir este tipo de sesgos de grupo, los investigadores pueden obligar al modelo a ignorar atributos como la raza, la clase social, la edad y el sexo.
Es similar a cómo algunas orquestas hacen ahora que los músicos audicionen detrás de una cortina para mantener un proceso de selección ciego a la raza y al género.
3.- Establecer Key Performance Indicators (KPI) justos y medibles
Otra forma de ayudar a mitigar el riesgo de IA poco ética es que las marcas establezcan KPI medibles desde el principio.
Esto ayuda a medir el éxito en términos de equidad técnica de la solución de IA y el contexto social en el que influye.
Por ejemplo, una marca de tecnología financiera lanza una solución automatizada de IA para préstamos.
Deberían medir la tasa de conversión a préstamos aprobados, así como el número de préstamos no aprobados.
Al mismo tiempo, deben comprobar si los préstamos se aprueban por igual para los distintos grupos, garantizando la equidad.
Evaluar la precisión racial del reconocimiento facial. Verificar si las personas con antecedentes similares reciben un trato uniforme.
Y, luego, pueden determinar si es técnicamente justo en un contexto social.
4.- Trabajar con expertos en IA
Crear una solución ética de IA no es tarea fácil. Asociarse con un proveedor de soluciones que conozca los entretelones de la IA ética puede hacer que un proyecto vaya sobre ruedas.
Trabajar con profesionales de CX e IA permite garantizar que una solución de Inteligencia Arrificial siga siendo ética y cumpla las leyes y normativas locales.
Esto puede mantener la reputación de una marca fuerte y fiable.