Con los avances de la AIoT, apps concebidas con respeto a data, personas valores son una aspiración que la APDCAT puso en el centro del MWC22.
Uso el centro neurálgico de las empresas emergentes para hacer un llamado que concierne a desarrolladores y autoridades por igual.
Con un título que refleja la importancia: “Inteligencia Artificial. Una visión general ética”, la Autoridad Catalana de Protección de Datos (APDCAT) expuso en el Four Years From Now (4YFN) de Mobile World Congress 2022 (MWC22) los desafíos actuales de implementar tecnologías de IA para prevenir la discriminación o manipulación de personas.
Durante su intervención en el foro mundial de la industria de las telecomunicaciones, resaltó algunos de los peligros que el despliegue de esta tecnología en apps y dispositivos puede representar:
- Discriminación
- Uso inapropiado del reconocimiento facial
- Y prácticas poco éticas en el comercio electrónico…
- … entre otros
En este sentido, la directora de la APDCAT, Meritxell Borràs i Solé, abrió el debate que contó con la intervención experta de Ricardo Baeza, Director de Investigación del Instituto de IA Experiencial de la Northeastern University, Silicon Valley, y miembro del DATA Lab de Khoury College of Ciencias de la Computación, entre otros especialistas.
¿IA más o menos humana?
Durante la sesión se exploraron los temas que deben estar en la mente de desarrolladores, legisladores y reguladores tales como:
- La normativa vigente y pertinente
- Las diferencias culturales
- Los sesgos cognitivos
- Y cómo afrontar estos riesgos
Borràs hizo un recorrido rde los avances casi imperceptibles que las aplicaciones y usos de la Inteligencia Artificial han alcanzado en nuestras vidas en las últimas décadas.
“No podemos apreciar su impacto ni los riesgos que esconde, porque la IA transforma el mundo de una manera sin precedentes”, afirmó.
La directora de la APDCAT agregó que, desde el punto de vista técnico, se necesita mejorar la tecnología disponible en términos de:
- Transparencia
- Confiabilidad
- Mecanismos legales para garantizar a los ciudadanos la protección de sus derechos.
Además, considera urgente “mantener una visión crítica de la IA”, que cuestione el funcionamiento de los sistemas para encontrar aquellos elementos que tienen un impacto negativo en las personas que no son evidentes desde un punto de vista técnico y que requieren más que la demanda de imponer códigos éticos mínimos.
Los desafíos éticos de la inteligencia artificial
Por su parte, Ricardo Baeza-Yates centró su intervención en los retos éticos de la inteligencia artificial como:
- Discriminación
- Frenología
- Comercio digital desleal
- Modelos que no entienden de semántica
- Y el uso indiscriminado de los recursos informáticos.
Baeza-Yates ha destacado tres tipos de sesgos:
- De los datos
- Del propio algoritmo, que en ocasiones amplifican el de los datos
- Y los de la interacción entre el sistema y sus usuarios.
Estos últimos que son una combinación de sesgos algorítmicos y cognitivos. O sea, peores noticias.
También se refirió a los desafíos que se deben abordar en esta área como:
- Los principios que debe cumplir el software
- Las diferencias culturales
- La regulación
- Y los sesgos cognitivos individuales