El objetivo de la UNESCO con este nuevo estándar para la Inteligencia Artificial es proteger y promover la dignidad y los DD.HH.
Por Samira Sarraf
Original de IDGN
La Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) presentó un estándar global sobre la ética de la inteligencia artificial (IA) para ser adoptado por los casi 200 estados miembros.
El estándar define valores y principios comunes que guiarán la construcción de la infraestructura legal necesaria para garantizar el desarrollo saludable de la IA.
En un comunicado, la UNESCO dijo que existen varios beneficios del uso de la IA, pero también desafíos, incluidos:
- Los prejuicios étnicos y de género
- Amenazas significativas a la privacidad, la dignidad y la agencia
- Riesgo vigilancia masiva
- Y un mayor uso de tecnologías de inteligencia artificial poco fiables en la aplicación de la ley.
El estándar recomienda:
1. Proteger los datos…
… a través de acciones más allá de lo que están haciendo las empresas de tecnología y los gobiernos para garantizar a las personas una mayor protección al garantizar la transparencia, la agencia y el control de sus datos personales.
Establece que todas las personas deberían poder acceder o incluso borrar registros de sus datos personales.
También incluye acciones para mejorar la protección de datos y el conocimiento y el derecho de un individuo a controlar sus propios datos. Además aumenta la capacidad de los organismos reguladores de todo el mundo para hacer cumplir esto.
2. Prohibir el seguimiento social y la vigilancia masiva
El estándar prohíbe explícitamente el uso de sistemas de inteligencia artificial para el seguimiento social y la vigilancia masiva.
La UNESCO considera que este tipo de tecnologías son muy invasivas, que infringen tanto los derechos humanos como las libertades fundamentales y que se utilizan de manera amplia.
La recomendación enfatiza que, al desarrollar marcos regulatorios, los estados miembros deben considerar que la responsabilidad final y la rendición de cuentas siempre deben recaer en los humanos y que las tecnologías de IA no deben tener personalidad jurídica en sí mismas.
3. Ayudar a monitorear y evaluar
La evaluación de impacto ético tiene como objetivo ayudar a los países y empresas que desarrollan e implementan sistemas de inteligencia artificial para evaluar el impacto de esos sistemas en las personas, la sociedad y el medio ambiente.
La metodología de evaluación de la preparación ayuda a los Estados miembros a evaluar su grado de preparación en términos de infraestructura legal y técnica.
Esta herramienta ayudará a mejorar la capacidad institucional de los países y recomendará las medidas apropiadas que se tomarán para asegurar que la ética se implemente en la práctica.
También se alienta a los Estados miembros a considerar agregar la función de un oficial de ética de IA independiente o algún otro mecanismo para supervisar los esfuerzos de auditoría y monitoreo continuo.
4. Proteger al medio ambiente
La norma recomienda que los gobiernos evalúen el impacto ambiental directo e indirecto a lo largo del ciclo de vida del sistema de IA.
Esto incluye su huella de carbono, su consumo de energía y el impacto ambiental de la extracción de materias primas para respaldar la fabricación de tecnologías de inteligencia artificial.
También tiene como objetivo reducir el impacto ambiental de los sistemas de IA y las infraestructuras de datos.