Aunque a Google no le ha ido muy bien con el reconocimiento facial, la historia de la IA de Facebook parece regida por las Leyes de Murphy.
Con información de MiT Technology Review
Si algo puede salir mal,.. saldrá mal. Aunque hay otras “sentencias” en las legendarias Leyes de Murphy, lo cierto es que esta ya forma parte de nuestro inconsciente colectivo. Hasta un optimista impenitente como Marc Zuckerberg ha tenido que lidiar con ella, incluso en los tiempos felices de Facebook.
Su experiencia con la Inteligencia Artificial (IA) es un catálogo que, para algunos, va de lo que preocupa a lo que inquieta:
- 2016: ProPublica reveló que la plataforma permitía a los anunciantes de las oportunidades laborales y de vivienda excluir a cierto público por su género y por la raza. Como éstos grupos están protegidos en la legislación estadounidense y dichos sectores son sensibles a mantener esquemas de segregación en ese país, los reflectores se posaron sobre la red social.
- 2017: Medios tecnológicos intentan aclarar una noticia filtrada a finales del año anterior: Facebook “apagó” unos bots porque estaban desarrollando un lenguaje propio. Según los especialistas, el error fue de los programadores porque se les pidió que aprendieran a negociar entre ellos son especificarse que tenían que hacerlo en un lenguaje comprensible para cualquiera y no sólo para ellos.
- 2018. Su introducción de sistemas de reconocimiento facial en Europa ocasiona denuncias sobre invasión a la privacidad de lis usuarios pero, también, de sesgos demográficos y raciales como los señalados por ProPublica en 2016. Los reguladores europeos limpian sus lupas de revisión…
2019: IA de Facebook reprobada
Ahora MIT Technology Review recoge los resultados de la más reciente auditoría sobre la corrección de los sesgos en el algoritmo de la Inteligencia de Facebook.
El informe recogido por el medio no deja duda: las mujeres son discriminadas de algunas ofertas de empleo, no por las empresas sino por el algoritmo que “decide” no mostrarles las ofertas aunque nada en él diga que la posición es exclusiva para hombres.
Los resultados de género resultan inexplicables, especialmente porque la empresa ya había deshabilitado algunos criterios en 2019.
En marzo de ese año, la empresa, finalmente, deshabilitó la segregación por información demográfica a la hora de publicar avisos. Todo ello en respuesta a otras auditorías que demostraban que las denuncias de ProPublica sobre sesgos no habían logrado ser corregidos
“Se necesitaron dos años y medio y varias disputas legales para que Facebook finalmente eliminara esa función“, señala MIT Technology Review.
Otro round, misma pelea
La red social fue auditada por investigadores independientes de la Universidad del Sur de California (USC, en EE. UU.): se registraron como anunciantes en Facebook y compraron espacios de ofertas de empleo (repartidores de comida y pizzas) con cualificaciones idénticas, pero con diferente demografía en el mundo real.
Los hallazgos sugieren que:
- Los algoritmos de Facebook detectan la actual distribución demográfica de estos trabajos, que suelen diferir por razones históricas.
- Con esta detección, el sesgo se muestra consagrado en la IA.
Los investigadores encontraron el mismo patrón en los anuncios para otros puestos de trabajo: ingenieros de software para Nvidia (con más hombres) y Netflix (más mujeres), y comerciales de ventas de coches (más hombres) y de joyas (más mujeres).
Según la publicación, los investigadores no lograron descubrir por qué es así, porque la red social no quiere explicar cómo funciona su sistema de publicación de anuncios.
“Facebook reproduce esos sesgos cuando publica sus anuncios, aunque no hay una justificación de cualificación”, asegura la profesora asistente en la USC Aleksandra Korolova que es coautora del estudio con su colega John Heidemann y su asesor de doctorado Basileal Imana.
La buena noticia es que ya no hay dudas de que no es un asunto de interpretación: un repartidor es un repartidor y los anuncios como tal no formula ban preferencias que debieran hacer distinciones de a quien se lo mostraban.
“Estas diferencias de género no se pueden explicar por las distintas cualificaciones o por la falta de ellas. Facebook ya no puede decir que [esto es] defendible por ley”, añade Sapieżyński.
La publicación de esta auditoría se produce en medio de un debate cada vez mayor sobre el sesgo en la inteligencia artificial (IA) de Facebook y la poca eficacia del grupo especial de trabajo creado por la compañía en 2018 para corregirlo.
Para bien o para mal, el sesgo es público. Ni los anunciantes ni Facebook pueden, en adelante, desentenderse de señalamientos.
La Inteligencia Artificial no es perfecta. Ni siquiera la IA de Facebook.