Aunque a Google no le ha ido muy bien con el reconocimiento facial, la historia de la IA de Facebook parece regida por las Leyes de Murphy.
Con informaciĂłn de MiT Technology Review
Si algo puede salir mal,.. saldrá mal. Aunque hay otras “sentencias” en las legendarias Leyes de Murphy, lo cierto es que esta ya forma parte de nuestro inconsciente colectivo. Hasta un optimista impenitente como Marc Zuckerberg ha tenido que lidiar con ella, incluso en los tiempos felices de Facebook.
Su experiencia con la Inteligencia Artificial (IA) es un catálogo que, para algunos, va de lo que preocupa a lo que inquieta:
- 2016: ProPublica revelĂł que la plataforma permitĂa a los anunciantes de las oportunidades laborales y de vivienda excluir a cierto pĂşblico por su gĂ©nero y por la raza. Como Ă©stos grupos están protegidos en la legislaciĂłn estadounidense y dichos sectores son sensibles a mantener esquemas de segregaciĂłn en ese paĂs, los reflectores se posaron sobre la red social.
- 2017: Medios tecnolĂłgicos intentan aclarar una noticia filtrada a finales del año anterior: Facebook “apagĂł” unos bots porque estaban desarrollando un lenguaje propio. SegĂşn los especialistas, el error fue de los programadores porque se les pidiĂł que aprendieran a negociar entre ellos son especificarse que tenĂan que hacerlo en un lenguaje comprensible para cualquiera y no sĂłlo para ellos.
- 2018. Su introducción de sistemas de reconocimiento facial en Europa ocasiona denuncias sobre invasión a la privacidad de lis usuarios pero, también, de sesgos demográficos y raciales como los señalados por ProPublica en 2016. Los reguladores europeos limpian sus lupas de revisión…
2019: IA de Facebook reprobada
Ahora MIT Technology Review recoge los resultados de la más reciente auditorĂa sobre la correcciĂłn de los sesgos en el algoritmo de la Inteligencia de Facebook.
El informe recogido por el medio no deja duda: las mujeres son discriminadas de algunas ofertas de empleo, no por las empresas sino por el algoritmo que “decide” no mostrarles las ofertas aunque nada en Ă©l diga que la posiciĂłn es exclusiva para hombres.
Los resultados de gĂ©nero resultan inexplicables, especialmente porque la empresa ya habĂa deshabilitado algunos criterios en 2019.
En marzo de ese año, la empresa, finalmente, deshabilitĂł la segregaciĂłn por informaciĂłn demográfica a la hora de publicar avisos. Todo ello en respuesta a otras auditorĂas que demostraban que las denuncias de ProPublica sobre sesgos no habĂan logrado ser corregidos
“Se necesitaron dos años y medio y varias disputas legales para que Facebook finalmente eliminara esa funciĂłn“, señala MIT Technology Review.
Otro round, misma pelea
La red social fue auditada por investigadores independientes de la Universidad del Sur de California (USC, en EE. UU.): se registraron como anunciantes en Facebook y compraron espacios de ofertas de empleo (repartidores de comida y pizzas) con cualificaciones idĂ©nticas, pero con diferente demografĂa en el mundo real.
Los hallazgos sugieren que:
- Los algoritmos de Facebook detectan la actual distribución demográfica de estos trabajos, que suelen diferir por razones históricas.
- Con esta detecciĂłn, el sesgo se muestra consagrado en la IA.
Los investigadores encontraron el mismo patrón en los anuncios para otros puestos de trabajo: ingenieros de software para Nvidia (con más hombres) y Netflix (más mujeres), y comerciales de ventas de coches (más hombres) y de joyas (más mujeres).
SegĂşn la publicaciĂłn, los investigadores no lograron descubrir por quĂ© es asĂ, porque la red social no quiere explicar cĂłmo funciona su sistema de publicaciĂłn de anuncios.
“Facebook reproduce esos sesgos cuando publica sus anuncios, aunque no hay una justificaciĂłn de cualificaciĂłn”, asegura la profesora asistente en la USC Aleksandra Korolova que es coautora del estudio con su colega John Heidemann y su asesor de doctorado Basileal Imana.
La buena noticia es que ya no hay dudas de que no es un asunto de interpretaciĂłn: un repartidor es un repartidor y los anuncios como tal no formula ban preferencias que debieran hacer distinciones de a quien se lo mostraban.
“Estas diferencias de gĂ©nero no se pueden explicar por las distintas cualificaciones o por la falta de ellas. Facebook ya no puede decir que [esto es] defendible por ley”, añade SapieĹĽyĹ„ski.
La publicaciĂłn de esta auditorĂa se produce en medio de un debate cada vez mayor sobre el sesgo en la inteligencia artificial (IA) de Facebook y la poca eficacia del grupo especial de trabajo creado por la compañĂa en 2018 para corregirlo.
Para bien o para mal, el sesgo es público. Ni los anunciantes ni Facebook pueden, en adelante, desentenderse de señalamientos.
La Inteligencia Artificial no es perfecta. Ni siquiera la IA de Facebook.