Los miembros del G7 se reunieron para discutir una variedad de temas, incluido un tema que normalmente no está en la agenda: los peligros de la IA generativa.
Pidieron que se tomaran medidas para frenar la rápida evolución de la tecnología.
Por: Lucas Mearian | Original de IDGN
Los líderes de las naciones del Grupo de los Siete (G7) pidieron el sábado la creación de estándares técnicos para mantener la inteligencia artificial (IA) bajo control, diciendo que la esta ya ha superado la supervisión de la seguridad.
Reunidos en Hiroshima, Japón, el grupo declaró que las naciones deben unirse con una visión y un objetivo comunes de IA confiable, incluso cuando esas soluciones pueden variar.
Destacaron en un pronunciamiento que cualquier solución para tecnologías digitales como la IA debe estar “en línea con nuestros valores democráticos compartidos”.
El G7 (incluye a Estados Unidos, Japón, Alemania, Gran Bretaña, Francia, Italia, Canadá y la UE) destacó que los esfuerzos para crear una IA confiable deben incluir “tanto la gobernanza como los derechos de propiedad intelectual” incluidos “los derechos de autor, la promoción de la transparencia”.
Amenazas de la IA generativa
También que la legislación sobre dicha tecnología debe dar respuesta y prevenir la manipulación extranjera de información, incluidas prácticas como la desinformación.
“Reconocemos la necesidad de hacer un balance inmediato de las oportunidades y desafíos de la IA generativa, que es cada vez más prominente en todos los países y sectores”, expresaron los líderes del G7.
Más específicamente, pidieron la creación de un grupo de trabajo del G7 para fin de año que aborde posibles soluciones de IA generativa.
La cumbre del G7 siguió a una reunión de “ministros digitales” el mes pasado, en la que los miembros pidieron reglas para IA “basadas en el riesgo”.
La IA plantea una serie de amenazas para la humanidad, por lo que es importante asegurarse de que continúe sirviendo a los humanos y no al revés. Así lo afirma Avivah Litan, vicepresidente y analista distinguido en Gartner Research.
Las amenazas cotidianas incluyen una falta de transparencia en los modelos generativos de IA que los hace impredecibles.
Litan destacó en una publicación de blog la semana pasada que, de hecho, ni siquiera los proveedores “entienden todo sobre cómo trabajan internamente”.
Además, y porque no hay garantías verificables de gobierno o protección de datos, la IA generativa puede robar contenido a voluntad y reproducirlo. Con ello, viola tanto las leyes de propiedad intelectual como los derechos de autor.
Más advertencias
De igual modo, los chatbots y otras herramientas basadas en IA pueden producir “alucinaciones” inexactas o fabricadas porque su salida es tan buena como la entrada de datos, y ese proceso de ingestión, a menudo está ligado, a Internet.
El resultado: desinformación, “desinformación” y desinformación, resaltó Litan.
El experto analista señaló también en su publicación que los reguladores deben establecer plazos en los que los proveedores de modelos de IA deben usar estándares para autenticar la procedencia del contenido, software y otros activos digitales utilizados en sus sistemas.
“Vea los estándares de C2PA, Scitt.io, IETF para ver ejemplos. Solo necesitamos actuar. Y actuar pronto”, adirmo Litan en su escrito.
Más advertencias
En su artículo, el VP de Gartner hizo notar que incluso expertos en IA como Max Tegmark, físico, cosmólogo e investigador de aprendizaje automático del MIT, y Geoffrey Hinton – el llamado “padrino de la IA” – se muestran perplejos para encontrar una solución viable a la amenaza existencial para la humanidad que puede representar esta tecnología.
Desde nuestro propio saber
En una conferencia de IA en el MIT a principios de este mes, Hinton advirtió que debido a que la IA puede ser de autoaprendizaje, se volverá exponencialmente más inteligente con el tiempo y comenzará a pensar por sí misma.
Una vez que eso sucede, hay poco para detener lo que Hinton cree que es inevitable: la extinción de los humanos.
“Estas cosas habrán aprendido de nosotros leyendo todas las novelas y todo lo que Maquiavelo escribió alguna vez cómo manipular a la gente”, dijo Hinton a casa llena durante un intercambio de preguntas y respuestas.
Destacó que, si son mucho más inteligentes que nosotros, serán muy buenos manipulándonos.
“No nos daremos cuenta de lo que está pasando. Serás como un niño de dos años al que le preguntan: ‘¿Quieres los guisantes o la coliflor?’ y que no se da cuenta de que no tiene que elegir ninguno de los dos. Y de fácil será que te manipule”.
Europa se mueve para frenar la IA generativa
La declaración del G7 se produjo después de que la Unión Europea acordara la creación de la Ley de IA.
Esta legislación regirá sobre herramientas generativas como ChatGPT, DALL-E, y Midjourney en términos tanto de diseño como de implementación, para alinearse con la legislación de la UE y los derechos fundamentales.
En este sentido, la legislación incluirá atender la necesidad de que los fabricantes de IA para se les impida revelar cualquier material protegido por derechos de autor utilizado para desarrollar sus sistemas.
“Queremos que los sistemas de IA sean precisos, confiables, seguros y no discriminatorios, independientemente de su origen”, dijo al respecto la presidenta de la Comisión Europea, Ursula von der Leyen.
A principios de este mes, la Casa Blanca también dio a conocer las reglas de IA para abordar la seguridad y la privacidad.
El último esfuerzo de la Administración Biden se basó en intentos anteriores de promover alguna forma de innovación responsable pero, hasta la fecha, el Congreso no ha presentado ninguna ley que regule la IA.
En octubre pasado, la administración dio a conocer un plan para una “Carta de Derechos de la IA”, así como un Marco de Gestión de Riesgos de la IA.
Más recientemente, impulsó una hoja de ruta para establecer un recurso nacional de investigación de Inteligencia Artificial.
No obstante, según Litan, las medidas, sin embargo, no tienen ningún diente legal “y no son lo que necesitamos ahora”.
¿Es IA Generativa la nueva bomba atómica estadounidense?
Estados Unidos ha sido algo así como un seguidor en el desarrollo de reglas de IA.
China ha liderado el mundo en el despliegue de varias iniciativas para la gobernanza de la IA, aunque la mayoría de ellas se relacionan con la privacidad de los ciudadanos y no necesariamente con la seguridad.
“Necesitamos directrices claras sobre el desarrollo de una IA generativa segura, justa y responsable por parte de los reguladores estadounidenses”, dijo Litan en una entrevista anterior.
El experto ha insistido en que se requieren regulaciones significativas como las que vemos que se están desarrollando en la UE con la Ley de IA.
“Si bien no lo están haciendo todo perfecto a la vez, al menos están avanzando y están dispuestos a iterar. Los reguladores estadounidenses deben intensificar su juego y ritmo”.
En marzo, el cofundador de Apple y el ingeniero en jefe Steve Wozniak, el director ejecutivo de SpaceX, Elon Musk, cientos de expertos en IA y miles de personas más pusieron sus nombres en una carta abierta que pedía una pausa de seis meses en el desarrollo de sistemas de IA más potentes. Citaron el potencial de riesgos para la sociedad.
Un mes después, los legisladores de la UE instaron a los líderes mundiales a encontrar formas de controlar las tecnologías de IA, diciendo que se está desarrollando más rápido de lo esperado.
Sam Altman de Open AI habla sobre la IA: “Estoy nervioso”
La semana pasada, el Senado de los EE. UU. celebró dos audiencias separadas durante las cuales los miembros y expertos que testificaron dijeron que ven a la IA generativa como un peligro claro y presente para la seguridad, la privacidad y los derechos de autor.
La tecnología de inteligencia artificial generativa, como ChatGPT, puede usar y usa datos e información de cualquier número de fuentes, a veces no verificadas.
Sam Altman, CEO de OpenAI, creador de ChatGPT, se unió a la ejecutiva de IBM Christina Montgomery y al profesor emérito de la Universidad de Nueva York, Gary Marcus para testificar ante el Senado sobre las amenazas y oportunidades que presentan los chatbots.
Reconoció qué el tema era “una de mis áreas” de mayor preocupación. Aunque, evidentemente, no es la única.
“La capacidad más general de estos modelos para manipular, persuadir, proporcionar desinformación interactiva uno a uno, dado que nos enfrentaremos a elecciones el próximo año y estos modelos están mejorando. Creo que esta es un área importante de preocupación”.
La regulación, dijo Altman, sería “sabia” porque las personas necesitan saber si están hablando con un sistema de IA o mirando contenido (imágenes, videos o documentos) generados por un chatbot.
“Creo que también necesitaremos reglas y pautas sobre lo que se espera en términos de divulgación de una empresa que proporcione un modelo que podría tener este tipo de habilidades de las que estamos hablando. Entonces, estoy nervioso por eso”, afirmó.
Sugerencias de gobernanza
Altman sugirió que el gobierno de Estados Unidos elabore un plan de supervisión de IA de tres puntos:
- Forme una agencia gubernamental encargada de licenciar grandes modelos de IA y revoque aquellos que no cumplan con los estándares gubernamentales.
- Cree estándares de seguridad de modelo de lenguaje grande (LLM) que incluyan la capacidad de evaluar si son peligrosos o no. Los LLM tendrían que pasar pruebas de seguridad, como no poder “autoreplicarse”, volverse deshonestos y comenzar a actuar por su cuenta.
- Cree un marco independiente de auditoría de IA supervisado por expertos independientes.
El Senado también escuchó testimonios de que el uso de “marcas de agua” podría ayudar a los usuarios a identificar de dónde proviene el contenido generado a partir de chatbots.
Lynne Parker, director de la Iniciativa AI Tennessee en la Universidad de Tennessee, dijo que exigir a los creadores de IA que inserten migas de pan de metadatos en el contenido permitiría a los usuarios comprender mejor la procedencia del contenido.
La Cámara Alta estadounidense planea una audiencia futura sobre el tema del contenido de IA con marca de agua.