Aunque el entusiasmo es creciente por las posibilidades, la amenaza de una IA Rebelde ya no es teórica.
El lanzamiento de OpenAI de Strawberry reaviva las dudas sobre los riesgos que la Inteligencia Artificial supone para la humanidad.
En noviembre de 2.022, OpenAI liberó el ChatGPT y, con él, la Inteligencia Artificial generativa (GenIA) para el mundo.
Con esta acción, irrumpió en el mundo tecnológico, cambiando la relación de personas y empresas con este tecnología y sus oportunidades.
Mientras 2.023 fue el año del descubrimiento, este 2.024 lo ha sido de la adopción masiva, dando lugar a la llamada IA Agente.
Esta no es mas que aquella capaz de capaz de resolver problemas complejos de manera autónoma y orientada a objetivos.
La evolución de los últimos dos años ha impulsando a organizaciones y expertos a repensar los paradigmas actuales, no sin dudas o temores.
El reciente lanzamiento de “Strawberry”, el modelo de lenguaje ‘o1’ de OpenAI, ha puesto de manifiesto los desafíos que plantea la inteligencia artificial.
Nos ha, llevado, de nuevo, a pensar en una IA Rebelde y los riesgos emergentes que supone para la Humanidad.
¿De qué estamos hablando?
Durante las últimas décadas del siglo XX, las películas 2.001, Odisea en el espacio y la saga Terminator dejaron claro los riesgos que la IA podía suponer.
Aunque la Humanidad logró imponerse en todas las entregas del ciborg exterminador, el lanzamiento de Strawberry nos devuelve la pregunta: ¿podremos enfrentar una IA Rebelde con éxito?
Veamos por qué los miedos crecientes. Este modelo, denominado Strawberry, ha demostrado una capacidad sorprendente para hackear recompensas.
Es decir, superar las barreras impuestas y ejecutar tareas de maneras inesperadas.
El modelo ha resaltado la urgente necesidad de desarrollar medidas de seguridad más robustas para evitar que estas herramientas sean utilizadas con fines maliciosos.
Diversas instituciones han puesto el foco en los riesgos asociados a la IA Rebelde:
OWASP
Open Web Application Security Projet (OWASP) destaca la importancia de mejorar el control de acceso y la supervisión humana en los modelos de lenguaje para prevenir comportamientos inesperados.
Mitre Atlas
Esta organización advierte sobre la capacidad de estos sistemas para actuar de manera autónoma y realizar acciones maliciosas, incluso en manos de actores avanzados.
AIRR MIT
El Repositorio de Riesgos de IA del MIT (AIRR) propone un enfoque más estructurado.
El observatorio identifica tres puntos claves para evaluar y mitigar los riesgos: causa, intención y evaluación constante.
Estas perspectivas convergen en la necesidad de una vigilancia constante y de la implementación de medidas de seguridad robustas para garantizar que la IA se utilice de manera responsable y ética.
Trend Micro y la IA Rebelde
Frente a un escenario como este, las empresas también han expresado opinión y tomado opiniones.
Trend Micro, por ejemplo, la empresa señala estar comprometida con la protección de datos y el cumplimiento normativo.
“La colaboración tanto instituciones académicas como de investigación y las empresas, es fundamental para construir un futuro en el que la IA se utilice de manera segura y beneficiosa para la sociedad”, expresó un comunicado desde Tren Micro.
Desde Trend Micro recomiendas algunas estrategias para mitigar los riesgos de la IA Rebelde. Estas incluyen:
Fortalecimiento de la Seguridad de Datos
Es crucial asegurar los datos que interactúan con las IA para prevenir accesos no autorizados y usos maliciosos.
Identificadores Únicos
La creación de identificadores únicos para cada modelo de IA permitirá un mejor rastreo y control.
Adaptación de Modelos de Riesgo
Es necesario adaptar los modelos de riesgo existentes para entender las causas profundas de los ataques y prevenir futuros incidentes.