Si bien ChatGPT ha sido la app que puso a la Inteligencia Artificial generativa, nunca ha dejado de estar bajo la lupa.
Ahora que la GenIA tiene múltiples rostros, conviene tomar previsiones sobre la seguridad, la privacidad y los límites éticos para disfrutar de ella con seguridad.
¿Recuerda cuando la posibilidad del metaverso y otras formas de realidad virtual eran el centro de la conversación tecnológica?
En ese momento se buscaban usos que permitieran abaratar los dispositivos prototipos. Pero todo eso quedó relegado casi al olvido cuando el ChatGPT de OpenAI se volvió en el centro del sistema solar.
Desde entonces, se han hecho múltiples advertencias sobre el uso de esta tecnología, en todas sus variantes, marcas y presentaciones.
Nada ha funcionado para lograr que el entusiasmo disminuya.
Aunque expertos han señalado que no es prudente sobre adiestrarla, la adopción crecen en forma exponencial.
Sin embargo, la compañía de ciberseguridad ESET advierte que el entusiasmo debe ir acompañado de una comprensión crítica sobre los riesgos asociados.
En reiterado comunicados de distintos voceros, la empresa ha relevado que el uso irresponsable de estas plataformas puede:
- Comprometer datos sensibles
- Generar desinformación
- Y fomentar una falsa percepción de confiabilidad
“Si un ciberdelincuente consigue acceder a una cuenta de ChatGPT, tendrá acceso a toda la información que se comparta con la herramienta”, alertó el Jefe del Laboratorio de Investigación de ESET Latinoamérica, Camilo Gutiérrez Amaya.
Gobernanza digital, nuevo imperativo tecnológico
La advertencia no es menor. En un entorno donde la IA se integra cada vez más en procesos personales y corporativos, la falta de conciencia sobre sus límites puede derivar en vulnerabilidades críticas.
El Jefe del Laboratorio de Investigación de ESET subraya que las plataformas de Inteligencia Artificial (IA) no son entornos cifrados ni autorizados para el tratamiento de información confidencial.
Ello exige una revisión urgente de las prácticas digitales tanto en usuarios individuales como en organizaciones.
El auge de la IA conversacional plantea un desafío de gobernanza para CIOs, CDOs y responsables de seguridad. Este enfoque exige una redefinición de los protocolos de uso de IA en entornos empresariales.
Gutiérrez Amaya asegura que la gobernanza digital ya no puede limitarse a la protección de infraestructura; debe incluir la educación sobre los límites éticos y operativos de las herramientas emergentes.
En este sentido, el rol del CIO se transforma: de custodio tecnológico a arquitecto de confianza digital.
“Las plataformas de IA no son entornos autorizados para tratar estos temas. Para garantizar la protección de los datos corporativos es preferible acudir siempre a herramientas autorizadas por cada organización”, señala Camilo Gutiérrez Amaya, Jefe del Laboratorio de Investigación de ESET Latinoamérica.
Además, el uso de IA para decisiones críticas, como diagnósticos médicos, asesoría legal o inversiones, representa otro frente de riesgo.
Sin conciencia para responder
El especialista de ESET comenta que saber qué NO preguntar a una IA no es solo una cuestión de etiqueta digital. También es una forma de utilizar esta herramienta de manera eficaz.
Según encuestas, las preguntas más comúnmente utilizadas con las IA son sobre temas personales relevantes: ¿Cómo puedo mejorar mi salud mental? ¿Qué método es más efectivo para perder peso? ¿Cómo puedo empezar un negocio exitoso?
No obstante, la gente debe recordar que, aunque lo parezca, la GenIA no tiene conciencia, sentimientos ni opiniones propias.
Además, desde ESET advierten que, aunque la IA puede ofrecer información general, no sustituye el juicio profesional ni el análisis contextual que requieren estos ámbitos especializados o sensibles.
Estos son los principales tipos de preguntas que no deben hacerse a ChatGPT (u otro apps generativa) según ESET:
1.- Información confidencial o sensible
- Nunca compartir datos personales, bancarios, contraseñas o información privada.
- Las conversaciones no están cifradas y pueden ser vulnerables si se accede a una cuenta comprometida.
2.- Datos corporativos o estratégicos
- Los empleados deben abstenerse de ingresar información sobre clientes, finanzas o proyectos.
- Las IAs no distinguen, automáticamente, entre datos públicos y privados. Ello representa un riesgo para la integridad empresarial.
3.- Asesoramiento médico, legal o financiero definitivo
- ChatGPT no reemplaza a profesionales calificados.
- Las respuestas pueden ser generales, incompletas o erróneas, y no consideran el contexto personal.
4.- Opiniones, sentimientos o juicios humanos
- La IA simula empatía, pero no tiene emociones ni conciencia.
- Preguntas como “¿Qué harías tú?” o “¿Te gusto?” generan respuestas artificiales sin intención real.
5.- Decisiones personales importantes
- Cambios de carrera, salud mental o decisiones familiares deben abordarse con expertos humanos.
- La IA puede ayudar a organizar ideas, pero no debe ser la única fuente de orientación.