No es su culpa. Pero en torno al ChatGPT se está desarrollando todo un ecosistema de malas prácticas.
Descubra las amenazas que la ciberdelincuencia está creando en torno a esta tecnología.
Los ciberdelincuentes tiene el dudoso talento de arrebatsrnos el disfrute de la tecnología y, por supuesto, ya le llegó el turno al ChatGPT.
Acostumbrados a depredar en torno a las hertamientas y marcas más populares, los ciberdelincuentes logran que la tecnología se vuelva en contra de quienes la usan.
ChatGPT no podía serla excepción debido a sus rápida y creciente popularidad.
En este sentido, Check Point Software Technologies y su unidad de detección de amenazas, Check Point Research (CPR) han detectado ya numerosos ejemplos de cómo los ciberdelincuentes han estado usando ChatGPT para:
- Acelerar y mejorar sus campañas
- Así como para optimizar herramientas de ciberataques
Todo ello ya supone un problema grave para los principales desarrolladores de IA.
En un reciente informe revelando sus hallazgos, los especialistas de CPR señalaron que, para contrarrestar los peligros que la inteligencia artificial plantea en el ámbito de la ciberseguridad se requiere:
- Un enfoque holístico que combine la tecnología avanzada
- La educación de los usuarios
- La regulación efectiva
- Y la colaboración continua entre expertos
Tentaciones y pecados digitales
Los expertos de CPR consideran que, para mitigar los riesgos de la IA en ciberseguridad, es esencial implementar medidas de detección avanzadas que identifiquen la actividad maliciosa antes de que ocurran los ataques.
Así que, en principio, la recomendación es evitar los siete pecados digitales (y capitales) de quienes quieren utilizar esta herramienta gratis, con poco conocimiento y despreocupadamente.
1.- Distribución de malware
Al aprovecharse del objetivo principal de estas herramientas que buscan ayudar a los usuarios, los ciberdelincuentes generan elementos como virus o troyanos.
Estos son códigos maliciosos depurados que incrustan en documentos, correos electrónicos e incluso páginas web para maximizar el alcance de sus ataques e infectar los computadores de sus víctimas.
2.- Phishing
Con una gran cantidad de ejemplos disponibles, la IA permite crear unas comunicaciones falsas mucho más realistas y convincentes.
Esto hace que la tarea de distinguir los correos legítimos se convierta en un verdadero reto.
Y es que el objetivo de estos no es otro que engañar a los usuarios. Se trata de hacer que se sientan seguros y proporcionen información sensible como contraseñas o datos de pago como tarjetas de crédito.
3.- Ingeniería social
Diseñadas para ser lo más humano posible, ChatGPT puede ser utilizado para hacerse pasar por personas reales.
¿Con qué fin? Sin duda, el de manipular a los usuarios para que realicen acciones perjudiciales para ellos mismos o sus empresas.
En general, persigue engañar a un usuario para que proporcione información de su cuenta.
4.- Filtración y robo de datos
La IA generativa puede ser utilizada para crear documentos o correos electrónicos falsos que parezca legítimos.
Esto puede ser utilizado para engañar a los usuarios y hacer que revelen credenciales o datos sensibles.
5.- Desinformación y propaganda
ChatGPT puede ser utilizado para generar noticias falsas y propaganda, utilizadas para engañar y manipular a las personas.
Todo ello puede usarse para dañar reputaciones, sembrar discordia e, incluso, incitar a la violencia.
6.- Difamación y suplantación
Con herramientas como el ChatGPT, cada vez más accesibles y asequibles, hay una creciente preocupación de que distinguir entre archivos auténticos y deep fakes sea casi imposible.
Recordemos que el deepfake incluye crear fotografías, vídeos e, incluso, audios falsos.
7.- Amenazas internas
La inteligencia artificial puede ser utilizada maliciosamente para crear documentos o correos electrónicos falsos que parezcan provenir de usuarios autorizados.
Ello suele tener como objetivo el utilizarlos para obtener acceso a datos o sistemas sensibles.