No es su culpa. Pero en tornoĀ al ChatGPT se estĆ” desarrollando todo un ecosistema de malas prĆ”cticas.Ā
Descubra las amenazas que la ciberdelincuencia estĆ” creando en torno a esta tecnologĆa.Ā
Los ciberdelincuentes tiene el dudoso talento de arrebatsrnos el disfrute de la tecnologĆa y, por supuesto, ya le llegĆ³ el turno al ChatGPT.Ā
Acostumbrados a depredar en torno a las hertamientas yĀ marcas mĆ”s populares, los ciberdelincuentes logran que la tecnologĆa se vuelva en contra de quienes la usan.Ā
ChatGPT no podĆa serla excepciĆ³n debido a sus rĆ”pida y creciente popularidad.Ā
En este sentido, Check Point Software Technologies y su unidad de detecciĆ³n de amenazas, Check Point Research (CPR) han detectado ya numerosos ejemplos de cĆ³mo los ciberdelincuentes han estado usando ChatGPT para:Ā
- Acelerar y mejorar sus campaƱasĀ
- AsĆ como para optimizarĀ herramientas de ciberataques
Todo ello ya supone un problema grave para los principales desarrolladores de IA.
En un reciente informe revelando sus hallazgos, los especialistas de CPR seƱalaron que, para contrarrestar los peligros que la inteligencia artificial plantea en el Ć”mbito de la ciberseguridad se requiere:Ā
- Un enfoque holĆstico que combine la tecnologĆa avanzadaĀ
- La educaciĆ³n de los usuarios
- La regulaciĆ³n efectivaĀ
- Y la colaboraciĆ³n continua entre expertos
Tentaciones y pecados digitales
Los expertos de CPR consideran que, para mitigar los riesgos de la IA en ciberseguridad, es esencial implementar medidas de detecciĆ³n avanzadas que identifiquen la actividad maliciosa antes de que ocurran los ataques.
AsĆ que, en principio, la recomendaciĆ³n es evitar los siete pecados digitales (y capitales) de quienes quierenĀ utilizar esta herramienta gratis, con poco conocimiento y despreocupadamente.
1.- DistribuciĆ³n de malware
Al aprovecharse del objetivo principal de estas herramientas que buscan ayudar a los usuarios, los ciberdelincuentes generan elementos como virus o troyanos.Ā
Estos son cĆ³digos maliciosos depurados que incrustan en documentos, correos electrĆ³nicos e incluso pĆ”ginas web para maximizar el alcance de sus ataques e infectar los computadores de sus vĆctimas.
2.- Phishing
Con una gran cantidad de ejemplos disponibles, la IA permite crear unas comunicaciones falsas mucho mĆ”s realistas y convincentes.Ā
Esto hace que la tarea de distinguir los correos legĆtimos se convierta en un verdadero reto.Ā
Y es que el objetivo de estos no es otro que engaƱar a los usuarios. Se trata de hacer que se sientan seguros y proporcionen informaciĆ³n sensible como contraseƱas o datos de pago como tarjetas de crĆ©dito.
3.- IngenierĆa social
DiseƱadas para ser lo mĆ”s humano posible, ChatGPT puede ser utilizado para hacerse pasar por personas reales.Ā
ĀæCon quĆ© fin? Sin duda, el de manipular a los usuarios para que realicen acciones perjudiciales para ellos mismos o sus empresas.Ā
En general, persigue engaƱar a un usuario para que proporcione informaciĆ³n de su cuenta.
4.- FiltraciĆ³n y robo de datos
La IA generativa puede ser utilizada para crear documentos o correos electrĆ³nicos falsos que parezca legĆtimos.Ā
Esto puede ser utilizado para engaƱar a los usuarios y hacer que revelen credenciales o datos sensibles.
5.- DesinformaciĆ³n y propaganda
ChatGPT puede ser utilizado para generar noticias falsas y propaganda, utilizadas para engaƱar y manipular a las personas.Ā
Todo ello puede usarse para daƱar reputaciones, sembrar discordia e, incluso, incitar a la violencia.
6.- DifamaciĆ³n y suplantaciĆ³n
Con herramientas como el ChatGPT, cada vez mĆ”s accesibles y asequibles, hay una creciente preocupaciĆ³n de que distinguir entre archivos autĆ©nticos y deep fakes sea casi imposible.Ā
Recordemos que el deepfake incluye crear fotografĆas, vĆdeos e, incluso, audios falsos.
7.- Amenazas internas
La inteligencia artificial puede ser utilizada maliciosamente para crear documentos o correos electrĆ³nicos falsos que parezcan provenir de usuarios autorizados.Ā
Ello suele tener como objetivo el utilizarlos para obtener acceso a datos o sistemas sensibles.