Los CIOs, CISOs y otros líderes de TI del Reino Unido creen que los estados extranjeros ya usan ChatGPT maliciosamente. Sus sospechas son fundadas.
Por Michael Colina | Original de IDGN
La mayoría de los líderes de TI del Reino Unido están preocupados por el uso malicioso de ChatGPT, ya que la investigación muestra cómo sus capacidades pueden mejorar significativamente el phishing y las estafas BEC.
La mayoría de los líderes de TI del Reino Unido creen que los estados extranjeros ya están utilizando el chatbot ChatGPT con fines maliciosos contra otras naciones.
Asi, según un nuevo estudio de BlackBerry que encuestó a 500 tomadores de decisiones de TI del Reino Unido el cual reveló que:
- Mientras que el 60% de los encuestados considera que ChatGPT generalmente se usa para “buenos” propósitos”
- 72% está preocupado por su potencial para ser usado con fines maliciosos cuando se trata de ciberseguridad
- De hecho, casi la mitad (48%) predijo que un ciberataque exitoso se atribuirá a la tecnología
- En los próximos 12 meses
Los hallazgos siguen una investigación reciente que mostró cómo los atacantes pueden usar ChatGPT para mejorar significativamente las estafas de phishing y comprometer el correo electrónico comercial (BEC).
ChatGPT y sus capacidades explotados maliciosamente
ChatGPT, el chatbot gratuito de OpenAI basado en GPT-3.5, se lanzó el 30 de noviembre de 2022 y acumuló un millón de usuarios en cinco días.
Es capaz de escribir:
- Correos electrónicos
- Ensayos
- Códigos
- Y correos electrónicos de phishing, si el usuario sabe cómo preguntar
El estudio de Blackberry encontró que la capacidad de los atacantes para usar estas capacidades para crear correos electrónicos de phishing que suenen más creíbles y legítimos es una de las principales preocupaciones para el 57% de los líderes de TI del Reino Unido encuestados.
A esto le siguió el aumento en la sofisticación de los ataques de amenazas (51%) y la capacidad de acelerar nuevos ataques de ingeniería social (49%).
Casi la mitad de los directores de TI del Reino Unido están preocupados por el potencial de ChatGPT para difundir información errónea (49%), así como por sus capacidades para permitir que los piratas informáticos menos experimentados mejoren sus conocimientos técnicos (47%).
Además, el 88% de los encuestados dijo que los gobiernos tienen la responsabilidad de regular las tecnologías avanzadas como ChatGPT.
“Es probable que ChatGPT aumente su influencia en la industria cibernética con el tiempo. Todos hemos visto mucha exageración y alarmismo, pero el pulso de la industria sigue siendo bastante pragmático. Y por una buena razón. Se pueden obtener muchos beneficios de este tipo de tecnología avanzada y solo estamos comenzando a arañar la superficie. Pero tampoco podemos ignorar las ramificaciones”, comentó Shishir Singh, CTO de ciberseguridad en BlackBerry.
Phishing y las estafas BEC “mejoradas” con GPT-3
En enero, los investigadores de la firma de seguridad WithSecure demostraron cómo:
- El modelo de generación de lenguaje natural GPT-3 se puede usar para hacer que los ataques de ingeniería social,
- El phishing
- O las estafas de compromiso de correo electrónico comercial (BEC)
para que sea más difícil detectar como maliciosas y más fáciles de llevar a cabo.
El estudio reveló que los atacantes no solo pueden generar variaciones únicas del mismo señuelo de phishing con texto escrito gramaticalmente correcto y similar al humano sino que, también, pueden construir cadenas de correo electrónico completas (basadas en muestras proporcionadas por personas de sus comunicaciones) para hacer que sus correos electrónicos sean más convincentes e, incluso, pueden generar mensajes utilizando el estilo de escritura real.
“La generación de texto versátil en lenguaje natural a partir de una pequeña cantidad de entrada, inevitablemente, interesará especialmente a los ciberdelincuentes, si aún no lo ha hecho”, dijeron los investigadores en su artículo.
Destacaron también que, del mismo modo, cualquier persona que use la web para difundir estafas, noticias falsas o información errónea en general:
“Puede estar interesada en una herramienta que crea texto creíble, incluso, posiblemente convincente a velocidades sobrehumanas”.