fbpx
Top

Aprendizaje automático y sus 9 usos en ciberataques 

Aprendizaje automático

Aprendizaje automático y sus 9 usos en ciberataques 

Los algoritmos de aprendizaje automático tienen dos caras: mejoran las soluciones de seguridad, pero también pueden servir a los ciberataques más impactantes.

 

Por María Korolov | Original de IDGN

 

El aprendizaje automático y la inteligencia artificial (IA) se están convirtiendo en una tecnología central para algunas herramientas de detección y respuesta a amenazas.  

La capacidad de aprender sobre la marcha y adaptarse automáticamente a las amenazas cibernéticas cambiantes les da una ventaja a los equipos de seguridad.

Sin embargo, algunos actores de amenazas también están utilizando el aprendizaje automático y la IA para: 

  • Escalar sus ataques cibernéticos
  • Evadir los controles de seguridad
  • Y encontrar nuevas vulnerabilidades

Todo a un ritmo sin precedentes y con resultados devastadores.  

Estas son las nueve formas más comunes en que los atacantes aprovechan la IA así como el Machíne Learning (ML) o Aprendizaje Automático (AA).

1.- Spam, spam, spam, spam

Los defensores han estado utilizando el aprendizaje automático para detectar spam durante décadas, dice Fernando Montenegro, analista de Omdia.  

“La prevención del spam es el mejor caso de uso inicial para el aprendizaje automático”, dice.

Si el filtro de spam utilizado proporciona razones por las que un mensaje de correo electrónico no se envió o genera algún tipo de puntuación, entonces el atacante puede usarlo para modificar su comportamiento.  

Así, estarían usando una herramienta legítima para hacer que sus propios ataques fueran más exitosos. 

“Si envía cosas con la suficiente frecuencia, podría reconstruir cuál era el modelo y, luego, puede ajustar su ataque para evitar este modelo”, asegura.

No son solo los filtros de spam los que son vulnerables. 

Montenegro considera que cualquier proveedor de seguridad que proporcione una puntuación o algún otro resultado podría ser un objetivo.  

“No todos tienen este problema pero, si no tienes cuidado, tendrán un resultado útil que alguien puede usar con fines maliciosos”.

2.- Mejores correos de phishing

Los atacantes no solo usan herramientas de seguridad de aprendizaje automático para probar si sus mensajes pueden pasar los filtros de spam.  

También están utilizando el aprendizaje automático para crear esos correos electrónicos en primer lugar, dice Adam Malone, socio de EY, Technology Consulting. 

“Están anunciando la venta de estos servicios en foros criminales. Los están utilizando para generar mejores correos electrónicos de phishing. Para generar personas falsas para impulsar campañas de fraude”.

Estos servicios anuncian específicamente que utilizan el aprendizaje automático y, probablemente, no sea solo marketing.  

“La prueba está en el pudín”, dice Malone. “Definitivamente son mejores”.

El aprendizaje automático permite a los atacantes personalizar los correos electrónicos de phishing de manera creativa para que no luzcan masivos y estén optimizados para generar participación y clics. 

No se detienen solo en el texto del correo electrónico.  La IA se puede utilizar para generar fotos de aspecto realista, perfiles de redes sociales y otros materiales para que la comunicación parezca lo más legítima posible.

Aprendizaje automático

3.- El Aprendizaje Automático es mejor para adivinar contraseñas

Los delincuentes también utilizan el aprendizaje automático para mejorar su capacidad de adivinar contraseñas, dice Malone. 

“Hemos visto evidencia de eso en base a la frecuencia y las tasas de éxito de los motores de adivinación de contraseñas”, asegura.  

Los delincuentes están construyendo mejores diccionarios y pirateando hashes robados.

Según el experto, también están utilizando el aprendizaje automático para identificar los controles de seguridad para: 

  • Hacer menos intentos 
  • Mejorar la adivinanza de contraseñas  
  • Y aumentar las posibilidades de que obtengan acceso a un sistema

4.- Falsificaciones profundas o Deep fakes

El uso más aterrador de la inteligencia artificial son las herramientas profundamente falsas que pueden generar video o audio que es difícil de distinguir del ser humano real.  

“Poder simular la voz o la cara de alguien es muy útil contra los humanos. Si alguien finge sonar como yo, podrías caer en la trampa”, dice Montenegro.  

De hecho, se han hecho públicos un par de casos de alto perfil en los últimos años en los que el audio falsificado cuesta a las empresas cientos de miles o millones de dólares.  

“La gente ha estado recibiendo llamadas telefónicas de sus jefes que eran falsas”, dice Murat Kantarcioglu, profesor de informática en la Universidad de Texas.

Más comúnmente, los estafadores usan IA para generar fotos, perfiles de usuario y correos electrónicos de phishing que parecen realistas para que sus mensajes parezcan más creíbles.  Es un gran negocio. 

Según el FBI, las estafas de compromiso de correo electrónico comercial generaron pérdidas por más de US$ 43.000 millones desde 2016. 

El otoño pasado, hubo informes de prensa de un banco en Hong Kong engañado para transferir US$ 35 millones a una banda criminal, porque un funcionario del banco recibió la llamada de un director de la compañía con quien había hablado antes.  

Reconoció la voz, por lo que autorizó la transferencia.

5.- Neutralizar herramientas de seguridad comerciales

Muchas herramientas de seguridad populares que se utilizan hoy en día tienen algún tipo de inteligencia artificial o aprendizaje automático integrado. 

Las herramientas antivirus, por ejemplo, buscan cada vez más comportamientos sospechosos más allá de las firmas básicas.  

“Cualquier cosa disponible en línea, especialmente de código abierto, podría ser aprovechada por los malos”, dice Kantarcioglu.

Los atacantes pueden usar estas herramientas, no para defenderse de los ataques, sino para modificar su malware hasta que pueda evadir la detección.  

“Los modelos de IA tienen muchos puntos ciegos. Es posible que pueda cambiarlos cambiando las características de su ataque, como cuántos paquetes envía o qué recursos está atacando”, explica el experto.  

No son solo las herramientas de seguridad impulsadas por IA las que utilizan los atacantes.  

La IA es parte de muchas tecnologías diferentes. 

Considere, por ejemplo, que los usuarios a menudo aprenden a detectar correos electrónicos de phishing buscando errores gramaticales.  

Los correctores gramaticales impulsados ​​por IA como Grammarly pueden ayudar a los atacantes a mejorar su escritura.

6.- Reconocimiento

El aprendizaje automático se puede utilizar para el reconocimiento, de modo que los atacantes puedan observar los patrones de tráfico, las defensas y las posibles vulnerabilidades de su objetivo.  Esto no es algo fácil de hacer, por lo que no es probable que sea algo en lo que se involucraría el ciberdelincuente promedio.  actores que utilizarán estas técnicas”.

Esto no es algo fácil de hacer, por lo que no es probable que sea algo en lo que se involucraría el ciberdelincuente promedio.  actores que utilizarán estas técnicas”.

Sin embargo, si, en algún momento, la tecnología se comercializa y se proporciona como un servicio a través de la clandestinidad criminal, entonces podría volverse más accesible.  

Mellen dice que también podría suceder si un actor de amenazas de un estado-nación desarrollara un conjunto de herramientas particular que usara el aprendizaje automático y lo lanzara a la comunidad criminal. 

“Pero los ciberdelincuentes aún necesitarían comprender qué estaba haciendo la aplicación de aprendizaje automático  y cómo aprovecharlo de manera efectiva, lo que crea una barrera de entrada”, asegura.

7.- Agentes autónomos

Si una empresa se da cuenta de que está siendo atacada y cierra el acceso a Internet a los sistemas afectados, es posible que el malware no pueda volver a conectarse a sus servidores de comando y control para recibir instrucciones. 

“Los atacantes pueden querer idear un modelo inteligente que permanezca incluso si no pueden controlarlo directamente, para una persistencia más prolongada”, dice Kantarcioglu.  “Pero para el ciberdelito regular, creo que eso no sería muy importante”.

Aprendizaje automático

8.- Envenenamiento por Aprendizaje Automático 

Un atacante puede engañar a un modelo de AA al proporcionarle nueva información.  

“El adversario manipula el conjunto de datos de entrenamiento”, dice Alexey Rubtsov, investigador asociado senior del Global Risk Institute.  “Por ejemplo, lo sesgan intencionalmente y la máquina aprende de manera incorrecta”.

Otro ejemplo de esto: una cuenta de usuario secuestrada puede iniciar sesión en un sistema todos los días a las 2 a.m. para realizar un trabajo inocuo, lo cual hace que el sistema piense que no hay nada sospechoso en trabajar a esa hora y reduce los obstáculos de seguridad que el usuario tiene que atravesar.

Esto es similar a cómo se le enseñó al chatbot Tay de Microsoft a ser racista en 2016. 

El mismo enfoque se puede usar para enseñarle a un sistema que un tipo particular de malware es seguro o que los comportamientos particulares de los bots son completamente normales.

9.- Fuzzing de IA

Los desarrolladores de software legítimos y los probadores de penetración usan software fuzzing para generar entradas de muestra aleatorias, en un intento de bloquear una aplicación o encontrar una vulnerabilidad. 

Las versiones mejoradas de este software utilizan el aprendizaje automático para generar ingresos de una manera más enfocada y organizada, priorizando, por ejemplo, las cadenas de texto con mayor probabilidad de causar problemas.  

Eso hace que las herramientas de fuzzing sean más útiles para las empresas, pero también más letales en manos de los atacantes.

Todas estas técnicas son una razón por la cual la higiene básica de la ciberseguridad, como: 

  • Los parches
  • La educación contra el phishing 
  • Y la microsegmentación siguen siendo vitales. 

“Y es una de las razones por las que la defensa en profundidad es tan importante. Tienes que colocar múltiples obstáculos, no solo el único que los atacantes terminan usando en tu contra para su beneficio”, dice Mellen de Forrester.  

La falta de experiencia mantiene bajo el uso del aprendizaje automático y la IA por parte de los actores de amenazas

Invertir en aprendizaje automático requiere una gran cantidad de experiencia, que escasea en este momento. 

Además, por lo general, existen formas más simples y fáciles para que los adversarios ingresen a las empresas, ya que muchas vulnerabilidades permanecen sin parchear.

Para el especialista de Forrester, hay muchas cosas al alcance de la mano y muchas otras formas en que pueden ganar dinero sin usar necesariamente el aprendizaje automático y la IA para crear ataques. 

“Según mi experiencia, en la gran mayoría de los casos, no lo utilizan”, dice Mellen.  

A medida que las empresas mejoren sus defensas y tanto los delincuentes como los estados-nación continúen invirtiendo en sus ataques, ese equilibrio pronto podría comenzar a cambiar.

Periodista apasionada por la innovación, la tecnología y la creatividad. Editora de The Standard CIO y Factory Pyme para The HAP GROUP