La evolución reciente de la Inteligencia Artificial ha permitido que la clonación de voz haya alcanzado niveles de perfeccionamiento peligrosos.
De hecho, la efectividad de los más recientes deepfakes de voz y su capacidad para engañar esta incrementando en forma alarmante las estafas basadas en este recurso.
El impacto general de la Inteligencia Artificial (IA) en nuestro día a día crece en forma exponencial.
El. Impacto en la productividad además del área de Atención al Cliente (ATC) gracias a chatbots y asistentes virtuales (AVs) esta alcanzando niveles revolucionarios.
La mala noticia es que, gracias a que la tecnología es neutral, su uso por parte de ciberdelincuentes muestra, también, logros notables.
Y es que, para los hackers maliciosos, ha resultado una buena inversión aprovechar todo el potencial para armar ataques de ingeniería social que, gracias a las tecnologías, resultan más realistas y sofisticados.
“Las técnicas que involucran la clonación de voz para hacerse pasar por familiares, amigos o conocidos están en pleno auge”, señaló el Jefe del Laboratorio de investigación de ESET Latinoamérica, Camilo Gutiérrez Amaya.
El especialista señala que el objetivo de estas campañas es obtener información privada o, directamente, dinero de sus víctimas.
En este sentido, ESET ha analizado:
- La metodología de clonación de voz que utilizan los atacantes en este tipo de engaños
- Cómo pueden afectar a las personas
- Y de qué manera evitar ser víctima