ĀæQuĆ© sucede cuando la tecnologĆa deepfake cae en manos equivocadas?
Puede que Halloween ya haya pasado. Pero las amenazas en los rincones oscuros de Internet siguen acechando. A veces a pleno dia.
Por: Daniel Mazzucchelli | Director de ExpansiĆ³n de Sumsub en LatinoamĆ©rica
Una mujer recibiĆ³ un enlace por correo electrĆ³nico y al abrirlo, vio un video pornogrĆ”fico que parecĆa real. Llevaba su nombre, aunque no era ella. Era un deepfake.
El video incluĆa descripciones detalladas sobre su vida personal como su nombre, su mejor amigo de la infancia y, para su horror, incluso su direcciĆ³n de casa.
En otro caso, dos abuelos recibieron una llamada de quien creyeron era su nieto. PedĆa dinero para una fianza, diciendo que estaba en la cĆ”rcel sin billetera ni telĆ©fono. La abuela, de 73 aƱos, retirĆ³ todo el dinero que pudo. Pero luego descubriĆ³ que se trataba de un fraude deepfake.
Estos casos no son raros. Son una muestra de cĆ³mo el fraude digital estĆ” afectando nuestras vidas, de formas cada vez mĆ”s personales y sofisticadas. Se ha convertido en una verdadera pesadilla de Halloween.
El fraude deepfake puede causar depresiĆ³n, ansiedad, pĆ©rdidas financieras y ciberacoso,. Estos atsques han aumentado en los Ćŗltimos aƱos debido a herramientas como Midjourney y filtros de IA en TikTok. Aunque existen mĆ©todos para detectarlos, como la DetecciĆ³n de Usuarios Reales, su efectividad es limitada.
Deepfake AI, cada vez mƔs utilizado en diversos sectores
Los deepfakes, videos y audios creados con inteligencia artificial que imitan de manera sorprendentemente realista a personas, han capturado la atenciĆ³n mundial por sus implicaciones Ć©ticas y de seguridad.
Lo que comenzĆ³ como una innovaciĆ³n tecnolĆ³gica fascinante ha evolucionado a una herramienta capaz de engaƱar y manipular.
En Sumsub, hemos explorado los casos mĆ”s comunes de uso de los deepfakes y cĆ³mo han impactado diferentes aspectos de nuestra vida cotidiana.
1.- PornografĆa deepfake
Durante aƱos, la IA ha sido utilizada, sistemĆ”ticamente, para abusar y acosar a mujeres. Los algoritmos de machine learning ahora pueden insertar imĆ”genes de mujeres en videos pornogrĆ”fico, sin su permiso. Hoy en dĆa, la pornografĆa deepfake es endĆ©mica.
La propagaciĆ³n de la pornografĆa deepfake es agravada por la distribuciĆ³n a travĆ©s de plataformas ampliamente disponibles como Google, Cloudflare y Twitch.
Sus consecuencias para las vĆctimas pueden llegar a ser graves, incluyendo depresiĆ³n, autoagresiones y suicidio.
2.- Guerra informativa y propaganda
Los deepfakes se utilizan para manipular la opiniĆ³n pĆŗblica y difundir desinformaciĆ³n, creando contenido falso que parece real.
Esto se hace, a menudo, en momentos crĆticos como elecciones o conflictos armados. Ello con el objetivo de polarizar comunidades, asi como daƱar la reputaciĆ³n de figuras pĆŗblicas, medios o naciones enteras.
Aunque mĆ”s tarde se demuestre que el contenido es un fraude de deepfake, el daƱo – a menudo – es irreversible.
Las reputaciones afectadas son difĆciles de restaurar.
3.- Estafas romƔnticas
Los deepfakes tambiĆ©n se estĆ”n utilizando en estafas romĆ”nticas. Se crean identidades falsas para engaƱar a las vĆctimas. De esta manera, ganan la confianza de las mismas, para obtener dinero o informaciĆ³n personal.
Los estafadores, expertos en manipulaciĆ³n, emplean esta tecnologĆa para aparentar ser personas atractivas, en busca de romance.
Un caso reciente involucrĆ³ a una mujer de Utah, en Estados Unidos. Fue condenada por una estafa que costĆ³ a sus vĆctimas mĆ”s de seis millones de dĆ³lares.
Sin duda, esto nos advierte de la importancia de ser escĆ©ptico cuando personas desconocidas se acercan en lĆnea.
4.- Deepfakes de voz
Las aplicaciones de IA pueden recrear voces Ćŗnicas analizando caracterĆsticas como edad, gĆ©nero y acento, lo que permite a los estafadores usar un deepfake de voz para suplantar a familiares, colegas o figuras pĆŗblicas.
De acuerdo con la firma de seguridad Pindrop, la mayor parte del fraude digital de deepfake de voz se dirige a centros de llamadas de tarjetas de crƩdito y a CEOs, quienes pueden ser engaƱados para realizar transacciones financieras importantes.
5.- Publicidad y cine
Los deepfakes se usan cada vez mĆ”s en publicidad y cine para recrear versiones jĆ³venes de actores o revivir a actores fallecidos en pantalla, y en publicidad para insertar caras de celebridades en modelos y promover productos.
No obstante, el uso sin consentimiento puede perjudicar las carreras de los actores suplantados y daƱar la credibilidad de las industrias del entretenimiento y la publicidad.
CĆ³mo detectar el fraude deepfake: claves para protegerse de la manipulaciĆ³n digital
ĀæCĆ³mo podemos detectar deepfakes y asegurarnos de que nuestras fotos no sean utilizadas por estafadores?
Aunque no se puede eliminar por completo el riesgo de abuso de deepfakes, en Sumsub recomendamos tomar medidas preventivas, tales como:
- Ser escĆ©ptico ante acercamientos inesperados de personas “atractivas” o “famosas” en lĆnea.
- Verificar llamadas o mensajes de video de familiares pidiendo dinero o informaciĆ³n sensible usando otros medios.āāāāāāā
- Examinar las imĆ”genes detalladamente para detectar inconsistencias, como iluminaciĆ³n incorrecta, distorsiones o fondos antinaturales, y observar la falta de parpadeos o movimientos de respiraciĆ³n en videos.āāāāāāā
- Limitar el compartir fotos personales en lĆnea y ajusta la configuraciĆ³n de privacidad.āāāāāāā
- Evitar compartir fotos de alta resoluciĆ³n y sin editar.āāāāāāā
- Leer los tĆ©rminos de las aplicaciones de IA para asegurarte de que no volverĆ”n a utilizar tus fotos una vez que las hayas subido.āāāāāāā
- Contactar a las autoridades locales si tus fotos o videos son robados o usados inapropiadamente.
En un mundo donde la tecnologĆa avanza rĆ”pidamente, los fraudes deepfake se han convertido en una amenaza real que puede transformar la vida de cualquiera en una autĆ©ntica pesadilla, digna de una noche de Halloween.
Sin embargo, estar informados y tomar medidas de protecciĆ³n, como verificar fuentes, no compartir informaciĆ³n personal y utilizar herramientas que detecten falsificaciones, puede ayudarnos a evitar caer en estas trampas digitales.
Al fin y al cabo, con la preparaciĆ³n adecuada, podemos asegurarnos de que la prĆ³xima historia de terror no sea la nuestra.