La IA creó el problema pero, también, la solución del fraude de voz.
Este puede ser detectado por los centros de contacto (CDC) en tiempo real.
Es un hecho: ninguna imagen o video ultrafalso estafará nunca a nadie si la voz no se corresponde con la imagen. La estafa por deepfake depende, entonces, casi enteramente del fraude de voz.
Pareciera que la Inteligencia Artificial Generativa (GenIA) llegó al rescate de los hackers ciberdelincuentes al proporcionar herramientas que puede realizar la simulación y suplantación en segundos.
Por fortuna la tecnología va de ida y vuelta. Estas herramientas (o su equivalente en ingeniería inversa) permiten detectar la simulación también en pocos segundos.
Tan pocos que, para los efectos, hablamos de tiempo real. Todo ello gracias a herramientas de IA, los sistemas ya tienen la posibilidad de detectar la identidad de los usuarios en plena llamada y así prevenir millonarias pérdidas para las empresas.
Juan Ozino Caligaris, cofundador y Country Manager de Nubity explicó que esto es posible gracias a sistema de identificación biométrica que incorporen Inteligencia Artificial.
Recordó el hecho de que, como las huellas dactilares o el iris, la voz posee un conjunto de características únicas que hacen posible diferenciar a un individuo de otro.
“Los sistemas para la identificación biométrica por voz están basados en el uso de IA y machine Learning (ML). Tienen la capacidad de analizar en tiempo real las llamadas que se reciben en los centros de atención al cliente para confirmar la identidad de sus usuarios”, explicó Juan Ozino Caligaris, Country Manager de Nubity.
El ejecutivo destacó que estas herramientas permiten, incluso, identificar a presuntos defraudadores, siempre y cuando ya se tenga de ellos un registro de voz.
Números en alza
Es bueno que la tecnología defensiva pueda hacer esto pues el ejecutivo destacó que el aumento de la incidencia del fraude de voz no puede calificarse sino como “alarmante”.
De allí que el mercado de soluciones de biometría de voz avanza con enorme éxito.
En este sentido, la empresa de investigación Insight Partners predice que el mercado mundial de la biometría de voz pasará de:
- US$ 1.300 millones en 2021
- A US$ 4.800 millones en 2028
- Esto supone una tasa de crecimiento anual compuesta del 20,6%
Ozino hace notar, además, que el cambio mundial hacia las transacciones sin efectivo ha provocado un aumento del fraude en todos los canales:
- Desde las transacciones en línea y móviles
- Hasta las que se realizan en persona
De acuerdo con el Informe Nice 2023 sobre el fraude:
- Entre los 2021 y 2022 los intentos de estafas en las transacciones se dispararon un 92%
- Los importes de los intentos de fraude aumentaron un 146% a nivel global
El CM de Nubity apunta a que la tendencia muestra dos elementos claves:
- En primer lugar, se está produciendo un aumento espectacular de los volúmenes totales de transacciones.
- Y, en segundo lugar, los delincuentes son cada vez más audaces y persiguen importes más elevados.
“El fraude no se limita a un canal específico; es una amenaza compleja y multicanal que está determinada por la transformación digital, los cambios en los comportamientos de los consumidores y los patrones de estafa cambiantes”, enfatizó el ejecutivo de Nubity.
Recomendó a las instituciones financieras mantenerse alertas y adaptar sus defensas para adelantarse a un panorama de hackeos en constante evolución.
Escudo anti fraude de voz
Por fortuna, hoy existe la posibilidad de analizar las características de voz únicas para proporcionar a los agentes y a los sistemas de respuesta de voz interactiva (IVR, por sus siglas en inglés) de autoservicio una decisión en tiempo real sobre la identidad de la persona que llama para una verificación más rápida y precisa, a un costo muy bajo.
También se pueden detectar actores fraudulentos en tiempo real, lo que reduce las pérdidas potenciales por este tipo de ataques.
“La aplicación Voice ID, por ejemplo, analiza los atributos del habla como el ritmo, el tono y el timbre. Con esto se crea una huella vocal digital que agiliza la experiencia de autenticación de los clientes en su próxima llamada. Estos no tienen que decir ninguna frase o palabra específica, lo cual les permite mantener el flujo natural de la conversación”, enfatizó Juan Ozino Caligaris, Country Manager de Nubity.
Por otra parte, el aprendizaje automático (ML) permite analizar el audio entrante y lo compara con grabaciones de actores fraudulentos conocidos en la lista de vigilancia del centro de contacto
De esta forma, durante una llamada activa marca automáticamente las llamadas sospechosas al agente con un umbral de peligrosidad (por ejemplo, “riesgo alto” o “riesgo bajo”).
Tal aviso permite reducir los ataques al centro de contacto.