La IA es relativamente nueva, pero ya desde hace algunos años hemos visto como la tendencia del uso del Deepfake como estrategia para el robo de información confidencial y recursos monetarios viene escalando en las organizaciones alrededor del mundo.
Sí, ya lo hemos dicho: es posible que Skynet nunca exista. Pero eso no significa que la inteligencia artificial no pueda ser usada en nuestra contra.
De hecho, ya en la actualidad y pese a que estamos lejos de los mejores desempeños de la ciencia ficción, los ciberdelincuentes han logrado poner a la IA (incluso en sus versiones más adelantadas) al servicio del mal.
Fluid Attacks, compañía especializada en pruebas de seguridad continuas e integrales a software, comparte desde su experticia algunas tendencias en el uso de la IA, concepciones sobre lo que es y hace el deepfake, además de recomendaciones en su detección y prevención para individuos y compañías.
El deepfake se desarrolla gracias a “redes neuronales” — algoritmos en cierta medida inspirados en el cerebro humano — que examinan imágenes y sonidos y encuentran patrones necesarios para luego producir material convincente del mismo tipo.
Entre más grande sea la base de datos de entrenamiento de dichos algoritmos, más precisos serán estos en su elaboración de deepfakes. Esta tecnología es cada vez de más fácil acceso, incluso para personas con poco conocimiento técnico — tanto así que ya existe el deepfakes-as-a-service —, y lo que es aún más preocupante es que, al parecer, los mecanismos de detección de deepfakes andan algo rezagados.
En defensa propia
Mientras investigadores y organizaciones desarrollan y mejoran soluciones para ayudar a reconocer cuándo un video o un audio constituye un deepfake, algunas recomendaciones, como las entregadas a continuación por Fluid Attacks, pueden tenerse en cuenta para prevenir daños por culpa de estos intentos de engaño:
1.- Entrenar a empleados y usuarios
Sea o no a través de simulación de engaños, las compañías podrían enseñar a su personal, e incluso a sus clientes o usuarios, a notar detalles extraños en quienes aparecen en los videos (más que todo cuando los productos de los algoritmos usados no son suficientemente buenos), como por ejemplo:
- Falta de movimiento o movimiento antinatural en los ojos, así como ausencia de parpadeo.
- Expresiones faciales inusuales y rarezas en la forma del cuerpo o del cabello.
- Colores de piel anormales, sombras mal ubicadas e iluminación inusual.
- Posición extraña y movimientos bruscos de la cabeza y el cuerpo.
- Problemas de sincronización entre el movimiento de los labios y las palabras pronunciadas.
2.- Mantener controles internos de seguridad suficientemente sólidos
Por ejemplo, dentro de las compañías deberían haber múltiples niveles de aprobación para las transacciones de recursos sensibles o importantes.
Además, los directivos no deberían luego tener la potestad para incumplir en determinados momentos, y a su conveniencia, regulaciones como estas.
3.- Prestar mayor atención a las solicitudes y a su autorización
Las compañías deberían atender en mayor medida a las solicitudes de recursos que diversas personas hacen a sus sistemas.
Deberían mantener en revisión y bastante limitadas las autorizaciones que los miembros de la compañía tienen para hacer solicitudes o para aceptarlas y rechazarlas.
Así, por ejemplo, solo algunos empleados con determinados privilegios podrían cumplir con ciertas demandas de sus superiores. Un punto adicional es que todo aquel que reciba una solicitud a través un medio, debería contactar por otro medio a la persona que la hizo, para confirmar la veracidad de la misma.