Expertos de Kaspersky Labs han analizado cómo la IA está transformando el panorama de la ciberseguridad empresarial, planteando tanto oportunidades como desafÃos.
La proliferación de la Inteligencia Artificial (IA) ha permeado todos los aspectos de nuestra vida digital, desde la gestión del hogar hasta la seguridad en lÃnea. En este contexto, los expertos de Kaspersky Labs han realizado un análisis exhaustivo sobre el impacto de la IA en el panorama de la ciberseguridad empresarial para el año 2024.
Este informe no solo destaca las oportunidades que esta tecnologÃa ofrece para fortalecer nuestras defensas cibernéticas, sino que también arroja luz sobre los riesgos emergentes que plantea para la seguridad digital.
Desde la exploración de vulnerabilidades más complejas hasta la utilización de redes neuronales por parte de estafadores, el estudio de Kaspersky Labs proporciona una visión detallada de las tendencias que darán forma al futuro de la protección en lÃnea. En este artÃculo, adelantaremos algunas de las predicciones clave que Kaspersky Labs detallará en las Jornadas Digitales Ciberseguridad 2024: DesafÃos y soluciones en la era digital, organizada por The Standard CIO.
Desde vulnerabilidades más complejas hasta la utilización de redes neuronales para estafas. Estas son algunas de las Predicciones en Ciberseguridad que Kaspersky Labs compartirá en la segunda sesión de las Jornadas Digitales Ciberseguridad 2024: DesafÃos y soluciones en la era digital, el próximo martes 06 de febrero a las 09:00 AM (hora México).
Un evento de The Standard CIO que contará con la participación de Fabio Assolini Director de Análisis e Investigación de Kaspersky para Latinoamérica, quien brindará una visión detallada de las tendencias que darán forma al futuro de la defensa cibernética. Reserva tu plaza aquÃ.
Vulnerabilidades más complejas
Expertos de Kaspersky Labs analizan cómo la Inteligencia Artificial (IA) está transformando el panorama de la ciberseguridad, planteando tanto oportunidades como desafÃos.
La integración de Modelos de Lenguaje a Gran Escala (LLMs) en productos de consumo aumentará la superficie de ataque, requiriendo nuevas medidas de seguridad. La aprobación del usuario para las acciones iniciadas por agentes de LLMs se perfila como una solución clave.
Las redes neuronales se utilizarán cada vez más para generar imágenes que ayuden a las estafas
Este año, los estafadores podrÃan ampliar sus tácticas utilizando redes neuronales, para crear un contenido fraudulento más convincente aprovechando las herramientas de inteligencia artificial. Con la posibilidad de generar sin esfuerzo imágenes y videos convincentes, los agentes maliciosos plantean un mayor riesgo de intensificar las amenazas cibernéticas relacionadas con fraudes y estafas.
La IA no se convertirá en un motor de cambios revolucionarios en el panorama de amenazas durante 2024
A pesar de las tendencias anteriores, los expertos de Kaspersky siguen siendo escépticos respecto a que la IA cambie significativamente el panorama de amenazas en el corto plazo. Aunque los ciberdelincuentes adoptarán la IA generativa, lo mismo ocurre con los ciberdefensores, quienes utilizarán las mismas herramientas, o incluso otras más avanzadas, para probar la mejora de la seguridad en el software y las redes, lo que hace poco probable que alteren drásticamente el panorama de los ataques.
Más iniciativas regulatorias relacionadas con la IA con la contribución del sector privado
Con su rápido desarrollo, la tecnologÃa se ha convertido en un asunto de formulación de polÃticas y regulación. Está previsto que aumente el número de iniciativas regulatorias relacionadas con la IA. Los agentes que no son estatales, como es el caso de las empresas de tecnologÃa, dada su experiencia en el desarrollo y uso de la Inteligencia Artificial, pueden proporcionar conocimientos invaluables para los debates sobre la regulación de la IA en las plataformas, tanto globales como nacionales.
Marca de agua para contenido generado por IA
Se necesitarán más regulaciones, asà como las polÃticas de los proveedores de servicios, para señalar o identificar el contenido sintético, y estos últimos deben seguir invirtiendo en tecnologÃas de detección. Los programadores e investigadores, por su parte, contribuirán en la creación de métodos de marca de agua para facilitar la identificación y procedencia de los medios sintéticos.