La IA generativa está mostrando mucha versatilidad y, aunque también puede asegurar nuestros sistemas, de momento los hace más vulnerables.
Los casos de uso de IA generativa varían significativamente en una empresa, al igual que los riesgos de seguridad que introducen.
Por: M. Hill | Original de IDGN
Los casos de uso de negocios de IA generativa continúan creciendo a medida que la tecnología se desgrana en todo tipo de productos, servicios y tecnologías.
Al mismo tiempo, las implicaciones de seguridad de la evolución de las capacidades generativas de IA continúan en los titulares.
Una encuesta reciente de Salesforce a más de 500 líderes senior de TI reveló que, aunque la mayoría (67%) está priorizando la IA generativa para su negocio en los próximos 18 meses.
Casi todos admiten que se necesitan medidas adicionales para abordar los problemas de seguridad y equiparse para aprovechar con éxito la tecnología.
La mayoría de las organizaciones comprarán (no construirán) IA generativa y, es posible, que muchas ni siquiera compren IA generativa directamente, sino que la reciban a través de integraciones agrupadas.
Esto obliga a los líderes de seguridad a invertir tiempo para comprender los diferentes casos de uso de IA generativa dentro de sus negocios, así como sus riesgos asociados.
Un nuevo informe de Forrester ha revelado son los departamentos comerciales con los que tienen mayor probabilidad de adoptar la IA generativa.
También revela los principales casos de uso de esta tecnología, así como las amenazas y riesgos de seguridad contra los que los equipos deberán defenderse a medida que la tecnología se generalice.
Siete casos de uso de negocios de IA generativa más probables
Según el informe Securing Generative AI de Forrester, los siete casos de uso más probables para esta tecnología en las organizaciones, junto con sus amenazas y riesgos de seguridad relacionados son los siguentes:
1.- Marketing
Los generadores de texto permiten a los especialistas en marketing producir – instantáneamente – borradores para las campañas.
Esto, según Forrester, introduce fuga de datos, exfiltración de datos y amenazas de inteligencia competitiva.
Los riesgos incluyen problemas de relaciones públicas / clientes relacionados con la publicación del texto debido a procesos deficientes de supervisión y gobernanza antes de la publicación.
2.- Diseño
En este punto, Forrester destaca que las herramientas de generación de imágenes inspiran a los diseñadores y les permiten maquetar ideas con un mínimo de tiempo / esfuerzo.
Según escribieron los investigadores en el informe, también se pueden integrar en flujos de trabajo más amplios.
Esto, según loss analista de Forrester, introduce:
- Envenenamiento de modelos
- Manipulación de datos
- Y amenazas a la integridad de los datos
Los riesgos a considerar son las restricciones de diseño y las políticas que no se siguen debido a problemas de integridad de datos.
Esto son mencionar los posibles problemas de derechos de autor / IP del contenido generado.
3. – IT
Los programadores utilizan modelos de lenguaje grande (LLM) para encontrar errores en el código y generar documentación automáticamente.
Esto introduce la exfiltración de datos, la fuga de datos y las amenazas a la integridad de los datos.
Forrester señala, además, que la documentación producida puede correr el riesgo de revelar detalles importantes del sistema que una empresa normalmente no revelaría.
4. – Desarrolladores
TuringBots ayuda a los desarrolladores a escribir prototipos de código e implementar sistemas de código complejos.
Pero, los investigadores del estudio señala que esto introduce problemas de seguridad de código, manipulación de datos, ransomware y robo de IP.
Los riesgos potenciales son:
- Código no seguro que no sigue las prácticas de seguridad de SDLC
- Código que viola los requisitos de licencia de propiedad intelectual
- O la IA generativa comprometida para rescatar los sistemas de producción
5. – Ciencia de Datos
La IA generativa permite a los científicos de datos producir y compartir datos para entrenar modelos sin arriesgar la información personal.
Pero, esto introduce el envenenamiento de datos, la desofuscación de los mismos, así como amenazas adversas de aprendizaje automático.
El riesgo asociado se relaciona con el modelo de generación de datos sintéticos que se realiza mediante ingeniería inversa:
“Lo cual permite a los adversarios identificar el origen de los datos utilizados”, escribió Forrester.
6. – Ventas
La generación a través de IA ayuda a los equipos de ventas a producir ideas, utilizar un lenguaje inclusivo y crear nuevo contenido.
Esto introduce la manipulación de datos, la exfiltración de datos y las amenazas de cumplimiento normativo.
“Los equipos de ventas podrían violar las preferencias de contacto al generar y distribuir contenido”, dijo Forrester.
7. – Operaciones
Las operaciones internas utilizan IA generativa para elevar la inteligencia de su organización.
Esto introduce amenazas a la manipulación de datos, la integridad de los mismos y en la experiencia de los empleados.
Forrester señala que el mayor riesgo en este caso de uso es que los datos utilizados para la toma de decisiones puedan ser manipulados.
Ello conllevaría, según destacó el informe, a conclusiones e implementaciones inexactas.
La cadena de suministro y la gestión de terceros son importantes para asegurar la IA generativa
Si bien la lista de Forrester de los casos de uso de negocios de IA generativa más probables se centra en las funciones comerciales internas, también instó a los líderes de seguridad a no pasar por alto el elemento de riesgo de proveedores y terceros.
“Puesto que la mayoría de las organizaciones encontrarán IA generativa integrada en productos y servicios ya implementados, una prioridad inmediata para los líderes de seguridad es la gestión de riesgos de terceros”, explicó Forrester.
Señalaron también que, cuando una empresa compra un producto o servicio que incluye IA generativa, depende de sus proveedores asegurar la solución.
“Microsoft y Google están asumiendo esa responsabilidad al agrupar e integrar la IA generativa en servicios como Copilot y Workspace, pero otros proveedores obtendrán soluciones de IA de su propio ecosistema de proveedores”, explica el informe.
Agregaron que la seguridad de cada organización deberá compilar su propio conjunto de preguntas de gestión de riesgos y seguridad, en función de los casos de uso descritos anteriormente.