Puesto que los objetivos primarios son la innovación y la ciberseguridad, el impacto de esta legislación del Parlamento Europeo será global.
Además, es la primera ley sobre Inteligencia Artificial que se ha aprobado en el mundo.
Puede que, desde el punto de vista económico, la pandemia y actual guerra hayan desplazado a la Unión Europea por detrás de India.
Pero, desde el punto de vista de la influencia, su poder sigue tan contundente como siempre.
De hecho, las empresas tecnológicas estadounidenses deben enfrentar la legislación europea con especial cuidado y la ONU no suele ignorar el manejo que hacen de problemáticas sociales humanitaria o científicas.
Y si bien Silicon Valley no queda en Europa, la ratificación definitiva de la primera ley del mundo sobre inteligencia artificial por parte del Parlamento Europeo le dará mucho trabajo a los abogados en todos el mundo.
Por cálculo (no por suerte) la vacatio legis llega hasta el 2026, unos 20 meses por delante para tomar lsd previsiones del caso.
Así, aunque no hay un acuerdo universal de lo que debe ser o hacerse sobre Inteligencia Artificial, hoy hay una frontera en el horizonte. Los desarrolladores estadounidenses o asiáticos deberán tener en cuenta lo previsto por la ley para que Europa no se convierta en un muro, sin puertas ni ventanas.
En defensa propia
Recordemos que desde que la Inteligencia Artificial generativa inició su marcha triunfal con el ChatGPT a la cabeza, la Unión Europea había mostrado su preocupación por lo que esto representaba para usuarios y personas en general.
Pero, también, advirtieron por el imoa to de esta tecnología tanto sobre la privacidad como en la ciberseguridad de personas, emoresas y naciones.
En principio y según lo que han señalado los Espe cialistas de Check Point Research, esta es la primera ley mundial que intenta abordar el riesgo que puede introducir la IA.
Especialmente, la nueva norma intenta mitigar el peligro de que las aplicaciones con Inteligencis Artificial vulneren los Derechos Humanos de los usuarios o – peor aún – perpetúen los prejuicios ya existente y, con ello, tanto los sesgos como las desigualdades.
“Esta Ley de IA de la UE pretende establecer límites claros para su despliegue, de modo que los vendedores y desarrolladores dispongan de algunas directrices y límites. De este modo, los buenos podrán ver el límite bien marcado, así como disponer de acceso y herramientas para perseguir a los que vayan en contra de ella”, precisó el vicepresidente del departamento de ingeniería de EMEA de Check Point Software, Peter Sandkuijl, vicepresidente del departamento de ingeniería de EMEA de Check Point Software.
Para hacer seguimiento
Para Sandkuijl, uno de los aspectos más relevantes de esta nueva legislación es que:
- Dado el rápido desarrollo de tecnologías como ChatGPT
- Y el establecimiento de estándares
- Tanto de transparencia como de protección de derechos de autor
- Muestra la importancia de adaptarse a sistemas que aún no son imaginables en el futuro.
Veamos cuales son loss otros elementos que descanse desde Check Point Software con respecto a legislación sancionada por el Parlamento Europeo sobre IA en relación con la ciberseguridad:
1.- Directrices de desarrollo y despliegue más estrictas
Los desarrolladores e implantadores de IA tendrán que seguir unas directrices estrictas, garantizando que los sistemas de IA se desarrollen pensando en la seguridad.
Esto significa incorporar medidas de ciberseguridad desde el principio, centrarse en prácticas de codificación seguras y garantizar que los sistemas de IA sean resistentes a los ataques.
2.- Responsabilidad en incidentes de seguridad
Es probable que la Ley incluya disposiciones para responsabilizar a las empresas por brechas de seguridad que involucren sistemas de IA. Esto requeriría protocolos de respuesta ante incidentes más estrictos y que los sistemas de IA cuenten con mecanismos avanzados para detectar y reaccionar ante incidentes de ciberseguridad.
3.- Prevención del uso malintencionado de la IA
La Ley busca evitar el uso de la IA con fines malintencionados, como la creación de deepfakes o la automatización de ciberataques.
Regulando ciertos usos de la IA. Además, contribuye a que haya una estrategia de ciberseguridad más amplia que reduce el riesgo de que se utilice como herramienta en ciberguerra y cibercrimen.
4.- Mitigación de sesgos y discriminación
Al tratar los riesgos de sesgo y discriminación en los sistemas de IA, la Ley también beneficia indirectamente a la ciberseguridad.
Los sistemas que son justos e imparciales tienen menos probabilidades de ser explotados a través de sus vulnerabilidades.
Al abordar los riesgos de parcialidad y discriminación en los sistemas de IA, la Ley contribuye indirectamente a la ciberseguridad.
Garantizar que los sistemas de IA se entrenen con conjuntos de datos diversos y representativos puede reducir el riesgo de ataques que exploten procesos de toma de decisiones sesgados.
5.- Más transparencia
Exigencia de una mayor transparencia en las operaciones de IA, especialmente para las de alto riesgo.
Esto podría significar una divulgación más detallada de los datos utilizados para entrenar los sistemas de IA, los procesos de toma de decisiones de la IA y las medidas adoptadas para garantizar la privacidad y la seguridad.
La transparencia ayuda a identificar vulnerabilidades y a mitigar posibles amenazas.
6.- Auditorías de certificación y conformidad
Los sistemas de IA de alto riesgo tendrán que someterse a rigurosas pruebas y certificaciones que garanticen que cumplen las normas de seguridad de la UE, incluida la ciberseguridad.
Las auditorías de conformidad garantizarán además que los sistemas de IA se adhieran continuamente a estas normas a lo largo de su ciclo de vida.
7.- Fomento de la investigación y colaboración
La ley promueve la investigación y colaboración en IA y ciberseguridad, apoyando el desarrollo de tecnologías y estrategias para proteger contra amenazas emergentes