Aunque América Latina no tiene nada como una legislación comunitaria, el debate en México sobre regular la IA no pasa inadvertida.
Históricamente, las legislación es en nuestros países se nutren de las experiencias de nuestros vecinos, así como la legislación europea.
¿Existe, en la actualidad, un país que pueda desarrollar una legislación que intente regular la IA desde cero? Tal vez. Pero sería innecesario.
En principio, algunas normas internacionales como el ISO a Basilea ya abordan algunos aspectos de la Inteligencia Artificial (IA).
Así que, si querenos mantenernos dentro del marco de calidad y reducción de riesgo que estás normativas suponen, tenerlas en cuenta es una ventaja competitiva para cualquier nación. Por un lado.
En el caso de México, país que adelanta una agresiva política de nearshoring, conocer la legislación vigente de los países cuyas fábricas ya están en sus fronteras es una necesidad.
También constituye, como en cualquier otra nación, un reto sistémico que exige visión nacional, marcos adaptativos y compromiso multisectorial.
El desafío debe encarar el que los modelos existentes ya tienen, de por sí, sesgos implícitos.
Por otro lado, el manejo de datos requerido para el adiestramiento de nuevos modelos debe ser coherente con la legislación vigente sobre la materia.
“Establecer un marco regulatorio para la Inteligencia Artificial (IA) es uno de los mayores desafíos a los que se enfrenta no solo México sino, todo el mundo”, resaltó el CEO de Bambú Mobile, Alonso Santiago.
Debates de forma y fondo
La intervención del líder de Bambú formó parte del sexto conversatorio de la Comisión de Análisis, Seguimiento y Evaluación sobre la aplicación y desarrollo de la Inteligencia Artificial en México, instancia que adelanta los elementos de una futura legislación.
Cabe recordar que, en la actualidad, México ya cuenta con la Ley Federal de Protección de Datos Personales. Gracias a ella, el país se mueve hacia la creación de la Comisión de Análisis, Seguimiento y Evaluación sobre la Aplicación y Desarrollo de la IA en el Senado.
No obstante, en los distintos debates parece haber coincidencia de los expertos en que el país enfrenta un retraso normativo que podría comprometer su competitividad.
Y es que, mientras países como China, Estados Unidos y la Unión Europea avanzan con estrategias regulatorias específicas, México aún carece de una legislación uniforme en temas fundamentales como ciberseguridad o protección crítica de infraestructuras.
Tanto México como el resto de América Latina precisan administrar el impacto multiplicador que suelen tener las leyes, así como el riesgo de construir capacidades de Inteligencia Artificial (IA) subordinadas a actores globales.
“Para empresas desarrolladoras de tecnología, implicará costos de cumplimiento, auditorías y rediseño de productos, pero también mayor confianza del mercado y acceso a capital”, puntualizó en el mismo evento el CEO de ESSAD, Jesús Moscoso.
Regular la IA con propósito
La complejidad e importancia de regular la IA para obtener los mejores resultados generabdistintas dudas.
Ante la pregunta sobre cómo regular la IA sin sofocar la innovación, los especialistas apuntan a un enfoque de “posibilidades con principios”.
Lejos de un marco punitivo o prohibitivo, el objetivo es habilitar un ecosistema donde la Inteligencia Artificial (IA) pueda crecer con responsabilidad, ética y control.
En este sentido, los expertos proponen un marco fundado en cuatro pilares: explicabilidad, privacidad, responsabilidad y clasificación de riesgo.
Estos cuatro hitos conceptuales tienrn, a su vez, contra partes técnicas. Desde este punto de vista, los cuatro pilares para una regulación efectiva serían:
- Transparencia algorítmica: que los modelos puedan ser auditados y explicados, especialmente en sectores sensibles como salud, justicia o finanzas.
- Protección de datos: extender los principios ya vigentes a nuevas formas de extracción masiva, modelado y uso de datos no estructurados.
- Responsabilidad legal: establecer con claridad quién responde por los daños o decisiones tomadas por sistemas automatizados.
- Clasificación de riesgo: inspirada en el modelo europeo, definir niveles regulatorios proporcionales al impacto potencial del sistema de IA.