fbpx
Top

Inteligencia artificial para todos los riesgos: ¿Cuál es el suyo?

Inteligencia artificial para todos los riesgos: ¿Cuál es el suyo?

Frente a la ausencia de un código ético, la Unión Europea (UE) busca otros mecanismo para controlar a la Inteligencia Artificial (IA).

 

Si usted es de los que cree que la burocracia estada es lenta, piense otra vez. La Unión Europea hace grandes esfuerzos por desmentir eso cada año, especialmente en lo que a regulación de tecnología se refiere.

La lista se sus acciones, sancionados y multados es tan temible como legendaria aunque para muchos se sus ciudadanos, igual, siempre corrigen sobre abusos ya cometidos.

Esta vez se trata de la Inteligencia Artificial: a falta de un consenso y ética universal sobre pros, contras y límites para proteger los derechos de los ciudadanos a la privacidad, por ejemplo.

Pero, ¿cómo hacerlo hora que

  • Algoritmos
  • Chabots
  • Machine learning
  • O Deep learning de mayor o menor complejidad…
  • … forman parte de nuestra vida cotidiana, incluso en los más mínimos detalles?

La respuesta parece ser, precisamente, la necesidad de regulación en cuestiones de ética y privacidad.

Y, de nuevo, estamos seguros de que no faltarán señalamie tos de que la regulación es insuficiente y, por supuesto, llega demasiado tarde…

Adiós al “Gran Hermano”

La iniciativa de esta regulación parte del novel Consejo Europeo de Inteligencia Artificial – organismo integrado por expertos en IA de todos los países miembros de la UE – que decidirán cuáles  sistemas se consideran de alto riesgo, así como posibles cambios en las regulaciones vigentes.

¿Objetivo? Asegurar que se disponga de supervisión humana y tratar de reducir (“evitar” es algo que ya NO pasó) que los sistemas  se estén entrenando con datos sesgados.

¿Cómo? El eje de la propuesta inicial es una clasificación de riesgo que nos muestra, de la automatización con Inteligencia Artificial, lo que la comunidad europea cree que debe prosperar y aquella tecnología que, por sus riesgos, debería tender a disminuir en esos territorios.

Puesto que buena parte de los dispositivos tecnológicos que tenemos alrededor y en nuestras manos tienen algún nivel de IA, revise cuál es el nivel de riesgo que ha acumulado, tanto en lo personal como en su lugar de trabajo e, inclusive, en su ciudad.

Inteligencia Artificial

Aquí tiene, pues, la clasificación de riesgo propuesta… para que descubra por usted mismo en que punto se riesgo por Inteligencia Artificial vive en la actualidad:

Sistemas IA prohibidos

En esta categoria se cuentan aquellos que:

Propicien la manipulación del comportamiento humano provocando perjuicios.

O utilizan información personal para detectar las vulnerabilidades de los sujetos.

Un ejemplo podría ser la utilización de las autoridades públicas de deep fakes, como videos donde se vea alterada su imagen y su voz para transmitir mensajes falsos.

Sistemas IA de alto riesgo

En esta “comprenden una gran cantidad de actividades entre las que se encuentran las utilizadas en la administración y operación de infraestructura crítica. Por ejemplo, accesos biométricos con detección facial para plantas de energía o espacios restringidos.

En principio, prohibiría el reconocimiento facial, salvo excepciones como en la búsqueda de un niño perdido o para prevenir ataques terroristas.

La seguridad en los procesos productivos y en la seguridad física, se basa en la “redundancia”. Todos los sistemas pueden fallar. Por eso todas las soluciones deben contar con redundancia.

En el caso de los accesos biométricos, realizan cross reference con Biometría Facial y con la tarjeta IR. Los perímetros de un predio industrial, cuentan con al menos dos líneas de tecnología redundante, como las cámaras térmicas y cámaras IP instaladas en línea. explicó al respecto el Latam Director Of international Strategy Partners de Dahua Technology, Juan Pablo Coletti.

Sistemas IA de uso sujeto a condiciones o medio

En estos la autoridad comunitaria les asigna obligaciones específicas de transparencia.

“Es el caso de los asistentes conversacionales chatbots, los cuales interactúan con personas en situaciones como plataformas conversacionales como un e-commerce, por ejemplo”, detallo el experto de Dahua.

Sistemas IA de riesgo mínimo

En esta categoría – por fortuna- la Comisión considera que están la gran mayoría de los sistemas de Inteligencia Artificial vigentes. La regulación, entre otras cosas, permite el libre uso de aplicaciones de sistemas inteligentes en videojuegos con IA.

“También los sistemas utilizados para filtro de spams o en sistemas automatizados de publicidad que no ponen ninguna obligación relevante entran en esta categoría” indica Coletti.

Periodista apasionada por la innovación, la tecnología y la creatividad. Editora de The Standard CIO y Factory Pyme para The HAP GROUP