Para la incorporación como la masificación de una IA responsable y colaborativa será preciso una regulación efectiva.
Dicha normativa estaría enfocada en el uso de datos para el entrenamiento de modelos particulares de las organizaciones.
Por: Rodrigo Acevedo | Gerente general Entersoft
Mientras más se avanza en la incorporación de la Inteligencia Artificial (IA) en diversos ámbitos, surge una temática tremendamente relevante en torno a la utilización de los datos para el entrenamiento de estos modelos.
Ya somos testigos de casos como el de la demanda que interpuso The New York Times y Daily News a Open AI, alegando la utilización de su contenido protegido por derechos de autor para el entrenamiento de ChatGPT.
Ante incidentes como este, cabe preguntarse hasta dónde es posible proteger la data, qué tipo de información está siendo usada para aplicaciones de IA y de qué fuentes proviene, entre muchas otras interrogantes fundamentales.
Sin duda, tanto para la incorporación como para la masificación de una IA responsable y colaborativa será preciso una regulación efectiva. Esta estaría referida a la utilización de datos para el entrenamiento de modelos de Inteligencia Artificial (IA).
Esto, en especial, si se considera la alta complejidad y la diversidad de ecosistemas en los que opera esta tecnologia.
¿Algoritmos ciegos?
Asimismo, la implementación de la Inteligencia Artificial exige principios éticos sólidos, con la finalidad de que su uso sea responsable y apegado a la normativa.
Una manipulación desacertada de los algoritmos que alimentan un aplicativo de IA puede perpetuar, en forma negativa, sesgos de:
- Género
- Edad
- Discapacidad
- Nacionalidad
- Religión
- Orientación sexual u otros tópicos
Además de lo anterior, los usuarios deben ser informados de manera transparente respecto de que están frente a un contenido, dispositivo o aplicativo de IA, ya que la dificultad de distinguir entre creaciones humanas y algoritmos es un desafío diario in crescendo.
Lo cierto es que las preocupaciones éticas y legales en torno a la IA no hacen más que aumentar.
Ciertamente, la normativa europea, así como los proyectos locales de regulación son avances importantes.
No obstante, falta concientización y una discusión mucho más seria de esta problemática. Aún queda mucho que aprender y pulir en esta revolución que ha venido a iniciar la IA.
Con todo, existe acuerdo de que, al momento de decidir por la ética en la IA, las compañías deben promover la colaboración multidisciplinaria, la capacitación permanente, establecer claros mecanismos de supervisión, proteger la privacidad del usuario y la de los datos sensibles.
Aunque, probablemente, lo más relevante es fomentar la transparencia en los procesos de IA responsable para permitir y facilitar su control, manteniendo la confianza de quién la utiliza.