La Inteligencia Artificial Generativa ha puesto de relive la necesidad de una gestión de IA Responsable en las empresas.
La nueva tecnología promete impulsar el mercado global de software y la infraestructura de centros de datos. Pero su implementación requiere una política responsable y ética.
Por: Luis Gonçalves | Presidente de Dell Technologies América Latina
La Inteligencia Artificial (IA) es una de las tecnologías más disruptivas y prometedoras en el mundo empresarial actual.
En particular, se proyecta que la Inteligencia Artificial Generativa (Generative AI, o GenAI como se viene popularizando en inglés), contribuirá significativamente al crecimiento del mercado global de software empresarial. Igualmente, será importante en la infraestructura de centros de datos GenAI.
Goldman Sachs ha proyectado que los desarrollaos sobre GenIA contribuirán con US$150.000 millones al mercado global de software empresarial, estimado en unos US$685.000 millones.
Asimismo, las inversiones en infraestructura y servicios de centros de datos GenAI, alcanzarán los US$ 76.000 millones para 2028, según los analistas de Tirias Research.
En este contexto de oportunidades emergentes, es esencial que las empresas de América Latina aborden el desarrollo de una política de IA de manera responsable y ética.
Es por ello que las empresas latinoamericanas deben considerar cuidadosamente la transparencia, equidad y seguridad al desarrollar políticas de IA Generativa para aprovechar las oportunidades emergentes en el campo tecnológico.
Consideraciones ante una política de GenAI en la empresa
La primera consideración al crear una política de IA en una empresa es reconocer que la IA no es un dominio tecnológico independiente.
Por el contrario, está intrínsecamente conectada con áreas cruciales como la privacidad, los datos, la nube y la seguridad.
De allí que es fundamental que cualquier política de IA tenga en cuenta sus dependencias e impactos en otras áreas del negocio.
La política de IA debe estar alineada con otras políticas corporativas y nunca debe crearse en el vacío.
En este sentido, es crucial que los líderes de TI estén al tanto de lo que ocurre en la industria y en los esfuerzos de políticas gubernamentales y empresariales en discusión.
De esta manera se puede garantizar que las implementaciones de la IA sean tan pertinentes como adaptadas a las últimas tendencias y desarrollos tecnológicos.
La IA es un campo en constante evolución, por lo que la colaboración con expertos y compañías líderes en ese ámbito es esencial para mantenerse al día con las mejores prácticas y enfoques actualizados.
Una de las claves para desarrollar una política de IA responsable es la transparencia.
La confianza del usuario es fundamental en el éxito en uso y desarrollo de aplicaciones basadas en las tecnologías de IA.
Esos primeros pasos con la IA Responsable
Para construir una política y gobernanza confiable en Inteligencia Artificial – en principio – y en IA Generativa – en la actualidad – es necesario implementar medidas que aumenten la transparencia de las soluciones de IA.
Entre estas medidas se encuentran el uso de marcas de agua u otros indicadores identificativos para mostrar claramente el contenido generado por IA.
También la creación de un “listado de materiales de IA” que describa de manera transparente los modelos, datos y componentes tecnológicos utilizados en este tipo de sistemas.
Además, promover la colaboración en ecosistemas abiertos es esencial para evitar resultados no deseados, así como para asegurar una mayor supervisión y control.
Por otra parte, cuando incluimos a la academia en los esfuerzos de IA privados se pueden establecer controles y equilibrios adicionales para garantizar la tanto la equidad como evitar sesgos injustos.
Es importante destacar que el trabajo de IA debe realizarse de manera segura y responsable, especialmente cuando los sistemas de IA interactúan con el mundo físico.
La inclusión de mecanismos de seguridad para evitar comportamientos inesperados y garantizar la protección de los usuarios es un paso fundamental en la política de IA.
Experiencia en primera persona
En el caso de Dell Technologies, nuestro enfoque en IA es tanto de innovación como de excelencia empresarial.
Nos esforzamos por mantener los más altos estándares de protección de datos, regulaciones y propiedad intelectual en el contexto de casos de uso empresarial.
Alentamos a nuestros equipos a aprovechar las herramientas basadas en IA, pero siempre con responsabilidad y comprensión tanto de los límites como de los riesgos asociados.
De allí que estemos convencidos de que el desarrollo de una política de IA en las empresas de América Latina debe ser un proceso colaborativo y ético.
La transparencia, la equidad, la seguridad y la responsabilidad son fundamentales en este enfoque.
También estamos persuadido de que, al adoptar un enfoque responsable hacia la IA, las empresas de la región podrán aprovechar todo el potencial de esta tecnología transformadora mientras se protegen tanto los intereses como los valores de sus usuarios y la sociedad en general.
Como líderes de TI, tenemos la responsabilidad de guiar este proceso y asegurarnos de que la IA trabaje en beneficio del progreso humano.