Mientras los procesos de automatización se aceleran, MLOps junto con la ciencia de datos se convierte en la primera fuente de nuevos roles laborales.
Robert Calva de Red Hat asegura que el código abierto pronto logrará tan proceso de democratización de la IA que estaremos en un nuevo paradigma tecnológico.
Probablemente, la mayor fuente de resistencia a los avances de la llamada Era de la Inteligencia Artificial es el temor a la pérdida de empleos.
Se estima que la misma puede ser masiva y de proporciones casi apocalípticas. No obstante, probablemente la Inteligencia Artificial (IA) no supera a la creación de otras tecnologías revolucionarias como la imprenta, el automóvil, las máquinas (a vapor y eléctricas) o las computadoras.
Los ejemplos anteriores tienen todos un elemento en común: sí, muchos empleos desaparecieron con ellos. Pero los mismos fueron sustituidos por algunos equivalentes, asociados con la nueva tecnología.
Es lo que, personalmente, denominamos Efecto GM o General Motors. ¿Por qué? Porque es el caso de una empresa líder en el negocio de carruaje que entendió que estaba en vías de extinción.
“La data estructurada o no estructurada nos va a llevar a poder explotarla con IA. De alli es donde nacen los nuevos roles. Es donde empieza la evolución”, explicó el Principal Ecosystem Solutions Evangelist, Latin América, Red Hat, Robert Calva.
Así lo señaló el especialista durante su intervención en la sesión dedicada a la Transformación de roles laborales impulsada por la IA. Esta fue la tercera de las VII Jornadas de The Standard CIO, en esta ocasión dedicadas al Futuro del Trabajo: Hacia una transformación digital inclusiva.
Paradigma emergente
Para el especialista de Red Hat, la transformación en curso va más allá de una nueva cultura.
Calva destacó diversos aspectos sobre cómo las tecnologías emergentes están moldeando la dinámica laboral y organizativa de empresas en América Latina.
En principio, la adopción de metodologías ágiles como el DevOps y su evolución hacia el SRE (Site Reliability Engineering) permite reducir tiempos de desarrollo y mejorar la resiliencia operativa.
El especialista de Red Hat destaca que, por ejemplo, el concepto de microservicios basado en contenedores resalta la necesidad de flexibilidad y modularidad en aplicaciones empresariales.
Todo este proceso ha llevado a la integración de las áreas de desarrollo y operativas, inicialmente, para luego extender este concepto transversal ente en las empresas, apalancado en el uso o de herramientas con IA.
“Como consecuencia, el iimpacto de la inteligencia artificial ha generado roles especializados como MLOps Engineer. Es decir, quienes gestionan la integración de modelos de IA en aplicaciones”, detalló Robert Calva, Principal Ecosystem Solutions Evangelist, Latin America, Red Hat.