Nos encontramos en la era del total aprendizaje, donde machine learning y C se entremezclan y permiten transformar datos en métodos numéricos o incluso, usar redes neuronales con varios niveles.
Por: Víctor Gómez Adán, Confundador de QA Global Services
En estos últimos años, no hacemos más que escuchar noticias sobre inteligencia artificial. Los grandes precursores fueron Google, IBM, Apple o Amazon y después, muchas más, siguieron la estela y empezaron a implantarla.
La primera referencia sobre IA, viene de los años 50, cuando, McCarthy explicó el concepto en el sentido de realización de tareas propias de humanos, de manera inteligente. El resultado era que la tecnología estaba limitando y solo podíamos soñar con que esta inteligencia realizase tareas entrenadas y predefinidas anteriormente.
Actualmente, existe un cambio radical proporcionado por el machine learning y la potencia de los procesadores, que posibilitan que los algoritmos de la IA sean lo suficientemente rápidos y complejos para que sea adecuada su implementación.
Empresas como Google, han puesto encima de la mesa, APIs que se pueden utilizar libremente y tienen un potencial enorme.
Hoy, podemos decir que nos encontramos en la era del total aprendizaje, donde machine learning y deep learning se entremezclan y permiten transformar datos en métodos numéricos o incluso, usar redes neuronales con varios niveles, donde los cálculos numéricos se llevan a cabo con hardware especializado y con una potencia envidiable.
En esta época del cambio rápido y de la agilidad, tenemos que tener claro que el fin no es conseguir datos de manera desproporcionada, si no, que es conseguir datos de calidad. El uso del big data en inteligencia artificial, tiene que cumplir la regla de las cinco R (en ingles: Relevancia, Frescura, Rango, Robustez y Confiabilidad. Dentro de esta norma de las cinco R, podríamos decir, que la relevancia es la más importante, ya que sin datos relevantes, el resto no vale de nada.
Aprendizaje total
En este punto, es donde confluyen Big Data e IA, en el momento del aprendizaje. La inteligencia artificial es una herramienta que nos va a favorecer el tratamiento de los datos y que hace que entren en juego los tan demandados nuevos perfiles profesionales, encargado de diseñar, dirigir y predefinir a los sistemas de IA.
Uno de los grandes perfiles, es el científico de datos, que se encarga de limpiar datos para poder utilizarlos en diferentes modelos predictivos. De esta manera, podemos beneficiarnos y sacar el mayor provecho de ellos. Lo malo es que estos perfiles son realmente difíciles de encontrar y el nivel de especialización no es excesivamente alto, ya que llevan en el mercado laboral, poco tiempo.
Además, aunque los avances cada vez son mayores, hay una gran demanda humana de cara a que las empresas consigan realizar un uso rentable y óptimo de los proyectos que quieren realizar con esta tecnología.
Los perfiles dedicados a este tipo de labores, deben de facilitara las empresas toda la información de valor que puedan hacer que se tomen decisiones adecuadas y acertadas.
Desde hoy, hasta finales de 2020, se prevé la creación casi 250.000 de puestos de trabajo y que actualmente, en Europa, se necesitan unos 800.000 trabajadores.
Esta creciente demanda no cubierta, se debe a que no se estaban implantando suficientes ámbitos de estudio, ya que la tecnología es relativamente nueva. Solo ahora, se comienzan a ver estudios de postgrado y planes de estudio universitario donde aprender y formarse en estas tecnologías.
Los sistemas actuales de IA, dependen del aprendizaje tras su funcionamiento, pero, la verdadera dependencia está en los profesionales que hagan de esta tecnología algo fundamental y útil para las organizaciones a nivel mundial.
1 comentario