Los investigadores están trabajando en una nueva versión de un algoritmo que alimente mejores procesos de búsqueda. También se utilizarían en vehículos autónomos, Smartphone más inteligentes y en la Internet de las cosas.
Algoritmos de aprendizaje profundo, que se basan en simulaciones de procesos cerebrales específicos, se han utilizado para avanzar en tecnologías como el reconocimiento de voz, procesamiento del lenguaje natural y la autonomía robótica .
Ahora, los investigadores están trabajando en una próxima generación de estos algoritmos, que se utilizan en gran medida en el aprendizaje automático y la inteligencia artificial y puede convertirse en el fundamento de avances tecnológicos críticos.
Dan Olds, analista de The Gabriel Consulting Group, dijo que si en esta generación veremos “profundos” cambios tecnológicos, como autos que circulan por nosotros, dejándonos hacer la siesta o leer, y vehículos que sí puedan despegar y volar de forma autónoma hacia nuestros destinos, entonces necesitaremos de mejores algoritmos y de un profundo aprendizaje.
“Estos coches autónomos confían en ser capaces de “ver” los obstáculos en el camino y maniobrar alrededor de ellos. Cuanto mejor puedan diferenciar entre, por ejemplo, una señal, poste, o un paso peatonal, mejores serán en cuanto a su capacidad de detectar peligros potenciales,” dijo Olds.
“Y no es sólo por el futuro de nuestra vida digital, sino también nuestra vida física. ¿Y si pudiéramos confiar en los sistemas para manejar la tarea de volar o enviar mercancías en todo el país, o por el mundo? ¿Qué pasa si podemos sentarnos en la parte posterior del auto y dormir cuando conduzcamos al trabajo?”
Básicamente, y a pesar de que la mayoría de la gente no ha oído hablar de algoritmos de aprendizaje profundo, es lo mejor que podrán oír en el futuro, y esto incluye hogares más inteligentes, y robots que cuidan a los ancianos y caminan nuestros perros.
“Este tipo de investigación es importante, ya que podría dar mejores maneras de vadear a través de la expansión infinita de datos impulsados por la Internet de las cosas y de la movilidad”, dijo Patrick Moorhead, analista de Moor Conocimiento y Estrategia.
“El aprendizaje profundo es una parte fundamental del futuro del mundo digital, a pesar de que la mayoría de la gente no sabe nada al respecto”.
Andrew Ng es profesor asociado de Ciencias de la Computación en la Universidad de Stanford y científico jefe de Baidu Inc., una compañía de servicios web chino, y desarrolladora de un motor de búsqueda en ese idioma.
Trabajando con científicos de Stanford y Baidu, Ng está enfocado en la construcción de la próxima generación de algoritmos de aprendizaje profundos. Él habló en la conferencia EmTech del MIT Technology Review en Cambridge, acerca de la aplicación de tecnologías de aguas profundas de aprendizaje para buscar tecnologías futuras.
Él tiene la experiencia para hacerlo. Durante un año y medio, Ng trabajó en Google; fue fundador y cerebro del proyecto “conocimiento profundo” de la compañía.
Google, junto con empresas como Microsoft, Facebook y Baidu, están trabajando para desarrollar mejores algoritmos de aprendizaje profundo.
La belleza de estos algoritmos, dijo Ng en una entrevista, es que cuando usted alimenta cantidades crecientes de datos en algoritmos tradicionales, empiezan a tartamudear, se ponen lentos y eventualmente se aplanan. Ese no es el caso con los algoritmos de aprendizaje profundo. Cuantos más datos les das de comer, mejor funcionan.
El cerebro humano funciona tan bien, ya que está repleto de un gran número de neuronas que se comunican a través de impulsos eléctricos. Los algoritmos, imitan el cerebro con un aprendizaje profundo, y están basados en redes neuronales simuladas.
“A medida que construimos simulaciones cada vez más grandes del cerebro, estos modelos son eficientes en la absorción de grandes cantidades de datos”, explicó Ng. “Estos son los algoritmos de aprendizaje de muy alta capacidad.”
Se está avanzando rápidamente
Hace unos cuatro años, la red neuronal más grande, o un conjunto de algoritmos de aprendizaje profundos, tenían cerca de 10 millones de conexiones.
Ng señaló que a principios de 2011, cuando comenzó el proyecto Cerebro Google, ese modelo había saltado a 1 mil millones de conexiones. El año pasado, trabajó con un equipo en Stanford para construir un modelo con unos 10 mil millones de conexiones.
Parte del trabajo de Ng es avanzar en el algoritmo, pero él y sus compañeros de equipo también están trabajando sobre el uso de las GPU, o Unidades de Procesamiento de Gráficos, en lugar de las CPUs más tradicionales, o Unidades Centrales de Procesamiento.
Los chips, diseñados para el manejo de gráficos por ordenador, han resultado ser mucho mejor para la construcción de grandes redes neuronales porque son mejores en el manejo de este tipo de cálculos.
“Estamos construyendo una nueva plataforma de aprendizaje profundo con el hardware de la GPU para ayudarnos a escalar mejor”, dijo Ng. “Mis colaboradores y yo somos los primeros en hacer esto a gran escala. Otras empresas están empezando a seguir, pero hasta donde yo sé, Baidu fue la primera compañía en crear un clúster de GPU a gran escala para el aprendizaje profundo.”
Hacer estos algoritmos aún más alta capacidad debe significar grandes avances en el reconocimiento de voz y de búsqueda visual. Eso va a ser fundamental, de acuerdo con Ng.