
Stephen Hawking revela su preocupación acerca del desarrollo de una inteligencia artificial superior.
En un artículo publicado por The Independent, y que ha sido retomado ya por diversos medios, el astrofísico Stephen Hawking revela su preocupación acerca del desarrollo de una inteligencia artificial superior; pues cree que actualmente no se le está prestando atención a las posibles implicaciones que eso tendría.
Para él, el principal problema que se tendría con este tipo de investigación, es que llegaría un punto donde el modelo “mecánico” sobrepasaría al humano, volviéndose este último un sirviente del primero.
Lo que plantea es un escenario donde un sistema de inteligencia artificial, se vuelve autosuficiente llegando a controlar las decisiones políticas, sociales, mercantiles y humanitarias del mundo.
Un fragmento del mencionado texto, dice:
“Viendo al futuro, no hay límites fundamentales para lo que puede lograrse. No hay ley física que impida que las partículas se organicen para realizar cálculos más avanzados que los que puede hacer el cerebro humano. Una transición es posible, a pesar de que podría desarrollarse de manera diferente de la película. Como Irving Good se dio cuenta en 1965, las máquinas con inteligencia sobrehumana podría mejorar en varias ocasiones su diseño.
“Uno puede imaginar tal tecnología siendo más inteligente que los mercados financieros, superando a los investigadores humanos, manipulando a los líderes, y desarrollando armas que ni siquiera podemos entender. El impacto a corto plazo de la IA depende de quién la controla, el impacto a largo plazo depende de si se puede controlar en absoluto”.
A pesar de todo, Hawking no se muestra en contra de tales investigaciones, pero sugiere que se deberían de tomar en cuenta todas las variables.