Estamos viviendo un momento donde la inteligencia artificial (IA) está en su punto máximo y algunos aseguran que en los próximos años serán mucho más eficientes y, en cierta medida, tendrán una capacidad similar a la humana para crear texto, imágenes, guiones y más. Sin embargo, también es cierto que la IA genera algunos peligros que tiene en alerta a los expertos.

El caso más reciente ha sido el de Geoffrey Hinton, el padrino de la IA, como se le conoce, quien ha dejado Google. Pero esta no es una historia más de un ejecutivo abandonando su puesto laboral, sino que su partida ha generado una preocupación importante sobre los riesgos que esta tecnología representa. Por eso, en este artículo, profundizaremos sobre las preocupaciones de Hinton y lo que esto significa para el futuro de la IA. ¡Sigue leyendo!

¿Quién es Geoffrey Hinton?

Inteligencia artificial | Padrino de la IA

Hinton es un británico nacido el 6 de diciembre de 1947 que es apodado como el padrino de la IA debido a que ha contribuido en gran medida a su desarrollo. De hecho, dedicó su carrera a investigar la red neuronal, un sistema matemático y computacional que aprende habilidades mediante el análisis de datos.

Asimismo, ayudó a crear el deep learning, una técnica especial que permite a las inteligencias artificiales aprender de su propia experiencia. Esta investigación, hizo que Hinton fuese galardonado con el Premio Turing en 2018 junto con Yoshua Bengio y Yann LeCun por su trabajo en aprendizaje profundo.

En la Universidad de Cambridge, le fue otorgado un PhD en inteligencia artificial en 1977 por su investigación supervisada por Christopher Longuet-Higgin. También fue uno de los primeros investigadores que demostró el uso del algoritmo de backpropagation generalizado para entrenar redes neuronales multi-capa. Trabajó en distintas empresas tecnológicas, siendo Google una de las principales.

Los peligros de la IA, según Hinton

Peligros de la IA

Hinton, de 75 años, recientemente comunicó al mundo su renuncia a Google y, en una entrevista para el New York Times, reconoció que la inteligencia artificial tiene algunos peligros que deben ser atendidos. En ese sentido, señala que en el futuro ya no se sabrá qué es verdad. Internet estará lleno de información cuya veracidad será extremadamente difícil de determinar.

Sin embargo, sostiene que Google ha sido muy responsable en ese sentido. Y que, al menos hasta el año pasado, actuó como un «buen administrador».

Por otro lado, Hinton sostiene que llegará el momento donde la IA sea mucho más inteligente que los humanos:

Mira cómo era hace cinco años y cómo es ahora. Toma la diferencia y proyéctala hacia adelante. Es atemorizante.

Además, añadió:

En este momento, (los sistemas de IA) no son más inteligentes que nosotros, por lo que puedo decir. Pero creo que pronto lo serán (…) Y dada la tasa de progreso, esperamos que las cosas mejoren bastante rápido. Así que debemos preocuparnos por eso.

Por eso, recomienda a los investigadores que ralenticen la evolución de la IA, al menos, hasta estar seguros de que no se saldrá de control:

No creo que deban ampliar esto más hasta que hayan entendido si pueden controlarlo.

Otra de las grandes preocupaciones de Hinton son los robots asesinos. Él teme que se desarrollen armas verdaderamente autónomas, que pongan en verdadero peligro a la humanidad. Al respecto, explica que los sistemas de inteligencia artificial:

A menudo aprenden un comportamiento inesperado de la gran cantidad de datos que analizan (…) Las personas y las empresas permiten a los sistemas de IA no solo generar su propio código, sino también ejecutar ese código por su cuenta.

Finalmente, Hinton explicó que espera que los científicos del mundo ideen formas de tener en control a esta tecnología, sobre todo en un contexto donde empresas como Google y Microsoft están en una competencia de alcance global por ver quién presenta la IA más potente.

Te dejamos con una lista de lecturas adicionales que podrían interesarte: