Si Skynet y los terribles terminators crearon una cultura pop que mira con recelo cada avance de la inteligencia artificial, lamentablemente, no podremos encontrar en la ciencia voces absolutamente tranquilizadoras al respecto. De hecho, recientemente científicos del Instituto Max Planck en Europa realizaron unas preocupantes declaraciones: con nuestra tecnología actual, la humanidad no tiene oportunidad de controlar una inteligencia artificial superinteligente.
Los científicos llegaron a esta conclusión por medio de cálculos teóricos. El objetivo era explorar la capacidad de reacción de la humanidad ante un escenario en el que la IA se vuelva en su contra. Los resultados de este análisis se publicaron en un artículo de Journal of Artificial Research.
Los científicos cuestionaron si serían capaces de controlar una IA superinteligente; además, se preguntaron si era posible asegurarse de que no fuera una amenaza para la humanidad. El equipo del Centro para Humanos y Máquinas del Instituto Max Planck probó que sería fundamentalmente imposible controlarla. El estudio establece:
Sostenemos que la contención total es, en principio, imposible, debido a los límites fundamentales inherentes a la computación en sí. Suponiendo que una superinteligencia contendrá un programa que incluye todos los programas que pueden ser ejecutados por una máquina universal de Turing en una entrada potencialmente tan compleja como el estado del mundo, la contención estricta requiere simulaciones de dicho programa, algo teórica (y prácticamente) imposible.
La amenaza de una IA dañina
¿Cómo detendríamos a una inteligencia artificial superinteligente que decidiera eliminar a la humanidad? No podríamos. Solo podríamos esperar y ser eliminados por la tecnología. Y este no es un escenario imposible que podría ocurrir en algunos cientos de años. En realidad, es un escenario que podría estar a la vuelta de la esquina.
Los investigadores concluyeron que la posibilidad de que la IA pueda realizar decisiones que impacten a la humanidad está más cerca de lo que se cree. El hecho de que las máquinas realicen tareas de forma independiente es solo una muestra de ello. El coautor del estudio, Manuel Cebrian, concluyó:
Una máquina superinteligente que controla el mundo suena a ciencia ficción. Sin embargo, ya hay máquinas que realizan ciertas tareas importantes de forma independiente sin que los programadores comprendan completamente cómo las aprendieron. Por lo tanto, surge la pregunta de si esto podría en algún momento volverse incontrolable y peligroso para la humanidad.
Lectura recomendada: Peligros de la Inteligencia Artificial | ¿El fin de la Humanidad?
Algunas soluciones propuestas
Para enfrentar esta amenaza los científicos proponen dos ideas distintas. La primera es limitar las capacidades de la inteligencia artificial. Para ello, se podría aislarla de internet y otros dispositivos que permitan que no tenga contacto con el mundo exterior. No obstante, esta propuesta significaría que la inteligencia artificial sería menos capaz y tendría menos habilidad de responder a las peticiones de los humanos.
Por el otro lado, se habla de que se pueda programar a la IA con objetivos que sean del mejor interés de la humanidad. Por ejemplo, se podrían programar principios éticos. No obstante, estas y otras ideas de control tienen sus límites.
Relacionado: Aplicaciones de la inteligencia artificial | ¿Cuáles son y serán sus usos?
En el estudio, el equipo consideró un algoritmo de contención teórico. Este tendría el objetivo de asegurarse de que la inteligencia artificial no pueda dañar a las personas bajo ninguna circunstancia. Sin embargo, un análisis cuidadoso demostró que en nuestro paradigma actual de la informática tal algoritmo no se puede construir.
«Si descompone el problema en reglas básicas de la informática teórica, resulta que un algoritmo que ordenaría a una IA que no destruyera el mundo podría detener inadvertidamente sus propias operaciones. Si esto sucediera, no sabría si el algoritmo de contención todavía está analizando la amenaza o si se ha detenido para contener la IA dañina. En efecto, esto inutiliza el algoritmo de contención», manifestó Iyad Rahwan, director del Centro para Humanos y Máquinas.
Te puede interesar: Las tres leyes de la robótica de Isaac Asimov | Guías para la convivencia humano-máquina
Todo esto implica que el problema de contención de una IA superinteligente hasta la fecha sigue sin tener solución. Ningún algoritmo puede determinar si la IA eventualmente destruirá a la humanidad. Incluso la llegada de esta inteligencia artificial superinteligente podría pasar desapercibida para muchos. No hay un método claro que nos indique si las máquinas exhiben una inteligencia superior a los humanos.
Si te ha gustado este artículo, te recomendamos:
- Amistad entre robots y humanos | ¿Es posible tener amigos artificiales?
- Inteligencia artificial emocional | ¿Máquinas con emociones artificiales?
- ¿Relaciones empáticas entre IA y humanos? | Un cuerpo robótico es lo que se necesita
- DeepMind crea inteligencia artificial que podría ser similar a la inteligencia humana