Isaac Asimov es un nombre bien conocido entre los amantes de la tecnología, la robótica, la ficción y el futuro. Nacido en 1920, sus escritos plantearon más que distopías y ficciones. En realidad, se caracterizaban por sus bases científicas que le ganaron el título de uno de los maestros de la ciencia ficción. También por sus predicciones fue llamado visionario. Entre sus muchos hitos destaca por haber formulado las tres leyes de la robótica, uno de los enunciados más conocidos en la ciencia y en la ficción.

¿Por qué conocer las tres leyes de la robótica? Porque, durante muchos años, han sido un punto de referencia para hablar de la creación de seres inteligentes que puedan convivir con humanos. También porque han sido objeto de debate cuando se refiere a la robótica y a la inteligencia artificial del futuro. Te contamos qué plantean.

RecomendadoAmistad entre robots y humanos | ¿Es posible tener amigos artificiales?

Tabla de contenidos

Historia de las tres leyes de la robótica

En 1942, Isaac Asimov publicó el relato «Círculo vicioso». El cuento plantea un robot que sigue las tres leyes de la robótica estrictamente. No obstante, se genera un problema de vida o muerte que debe solucionarse con creatividad humana. La idea de plantear las leyes era el evitar una posible rebelión de los robots. De esta forma, estas leyes asegurarían nuestras interacciones con las máquinas.

La idea surge para contraponerse al efecto Frankenstein. Es decir, para evitar lo que Mary Shelly esbozó: una creación que se vuelve contra su creador. Asimov formula las leyes para invalidad esta posibilidad. En el universo de Asimov, las tres leyes de la robótica son «formulaciones matemáticas impresas en los senderos positrónicos del cerebro» de los robots. Así, si el robot llegara a vulnerar cualquiera de estas, su cerebro quedaría dañado y moriría. Las leyes surgen como medida de protección para los seres humanos.

Sin embargo, estas tres leyes de la robótica no solo aparecen en dicho relato. Por el contrario, Asimov publicó numerosas historias donde se abordan. En sus relatos posteriores también planteó situaciones complejas y dudosas que pondrían a estas leyes en conflicto. Esas situaciones se plantean en las colecciones Yo robot y Robots y Aliens.

En sus obras el autor se esforzó por buscar situaciones contradictorias que generaran conflictos a la hora de aplicar una ley u otra. Muchas veces, la complejidad en el relato surge en que el robot pueda identificar las situaciones que abarcan las tres leyes. Es decir, determinar si una persona corre peligro y cuál es la fuente del daño y su solución.

RecomendadoAplicaciones de la robótica | Usos actuales y futuros

¿Cuáles son las tres leyes de la robótica?

Primera ley

Un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño.

La primera ley de la robótica no solo habla de no hacer daño; también dice que los robots deben evitar que los humanos sufran daños. Es específico al decir de que la inacción, la no acción, también forma parte de la responsabilidad del robot. Esta ley se constituye como una protección básica del ser humano. La integridad de los humanos se antepone a cualquier cosa, incluso a la suya.

Quizás te interese: Cobot o robot colaborativo | ¿Qué es? ¿Será el nuevo coworker?

Segunda ley

Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entrasen en conflicto con la primera ley.

La segunda ley de la robótica de Isaac Asimov establece que el robot debe siempre obedecer las órdenes de los humanos. Si una persona quiere tomar el mando, lo debe poder hacer. No importa si es un coche autónomo, un dron o un robot humanoide, deberá obedecer al ser humano siempre. No obstante, esto tiene una objeción: no deberá obedecer en caso de que la orden entre en conflicto con la primera ley.

Tercera ley

mano-de-mujer-y-robot

Un robot debe proteger su propia existencia en la medida en que ello no entre en conflicto con la Primera o la Segunda ley.

La tercera ley de la robótica establece que el sistema debe hacer todo lo posible para no sufrir daños y mantenerse en funcionamiento. Eso sí, su integridad no está por encima de lo estipulado por las leyes anteriores. Es decir, es una rendición absoluta hacia los humanos. El robot debe protegerse, pero en caso de recibir la orden de autodestruirse, están obligados a cumplirla.

Ley cero de la robótica

Un robot no hará daño a la Humanidad o, por inacción, permitirá que la Humanidad sufra daño.

La ley cero se publicó en la novela de 1985 Robots e imperio. La ley se formula teniendo en cuenta las diferentes complejidades de la realidad. Está pensada para regir sobre las otras tres leyes de la robótica y solventar posibles conflictos. Se convierte en un salto cualitativo de la primera ley, implicando que la vida de los seres humanos en general puede llegar a ponerse por encima de la de una persona en particular.

Sin embargo, esta ley tampoco está exenta de conflicto, y Asimov aborda en su obra las dificultades para determinar qué es la humanidad y lo que podría ser lo más favorable para ella.

Te podría interesar: Aplicaciones de la inteligencia artificial | ¿Cuáles son y serán sus usos?

Palabras finales

Las leyes de la robótica de Isaac Asimov han sido debatidas, aceptadas y controvertidas en diferentes espacios desde su formulación. No obstante, con el avance de la robótica y la inteligencia artificial, muchos afirman que las leyes propuestas por Asimov serían un completo fracaso. Esto no se debe a un defecto o ignorancia de Asimov, sino al momento en que fueron formuladas.

Las leyes de la robótica se propusieron para controlar la tecnología, en un contexto donde la inteligencia artificial no era más que ficción. Buscaba predeterminar los actos de los robots por medio de una exhaustiva programación. Pero la inteligencia artificial, el aprendizaje automático y el aprendizaje profundo hoy nos marcan otro tipo de tecnologías y programaciones. Las complejidades aumentan y las reglas cambian. ¿Cómo solventar esta situación? Cuéntanos tus opiniones en los comentarios.

Lecturas recomendadas: