La inteligencia artificial es una de las tecnologías con avances más sorprendentes. En pocos años, la IA ha logrado impactar múltiples campos e industrias, rompiendo con sus parámetros tradicionales e incluyendo nuevas maneras de integrar soluciones más pertinentes a los diferentes procesos que la conforman. Sin embargo, la aceleración de esta tecnología ha incrementado los miedos sobre los posibles riesgos que conlleva, los cuales, se cree, podrían ser mayores que sus beneficios. En razón de esto, empresas del sector y autoridades en el campo reclaman un mayor control de la IA superinteligente, incluyendo todos aquellos procesos y herramientas que hacen parte de ella, con el fin de identificar los peligros más latentes y minimizar los riesgos.

Frente a esto, OpenAI ha anunciado la creación de un equipo dedicado a controlar los sistemas de IA que podrían superar al ser humano; en este artículo de Futuro Eléctrico hablaremos sobre ello.

Tabla de contenidos

Riesgos de la inteligencia artificial: ¿cuáles son las principales preocupaciones de los expertos?

Según lo afirma el Centro de Seguridad de la IA (CAIS) ─respaldada por miembros de la industria, como Sam Altman (OpenAI)─, la inteligencia artificial supone riesgos fundamentales y tan grandes que podrían precipitarnos hacia la misma destrucción de la humanidad. Y aunque las declaraciones pueden sonar un tanto exageradas, las preocupaciones ante las amenazas de esta tecnología y el control de la IA superinteligente se mantienen en la agenda del día, dando lugar a aparición de grupos como el que es protagonista de este artículo.

Entre los principales riesgos potenciales que preocupan a los expertos vale mencionar: en primer lugar, el control del poder por parte de la IA General, una inteligencia que puede ser tan o más inteligente que los humanos y que podría conllevar a problemas graves como la competencia militar entre naciones; en segundo lugar, el desempleo masivo, ya que puede poner en riesgo muchos puestos de trabajo y, en tercer lugar, el sesgo sistemático que conforma los procesos de inteligencia artificial, los cuales pueden tener un impacto negativo en las decisiones sociales.

Los riesgos anteriores acrecientan la preocupación hacia los más recientes avances en el campo, como los modelos grandes de lenguaje natural o los procesos de inteligencia artificial generativa o creativa. Dicha preocupación ha llevado a que incluso las empresas desarrolladoras asuman la posición de argumentar que estas herramientas plantean riesgos grave y deberían regularse; de ello hablaremos en el siguiente apartado.

El control de la IA superinteligente y la propuesta de OpenAI para minimizar los riesgos

control de la IA superinteligente

Ahora bien, tal y como lo mencionamos anteriormente, Sam Altam ─CEO y cofundador de OpenAI─ ha mencionado las preocupaciones que tiene frente a la falta de regulación de la inteligencia artificial y los riesgos de las IA como ChatGPT o Bard. La explicación de la firma es muy clara al respecto:

La superinteligencia será la tecnología más impactante que la humanidad haya inventado y podría ayudarnos a resolver muchos de los problemas más importantes del mundo. Pero el vasto poder de la superinteligencia también podría ser muy peligroso y podría llevar a la pérdida de poder de la humanidad o incluso a la extinción humana […] La gestión de estos riesgos requerirá, entre otras cosas, nuevas instituciones para la gobernanza y la solución del problema de la alineación de la superinteligencia.

Y aunque la búsqueda por respuestas es una necesidad colectiva, la empresa ha decidido adelantarse a encontrar una solución más eficiente a esta problemática, a través de la creación de un equipo dedicado al lineamiento y control de la IA superinteligente, es decir, aquella que pueda superar la inteligencia humana.

La noticia sale a la luz a través del blog corporativo. En la publicación, la empresa afirma que creará el llamado Superaligment; un equipo conformado por investigadores e ingenieros expertos en machine learning, cuyo propósito se concentrará en resolver los principales desafíos técnicos para el control de la IA superinteligente.

Lo anterior con la idea de crear, en un futuro, un investigador de alienación automatizado de nivel humano que tenga capacidades escalables, para así validar los modelos resultantes. Este proyecto buscará entrenar sistemas de inteligencia artificial, partiendo de comentarios humanos, que cumplirán tareas de asistencia en la evaluación humana del avance de la IA.

El equipo de trabajo será liderado por Ilya Sutskever ─científico en jefe y cofundador de la compañía─ y  Jan Leike ─ líder del equipo de alienación─. La nueva área tendrá acceso al 20% de la computación que la empresa ha desarrollado hasta el momento.

Tres puntos clave del control de la IA superinteligente sobre los que OpenAI quiere trabajar

Aunque en el apartado anterior mencionamos los parámetros generales que se quieren abordar con el nuevo equipo de trabajo, el control de la IA superinteligente por parte de OpenAI abordaría tres puntos clave:

En primer lugar, buscan controlar la manera en la que los modelos generalizan la supervisión de tareas de difícil manejo; de esta forma, se aprovecharían los sistemas de IA para ayudar en la evaluación de otros sistemas (escalabilidad). En segundo lugar, se quiere validar la alineación de los sistemas, buscando automáticamente los comportamientos problemáticos de la misma y, por último, el entrenar deliberadamente modelos, para probar que las técnicas de la compañía detectan cualquier tipo de desalineación.

A través de estos tres puntos se buscaría que los nuevos sistemas de IA sean mucho más eficientes y brinden soluciones más confiables no solo para los equipos de expertos, sino también para la sociedad.

Palabras finales

A modo de conclusión, vale resaltar que la creación de este equipo de trabajo por parte de OpenAI no solo refleja las preocupaciones de su cofundador, sino la desconfianza en cualquier autoridad competente en el campo para controlar el avance de los sistemas basados en esta tecnología. Por ahora, solo nos resta esperar los nuevos avances en el control de la IA superinteligente y confiar en que OpenAI sea transparente y estricto en sus resultados.

Y tú, ¿qué opinas al respecto?, ¿crees que esta puede ser una buena solución para la problemática actual?, ¿confías en OpenAI? No dudes en dejarnos saber todas tus opiniones aquí abajito, en la sección de comentarios, ¡estaremos ansiosos por leerte!

Si quieres conocer mucho más sobre IA y su impacto, no dejes de leer estos artículos: