Desde el lanzamiento de los primeros robots humanoides, los grandes avances en programación, así como el lanzamiento de herramientas tecnológicas como ChatGPT, no dejamos de sorprendernos con las posibilidades que representa la inteligencia artificial. Sin embargo y aunque los beneficios son muchos, las preocupaciones sobre la seguridad de la información siguen latentes y un ejemplo de ello es la creación de gusanos de IA, la nueva cara del peligro digital.
En este artículo de Futuro Eléctrico te contaremos qué son y cuáles son las amenazas que representan en la era digital.
Tabla de contenidos
¿Qué son los gusanos de IA? Una novedosa amenaza
En las últimas semanas se ha informado que un grupo de investigadores (Universidad de Cornell, Instituto de Tecnología de Israel y la empresa de Software Intuit) desarrolló un gusano informático que puede propagarse entre agentes de inteligencia artificial generativa. Este gusano ha sido denominado Morris II y tiene como objetivo el demostrar los riesgos de los entornos autónomos y conectados a este tipo de inteligencia artificial. Pero ¿qué son los gusanos de IA o cómo se caracterizan?
Los gusanos de IA son un tipo de malware que utiliza las tecnologías y técnicas de la inteligencia artificial para realizar acciones maliciosas. En términos generales, estos gusanos actúan muy parecido a los gusanos informáticos tradicionales, ya que aprovechan las vulnerabilidades de los sistemas —en este caso, de los sistemas de IA— para infectar otros agentes en la red; vale destacar que, en ambos casos, se propagan de forma autónoma.
Ahora bien, a diferencia de los gusanos tradicionales, los de la inteligencia artificial utilizan las técnicas de aprendizaje automático para identificar las vulnerabilidades y tomar el control sobre los agentes de IA. Además, al lograr el control, utilizan la plataforma para propagarse mediante las técnicas de comunicación y transferencia de datos de la IA generativa.
El experimento: creación de un Gusano de IA
Como mencionamos en la introducción de este artículo, el camino de los gusanos de IA inicia con la aparición de Morris II. Para ponerlo en funcionamiento, los investigadores parten de la premisa de que cualquier asistente de IA generativa funciona a través de instrucciones de texto y que dichas instrucciones pueden usarse en contra de la misma inteligencia, con el fin de que sobrepase sus límites de seguridad y de que incluso llegue a atentar contra sí misma.
Para poner en práctica lo anterior, el grupo de investigadores redactó un mensaje de correo electrónico con la capacidad de afectar el sistema de IA; esto se hizo a través de la Generación Aumentada por Recuperación, una técnica que permite que los Modelos de Lenguaje Largo consigan datos adicionales de fuentes externas. Esta técnica le permitió a Morris el recuperar información antigua y enviarla a GPT-4 y Gemini. El gusano elimina las limitaciones impuestas a la plataforma y se instala en la base de datos del modelo del lenguaje.
Logrando lo anterior adquiere la capacidad de contener los datos privados de los usuarios e infectar aquellas cuentas que reciben los mensajes.
Aunque por el momento no se ha determinado que existan gusanos de IA circulando libremente, este experimento sí demuestra que la arquitectura de software de los asistentes de la IA generativa no cuentan con los niveles de seguridad necesarios para proteger la privacidad de sus usuarios y la información que estos brindan.
Amenazas y riesgos de los gusanos de IA
En el apartado anterior ahondamos en la manera en la que los gusanos de IA infectan las plataformas de los asistentes de inteligencia artificial. En términos generales, estos malwares utilizan pistas aurorreplicantes que se dirigen contra los modelos GAI —similar al jailbreak— para difundir contenido tóxico. Esto puede darse a partir de un texto o una imagen incrustada. En este último caso se codifica una pista de autocuración en la imagen que hace que los asistentes de IA reenvíen los mensajes infectados a todos los usuarios.
Ahora bien, teniendo lo anterior en mente, vale mencionar que son varios los riesgos que representan y/o incrementan los gusanos de la IA. En primer lugar y como el riesgo más común, estos gusanos tendrían la capacidad de robar datos e información confidencial de los agentes IA que han sido infectados, comprometiendo gravemente la privacidad de los usuarios.
En segundo lugar, al revelar las vulnerabilidades de los agentes de la inteligencia artificial generativa, los gusanos de IA tienen la posibilidad de realizar ataques de pishing, es decir, que pueden engañar a las personas para que compartan voluntariamente información confidencial. Además de que dicha información queda a disposición del malware, también implica un riesgo mayor de que este agente infeccioso se propague rápidamente con ayuda de los spam.
Finalmente, pero no menos importante, el gran riesgo de los gusanos de IA es que estos asuman el control total del agente de inteligencia artificial generativa, lo que necesariamente afecta los procesos de automatización y de toma de decisiones, así como la generación de resultados sesgados.
Cómo protegernos contra los gusanos de IA
Ya tienes claro que son los gusanos de IA y cuáles son los riesgos principales de esta creación, pero ¿cómo protegernos de su impacto?
Aunque por el momento solo se tiene conocimiento del gusano Morris II y este es parte de un experimento controlado para determinar las vulnerabilidades de seguridad de la GIA, no sobra mencionar que la aparición de estos malwares es una de las grandes preocupaciones de la industria y, por tanto, siempre es bueno tener presentes aquellas medidas más efectivas para reducir las posibilidades de ser infectados por estos gusanos.
Entre dichas medidas es necesario resaltar la necesidad de instalar de manera continua los nuevos parches de seguridad, es decir, actualizar constantemente los softwares; gracias a esto, nos aseguramos de que el sistema corrija sus puntos débiles y sea cada vez menos propenso a que agentes maliciosos los encuentren.
Por otro lado, nunca está de más el implementar herramientas de seguridad al navegar por la red, como por ejemplo los firewalls y los sistemas que detectan elementos intrusos. Y finalmente, es fundamental que las empresas que hacen parte de la industria de la IA desarrollen estrategias efectivas que eduquen a sus usuarios y los concienticen sobre la existencia de este tipo de riesgos y las acciones individuales y colectivas que disminuyen la aparición de problemáticas vinculadas a ellos.
Palabras finales
Sí. La aparición de los gusanos de IA va mucho más allá de ser un experimento; es la materialización de una de las amenazas más importantes que debe enfrentar esta tecnología y que supone la necesidad de replantear la manera en cómo se ha avanzado en los sistemas de inteligencia artificial: ahora la prioridad no debe ser la rapidez con la que surgen nuevas herramientas, sino los niveles de seguridad y eficiencia que estos representan para los usuarios, quienes deben ser la preocupación fundamental de la industria.
Y tú, ¿qué opinas sobre los gusanos de IA? ¿habías escuchado sobre ellos? Cuéntanoslo todo en la sección de comentarios, ¡estamos ansiosos por leerte!