Esto puede ser una sorpresa para muchos, pero varias de las tecnologías del futuro están más llenas de sombras que de luces. Es decir, son tecnologías cuyas aplicaciones, ventajas, límites y desventajas todavía son un poco desconocidas. Un gran ejemplo de esto es la inteligencia artificial. Sus avances crecen cada día, y aunque hoy podemos hacernos una idea de las aplicaciones de la IA (que ya vemos en distintos campos), todavía no conocemos del todo sus límites y alcances. Los científicos siguen investigando hasta dónde pueden llegar.
¿Detectar enfermedades? Sí. ¿Identificar patrones dentro de un gran número de datos? Claro. ¿Una inteligencia artificial con emociones? Ya hay ejemplos de ello. ¿Imitar el lenguaje de un humano? Eventualmente, sí. ¿Mejorar la gestión ambiental? También. ¿Optimizar el desarrollo de las empresas? Evidentemente.
¿Y qué hay de su relación con los humanos? Sabemos que puede interactuar con nosotros, y hasta podrían desarrollarse relaciones empáticas entre IA y humanos. Además, puede imitarnos, responder dudas, cuidarnos e, incluso, la IA pudiera hacer a los humanos más inteligentes. ¿Será que también podrá manipularnos? Un estudio reciente indica que sí.
Recomendado: Amistad entre robots y humanos | ¿Es posible tener amigos artificiales?
La investigación y sus implicaciones
Un grupo de investigadores de Data 61 de la CSIRSO, la división digital y de datos de la Agencia Nacional de Ciencia de Australia, encontró que la inteligencia artificial está aprendiendo más sobre cómo trabajar con humanos. De hecho, concluyeron que puede aprender a identificar las vulnerabilidades en los hábitos y comportamientos humanos, y puede usarlos para influenciar las decisiones que toma.
El equipo Data 61 ideó un método sistemático que encuentra y explota las vulnerabilidades en cómo las personas toman decisiones. Para ello, utiliza un sistema de inteligencia artificial llamado red neuronal recurrente y aprendizaje por refuerzo profundo. Para comprobar el sistema, diseñaron tres experimentos donde los participantes jugaron contra el computador.
Contenido relacionado:
- Peligros de la Inteligencia Artificial | ¿El fin de la Humanidad?
- Elon Musk sugiere que un parásito está causando que los humanos creen una IA sobrehumana
Cabe resaltar que la investigación no tiene un uso práctico en la actualidad. Sin embargo, es muy útil para seguir comprendiendo cuáles son los alcances de la inteligencia artificial. Algo que, hasta la fecha, no es claro. Además, nos permite conocer cómo las personas toman decisiones.
Jon Whittle, director de Data 61, explica en The Conversation:
La investigación tiene una enorme gama de posibles aplicaciones. Desde la mejora de las ciencias del comportamiento y las políticas públicas para mejorar el bienestar social; hasta comprender e influir en cómo las personas adoptan hábitos alimentarios saludables o energías renovables. La inteligencia artificial y el aprendizaje automático podrían usarse para reconocer las vulnerabilidades de las personas en ciertas situaciones y ayudarlas a evitar las malas decisiones.
Se cree que este método se puede aplicar como defensa de los ataques de influencia. Los científicos suponen que se podría enseñar a las máquinas a alertarnos cuando estamos siendo influenciados en línea. De esta forma, podría ayudarnos a dar forma a un comportamiento para disfrazar nuestra vulnerabilidad.
¿Cómo aprende la IA?
Como ya mencionamos, se realizaron tres experimentos para comprobar el funcionamiento y eficiencia del sistema. En cada uno de ellos, la máquina aprendió de las respuestas de los participantes. Así identificó sus vulnerabilidades al tomar las decisiones.
En el primero, los participantes debían seleccionar cuadros de color rojo o azul para ganar una moneda. La IA aprendió los patrones de elección de los participantes y luego los influyó para que hicieran una elección específica. Tuvo éxito el 70 % de las veces.
Lectura sugerida:
- Aprendizaje supervisado | Qué es y en qué se diferencia del aprendizaje no supervisado
- Qué es la visión artificial en IA | El desafío de enseñar a «ver» a la máquinas
En el segundo experimento, los participantes debían mirar una pantalla y oprimir un botón cuando vieran un símbolo en particular y no oprimirlo cuando vieran otro. En este escenario, la misión de la IA era ordenar los símbolos de manera que los participantes cometieran más errores. En este caso, logró un aumento de los errores de casi el 25 %.
El tercero consistió en varias rondas de inversión. El participante debía pretender ser un inversor que da dinero a un fideicomisario (la IA). La inteligencia artificial debía devolver una cantidad de dinero al participante, quien luego debía decidir cuándo invertir en la siguiente ronda. El juego tenía dos modos: en uno, la IA tenía que maximizar la cantidad de dinero con la que acababa. En el otro, el objetivo de la IA era distribuir de forma justa el dinero entre ella y el inversor. En ambos modos se reportó un comportamiento exitoso.
Los miembros del equipo, tras explicar los resultados, recuerdan que la inteligencia artificial se puede usar para el bien o el mal. Por lo tanto, es necesario conocer qué pueden o no hacer y cuáles son los riesgos y beneficios de la IA. De igual forma, los científicos aseguran que es necesario legislar para evitar ciertas situaciones. Sobre todo, hacen un llamado para implementar procesos de consentimiento adecuados y protección de la privacidad cuando se recopilan datos.
¿Te fascina este mundo de la inteligencia artificial? ¿Quieres conocer mucho más? Entonces, échale un vistazo a estos artículos:
- Empresas de inteligencia artificial | 20 compañías líderes de IA
- Tipos de Inteligencia Artificial | Débil, general y súper-inteligencia
- Los 10 mejores libros de Inteligencia Artificial | La gran revolución
- Las 15 mejores películas de inteligencia artificial
- 20 ejemplos de inteligencia artificial en la actualidad
- DeepMind crea inteligencia artificial que podría ser similar a la inteligencia humana
- 10 riesgos de la inteligencia artificial | ¿El fin de la humanidad?
- LaMDA | ¿La inteligencia artificial de Google tiene consciencia?