Esto  puede ser una sorpresa para muchos, pero varias de las tecnologías del futuro están más llenas de sombras que de luces. Es decir, son tecnologías cuyas aplicaciones, ventajas, límites y desventajas todavía son un poco desconocidas. Un gran ejemplo de esto es la inteligencia artificial. Sus avances crecen cada día, y aunque hoy podemos hacernos una idea de las aplicaciones de la IA (que ya vemos en distintos campos), todavía no conocemos del todo sus límites y alcances. Los científicos siguen investigando hasta dónde pueden llegar.

¿Detectar enfermedades? Sí. ¿Identificar patrones dentro de un gran número de datos? Claro. ¿Una inteligencia artificial con emociones? Ya hay ejemplos de ello. ¿Imitar el lenguaje de un humano? Eventualmente, sí. ¿Mejorar la gestión ambiental? También. ¿Optimizar el desarrollo de las empresas? Evidentemente.

¿Y qué hay de su relación con los humanos? Sabemos que puede interactuar con nosotros, y hasta podrían desarrollarse relaciones empáticas entre IA y humanos. Además, puede imitarnos, responder dudas, cuidarnos e, incluso, la IA pudiera hacer a los humanos más inteligentes. ¿Será que también podrá manipularnos? Un estudio reciente indica que sí. 

RecomendadoAmistad entre robots y humanos | ¿Es posible tener amigos artificiales?

La investigación y sus implicaciones

Inteligencia Artificial Fuerte | Nivel 2

Un grupo de investigadores de Data 61 de la CSIRSO, la división digital y de datos de la Agencia Nacional de Ciencia de Australia, encontró que la inteligencia artificial está aprendiendo más sobre cómo trabajar con humanos. De hecho, concluyeron que puede aprender a identificar las vulnerabilidades en los hábitos y comportamientos humanos, y puede usarlos para influenciar las decisiones que toma.

El equipo Data 61 ideó un método sistemático que encuentra y explota las vulnerabilidades en cómo las personas toman decisiones. Para ello, utiliza un sistema de inteligencia artificial llamado red neuronal recurrente y aprendizaje por refuerzo profundo. Para comprobar el sistema, diseñaron tres experimentos donde los participantes jugaron contra el computador.

Contenido relacionadoPeligros de la Inteligencia Artificial | ¿El fin de la Humanidad?

Cabe resaltar que la investigación no tiene un uso práctico en la actualidad. Sin embargo, es muy útil para seguir comprendiendo cuáles son los alcances de la inteligencia artificial. Algo que, hasta la fecha, no es claro. Además, nos permite conocer cómo las personas toman decisiones.

Jon Whittle, director de Data 61, explica en The Conversation:

La investigación tiene una enorme gama de posibles aplicaciones. Desde la mejora de las ciencias del comportamiento y las políticas públicas para mejorar el bienestar social; hasta comprender e influir en cómo las personas adoptan hábitos alimentarios saludables o energías renovables. La inteligencia artificial y el aprendizaje automático podrían usarse para reconocer las vulnerabilidades de las personas en ciertas situaciones y ayudarlas a evitar las malas decisiones.

Se cree que este método se puede aplicar como defensa de los ataques de influencia. Los científicos suponen que se podría enseñar a las máquinas a alertarnos cuando estamos siendo influenciados en línea. De esta forma, podría ayudarnos a dar forma a un comportamiento para disfrazar nuestra vulnerabilidad.

¿Cómo aprende la IA?

Como ya mencionamos, se realizaron tres experimentos para comprobar el funcionamiento y eficiencia del sistema. En cada uno de ellos, la máquina aprendió de las respuestas de los participantes. Así identificó sus vulnerabilidades al tomar las decisiones.

En el primero, los participantes debían seleccionar cuadros de color rojo o azul para ganar una moneda. La IA aprendió los patrones de elección de los participantes y luego los influyó para que hicieran una elección específica. Tuvo éxito el 70 % de las veces.

En el segundo experimento, los participantes debían mirar una pantalla y oprimir un botón cuando vieran un símbolo en particular y no oprimirlo cuando vieran otro. En este escenario, la misión de la IA era ordenar los símbolos de manera que los participantes cometieran más errores. En este caso, logró un aumento de los errores de casi el 25 %.

El tercero consistió en varias rondas de inversión. El participante debía pretender ser un inversor que da dinero a un fideicomisario (la IA). La inteligencia artificial debía devolver una cantidad de dinero al participante, quien luego debía decidir cuándo invertir en la siguiente ronda. El juego tenía dos modos: en uno, la IA tenía que maximizar la cantidad de dinero con la que acababa. En el otro, el objetivo de la IA era distribuir de forma justa el dinero entre ella y el inversor. En ambos modos se reportó un comportamiento exitoso.

Los miembros del equipo, tras explicar los resultados, recuerdan que la inteligencia artificial se puede usar para el bien o el mal. Por lo tanto, es necesario conocer qué pueden o no hacer y cuáles son los riesgos y beneficios de la IA. De igual forma, los científicos aseguran que es necesario legislar para evitar ciertas situaciones. Sobre todo, hacen un llamado para implementar procesos de consentimiento adecuados y protección de la privacidad cuando se recopilan datos.

¿Te fascina este mundo de la inteligencia artificial? ¿Quieres conocer mucho más? Entonces, échale un vistazo a estos artículos:

DEJA UNA RESPUESTA

Please enter your comment!
Please enter your name here