ChatGPT ha sido el protagonista de grandes noticias durante el primer trimestre del 2023. Se trata de un modelo de inteligencia artificial (IA), es propiedad de OpenIA y hasta el momento es uno de los más avanzados y potentes. De hecho, ChatGPT puede ser útil para crear contenido de todo tipo, escribir códigos informáticos, ayudarte a practicar un idioma y hasta mantener una conversación con bastante lógica.

En ese sentido, esta herramienta ha causado revuelo en el mundo de la inteligencia artificial, debido a su capacidad para generar texto de manera fluida y coherente en una variedad de idiomas. También se espera que en próximas actualizaciones pueda entender lo escrito en fotografías y vídeos. Sin embargo, esta poderosa herramienta también ha levantado preocupaciones sobre los posibles usos negativos y peligrosos que se le puedan dar.

De hecho, su creador y máximo dirigente de OpenAI, Sam Altman, después de la presentación de la última versión de su modelo de lenguaje, llamado GPT-4, ha reconocido que está asustado por su alcance. ¿Estás listo para descubrir más sobre los peligros de ChatGPT? ¡Sigue leyendo!

Los peligros de ChatGPT

ChatGPT | Los peligros de ChatGPT

Recientemente Altman no solo destacó las habilidades avanzadas del modelo, sino que también advirtió sobre los posibles peligros de su uso. De esta manera, reconoció que el ChatGPT 4 tiene el potencial de ser una herramienta poderosa para la generación de texto y la automatización de tareas relacionadas con el lenguaje. ChatGPT 4 es capaz de aprobar un examen simulado de Estados Unidos con una puntuación que le sitúa entre el 10% de los humanos que mejor nota han sacado.

De hecho, Altman, dijo que ChatGPT 4:

Exhibe un desempleo a nivel humano en varios puntos de referencia académicos y profesionales.

Uno de los principales peligros que Altman señaló es la posibilidad de que el ChatGPT sea utilizado para generar desinformación o propaganda. Dado que el modelo es capaz de generar texto coherente y persuasivo, existe la preocupación de que los usuarios malintencionados puedan utilizarlo para crear narrativas engañosas con fines maliciosos.

En ese sentido,Altman sostuvo que está:

Particularmente preocupado de que estos modelos puedan usarse para la desinformación a gran escala. Ahora que están mejorando en la escritura de códigos informáticos, podría usarse para ataques cibernéticos ofensivos.

¿De qué manera esta herramienta puede afectar a la sociedad? Por ejemplo, un atacante podría utilizar el modelo para crear mensajes de phishing personalizados que parezcan genuinos y engañen a los destinatarios para que compartan información personal. O, por otro lado, al automatizar tareas relacionadas con el lenguaje, es posible que se utilice para reemplazar trabajos que requieren habilidades lingüísticas, lo que podría tener un impacto negativo en la empleabilidad de algunos trabajadores.

Para ti: Podrías ser reemplazado por ChatGPT y aún no lo sabes

A pesar de estos peligros, Altman señaló que todavía cree en el potencial de la inteligencia artificial para mejorar la vida de las personas. Al respecto, piensa que:

Creo que la gente debería estar feliz de que estemos un poco asustados por esto.

Además, reconoció que están trabajando para establecer límites de seguridad. Y es que es importante que se realice un seguimiento cuidadoso de su desarrollo y uso, para asegurarse de que se utilice para el bien común en lugar de para dañar a las personas.

Ahora, la pregunta que surge es: ¿qué pasará si otras empresas no se preocupan por el alcance de estas herramientas?, ¿cuál será la forma de protegernos? Y, vale la pena, además, reflexionar sobre si realmente puede evolucionar de tal forma que reemplace a los humanos en ciertas áreas, ya que por ahora esta tecnología aún no razona y carece de la capacidad real para poder entender plenamente la profundidad del lenguaje humano.