Un sistema informático capaz de completar cualquier texto y aprender cualquier cosa. Ese es GPT-3, el nuevo modelo de lenguaje de OpenAI, una organización sin ánimo de lucro fundada por Elon Musk. ¿Sus límites? Todavía no son conocidos.
El GPT-3 es una herramienta capaz de generar textos, programar y diseñar con solo recibir instrucciones precisas. Se trata de una API (Interfaz de Programación de Aplicaciones) en versión beta. Recientemente fue ofrecida al público para conocer sus posibilidades y límites.
Para sorpresa de sus programadores, esta herramienta es capaz de programar un código básico o traducir textos del inglés común al lenguaje jurídico. Esta tecnología ha vuelto a poner el foco en la inteligencia artificial y ¿sus peligros? Pero ¿qué es el GPT-3 y cómo funciona?
¿Qué es el GPT-3 de OpenAi?
OpenAi es una compañía de desarrollo de inteligencia artificial que busca que la IA sea respetuosa con el ser humano. Es una organización sin ánimo de lucro fundada por Elon Musk en 2015. En ella, empresas como Microsoft han hecho cuantiosas inversiones de dinero.
Esta empresa lanzó recientemente el GPT-3, la tercera versión de su modelo de lenguaje y el más poderoso hasta ahora. Este es, en otras palabras, una inteligencia artificial. Es un modelo de machine learning que analiza textos, datos, instrucciones o preguntas dadas para ofrecer predicciones de palabras o realizar acciones.
Lectura sugerida: Aprendizaje supervisado | Qué es y en qué se diferencia del aprendizaje no supervisado
El sistema aprende con recibir algunos ejemplos de lo que el usuario quiere que haga y en función de los datos con los que lo vayan nutriendo. Es decir, que puedes escribir dos o tres frases de un artículo y GPT-3 podrá completarlo. También se podrá generar conversaciones y respuestas basadas en contextos anteriores. O generar códigos para programadores, traducir ecuaciones o diseñar páginas web. Algunos han descubierto que incluso puede copiar el estilo de escritores y generar texto en acordes de guitarra o códigos informáticos.
Todo esto es posible gracias a su enorme tamaño. Y es que GPT-3 cuenta con 175 millones de parámetros. Su versión anterior, GPT-2 tenía 1 500 millones de parámetros y OpenAi pensó en censurarlo por considerarlo demasiado peligroso.
GPT-3 fue alimentado con una inmensa cantidad de información en internet. Desde 67 mil millones de libros públicos y documentos científicos disponibles en la web hasta toda Wikipedia y otras 19 mil millones de páginas web. Tras leer toda esta información, creó conexiones en un modelo de 700 GB ubicado en 48 GPUs de 16 GB cada una de ellas.
«GPT-3 logra un rendimiento sólido en muchos conjuntos de datos de PNL, incluidas las tareas de traducción, respuesta y preguntas, así como varias tareas que requieren razonamiento sobre la marcha o adaptación de dominio, como descifrar palabras, usando una palabra nueva en una oración, o realizar una aritmética de 3 dígitos», declararon los investigadores en un artículo donde ofrecen detalles sobre este desarrollo.
Te puede interesar: Elon Musk: Los humanos pueden acabar como mascotas de la I.A
Peligros del GPT-3
Sin embargo, esta tecnología todavía presenta fallas y comete errores que un humano no cometería. Incluso, puede brindar respuestas contradictorias. Pues realmente no comprende el contexto. El modelo no tiene ninguna representación interna de lo que las palabras que predice significan. Básicamente, puede generar una respuesta pero esto no quiere decir que la entienda.
Esto se debe a que el GPT-3 se ha alimentado de todo el texto disponible en internet. Por ello, puede completar el texto que se le indica, prediciendo lo que debería venir con los parámetros indicados, y luego seguirá prediciendo con la información que él mismo produjo. Si en algún momento el texto que genera pierde consistencia y sentido, GPT-3 no lo sabrá. Esto es así debido a que solo genera lo siguiente según un modelo probabilístico. También carece de sentido común, por lo que no sabe si las preguntas que se le hacen tienen lógica y sentido.
Asimismo, la herramienta es propensa a crear un lenguaje racista y sexista; lo que preocupa debido a que, al aprender de los datos con los que se nutren, pueden multiplicar los prejuicios. Otra de las preocupaciones que despierta GPT-3 es que su capacidad para replicar mensajes es tan alta que podría dificultar la identificación de los mensajes falsos.
Sin embargo, esto no reduce el logro que implica esta herramienta, que tiene tantos usos potenciales como mejorar a los chatbots para ayudar a las personas a codificar y otro sinfín de usos. Además, cabe recordar que en las próximas generaciones seguirá avanzando esta tecnología y seguirá logrando acciones inimaginables. GPT-3 está disponible para ser probado por todos los que quieran usarlo.
Recomendado: DALL-E | Inteligencia artificial de OpenAI ya puede generar imágenes a partir de textos