OpenAI es una compañía fundada en 2015 por Elon Musk y Sam Altman que se dedica a investigar la inteligencia artificial (IA) sin ánimo de lucro dado que tiene como objetivo promover y desarrollar inteligencia artificial amigable. La organización “colaborar libremente” con otras instituciones e investigadores al abrir al público sus patentes e investigaciones.

Entre los proyectos estrella desarrollados por OpenAI se encuentra el nuevo modelo de lenguaje GPT que va ya por su tercera generación, el GPT-3. Se trata de un generador de textos basado en Inteligencia Artificial (IA) y deep learning capaz de redactar textos complejos y ricos en matices de forma similar o mejor a como lo haría el más ilustre de las letras. Basta con introducir en la máquina unas pequeñas indicaciones de lo que quieres para que siga por su cuenta con el resto del argumentario. Algo parecido a los textos predictivos, esa función de autocompletado de texto que cumplen ya todos nuestros dispositivos, pero a lo bestia porque el GPT-3 te escribe un texto completo, bien articulado y hasta con sentido del humor.

Quien use el GPT-3, solo tiene que empezar escribiendo una frase o un pequeño texto que la máquina completará basando su respuesta en la gigantesca cantidad de información que guarda, hasta 175.000 millones de parámetros,  diez veces mas que cualquier modelo previo. Esto la convierte en la red neuronal más grande hasta ahora. Además de autocompletar, editar y revisar textos, puede hacerlo en distintos idiomas.

La herramienta podría ser útil para cualquiera que tenga que enfrentarse cada mañana a la página en blanco, bien sea para resumir sentencias, bien para elaborar un informe o estructurar textos más o menos creativos, dependiendo del ánimo y la inspiración del autor. El GPT-3 no necesita esperar a la inspiración para escribir el solito textos originales y bien fundamentados.

El riesgo de las ‘fake news

Para comprobar la eficacia de la herramienta, la compañía organizó el pasado mes de mayo una prueba consistente en una competición entre el software y un grupo de periodistas del New York Times. El fallo fue a favor del software, en cuanto a originalidad y calidad del texto periodístico. El resultado fue tan sorprendente que pronto se vieron las dos caras del modelo, primera: los beneficios económicos para la industria editorial y periodística, y segunda: su contraria, dada la capacidad de elaborar textos sofisticados y perfectamente creíbles, aunque de una ‘fake news’ se trate.

Pese a la advertencia de este peligro, el diario británico The Guardian se animó a hacer otra prueba. El pasado 8 de septiembre publicaba un artículo de opinión titulado ‘Un robot escribió por completo este artículo. Estás asustado todavía, humano?‘ , firmado por GPT-3. “La misión de este artículo es perfectamente clara. Debo convencer a tantos seres humanos como sea posible de que no me tengan miedo…La inteligencia artificial no destruirá a los humanos. Créame”, se aclara en la introducción la intención que se persigue con un texto perfectamente legible y estructurado. Y eso que el GPT-3 está todavía en versión beta.