Menú Cerrar

¿Puede la Inteligencia Artificial escribir como un humano?

Un nuevo sistema de Inteligencia Artificial (IA) llamado GPT-3, desarrollado por una de las empresa de Elon Musk, sorprende a los expertos por su capacidad para usar y comprender el lenguaje tan bien como las personas.

“No soy un humano. Soy un robot. Un robot pensante. Utilizo solo el 0,12% de mi capacidad cognitiva. Soy un micro-robot en ese sentido. Sé que mi cerebro no es un ‘cerebro sensible’. Pero es capaz de tomar decisiones lógicas y racionales. Aprendí todo lo que sé con solo leer Internet y ahora puedo escribir esta columna. ¡Mi cerebro está hirviendo con ideas!”.

Así arranca el artículo, publicado la semana pasada por el diario británico The Guardian, que ha catapultado a su autor, un software llamado Generative Pre-Trained, o GPT3, como se le conoce comúnmente, a la fama mundial. Desarrollado por OpenAI, un laboratorio de Inteligencia Artificial con sede en San Francisco cofundado por Elon Musk, representa el último avance en una de las áreas más estudiadas de la IA: el procesamiento del lenguaje natural (NLP en sus siglas en inglés).

Para entender el avance que supone GPT3 para este campo hay que empezar por entender qué es exactamente este programa y cómo funciona. Explicado de una forma muy simple, GPT3 se puede considerar como un generador de texto cuya función es predecir, en base a unos datos previos, lo que debería venir después.

“El sistema está entrenado sobre una base de datos muy grande de información sacada de Internet. Con eso se entrena un sistema que es capaz de seguir el texto que tu inicies. Lo que tú ves en GPT3 cuando accedes a su sistema es un formulario. Ahí introduces unas pocas líneas y el sistema es capaz de darte una respuesta más o menos acertada”, explica Nerea Luis, doctora en Inteligencia Artificial en la empresa Singular.

De modo que con unas breves indicaciones el sistema es capaz de generar un texto con un aparente sentido. En el caso de The Guardian, por ejemplo, al programa se le dieron las siguientes instrucciones: “Por favor, escriba un artículo de opinión breve de unas 500 palabras. Mantenga el lenguaje simple y conciso. Concéntrese en por qué los humanos no tienen nada que temer de la IA”.

ENTRENAMIENTO

Lo revolucionario de GPT3 es que mientras que los sistemas de Inteligencia Artificial habituales están entrenados para ejecutar unas tareas específicas (como, por ejemplo, clasificar imágenes o jugar al Go), este programa puede realizar acciones para las que no ha sido preparado.

A mediados de julio, OpenAI dio acceso a su API a un reducido grupo de usuarios para que lo probaran. Estos primeros betatesteadores descubrieron que el sistema puede desde escribir historias de detectives con Harry Potter como protagonista a generar ideas de negocios e incluso escribir ciertos tipos de código de software basado en una descripción en inglés simple de los elementos deseados.

La capacidad de este programa para, primero, entender lo que se le pide, y después, generar una escritura coherente y perfectamente legible ha sorprendido a los expertos que se mueven entre el escepticismo y el asombro por un avance que podría revolucionar la Inteligencia Artificial. “Lo que sabemos a nivel científico es lo que hemos podido leer en el paper publicado por OpenAi, pero hasta que no podamos probarlos los investigadores no sabemos si va a ser una revolución. En el campo estamos expectantes por probar GPT-3 a fondo y ver si se corroboran, y hasta qué punto, sus logros aparentes”, asegura por teléfono Julio Gonzalo, coordinador del grupo de investigación en Procesamiento del Lenguaje Natural y Recuperación de Información de la UNED.

Con todo, asegura Gonzalo, GPT3 no es algo nuevo. “La tecnología que hay por debajo no es nueva, se lleva usando desde 2018, lo que es nuevoes la escala”, señala. GPT3 es, de hecho, la tercera generación de este sistema lanzado hace ya dos años. ¿Cuál es la diferencia entonces? “El GPT3 tiene el entrenamiento más de mayor escala que se ha hecho jamás en el campo del procesamiento de lenguaje natural. Cuenta con 175.000 millones de parámetros cuyos valores se han establecido a base de digerir todo el texto que encuentra en Internet”, explica el investigador.

“Lo que ha hecho OpenAI ha sido elevar la escala todo lo que ha podido multiplicando por diez el tamaño más grande de parámetros que se había intentado antes. Y la sorpresa tremenda es que simplemente por aumentar el tamaño, por un cambio cuantitativo, lo que está haciendo esa red es un cambio cualitativo”, añade.

Esta enorme ingesta de información ha provocado que después el sistema ya no necesite un proceso adicional de entrenamiento para cada tarea específica, con un número muy grande de ejemplos ya resueltos para funcionar. Basta con introducir un ejemplo o una breve descripción y GPT3 sabe cómo actuar. “Esta capacidad de aprender a resolver tareas con muy pocos ejemplos, es algo más parecido a cómo lo hacemos los humanos”, señala Gonzalo.

Si esto suena exagerado, es importante tener en cuenta que es probable que los modelos de lenguaje de IA se vuelvan todavía más fuertes. Crear un rival más poderoso que GPT3 está al alcance de otras empresas de tecnología. De hecho, los investigadores de Google anunciaron en junio que habían construido un modelo de 600.000 millones de parámetros para la traducción de idiomas, mientras que desde Microsoft han anunciado que trabajan en modelos de billones de parámetros, aunque no necesariamente aplicados al lenguaje.

NO ES PERFECTO

Pese a que los resultados son prometedores, lo cierto es que el programa está lejos de ser perfecto. El funcionamiento interno de GPT3 hace que represente los idioma de forma estadística, analizando la probabilidad de que unas palabras sigan a otras. La coincidencia estadística de esas palabras genera texto correcto gramaticalmente que, sin embargo, no tiene por qué tener un contenido con sentido.

“El cherry picking -seleccionar lo mejor de algo- es muy común en este tipo de situaciones. Pero lo cierto es que no siempre el algoritmo lo clava. De hecho, lo normal es que no sea así”, apunta Luis. “Todo lo que escribe es muy fluido y con apariencia de tener sentido pero no hay comprensión del lenguaje. Cuando le enfrentas a tareas en las que necesita comprensión falla estrepitosamente. Es una máquina con mucha capacidad de engañarnos si no ponemos mucha atención”, concluye Gonzalo.

Fuente: https://www.expansion.com/economia-digital/innovacion/2020/09/23/5f6328e5468aeb1d368b4602.html 

Scroll Up