GRUPO PLAZA

innovadores

Lo que hay detrás de ChatGPT

API como ChatGPT hay muchas en el mercado. Forman parte de la tecnología denominada modelos de lenguaje de gran tamaño (LLM). Consta de una red neuronal con millones de parámetros que se entrenan sobre la ingente cantidad de texto que existe en internet. Son así capaces de predecir palabras y frases sobre un texto dado

| 26/11/2023 | 8 min, 20 seg

VALÈNCIA. Advierte el emprendedor Carlos Pérez que hablar de ChatGPT es como hablar de yogures y citar solamente, pongamos por caso, a la marca Danone. Es decir que, con mayor o menos acierto, interfaces de programación de aplicaciones (Application Programming Interfaces, API, por sus siglas en inglés) como la de ChatGPT hay muchas en el mercado, tanto privadas como open source.

Que todas ellas hayan sido posibles se debe fundamentalmente a dos cosas. Primero, la ingente cantidad de información y datos que los usuarios llevamos años vertiendo en internet, y, segundo, el desarrollo de un determinado modelo de lenguaje que se conoce como LLM (Large Language Models), esto es, grandes modelos de lenguaje basados en redes neuronales artificiales capaces de leer, traducir y resumir textos, pudiendo así crear frases y predecir palabras con la misma o mayor habilidad que un humano.

Para hacerlo más visible, la comparación que pone Miguel Ángel Román, cofundador del Instituto de Inteligencia Artificial (IIA), con sede en Alicante, es el de las previsiones meteorológicas, posibles gracias a la utilización de insumos de ciencia y tecnología que recogen millones de datos a tiempo real para luego procesarlos y realizar los pronósticos. «Con los modelos LLM sucede algo parecido solo que, en lugar de predecir el tiempo, han sido entrenados para predecir cuáles son las palabras que siguen a un texto dado».

Así de sencillo y así de complejo porque «esto, cuando se hace a escala, tiene un potencial tremendo, siendo capaz de realizar multitud de tareas relacionadas con el manejo del lenguaje», afirma Román. Lo complicado y lo más costoso, desde el punto de vista económico, es entrenar a esa inteligencia artificial (IA) que hay detrás para reconocer patrones de palabras, aprender sobre el lenguaje y su utilización natural y contextual.

Tampoco energéticamente resulta barato ni sostenible. Según los datos del Instituto de la Ingeniería de España, se estima que OpenAI, la empresa que creó el famoso chatbot, necesitó hasta 78.437 kWh de electricidad para entrenar el modelo ChatGPT-3, un volumen de energía comparable al que consume una vivienda media en España durante veintitrés años.

Lucha por el liderazgo

Se supone que, a mayor corpus de palabras o parámetros utilizados para entrenar esa inteligencia artificial, mejor resultado del producto en términos de calidad y extensión de generación de texto. 

Por ejemplo, la primera versión del GPT, lanzada por OpenAI en 2018, se apoyó en cien millones de parámetros; el GPT-2, creado en 2019, tenía hasta 1.500 millones de parámetros y estaba entrenado para predecir la siguiente palabra. El modelo GPT-3 de 2020 se entrenó con 175.000 millones de parámetros, alcanzando un nivel de conversación equiparable humano. En el caso del GPT-4, que es en el que estamos ahora, no ha sido revelado el tamaño, pero nos permite, por primera vez en la historia, acceder a un chatbot para mantener conversaciones en lenguaje natural, entender el contexto y generar textos certeros de casi cualquier tema. Además de mejor desempeño que los predecesores, admite entradas de imágenes y textos, aunque las salidas sean únicamente en texto y en cualquier idioma. 

«ChatGPT viene en dos versiones, una gratuita, basada en GPT-3, y otra de pago, basada en GPT-4. La de GPT-4 funciona muchísimo mejor y no tiene rival en el mundo de los LLMs», matiza Román. 

Baste la evolución de GPT para deducir la tremenda escalabilidad de esta IA generativa y la oportunidad de negocio que conlleva, lo que ha propiciado la entrada de muchos más actores en el mercado. A OpenAI, el laboratorio de investigación de IA impulsado originalmente por Elon Musk —abandonó el proyecto tras la salida de GPT-2— y Sam Altman, actual director ejecutivo, le han seguido tecnológicas como la Meta de Zuckerberg, con el proyecto denominado Llama —ya en su segunda versión—; el producto Palm de Google; la familia de grandes modelos de lenguaje denominada Chinchilla AI de la británica DeepMind, o la propuesta procedente de Arabia Saudí, el denominado Falcon, cuya última versión, el Falcon 180B —180.000 millones de parámetros— se lanzó el pasado mes de septiembre en abierto para fines comerciales y de investigación científica, al contrario de lo que sucede con GPT y su sistema cerrado. 

«Aunque, en este momento, el liderazgo indiscutible corresponde a OpenAI, con todos los actores nuevos que han aparecido, el modelo que mayores posibilidades tiene de convertirse en una alternativa realmente abierta de ChatGPT es Falcon», apunta Román. 

LuZia, un caso de éxito español

El ChatGPT salió al mercado el 30 de noviembre de 2022 y, cuarenta días después, contaba ya con diez millones de usuarios. Actualmente, se estima que ha superado los cien millones y eso que, oficialmente, han de pagar veinte euros mensuales por la suscripción. Para usos más avanzados, OpenAI dispone de la versión ChatGPT Professional en su canal Discord. 

Utilizando múltiples modelos de IA, como OpenAI, Llama o Kandinsky, el equipo español que integran Álvaro Martínez Higes (CEO), Carlos Pérez (CTO), y Javier Andrés (CMO) sacaron hace seis meses al mercado un desarrollo bautizado con el nombre de LuzIA.

Se trata de un chatbot inteligente multicanal que se integra en WhatsApp y Telegram, con el que es posible hablar en el idioma local de cada país —incluido el castellano, catalán, gallego y vasco en España—. Los usuarios chatean con Luzia como si fuera un contacto más de WhatsApp y obtienen su ayuda para simplificar tareas y rutinas en múltiples tareas. 

El asistente puede resolver dudas y ofrecer recomendaciones de todo tipo, de forma rápida y precisa, además de redactar textos, generar imágenes en tiempo real, traducir información a cientos de idiomas, transcribir audios o dar información meteorológica al momento. 

Asimismo, es posible entablar conversaciones profundas y complejas sobre una amplia gama de temas, cambiando la personalidad de Luzia a otros roles, conocidos como ‘amigos’, que personalizan la experiencia como podrían ser el de un profesor o un experto en marketing, por poner algún ejemplo. 

«Lo que hemos hecho ha sido poner a disposición del mercado masivo una tecnología complicada. Aprovechando que cualquier persona sabe utilizar el WhatsApp, aterrizamos el ChatGPT y lo ponemos al servicio de todos», declara Carlos Pérez. 

LuzIA se ha convertido en el principal asistente de inteligencia artificial para móvil en países de habla hispana y portuguesa. Con más de quince millones de usuarios, a finales de septiembre el chatbot había recibido setecientos diez millones de preguntas, transcrito 5,6 millones de mensajes de audio a texto y generado tres millones de imágenes.

Algunas limitaciones

A pesar de sus avanzadas capacidades y popularidad, al ChatGPT le quedan algunas limitaciones por superar. Uno de esos sesgos que apunta Carlos Pérez corresponde al tiempo. «El ChatGPT podría contarte al dedillo las guerras napoleónicas, pero no le preguntes qué equipo ganó el mundial de fútbol de 2022, porque no va a saber la respuesta». 

ChatGPT tiene un conocimiento limitado de los eventos que ocurrieron después de 2021. De la misma manera, no puede proporcionar información sobre algunas celebridades, dado que el entrenamiento, en este caso, se hizo con información de una base de datos de webs de 2012-2021.

Otra falla que se le atribuye a esta IA, muchas veces derivada del sesgo temporal, es la que llaman ‘alucinaciones’. En este entorno se refiere a la información arrojada por el sistema que, aunque esté escrita de manera coherente, presenta datos incorrectos, sesgados o plenamente erróneos. Vamos, que a veces se inventa cosas que parecen muy convincentes, pero no tienen base en el mundo real.

El tema de los datos

Al margen de los sesgos referidos, hay algunos que ponen en entredicho la protección de los datos en relación con esta tecnología. Esta es, al menos, la excusa que puso el gobierno italiano sobre la mesa para prohibir el uso del ChatGPT en su territorio. Sigue así la senda de otros países como Rusia, China o Irán.

«A pesar de que ChatGPT cuenta con medidas de seguridad para proteger privacidad de sus usuarios, siempre existe la posibilidad de que sea vulnerado por ataques de hackers o malware», sostiene Marc Rivero, de Kaspersky. 

El rápido crecimiento de la IA generativa como la de ChatGPT también preocupa a parte de los legisladores. En Bruselas se ultima una propuesta para regular el desarrollo de la IA en la UE, de manera que se ajuste a requisitos de transparencia, como revelar que un contenido ha sido generado por IA; diseñar el modelo para evitar que produzca contenidos ilegales; o publicar resúmenes de los datos protegidos por derechos de autor utilizados para el entrenamiento.

También Miguel Ángel Román se muestra partidario de definir de forma clara la reglas del juego, pero sin olvidar que cualquier tecnología puede ser buena o mala en función del uso que le demos. 

* Este artículo se publicó originalmente en el número 109 (noviembre 2023) de la revista Plaza

next