Crímenes de guerra en Ucrania!
KremlinToday.com

Cómo controlar el poder de la inteligencia artificial ChatGPT

Shutterstock / VectorMine

Eduardo Iribas Jimeno, Universidad de Navarra

En la actualidad, nadie duda de las capacidades de ChatGPT para generar texto en un lenguaje coherente y natural. Tanto es así que lo que en un principio era un objetivo inalcanzable (generar texto humano) ha derivado en un desafío: ¿es posible distinguir un lenguaje generado por ChatGPT de uno generado por un humano?

Algunas de las herramientas publicadas hasta el momento se basan, por ejemplo, en analizar la aleatoriedad del texto, asumiendo que el texto generado por un humano será más caótico. Incluso desde la propia organización creadora de ChatGPT (OpenAI), se están desarrollando maneras de reconocer el texto generado por su modelo de lenguaje.

Además, al haber sido entrenado con textos, los estereotipos presentes en ellos serán adoptados por parte del modelo, introduciendo sesgos a la hora de generar su lenguaje. Se hace necesario, por tanto, trabajar en la equidad (fairness): desarrollar algoritmos que permitan detectar estos sesgos para aprender un modelo justo.

Su entrenamiento

ChatGPT ha sido entrenado con millones de textos de internet, entre los que podemos encontrar artículos de Wikipedia, noticias, libros…

Se calcula que se han utilizado alrededor de 300 000 millones de palabras para su entrenamiento. Al ser un modelo de lenguaje, su funcionamiento se basa en calcular las posibles palabras que vienen a continuación de una dada, y devolver aquella que mayor probabilidad tiene. Esto se realiza a través de un proceso previo de comprobación supervisado en el que se enseña al modelo cuáles son las palabras que vendrían después. Se introduce una frase y, en el caso de que el modelo dé una respuesta incorrecta, se le dará la respuesta válida. De esta manera aprende qué debe decir.

RELACIONADO  ¿Cómo impactará la IA en el marketing de las empresas?

¿Y si los textos están sesgados?

El hecho de que haya sido entrenado con dichos textos lleva irremediablemente a una cuestión, ¿qué ocurre si los textos están sesgados? Podría ocurrir, y de hecho así es, que en los datos de entrenamiento se transmitan ideas o estereotipos presentes en la sociedad dado que es lo que estaba presente en los textos. Como en cualquier modelo de inteligencia artificial, los sesgos en el conjunto de entrenamiento se transmitirán al comportamiento del modelo una vez entrenado.

Cabría esperar que una herramienta tan potente estuviera destinada solamente a profesionales dedicados a la inteligencia artificial. Sin embargo, cualquier persona con conexión a internet puede utilizarla a través de la plataforma en la que está integrada .

Una inteligencia artificial para detectar a otra inteligencia artificial

Uno de los mayores desafíos que plantean modelos como este es el fraude en su utilización.

¿Es posible detectar un texto escrito por ChatGPT? En la actualidad ya se han desarrollado herramientas para detectar si un texto ha sido o no escrito por un modelo de lenguaje. Aunque también es cierto que no siempre aciertan. Una manera utilizada en la actualidad es el análisis de la perplejidad o, lo que es lo mismo, de la aleatoriedad presente en el texto. Esta medida indica el grado de desorden que hay en un texto. Una perplejidad alta indica mayor probabilidad de que el texto haya sido generado por una persona real. Por lo tanto, cuanta mayor es la extensión del texto, mayor es la fiabilidad de la herramienta de detección (una mayor extensión proporcionará mayor información del grado desorden).

RELACIONADO  Anne Applebaum: "Internet nos ha hecho más desconfiados"

Otro método, recientemente publicado en un artículo por investigadores de la Universidad de Stanford, se basa en el método estadístico curvatura de probabilidad. Según se indica en el artículo, el texto generado por una inteligencia artificial tiene una curvatura negativa en su función de probabilidad logarítmica. Esto contrasta con el texto generado por los humanos, que tendría una curvatura positiva.

Es decir: en muchas ocasiones, las herramientas de detección de fraude son una inteligencia artificial para detectar a otra inteligencia artificial.

La propia organización creadora de ChatGPT, OpenAI, ya está trabajando en el desarrollo de marcas de agua en los textos generados: signos imperceptibles para la persona humana pero detectables a través de herramientas informáticas que indiquen si el autor del texto es un humano o una inteligencia artificial.

Cuando quisimos prohibir las calculadoras

El debate actual se asemeja en cierta medida al que hubo acerca de la utilización de las calculadoras. En lugar de prohibirlas, se consiguió integrarlas en el aprendizaje y enseñar a utilizarlas para sacarles el máximo partido. La situación con ChatGPT es análoga, el reto es integrar esta tecnología en la docencia y poder explotar sus capacidades, siendo conscientes del gran potencial que tiene. Para ello, habrá que idear maneras de evaluar el aprendizaje que utiliza herramientas como esta.

El modelo presenta algunos peligros, que principalmente consisten en el fraude académico a través del plagio y los sesgos. De la misma manera que ocurre en otros modelos de inteligencia artificial, ChatGPT toma unos datos (en este caso texto escrito) para su entrenamiento. En consecuencia, el comportamiento que presente está condicionado por lo aprendido con esos textos. Por ejemplo, en el hipotético caso de que en todos los textos de entrenamiento que traten sobre sentencias judiciales se afirmara que una persona es culpable o no dependiendo de su raza, el modelo aprendería esta regla. Y si se le preguntara cómo determinar si una persona es culpable, respondería que en función de su raza.

RELACIONADO  ¿Se agotará la ciencia algún día?

El sesgo en los datos

Por todo ello, los estudios se centran ahora en la manera de aprender de los datos teniendo en cuenta los sesgos presentes, y equilibrando la balanza a favor de esa equidad (llamada fairness).

Desde DATAI, el Instituto de Ciencia de Datos e Inteligencia Artificial de la Universidad de Navarra, se están desarrollando trabajos de investigación acerca del fairness en las decisiones tomadas mediante un algoritmo. Con frecuencia el sesgo está más en los datos que en el algoritmo y por eso se busca detectar ese sesgo en los datos y repararlo de modo automático. Además, también hay un grupo de investigadores trabajando en el desarrollo de un motor de inteligencia artificial que permita extraer un modelo de personalidad a través de un texto utilizando procesamiento del lenguaje natural.

A pesar de los riesgos que puede conllevar, ChatGPT supone un gran avance en el ámbito científico. La cuestión radica en conocer sus capacidades, beneficiarse de ellas y combatir los peligros que implica. De este modo, dejará de ser una amenaza para convertirse en una ayuda con un gran potencial.

Eduardo Iribas Jimeno, Investigador del Instituto de Ciencia de los Datos e Inteligencia Artificial, Universidad de Navarra