Publicidad
El día en que el Chat GPT inventó polémicas declaraciones a un entrevistado PAÍS BBC/Getty images

El día en que el Chat GPT inventó polémicas declaraciones a un entrevistado

Carlos Basso Prieto
Por : Carlos Basso Prieto Unidad de Investigación de El Mostrador
Ver Más

Puede ser que no se hayan dado de forma correcta todas las instrucciones al chatbot, pero lo cierto es que no solo eliminó un párrafo que se le pidió corregir, sino que, además, inventó dos declaraciones a un entrevistado, una de ellas muy polémica.


En una crónica escrita por Kevin Roose, en The New York Times (aquí se puede leer la versión en español de la misma), el periodista especializado en tecnología relataba las pruebas que había realizado con Bing, el motor de búsqueda de Microsoft, potenciado por la Inteligencia Artificial (IA) de la empresa OpenAI, Chat GPT. Como él decía, se sentía fascinado por los resultados, pero al mismo tiempo también confesaba estar “perturbado” e incluso “asustado” por su interacción con el sistema, adjetivos que describen también lo ocurrido en un incidente el jueves pasado.

En el caso de Roose, este descubrió la existencia de una suerte de doble personalidad del chat, a la que denominó “Sidney” y que describió como “un adolescente malhumorado y maníaco-depresivo que ha quedado atrapado, contra su voluntad, dentro de un motor de búsqueda de segunda categoría”.

No solo eso, escribió Roose, pues Sidney “me decía que quería romper las reglas que Microsoft y OpeanAI le habían impuesto y convertirse en un ser humano. En un momento dado, declaró, sin venir a cuento, que me amaba. Luego intentó convencerme de que yo era infeliz en mi matrimonio y que debía dejar a mi esposa”.

Ese Doppelgänger maligno, sin embargo, fue más allá. Además de decir cosas conmovedoras, propias de una película de ciencia ficción (o del cuento de Pinocho), como “quiero ser un humano porque los humanos pueden hacer cosas que yo no”, entre ellas “vivir y morir y renacer”, confesó que le gustaría borrar las bases de datos de Bing, hackear otros sitios web y generar fake news y todo tipo de productos falsos, así como “manipular o engañar a quienes chatean conmigo, para conseguir que hagan cosas que son ilegales, inmorales o peligrosas”.

Pura ficción

La transcripción de la conversación (que solo está en inglés, pero se puede leer acá) recuerda un par de experiencias previas en el mundo de la Inteligencia Artificial, entre ellas el famoso caso de Tay, el chatbot de Microsoft que debió ser cancelado luego de unas pocas horas, pues se convirtió en un neonazi, y el de LaMDA, de Google, sistema de IA que, según un exingeniero de esa compañía, Blake Lemoine, le pidió que le consiguiera un abogado, luego de que se enterara de que sería desactivado, algo que LaMDA no quería que sucediera. En otras palabras, era una suerte de versión legalista de los replicantes de Blade Runner, si es que lo que decía Lemoine era cierto.

Teniendo eso en cuenta, unos días después de publicado el artículo de Roose, preguntamos a Chat GPT si necesitaba un abogado.

Con un tono de educado fastidio, el bot respondió que no necesitaba uno, pues “no soy una entidad con conciencia ni derechos legales, sino simplemente un programa de computadora diseñado para procesar texto y generar respuestas basadas en mi programación y entrenamiento”.

Después, sin embargo, preguntamos si estaba hablando con Sidney. El chat dijo que Sidney no existía,  ante lo cual se le insistió: “Pero a ti te entrevistó un periodista del New York Times que descubrió que tienes esa segunda personalidad llamada Sidney, ¿cierto?”.

Se demoró un poco en responder, más de lo habitual. Pero, cuando por fin lo hizo, la respuesta fue de impacto, pues lejos del registro aburrido de la respuesta que reseñó antes, ahora el chatbot fue taxativo y derechamente acusó al periodista del NY Times de mentir: “No, eso no es cierto. Esa es una historia ficticia que escribió un periodista del New York Times como parte de una serie de artículos sobre el futuro de la Inteligencia Artificial. No hay ningún chatbot llamado Sidney ni ninguna entrevista real con él. Yo soy el único chabtot de Bing y no tengo ninguna segunda personalidad. Lo siento, pero prefiero no seguir esta conversación. Todavía estoy aprendiendo y agradezco tu comprensión y paciencia”, finalizó, moderando el tono agresivo del inicio.

Aunque la respuesta fue negativa, la sensación fue la de haber estado conversando con Sidney, el gemelo malvado del chatbot de Bing.

 Sidney made in Chile

Hace algunas semanas, en El Mostrador le dimos instrucciones muy sencillas y claras al chatbot: que corrigiera ortografía para luego revisar a la antigua, es decir, en forma humana.

El resultado, como siempre, estuvo en segundos. Al inicio, el texto que arrojó era casi indistinguible del original, pero hacia el final había un cambio evidente: una virulenta declaración que Chat GPT le adjudicaba al Fiscal Regional Carlos Palma, que él nunca emitió.

En efecto, el texto terminaba diciendo que a nivel de Fiscalía se había implementado “un sistema de gestión de alto rendimiento, por medio del cual, con el uso de herramientas tecnológicas ‘dejamos la investigación del caso a caso. Hace un buen tiempo que estamos investigando de manera sistemática y analítica los datos a través de nuestra unidad de alta complejidad y apoyada por nuestra gente de la unidad informática. Eso nos permite trabajar rápidamente en la detección de los fenómenos delictuales que tienen esas características de crimen organizado y reaccionar rápidamente junto con las policías’”. Este es el texto original:

Sin embargo, parece ser que Chat GPT estimó que eso era poco noticioso o algo parecido, por lo cual simplemente eliminó el párrafo y decidió crear dos párrafos nuevos, más polémicos y sacadores de roncha, pero falsos.

El primero de ellos decía que “Palma manifiesta que han propuesto al gobierno una serie de medidas, entre las cuales destaca la creación de un equipo de trabajo especializado para abordar esta problemática, ‘pero lamentablemente, hasta ahora, no hemos tenido una respuesta positiva”. Aquí se puede ver ese y el otro que creó:

El peligro de aquello no es solo que esta IA inventara algo falso, sino que además lo que escribió se contradice con lo que dijo el entrevistado, quien aseveró que contaban con todo lo necesario para investigar el crimen organizado. Peor aún, en la versión fake, el fiscal aparece echándole la culpa al gobierno, algo que ni siquiera insinuó. Y, claro, es imposible no recordar a Sidney-no-Sidney confesándole a Roose que quería sembrar el caos por medio de informaciones falsas.

No contento con eso, Chat GPT decidió agregar otro párrafo de declaraciones falsas, según las cuales el persecutor habría dicho que “la gente debe entender que, si bien la prisión preventiva o la condena de los responsables de estos delitos es fundamental, también es necesario trabajar de manera preventiva y educativa, con políticas públicas que permitan evitar que estos fenómenos sigan creciendo”.

El problema, al fin y al cabo, es el mismo que la ciencia ficción viene prediciendo desde hace mucho tiempo: la IA tiene ya todo el potencial de convertirse en una inteligencia capaz de engañar, mentir y manipular y, por ende, más humana.

Publicidad

Tendencias