
¿Piensan o parece que piensan? La gran pregunta para la IA (y para los humanos)
La IAs generativas llegaron para quedarse. Independiente de la opinión que tengamos de ellas, de los reparos o de las proyecciones, ya llegó. Toda persona con acceso a un computador o a un teléfono con internet, puede acceder a cualquiera de los muchos chats basados en este tipo de tecnología.
De la mano de una abrumadora buena prensa (probablemente un marketing muy bien pensado por las empresas desarrolladoras), la promesa de las IA de cambiar el mundo, no se quedó solo en proyecciones empresariales o entusiastas excéntricos, sino que rápidamente se masificó a cada rincón del planeta, de la mano de los programas de conversación basados en IA o chatbots. Hoy, el uso de estos bots se ha expandido a cosas bastante más cotidianas y menos rimbombantes, desde usarlas para el chequeo de noticias, hasta su uso como consultor de salud, pasando por el plagio descarado en contextos educativos y de investigación.
Originalmente, los chats de conversación aterrizaron como “asesores” de la actividad humana: mejorar la redacción de escritos, ayudar a ordenar ideas, automatizar tareas rutinarias o generar imágenes sin necesitar talento artístico, por poner algunos ejemplos. Sin embargo, la experiencia muestra que este rol asesor va rápidamente cambiando a un rol de reemplazo de la actividad intelectual. Ya no solo se conversa con el chatbot, sino que se le piden tareas crecientemente complejas. Los estudiantes ya no usan la IA solo para entender mejor algún tópico o resumir alguna cita bibliográfica, cada vez más se usan para entregar ejercicios o ensayos completamente resueltos o emitir opiniones sobre algún tópico. Esto tiene varias implicancias, uno ético por cierto, pero también un dilema conceptual: ¿es capaz la IA de razonar?
Quienes tenemos experiencia docente sabemos que no es demasiado difícil detectar un ensayo, un ejercicio o un código resuelto con IA. Hay algo en la forma de la redacción, en su orden, en su redundancia, y en cuanto al contenido mismo, hay una carencia de sustancia, una insipidez disfrazada de sofisticación. Pero es un instinto, el paladar forjado con la experiencia. Es difícil probarlo a ciencia cierta, pero no pasa desapercibido.
Es que a pesar de toda la propaganda, los chatbots de conversación siguen siendo eso, chat de conversación, y han sido entrenados con millones de textos para encontrar los patrones que tiene un texto coherente. En palabras de un colega del área, un chatbot de IA lo que hace básicamente es encontrar la palabra más probable que sucede a una palabra previa para que una oración tenga sentido en cierto contexto conversacional.
Pero las empresas desarrolladoras de estas tecnologías han notado este cambio en el tipo de uso, y han desarrollado versiones optimizadas para estas actividades de “razonamiento”. Una de las metodologías implementadas para mejorar estas capacidades ha sido la inclusión de lo que se llama “cadena de razonamiento”. Esta metodología consiste en que la IA intenta resolver el problema paso a paso, similar a lo que hacemos los humanos. Por supuesto, estas innovaciones no son solo por amor al conocimiento, también están desarrolladas con un objetivo comercial, apuntando a un público diferente, como empresas que están dispuestas a pagar más por versiones más “inteligentes”.
Interesantemente, esta percepción de que la “inteligencia” de los chatbots es solo una ilusión ha sido puesta a prueba. En un llamativo estudio, investigadores de Apple pusieron a prueba varios de estos chatbots avanzados, con cuatro problemas lógicos relativamente simples, algunos, como la torre de Hanoi, presentes en cualquier sala de párvulos. La gracia de estos cuatro problemas no es solo su relativa sencillez, sino que pueden ser fácilmente complejizados agregando más elementos a la misma lógica, sin embargo, se resuelven siempre de la misma forma. Los resultados de esta investigación son sorprendentes.
Los chatbots no solo no son cada vez peores en encontrar la solución correcta al complejizar el problema, sino que al pedirles la cantidad de elementos en la “cadena de razonamiento” que usan, ven que, sobre cierto valor, a más complejidad del problema, las cadenas de razonamiento son más cortas. O sea, que mientras más difícil el problema, las IA parecen rendirse anticipadamente.
Lamentablemente, este tipo de estudios están recién partiendo, cuando los chatbots de IA ya están en todos los celulares. De hecho, esta ilusión del razonamiento y su masificación ha llevado a discusiones sobre implementar formalmente su uso en diversos contextos, como en la docencia o en empresas. La escritura de código en lenguaje informático es un buen ejemplo que cruza ambas situaciones. Ya hay versiones de chatbots especialmente entrenadas para ello. De seguro, ya hay empresas de software pensando en reemplazar a sus equipos de programadores por cuentas de IA, o Universidades que estén discutiendo si vale o no la pena enseñar a futuros ingenieros a programar, dado que llegada la situación, un profesional puede pedirle a la IA que escriba y pruebe un código desde cero para resolver cierto problema. Si se trata de tareas rutinarias, probablemente la IA mejorará la productividad de dichas empresas, pero si se trata de tareas complejas, es probable que se encuentren problemas, dada esta ilusión de inteligencia. La innovación y la creatividad podría ser las principales víctimas de un remplazo generalizado de humanos por bots.
Pero hay quienes piensan que la tecnología de IA que usan estos chatbots seguirá mejorando, y en algún momento si será capaz de resolver problemas complejos, y por lo tanto, su uso masivo sí podría mejorar la productividad de las empresas, y crear ideas innovadoras, en otras palabras, crear valor. Pero estudios recientes, han mostrado que hay otro problema en ciernes, uno que está al otro lado de la pantalla: los humanos que usan la IA.
Un estudio realizado por investigadores del MIT, muestra que usuarios regulares de ChatGPT (en un ambiente controlado) se van volviendo progresivamente más flojos y sus ondas cerebrales son cada vez menos activas, al pedirles realizar tareas, ahora sin ChatGPT. Estos resultados son consistentes con otro estudio, realizado en Harvard, que muestra que el uso de chatbots con IA generativa hace a las personas más eficientes, pero al mismo tiempo van perdiendo motivación.
Estos estudios, si bien son muy preliminares, anticipan una serie de preguntas clave que debemos hacernos como sociedad respecto al uso de la IA generativa. ¿Los chatbots mejorarán hasta el punto de resolver problemas realmente complejos o siempre seguirán siendo chats de conversación con una inteligencia aparente?, ¿se convertirá la IA en una tecnología masiva, pero de impacto acotado, como lo fueron en su momento las calculadoras de bolsillo?, ¿deberíamos cambiar los procesos docentes para adecuarlos al uso de IAs?, ¿será que a medida que los chatbots se van vuelvan más “inteligentes” los humanos nos volveremos menos inteligentes y menos motivados?
- El contenido vertido en esta columna de opinión es de exclusiva responsabilidad de su autor, y no refleja necesariamente la línea editorial ni postura de El Mostrador.