Opinión
La IA no piensa, solo finge: el engaño semántico que el Senado chileno está a punto de legalizar
Aplicar la palabra “memoria” a la retención de tokens en una ventana de contexto no es una extensión inocente del concepto: es un deslizamiento silencioso que arrastra consigo todo el bagaje semántico del término original.
El proyecto de ley que regula los sistemas de inteligencia artificial en Chile se encuentra en plena tramitación en el Senado. La iniciativa clasifica los sistemas por niveles de riesgo, exige transparencia y prohíbe prácticas incompatibles con la dignidad humana. Todo eso está bien. Pero el proyecto —como toda la discusión pública sobre IA— arrastra un problema que nadie se atreve a nombrar: el vocabulario con que describimos lo que estos sistemas hacen.
¿Qué es lo que realmente hace la famosa IA? Abra cualquier comunicado de prensa de OpenAI, Anthropic o Google DeepMind. Rápidamente se topará con frases del tipo “el modelo es capaz de razonar sobre el problema”, “el sistema tiene una ventana de contexto de X cantidad de tokens”, “la IA tiene las habilidades de un estudiante de doctorado”, entre muchas otras. Hasta ahora, nadie en estas empresas parece dudar de lo que escribe: no hay una nota al pie que diga “usamos este término en sentido metafórico” ni un diccionario de términos con sus definiciones.
Esto, naturalmente, podría parecer un problema menor, una licencia poética del marketing o un dilema técnico. No lo es. Lo que ocurre al usar palabras como “razonar”, “memoria”, “habilidades” o “comprensión” es algo más profundo que un mal uso del lenguaje: se están importando palabras que describen facultades humanas, aplicándolas a sistemas computacionales sin hacer referencia alguna a bajo qué condiciones ellas son legítimas. El resultado es una ambigüedad que no incomoda a casi nadie en el corto plazo, pero que oscurece conversaciones fundamentales sobre lo que realmente se está construyendo.
Para ilustrar, pensemos en la palabra “memoria”. Cuando se dice que un modelo de lenguaje “recuerda” las instrucciones del usuario, se está describiendo algo técnicamente real: el sistema retiene representaciones en su contexto de procesamiento y las usa para producir respuestas estadísticamente coherentes. La disyuntiva a la que apunto es que el significado de estas palabras, en este contexto, es problemático.
Imaginémonos en la vega, frente a nuestro casero de confianza. Este, que ya nos conoce y sabe a qué venimos, pregunta cuántos kilos de tomate y cuántos de limones sin que siquiera articulemos la orden. Ahí hay algo más que un intercambio comercial: una historia que se va formando visita tras visita, una conexión. Si volviéramos al día siguiente y el hombre nos mirara como si nunca nos hubiera visto antes, sin dejar traslucir en sus ojos un indicio de reconocimiento, esa calidez se quiebra de inmediato. Eso es exactamente lo que sucede con la inteligencia artificial, excepto que no existe un “día siguiente”: sucede cada vez que se cierra el chat. El sistema nos considera siempre un extraño.
Aplicar la palabra “memoria” a la retención de tokens en una ventana de contexto no es una extensión inocente del concepto: es un deslizamiento silencioso que arrastra consigo todo el bagaje semántico del término original. El vocabulario técnico correcto sería algo como “retención de representaciones en contexto”, pero nadie habla así.
Existe, además, una consecuencia práctica que afecta la vida diaria de millones de personas. Suponga que consulta un síntoma médico a un asistente de IA y el sistema le responde con precisión y seguridad. ¿Está “comprendiendo” su situación o está generando texto con un grado de probabilidad estadística sobre síntomas semejantes encontrados en su base de entrenamiento? La respuesta importa: si el sistema realmente entiende, su consejo tiene un valor parecido al de un doctor; si solamente simula entendimiento, es una herramienta útil, pero con límites importantes que el usuario necesita conocer. El uso del mismo vocabulario para ambos casos no es únicamente una imprecisión: puede ser riesgoso.
El problema tiene historia. En 1950, Alan Turing propuso un criterio elegante: si las respuestas de una máquina son indistinguibles de las humanas, podemos afirmar que “piensa” a efectos prácticos. Treinta años después, John Searle replicó con su famoso experimento mental de la “habitación china”: una persona encerrada en un cuarto sigue instrucciones para manipular símbolos chinos sin entender una sola palabra, pero desde afuera parece que la habitación “comprende”. El comportamiento correcto no garantiza comprensión. Ludwig Wittgenstein, en otra dirección, notó algo más radical: palabras como “comprender” no refieren a eventos mentales aislados, sino a redes de prácticas humanas —explicar, corregir, aplicar a casos nuevos— que les otorgan sentido. Extraer esas palabras de su tejido práctico y aplicarlas a sistemas que carecen de él no es ampliar el concepto: es usarlo con otro sentido, aunque la palabra sea la misma.
Volvamos al proyecto de ley. La iniciativa habla de “transparencia”, de “niveles de riesgo”, de “responsabilidad”. Pero ¿transparencia respecto a qué tipo de entidad? ¿Riesgo de qué, exactamente, produce un sistema que “razona” versus uno que genera outputs estadísticamente coherentes? Las respuestas dependen del vocabulario que adoptemos, y ese vocabulario contrabandea posiciones filosóficas no examinadas. El Consejo Asesor Técnico que crea el proyecto podría ser el espacio adecuado para abordar este déficit: un glosario conceptual vinculante que explicite si las capacidades que atribuimos a los sistemas son descripciones literales o metáforas funcionales.
Esa pregunta no tiene respuesta todavía. Pero para formularla hay que empezar por nombrar lo que nadie ha dicho del todo: que cuando afirmamos que una máquina “piensa”, no sabemos exactamente qué estamos diciendo.
- El contenido vertido en esta columna de opinión es de exclusiva responsabilidad de su autor, y no refleja necesariamente la línea editorial ni postura de El Mostrador.
Inscríbete en nuestro Newsletter El Mostrador Opinión, No te pierdas las columnas de opinión más destacadas de la semana en tu correo. Todos los domingos a las 10am.