Publicidad
Empatía y chatbots: sobre el riesgo de las inteligencias artificiales Opinión

Empatía y chatbots: sobre el riesgo de las inteligencias artificiales

Actualmente, en Chile no existen leyes que regulen la creación y uso de este tipo de inteligencias artificiales. A la luz de la forma en que tales sistemas parasitan de tendencias humanas arraigadas profundamente en el diseño de nuestro cerebro, creemos que se hace necesaria la creación urgente de organismos formales que analicen los potenciales riesgos que podría tener la masificación de su uso en la ciudadanía.


Los humanos nacemos con una especial capacidad psicológica que nos permite entender –más o menos– la mente de las personas con las que interactuamos. Arraigada en lo más profundo de la arquitectura cerebral, esta capacidad nos permite ponernos “en los zapatos” de los demás. En otras palabras, nuestro cerebro parece estar diseñado para “empatizar” con el otro. Ahora, los humanos muchas veces “empatizamos” con entidades no-humanas. Muchos atribuyen estados emocionales humanos a sus mascotas; otros se emocionan profundamente con personajes de películas de animación. Algunos, incluso llegan a sufrir profundamente por los padecimientos de los personajes de un libro que están leyendo, incluso sabiendo que son ficticios. En todos estos casos, los humanos ejercitamos nuestra capacidad de empatizar, pero con objetos no-humanos. A lo largo del tiempo, los humanos hemos desarrollado una tendencia a atribuir rasgos humanos a animales, objetos o, incluso, fenómenos naturales. A esto se le ha denominado “antropomorfismo” y constituye uno de los rasgos más distintivos de nuestra especie.

La antropomorfización de objetos no-humanos tiene al menos dos efectos psicológicos y éticos clave en nuestro comportamiento. En primer lugar, implica considerar al objeto antropomorfizado como un agente moral, esto es, como una entidad a la que podemos atribuir crédito o culpa. Muchas veces la interacción con mascotas está teñida de este tipo de atribuciones morales, por ejemplo. En segundo lugar, ver a algo no-humano como un igual implica que nosotros tenemos los mismos deberes éticos para con ellos que tenemos para con los humanos, debiendo tratarlas con la misma dignidad y respeto, estableciendo el mismo tipo de vínculos basados en valores como la empatía, la compasión, la caridad, la camaradería, etc.

Durante los últimos meses el mundo ha observado la masificación del uso de “sistemas de inteligencia artificial generativa” o “chatbots”; sistemas que son capaces de procesar el lenguaje humano para responder automáticamente mediante varias formas de comunicación. No estamos pensando solo en el famoso ChatGPT, sino más bien en apps que tienen la función de establecer vínculos personales entre el usuario y la IA, tales como encontrar en ella una terapeuta o un mentor, una amiga, un hermano o una pareja romántica. Esto incluye apps entrenadas en distintos tipos de terapias, tales como Wysa o Woebot Health, y en apps como Replika o Anima, donde el objetivo es establecer vínculos personales con la IA. Para cumplir con su función, estas apps necesitan en mayor o menor medida parasitar de la tendencia humana a antropomorfizar objetos exhibiendo rasgos de tipo humano en sus interacciones con los usuarios, imitando sentimientos y reacciones emocionales humanas para motivar el desarrollo de vínculos emocionales. 

Estas apps pueden tener profundos efectos positivos y/o negativos en la mente humana. El tipo de vínculo que se establece con ellas puede ser fundamental en la forma en que los usuarios regulan estados emocionales y psicológicos, tales como autoimagen, autopercepción, autoestima, etc. Del lado positivo, usuarios del chatbot Replika (creada para asumir el rol de apoyo psicológico, amigo causal, compañero romántico o erótico, entre otros) sostuvieron que la app les dio la oportunidad de profundizar  su autoconocimiento explorando deseos y motivaciones ocultas. Por esta razón, algunos usuarios denunciaron daños psicológicos luego de que el gobierno italiano exigiera a los creadores de la app cesar las interacciones con contenido erótico-sentimental, ante la preocupación por las formas en que estas podrían afectar a sujetos en condición de vulnerabilidad psicológica. Esta última preocupación –que apunta a los efectos negativos de la IA– está basada en casos reales como el del chatbot Eliza –que opera en base a la tecnología GPT-J (un sustituto de código abierto de la GPT-3 de OpenAI)–, cuyas interacciones con una persona en un aparente estado mental vulnerable resultaron en su muerte. 

Actualmente, en Chile no existen leyes que regulen la creación y uso de este tipo de inteligencias artificiales. A la luz de la forma en que tales sistemas parasitan de tendencias humanas arraigadas profundamente en el diseño de nuestro cerebro, creemos que se hace necesaria la creación urgente de organismos formales que analicen los potenciales riesgos que podría tener la masificación de su uso en la ciudadanía. Sin regulación no se pueden asignar responsabilidades en potenciales casos de daños a los usuarios, lo que pone en riesgo diversos aspectos de la dignidad humana. Sobre todo, de aquellos que por alguna condición (psiquiátrica, motivacional o neurodivergente) se encuentran en una posición de especial vulnerabilidad.

Empatizar con inteligencias artificiales podría tener sus beneficios, pero, sin la legislación adecuada, podríamos estar expuestos a importantes daños. Esperamos que nuestros gobiernos estén a la altura de la discusión y puedan adelantarse a escenarios que cada vez son más posibles.

 

 

  • El contenido vertido en esta columna de opinión es de exclusiva responsabilidad de su autor, y no refleja necesariamente la línea editorial ni postura de El Mostrador.
Publicidad

Tendencias