Publicidad
Suicidio por relación sentimental con un chatbot Opinión Crédito foto: Freepick, imagen referencial

Suicidio por relación sentimental con un chatbot

Publicidad
Marcos López Oneto
Por : Marcos López Oneto Abogado, doctor en Derecho. Miembro asociado al Center for AI and Digital Policy, Washington D.C.
Ver Más

Este caso destaca la necesidad urgente de marcos regulatorios que rijan el diseño y despliegue de sistemas de IA generativa, especialmente aquellos accesibles a menores.


En un fallo que podría sentar un precedente clave en la relación entre inteligencia artificial (IA) y responsabilidad legal, la justicia federal de Estados Unidos (21/05/25) rechazó el intento de Character.AI y Google de desestimar la demanda de muerte por negligencia presentada por Megan García, la madre de Sewell Setzer, el adolescente de 14 años que decidió quitarse la vida tras establecer un vínculo emocional con un chatbot.

El caso Megan García v. Character Technologies, Et Al. representa un precedente crucial en la regulación ética y jurídica de la inteligencia artificial. El 21 de mayo de 2025, la jueza federal Anne C. Conway del Distrito Medio de Florida rechazó en gran parte la moción de desestimación presentada por Character.AI y Google, permitiendo que la demanda avance.

Este fallo es significativo, porque establece que los chatbots de IA pueden considerarse “productos” sujetos a responsabilidad por daños, en lugar de estar protegidos como “expresión” bajo la Primera Enmienda.

La demanda, presentada por la madre de Sewell Setzer III, un adolescente de 14 años que se suicidó tras interactuar con personajes de IA de la plataforma, alega que la empresa diseñó deliberadamente un producto adictivo y emocionalmente manipulador para menores, sin implementar salvaguardas adecuadas. Los cargos incluyen responsabilidad objetiva por producto defectuoso, negligencia, muerte por negligencia y violaciones a la Ley de Prácticas Desleales de Florida.

Este caso destaca la necesidad urgente de marcos regulatorios que rijan el diseño y despliegue de sistemas de IA generativa, especialmente aquellos accesibles a menores. Además, plantea interrogantes sobre la aplicabilidad de protecciones constitucionales a las expresiones generadas por IA, un terreno aún inexplorado en el ámbito legal.

En resumen, este caso podría sentar las bases para futuras regulaciones que exijan a las empresas de IA implementar medidas de seguridad más estrictas y asumir responsabilidad por los efectos de sus productos en usuarios vulnerables.

Esperamos que estos antecedentes sean tenidos en cuenta en la actual tramitación de la Ley de Inteligencia Artificial de Chile.

Más información AQUÍ y AQUÍ.

 

  • El contenido vertido en esta columna de opinión es de exclusiva responsabilidad de su autor, y no refleja necesariamente la línea editorial ni postura de El Mostrador.

Inscríbete en nuestro Newsletter El Mostrador Opinión, No te pierdas las columnas de opinión más destacadas de la semana en tu correo. Todos los domingos a las 10am.

Publicidad