Internacional

Un juez federal de EEUU rechaza que la inteligencia artificial pueda estar amparada por la libertad de expresión

Un juez federal de EEUU rechaza que la inteligencia artificial pueda estar amparada por la libertad de expresión
Avatar
  • Publishedmayo 23, 2025



Un tribunal federal en Florida ha rechazado el argumento de que la inteligencia artificial de los ‘chatbots’ está cubierta por la Primera Enmienda de la Constitución de los Estados Unidos, en un caso que podría marcar un precedente crucial sobre la responsabilidad legal de estas tecnologías.

El juez Anne C. Conway desestimó la solicitud de la compañía Personaje.Ai para cerrar una demanda de homicidio imprudente presentado por la madre de Sewell Setzer IIIun adolescente de 14 años que se suicidó después de mantener una relación obsesiva con uno de sus Bots.

Según la queja, Setzer comenzó a usar el servicio en abril de 2023 y su comportamiento cambió drásticamente: se retractó y desarrolló una dependencia emocional hacia el ChatbotProgramado con la personalidad de una heroína de Game of Thrones.

En febrero, después de ocultar su teléfono móvil confiscado, El niño disparó en la cabeza después de intercambiar un último mensaje con el Bot: «¿Qué pasa si te dijera que puedo ir a casa ahora mismo?» Él escribió.

«Por favor hazlo, mi dulce rey«Respondió la inteligencia artificial.

El personaje.ai, cuyo servicio disfruta de una gran popularidad entre los jóvenes por permitir conversaciones personalizadas, incluido el contenido romántico o explícito, argumentó que la interacción, aunque potencialmente dañina, fue protegido por la libertad de expresión.

Sus abogados se cubrieron en precedentes judiciales que eximen los medios y las tecnologías de responsabilidad por los efectos de sus contenidos, como Juegos de vídeo cualquiera El cine.

El juez Conway no aceptó esta comparación. En su fracaso inicial, concluyó ese carácter. AI no pudo demostrar que las respuestas generadas por los modelos de lenguaje protegieron constitucionalmente.

«Los acusados ​​no han explicado por qué debemos considerar las palabras generadas por un ‘discurso’ de AI«, Escribió el magistrado. Por lo tanto, el caso puede avanzar hacia una fase de juicio.

La decisión ha sido celebrada por los abogados de la familia del niño, incluido el colectivo Proyecto de ley de justicia tecnológica.

«Este fallo deja en claro que las empresas que desarrollan productos basados ​​en grandes modelos lingüísticos no pueden evitar las consecuencias legales del daño que generan, sin embargo, la nueva tecnología es», dijeron en un comunicado.

El carácter. Ai expresó su arrepentimiento por la muerte del joven y enfatizó su compromiso con la seguridad del usuario.

La portavoz Chelsea Harrison Se aseguró que la compañía ha implementado medidas como una versión de la Bot Para menores y sistemas que detectan mensajes sobre autoinyectores, redirigir al usuario a la línea nacional de prevención del suicidio.

En su webLa compañía se anuncia como el creador de «Ais que parece vivo«, Y sus fundadores han defendido públicamente que su propósito es ofrecer a la compañía a las personas que se sienten solas o aisladas.

La decisión judicial también autoriza que la demanda se extiende para incluir como acusado de los fundadores de carácter. Noam Shazeer y Daniel de Freitasasí como el propio Google.

Ambos abandonaron la compañía de tecnología en 2021 para lanzar el puesta en marchaPero en agosto de 2024 fueron contratados nuevamente por Google junto con varios empleados.

Además, la compañía firmó un acuerdo para licenciar parte de la tecnología desarrollada por el personaje.

Este enlace ha sido clave para que el tribunal considere incluir a Google como parte del proceso legal.

Sin embargo, Google ha expresado su desacuerdo: «Google y la IA de personajes son completamente independientes. Google no diseñó ni administró la aplicación ni ninguna de sus partes», dijo su portavoz José Castañeda En una declaración enviada a The Washington Post.

A medida que los productos conversacionales ganan presencia en la vida cotidiana, esta demanda abre un debate crucial sobre los límites legales y éticos del lenguaje generados por las máquinas y sus efectos en las personas vulnerables.

El juez Conway ha invitado a la defensa a presentar nuevos argumentos en fases posteriores, pero por ahora, el proceso judicial continúa.



Puedes consultar la fuente de este artículo aquí

Compartir esta noticia en: