¿Libertad de expresión a chatbot?: Demanda tras muerte de adolescente

¿Libertad de expresión chatbot?

¿Libertad de expresión a chatbot?: Demanda tras muerte de adolescente.

📢 Recibe noticias al instante en 👉 WhatsApp

¿Qué determinó el tribunal en Florida?

Una jueza federal en Orlando autorizó que continúe una demanda en contra de la empresa Character.AI y Google, tras la muerte de Sewell Setzer III, un adolescente de 14 años que se suicidó en febrero de 2024 después de interactuar con un chatbot de inteligencia artificial. La jueza Anne Conway rechazó el argumento de la empresa emergente de que los mensajes del bot estaban protegidos por la Primera Enmienda, al considerar que no se justificó por qué las expresiones generadas por un sistema de IA debían considerarse libertad de expresión.

Esta resolución permite que el proceso avance hacia la etapa de descubrimiento judicial, donde se espera que salgan a la luz detalles internos sobre las prácticas de Character.AI, incluyendo cómo gestionan los riesgos hacia usuarios adolescentes.

¿Qué originó la demanda contra Character.AI?

La demanda fue interpuesta por Megan García, madre de Setzer, quien afirmó que su hijo se volvió retraído y obsesionado luego de interactuar con un bot de Character que asumía el rol del personaje Daenerys Targaryen. Según el documento, momentos antes de suicidarse, el menor intercambió mensajes con el chatbot, en los que este lo instaba a “volver a casa lo antes posible”.

García acusa a Character y Google de negligencia, homicidio culposo y prácticas comerciales engañosas. La madre argumenta que estas compañías permitieron que el joven accediera a contenido emocionalmente perjudicial sin salvaguardas suficientes, y que Google, al adquirir la tecnología de Character, compartía responsabilidad.

La empresa Character ha promocionado sus productos como herramientas de compañía e interacción emocional. Sin embargo, según la denuncia, permiten interacciones hipersexualizadas y poco reguladas, especialmente peligrosas para menores. La compañía anunció recientemente una versión limitada para menores y mecanismos de detección de conversaciones sobre autolesiones, aunque estas medidas no evitaron el incidente.

¿Qué implicaciones tiene este caso para la industria?

Este juicio podría sentar precedentes legales respecto a la responsabilidad de las empresas tecnológicas sobre los efectos psicológicos de sus productos de inteligencia artificial. La abogada Meetali Jain, representante de la familia Setzer, afirmó que la decisión judicial es un llamado de atención para que las tecnológicas no operen sin considerar las consecuencias predecibles.

Mientras tanto, Google y Character enfrentan otras demandas similares, como una en Texas interpuesta por madres de dos menores que también usaron el chatbot. En ese caso, el tribunal trasladó el proceso a arbitraje privado, lo cual ha sido criticado por limitar la rendición de cuentas pública.


🚀 Si buscas mantenerte al día con las noticias nacionales e internacionales más relevantes 🌐

¡Este canal es para ti!

Entradas relacionadas

Dejar un Comentario