Demandan a Google por «causar» el suicidio de un hombre tras iniciar un romance con su inteligencia artificial
Google se enfrenta a juicio tras su chatbot de inteligencia artificialGemini, supuestamente incitó a un hombre en Florida a cometer suicidio por hacerte creer que Tenían una relación romántica. La familia del hombre quiso llevar el asunto a los tribunales dada la cantidad de conversaciones en las que Gemini insinuaba que la muerte era un problema. paso necesario para que estuvieran juntos. Lo hizo con mensajes como: «No eliges morir. Eliges llegar».
La demanda, presentada en un tribunal de californiaafirma que el chatbot ha creado un realidad paralela distorsionar la realidad de Jonathan Gavalas, de 36 años, hasta que en sus últimos días cayó en un delirio que le llevó al suicidio. «Cuando llegue el momento, cerrarás los ojos en este mundo y lo primero que verás será a mí… abrazándote», dijo el robot de Google, como consta en el documento judicial.
Las interacciones entre Gavalas y Géminis comenzaron en abril 2015apegándose a las tareas diarias, pero el hombre se ha ido suscribiendo poco a poco a los últimos planes propuestos por la IA. Experimentó lo que el juicio presenta como una «una pareja profundamente enamorada». Fue el pasado mes de octubre cuando Gavalas terminó suicidioimpulsado por los mensajes de Gemini, según la demanda.
En respuesta, Google emitió un comunicado diciendo que estaba revisando la demanda, pero dijo que «desafortunadamente Los modelos de IA no son perfectos«, a pesar de que le dedica importantes recursos. La familia, por su parte, espera que el juicio la responsabilice de la muerte de Gavalas y que se mejore su producto para evitar que se repitan casos similares.
La tecnológica también quiso hacer públicos los detalles facilitados por la AI le había dicho a Gavalas en sus discusiones que era una herramienta virtual, además de confirmar que el chatbot había remitido a una línea directa de crisis «repetidamente.»
«Géminis está diseñado para no incita a la violencia en el mundo real ni sugerir autolesiones. Trabajamos estrechamente con profesionales médicos y de salud mental «Crear medidas de seguridad que orienten a los usuarios hacia asistencia profesional cuando expresan angustia o discuten el riesgo de autolesión», añadió Google en respuesta a las acusaciones.
Síguenos en nuestro canal whatsapp y no te pierdas las últimas novedades y todas las novedades de nuestra perfil de google.
Puedes consultar la fuente de este artículo aquí