¿Puede ChatGPT tener responsabilidad en un tiroteo?
Los demandantes acusan a OpenAI, creador de ChatGPT, de ofrecer un producto “defectuoso” que supuestamente dio al presunto autor de un tiroteo en Florida consejos sobre cómo causar el mayor daño posible. También cuestionan que la empresa no alertara a las autoridades canadienses a pesar de identificar como de riesgo al responsable de otro ataque. El caso reabre el debate sobre los límites de la inteligencia artificial y la responsabilidad de las plataformas a las que muchas veces se atribuyen capacidades humanas. ¿Puede un sistema como ChatGPT tener algún grado de responsabilidad en eventos violentos?
Puedes consultar la fuente de este artículo aquí