INTELIGENCIA ARTIFICIAL | Familias de las víctimas de un tiroteo masivo en Canadá demandan a OpenAI por ocultar el rol que jugó ChatGPT
OpenAI atraviesa su momento Facebook, en el peor de los sentidos. La influyente compañía de inteligencia artificial ha sido demandada por las familias de siete víctimas de un tiroteo masivo que el pasado febrero conmocionó Canadá, que la acusan de negligencia por no informar a las autoridades de las inquietantes conversaciones que el autor de la masacre mantuvo con ChatGPT.
[–>[–>[–>El pasado 10 de febrero, un hombre armado irrumpió armado en una escuela de secundaria en la remota localidad de Tumbler Ridge, en Columbia Británica, y tiroteó a sus alumnos. Asesinó a siete personas, la mayoría de ellas niñas y niños de entre 11 y 12 años de edad, y después se suicidó. Antes, había matado a su madre y a su hermanastro, también de 11 años.
[–>[–>[–>
El autor del atentado fue Jesse Van Rootselaar, de 18 años. Su proceso de radicalización habría pasado por ChatGPT. Las conversaciones que mantenía con el chatbot de IA eran tan extremas que, ocho meses antes de que perpetrase la tragedia, OpenAI marcó su cuenta como «una amenaza creíble y específica de violencia con armas de fuego contra personas reales».
[–>[–>[–>[–>[–>[–>
Aun así, la compañía optó por no informar a las autoridades, pues consideró que no había un plan creíble o inminente de daño físico grave a otras personas. En su lugar, solo desactivó su cuenta. Molestos con esa decisión, empleados filtraron esa información a The Wall Street Journal. Los abogados del caso señalan que el autor creó fácilmente otra cuenta para seguir interactuando con el popular chatbot.
[–>[–>[–>«Definición de maldad»
[–>[–>[–>
Ahora, las familias de las siete víctimas mortales que se encontraban en el colegio han demandado a OpenAI y a su director ejecutivo, Sam Altman, ante un tribunal federal de San Francisco. Los acusan de negligencia, alegando que la decisión de no informar a la policía desembocó en el tiroteo en el que otras 27 personas resultaron heridas. También de complicidad en un tiroteo masivo, homicidio imprudente y responsabilidad por productos defectuosos.
[–>[–>[–>
«El hecho de que Sam y los responsables hicieran caso omiso de las recomendaciones del equipo de seguridad, y que luego murieran niños y adultos y quedara arruinado todo el pueblo, se acerca bastante a lo que yo considero la definición de maldad«, ha remarcado Jay Edelson, el abogado que representa a los demandantes.
[–>[–>[–>
La querella alega OpenAI ocultó información para proteger su salida a bolsa, que podría disparar la valoración de la compañía a un billón de dólares y convertir a Altman en uno de los hombres más ricos del mundo. También acusa a la start-up de IA generativa de negarse a compartir las conversaciones que Van Rootselaar mantuvo con ChatGPT.
[–>[–>[–>
«Lo siento mucho»
[–>[–>[–>
El pasado jueves, Altman mandó una carta a la comunidad de la pequeña comunidad canadiense en la que afirmaba que «lamentaba profundamente no haber alertado a las fuerzas del orden sobre la cuenta que fue suspendida en junio».
[–>[–>[–>OpenAI ha indicado en un comunicado que tienen «tolerancia cero» respecto al uso de sus productos «para facilitar la comisión de actos violentos» y que han tomado medidas para «mejorar la forma en que ChatGPT responde ante señales de angustia, poner en contacto a las personas con recursos locales de apoyo y salud mental, reforzar la forma en que evaluamos y escalamos posibles amenazas de violencia, y mejorar la detección de quienes infligen repetidamente nuestras políticas».
[–>[–>[–>
Suscríbete para seguir leyendo
Puedes consultar la fuente de este artículo aquí