Hay personas usando la IA para planear asesinatos. La cuestión es qué están haciendo las empresas de IA al respecto
El pasado 10 de febrero una joven de 18 años asesinó a tiros a su madre y a su hermano. Después fue al instituto y asesinó a siete personas más, para finalmente suicidarse. Lo inquietante es que la autora había hablado de ello con ChatGPT y OpenAI tuvo la ocasión de avisar a la policía, pero eligió no hacerlo. Qué ha pasado. Cuentan en el Wall Street Journal que, en junio del año pasado, el sistema automático de OpenAI detectó varios mensajes que había enviado una usuaria a ChatGPT en los que se describía escenarios de violencia armada. Para algunos empleados eran muy preocupantes porque podían acabar en violencia real, por lo que se debatió internamente si avisar a las autoridades canadienses. Finalmente le cerraron la cuenta, pero no avisaron a nadie. Ahora las autoridades canadienses les han convocado para pedir explicaciones. En Xataka "No puedo parar": la adicción a hablar con la IA ya está aquí y hasta existen grupos de ayuda para dejarla Hay más. El t...