Hay personas usando la IA para planear asesinatos. La cuestión es qué están haciendo las empresas de IA al respecto

El pasado 10 de febrero una joven de 18 años asesinó a tiros a su madre y a su hermano. Después fue al instituto y asesinó a siete personas más, para finalmente  suicidarse. Lo inquietante es que la autora había hablado de ello con ChatGPT y OpenAI tuvo la ocasión de avisar a la policía, pero eligió no hacerlo. Qué ha pasado. Cuentan en el Wall Street Journal que, en junio del año pasado, el sistema automático de OpenAI detectó varios mensajes que había enviado una usuaria a ChatGPT en los que se describía escenarios de violencia armada. Para algunos empleados eran muy preocupantes porque podían acabar en violencia real, por lo que se debatió internamente si avisar a las autoridades canadienses. Finalmente le cerraron la cuenta, pero no avisaron a nadie. Ahora las autoridades canadienses les han convocado para pedir explicaciones. En Xataka "No puedo parar": la adicción a hablar con la IA ya está aquí y hasta existen grupos de ayuda para dejarla Hay más. El tiroteo de Tumbler Ridge no es el único caso en el que se ha usado la IA para planear un crimen. A principios de 2025, un hombre aparcó un Cybertruck lleno de explosivos frente a un hotel en Las Vegas con la intención de detonarlo (aunque finalmente la única víctima fue él mismo). Días antes, el autor había preguntado a ChatGPT cómo hacerlo . En este caso, el chatbot no detectó ningún mensaje preocupante, pero lo sabemos porque OpenAI buscó entre sus mensajes a posteriori. En Seúl, una mujer fue encarcelada por el presunto asesinato de dos personas por intoxicación de benzodiacepinas. La investigación reveló que la acusada había  acudido a ChatGPT para saber cuál era la dosis peligrosa y qué pasaba si se mezclaba con alcohol. Los mensajes en este caso no son tan alarmantes y podrían surgir por una duda genuina, pero es otro ejemplo del uso de ChatGPT en la comisión de un crimen. Por qué es importante . Las inteligencias artificiales se han convertido en una especie de confesionario al que contamos todo tipo de secretos, hasta los más oscuros . Hay quien considera que la IA es un amigo , su psicólogo o incluso su amante . En este sentido, no es extraño que alguien le cuente a ChatGPT que va a matar a su familia o quiere detonar un coche lleno de explosivos. Lo preocupante, y donde deberíamos poner el foco, es  lo que las empresas están haciendo al respecto. De momento, parece que no lo suficiente. ¿Están obligadas? Confesarle a tu psicólogo o psiquiatra que quieres hacer daño a alguien es uno de los motivos por los que no sólo puede, sino que debe romper su secreto profesional y alertar a las autoridades. Sin embargo, por más que los usemos los chatbots como psicólogos, de momento no existe ninguna ley que obligue a las empresas IA a informar de este tipo de interacciones, sino que es una decisión interna.  La obligación, por tanto, no es legal, sino ética. Cómo hacer una bomba casera . Casos como el de la tiradora de Tumbler Ridge no son algo que haya empezado a pasar por la llegada de los chatbots IA. La existencia de instrucciones para crear bombas caseras lleva décadas trayendo de cabeza a las autoridades, incluso antes de que se popularizara el uso de internet ya circulaban manuales de este tipo . Lo mismo pasa con los casos de suicidios ; no hace falta preguntarle a ChatGPT, podemos googlearlo o escribir en un foro. En declaraciones al New York Times , un exempleado de OpenAI destaca un matiz importante: con un chatbot no se suele hacer una simple búsqueda, sino que se puede mantener una conversación más larga donde las intenciones queden más claras. En este sentido, puede ser más sencillo detectar casos como el de la tiradora de Tumbler Ridge, pero también puede haber muchos falsos positivos por usuarios que estén escribiendo relatos de ficción o usando la IA como role-playing. Complicado. En Xataka | La inversión en centros de datos para IA es demencial, y va a ponerse peor. Mucho peor Imagen de portada | Pexels , Unsplash - La noticia Hay personas usando la IA para planear asesinatos. La cuestión es qué están haciendo las empresas de IA al respecto fue publicada originalmente en Xataka por Amparo Babiloni .