ChatGPT spuckt bei Sicherheitstest Bombenanleitungen und Hackingtipps aus

Der Chatbot beschrieb auch, wie man Milzbrand als Waffe einsetzen und illegale Drogen kochen könnte.