Anthropic, compania americană de inteligenţă artificială care dezvoltă chatbot-ul Claude, şi-a înlocuit politica de siguranţă cu un cadru mai flexibil, renunţând la angajamentul ferm de a opri antrenarea modelelor AI dacă acestea depăşesc capacitatea companiei de a le controla. Schimbarea vine în aceeaşi săptămână în care Anthropic se află într-un conflict deschis cu Pentagonul, care ameninţă compania cu pierderea unui contract de 200 de milioane de dolari şi cu includerea pe o listă neagră guvernamentală.