Anthropic, compania din spatele chatbot-ului Claude, îşi relaxează politica de siguranţă AI în aceeaşi săptămână în care refuză ultimatumul Pentagonului privind armele autonome şi supravegherea în masă

Anthropic, compania americană de inteligenţă artificială care dezvoltă chatbot-ul Claude, şi-a înlocuit politica de siguranţă cu un cadru mai flexibil, renunţând la angajamentul ferm de a opri antrenarea modelelor AI dacă acestea depăşesc capacitatea companiei de a le controla. Schimbarea vine în aceeaşi săptămână în care Anthropic se află într-un conflict deschis cu Pentagonul, care ameninţă compania cu pierderea unui contract de 200 de milioane de dolari şi cu includerea pe o listă neagră guvernamentală.