La start-up californienne souhaitait obtenir des garanties pour que son modèle d'IA, Claude, ne soit pas utilisé pour la surveillance de masse des populations ou l'automatisation d'une attaque mortelle. Des exigences peu au goût du ministère américain de la Défense.