Malgré leur démocratisation, les modèles d’IA restent des «boîtes noires», dont même les spécialistes ne parviennent pas à expliquer précisément le fonctionnement. Pour garantir la sécurité des systèmes et limiter leurs biais, le domaine dit de «l’interprétabilité» suscite beaucoup d’intérêt.