Bei sogenannten Distillationsangriffen sammeln Entwickler Antworten großer KI-Modelle, um kleinere Systeme zu trainieren und deren Leistung zu kopieren.