/Künstliche Intelligenz lässt sich mit subtilen Daten-Manipulationen in die Irre führen

Künstliche Intelligenz lässt sich mit subtilen Daten-Manipulationen in die Irre führen

Künstliche Intelligenz lässt sich mit subtilen Daten-Manipulationen in die Irre führen


Sascha Mattke

Kleinste Veränderungen an Datenmaterial, die von Menschen nicht wahrgenommen werden, können intelligente Maschinen massiv durcheinander bringen. Statt Autos sehen Computer dadurch schon mal Minion-Figuren.

Forscher an der Bar-Ilan Universität in Israel und im KI-Team von Facebook haben gezeigt, dass sich Systeme für künstliche Intelligenz relativ leicht täuschen lassen. Beispielsweise konnten sie Audio-Aufzeichnungen mit einer leisen Schicht Rauschen so verändern, dass Menschen weiterhin alles richtig verstanden, das Google-System Google Voice bei der Transkription aber weitestgehend versagte. Das berichtet Technology Review online in “Wie man KI austrickst“.

Zum Thema:

Die Arbeit der Forscher lässt sich auch auf andere Algorithmen für Maschinenlernen anwenden. Mit Veränderungen an Bildern von Menschen zum Beispiel kann man für die Erkennung der Körperhaltung ausgelegte Algorithmen dazu bringen, eine falsche Haltung zu erkennen. Durch Rauschen in einem Bild von einer Straßenszene ließ sich auch ein Algorithmus austricksen, der ansonsten für die Erkennung von Straßen und Schildern in autonomen Autos genutzt wird: Er sah stattdessen eine Minion-Figur.

Diese so genannten “Adversarial Examples” mögen als Forschungsgebiet merkwürdig wirken, doch sie lassen sich für Stresstests an Maschinenlern-Algorithmen nutzen. Beunruhigender ist, dass man sie auch mit böser Absicht einsetzen und KI-Systeme dazu bringen könnte, Dinge zu sehen oder zu hören, die gar nicht da sind – so könnte man autonomen Autos nicht existierende Fahrzeuge vorgaukeln oder intelligenten Lautsprechern falsche Anweisungen. Allerdings sind solche Angriffe in der Praxis deutlich schwieriger vorzunehmen als im Labor.

Mehr dazu bei Technology Review online:

(sma)