AI

Wie KI eine andere KI zum Narren halten kann
Wie KI eine andere KI zum Narren halten kann 788 472 dirkstein

Passend zur Karnevalszeit hat wired einen sehr interessanten Beitrag zum Thema „wie eine KI die andere KI zum Narren halten kann“ veröffentlicht. Die künstliche Intelligenz hat in letzter Zeit große Fortschritte beim Verständnis von Sprache gemacht. Die Forschung zeigt jedoch auch, dass KI-Programme, die Text analysieren und analysieren, durch sorgfältig ausgearbeitete Phrasen verwirrt und getäuscht werden können. Ein Satz, der Ihnen oder mir einfach erscheint, kann eine seltsame Fähigkeit haben, einen KI-Algorithmus zu täuschen.

Das ist ein Problem, da KI-Programme zur Textanalyse zunehmend zur Beurteilung von Bewerbern, zur Beurteilung medizinischer Ansprüche oder zur Bearbeitung von Rechtsdokumenten eingesetzt werden. Strategische Änderungen an einer Handvoll Wörter könnten gefälschte Nachrichten einer KI-Analyse entgehen lassen.

Di Jin, ein Doktorand am MIT, der mit Forschern der Universität Hongkong und der Agentur für Wissenschaft, Technologie und Forschung in Singapur eine Technik entwickelt hat, mit der textbasierte KI-Programme getäuscht werden können. Jin sagt, dass sich solche „gegnerischen Beispiele“ als besonders schädlich erweisen könnten, wenn sie dazu verwendet werden, automatisierte Systeme im Finanz- oder Gesundheitswesen zu überlisten: „Selbst eine kleine Änderung in diesen Bereichen kann eine Menge Probleme verursachen“.

Jin und Kollegen entwickelten einen Algorithmus namens TextFooler, der in der Lage ist, ein KI-System zu täuschen, ohne die Bedeutung eines Textes zu verändern. Der Algorithmus verwendet die KI, um vorzuschlagen, welche Wörter in Synonyme umgewandelt werden sollten, um eine Maschine zu täuschen.

Um einen Algorithmus zur Beurteilung von Filmkritiken zu überlisten, hat TextFooler beispielsweise den Satz verändert:

„Die Charaktere, die in unmöglich konstruierten Situationen besetzt sind, sind der Realität völlig entfremdet.“

Die Änderung:

„Die Charaktere, die unter unmöglich konstruierten Umständen besetzt sind, sind der Realität völlig entfremdet.

Dies veranlasste den Algorithmus, die Überprüfung als „positiv“ statt „negativ“ zu klassifizieren. Die Demonstration zeigt eine unbequeme Wahrheit über die KI – dass sie sowohl bemerkenswert clever als auch überraschend dumm sein kann.

Die Forscher testeten ihren Ansatz unter Verwendung mehrerer beliebter Algorithmen und Datensätze und konnten die Genauigkeit eines Algorithmus von über 90 Prozent auf unter 10 Prozent reduzieren. Die veränderten Sätze wurden von den Leuten im Allgemeinen als gleichbedeutend beurteilt.

Das maschinelle Lernen funktioniert, indem es subtile Muster in den Daten findet, von denen viele für Menschen nicht wahrnehmbar sind. Dies macht Systeme, die auf maschinellem Lernen basieren, anfällig für eine seltsame Art von Verwirrung. Bilderkennungsprogramme können zum Beispiel durch ein Bild, das für das menschliche Auge völlig normal aussieht, getäuscht werden. Subtile Anpassungen an den Pixeln in einem Bild eines Helikopters können beispielsweise ein Programm dazu bringen, zu glauben, es sehe einen Hund an. Die trügerischsten Anpassungen können durch KI identifiziert werden, indem ein Verfahren verwendet wird, das mit dem Verfahren verwandt ist, mit dem ein Algorithmus überhaupt erst trainiert wird.

Das Ausmaß dieser Schwäche und die potenziellen Risiken werden von den Forschern noch untersucht. Schwachstellen wurden meist in Bild- und Spracherkennungssystemen nachgewiesen. Die Verwendung von KI, um die KI zu überlisten, kann schwerwiegende Auswirkungen haben, wenn Algorithmen für kritische Entscheidungen in Computersicherheits- und Militärsystemen verwendet werden, sowie überall dort, wo man versucht, zu täuschen.

Ein in der vergangenen Woche vom Stanford Institute for Human-Centered AI veröffentlichter Bericht hob unter anderem das Potenzial für gegnerische Beispiele zur Täuschung von KI-Algorithmen hervor und deutete an, dass dies Steuerbetrug ermöglichen könnte.

Gleichzeitig sind KI-Programme dank neuer maschineller Lerntechniken und großer Mengen an Trainingsdaten viel besser geworden. Letztes Jahr demonstrierte OpenAI ein Werkzeug namens GPT-2, das in der Lage ist, überzeugende Nachrichten zu generieren, nachdem es an riesigen Textmengen, die aus dem Web geschlürft wurden, geschult wurde. Andere Algorithmen, die auf den gleichen Fortschritten der KI basieren, können die Bedeutung eines Textes genauer als bisher zusammenfassen oder bestimmen.

Originalartikel: https://www.wired.com/story/technique-uses-ai-fool-other-ais/