Startseite » Technik »

Künstliche Intelligenz: Wie die Black Box KI transparent wird

Künstliche Intelligenz
Wie Black Box KI transparent wird

Selbstlernende Systeme sind intransparent – was ihren Einsatz in kritischen Anwendungen problematisch macht. Forscher und Anbieter arbeiten daher an der Absicherung von KI-Systemen. Doch die Technologie braucht auch Freiraum.

❧ Markus Strehlitz

Technologien rund um die künstliche Intelligenz (KI) erleben einen Hype. Das Potenzial ist riesig und die Systeme sind mittlerweile so weit ausgereift, dass sie in vielen Anwendungen großen Nutzen bringen – von der industriellen Bildverarbeitung bis zu Fahrerassistenzsystemen. Doch wie verlässlich sind die Technologien tatsächlich?

„KI funktioniert meistens gut“, sagt Professor Mario Trapp, geschäftsführender Leiter des Fraunhofer-Instituts für Eingebettete Systeme und Kommunikationstechnik (ESK). Das „meistens“ sei jedoch nicht genauer spezifiziert.

Dann nennt er ein Beispiel, das viele aus ihrem Alltag kennen: „Bei Sprachassistenten wie zum Beispiel Siri oder Alexa braucht man manchmal drei oder vier Anläufe, bis das System verstanden hat, was man wirklich meint“, erklärt Trapp. Das sei das Niveau, auf dem sich die KI zur Zeit bewege. „Man kann keine Garantie für ihr Funktionieren geben“, so seine Fachmeinung.

Es gibt keine Garantie für das Funktionieren von KI-Systemen

Wenn Alexa zum Beispiel nur die heimische Musikanlage steuern soll, ist eine solche Garantie auch nicht notwendig. Es gibt aber Anwendungen, die Verlässlichkeit brauchen. Trapp berichtet von dem Unfall eines autonomen Uber-Fahrzeugs im vergangenen Jahr in den USA, bei dem eine Fußgängerin ums Leben kam, die ein Rad schob. „Diese wurde zwar als Objekt erkannt“, erzählt Trapp. „Die KI klassifizierte die Fußgängerin aber als unkritisches Objekt, das man überfahren kann – wie zum Beispiel eine Plastiktüte.“

Viele Unternehmen haben Bedenken

Auch im Produktionsumfeld müssen KI-Systeme zuverlässig funktionieren – etwa bei der Kooperation zwischen Roboter und Mensch. Daneben gebe es auch betriebswirtschaftliche Risiken, , gibt Trapp zu bedenken. „Man möchte in seiner Fertigung ja durchgängig hohe Qualität und Durchsatz haben. Wenn KI nicht verlässlich arbeitet, kann es zu Problemen kommen“, so Trapp.

In den Unternehmen gibt es entsprechende Bedenken, wenn es um den Einsatz von KI geht. Laut einer Studie von IBM, in der 5000 Führungskräfte befragt wurden, sieht die überwiegende Mehrheit großes Potenzial in den entsprechenden Technologien. 60 % befürchten allerdings Probleme mit der Verlässlichkeit.

Wissenschaftler Trapp erklärt die Schwierigkeit bei der Absicherung von KI: „Fachlich gesprochen reden wir von einer sogenannten Nichtlinearität bei der KI. Wenn wir Software testen und unsere Testfälle gut wählen, dann gehen wir davon aus, dass sie sich auch in der Realität, die sich immer irgendwo zwischen diesen Testfällen bewegen wird, sicher verhält. Davon können wir heute in der KI aber nicht ausgehen.“

„KI ist heute schwer beherrschbar“

Im Testfeld könne die KI etwa ein Bild immer korrekt analysieren. Im realen Einsatz kann es laut Trapp jedoch passieren, dass nur ein „kleines bisschen Rauschen in das Bild hineinkommt“ und plötzlich erhält man ein komplett anderes Ergebnis. „Das macht die KI heute so schwer beherrschbar.“

Herkömmliche Methoden, um Software abzusichern, funktionieren dabei nicht. Das liegt daran, wie bei KI grundsätzlich vorgegangen wird: Die Systeme werden nicht programmiert, sondern trainiert. Auf Basis von Daten, mit denen sie gefüttert werden, lernen sie selbständig.

Bei neuronalen Netzen sei das Training relativ trivial, weil man einfach einen großen Datensatz in das System hineinwerfe, wie Oliver Wasenmüller, Teamleiter Machine Vision and Autonomous Vehicle am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI), erklärt. „Trotzdem sind die Ergebnisse erstaunlich gut.“

Laut Wasenmüller ist es allerdings sehr schwierig, eine Korrelation zwischen Ergebnis und Ausgangsdaten herzustellen. Will heißen: Es lässt sich kaum nachvollziehen, warum ein KI-System so handelt, wie es handelt. Für den Menschen ist die KI eine Black Box.

„Das ist so, als ob man eine physiologische Untersuchung eines menschlichen Gehirns durchführt und daraus herleiten möchte, ob dieser Mensch etwas Falsches tut“, erläutert Trapp. Man könne zwar die einzelnen Synapsen prüfen, aber erhalte trotzdem keine Aussage über den Grund seines Verhaltens. „Genauso wenig lässt sich nachvollziehen, warum ein neuronales Netz zu seiner Entscheidung kommt.“

Das Zünglein der an der Waage

Wissenschaftler versuchen bereits, aus der Black Box eine White Box oder zumindest eine Grey Box zu machen. So gibt es etwa Ansätze, in denen bei der intelligenten Bilderkennung die Pixel markiert werden, die tatsächlich zur jeweiligen Klassifikation beigetragen haben.

KI-Forscherin Sandra Wachter vom Oxford Internet Institute arbeitet mit Kollegen an sogenannten Counterfactual Explanations. Dabei geht es darum, dass ein KI-System nicht nur ein Ergebnis liefert, sondern auch die kleinstmögliche Veränderung nennt, die zu einem anderen Ergebnis geführt hätte. Das lässt sich durch ein einfaches Beispiel aus einem KI-unterstützten Bewerbungsprozess veranschaulichen: Wäre die Abitur-Note des Bewerbers um 0,1 besser gewesen, hätte er die Stelle bekommen.

IT-Anbieter IBM hat vor kurzem bereits eine konkrete Technologie vorgestellt, die Transparenz in die KI bringen soll. Die Software soll in Echtzeit zeigen, auf welcher Grundlage Entscheidungsvorschläge zustande kommen und automatisch quantitative sowie qualitative Mängel in Daten und KI-Modellen erkennen.

Qualität der Daten ist maßgeblich für KI

„Alle Entscheidungen, die künstliche Intelligenz trifft, haben ihre Basis in den eingegebenen Daten“, sagt Wolfgang Hildesheim, der bei IBM in Deutschland für KI zuständig ist. „Da kann der Algorithmus so gut sein, wie er will.“ Die neue Technologie überprüfe etwa, ob eine ausgewogene und signifikante Datenbasis vorliege und somit auch tatsächlich verlässliche Ergebnisse geliefert werden können.

Die Erklärungen sind laut IBM einfach zu verstehen. Sie sollen alle Faktoren klar aufzeigen, die Entscheidungen der KI in die eine oder andere Richtung beeinflusst haben. Das System könne auch von Mitarbeitern ohne IT-Kenntnisse genutzt werden – mithilfe von visuellen Dachboards, wie der IT-Anbieter in einer Meldung erklärt.

Außerdem hat IBM das sogenannte AI Fairness Toolkit an die Opensource-Community übergeben. Dabei handelt es sich um eine Bibliothek mit neuen Algorithmen, Codes und Tutorials. Das AI Fairness 360 Toolkit soll systematische Fehler in KI-Modellen aufdecken und vermeiden helfen.

IBM macht das Toolkit nun öffentlich verfügbar. Auf diese Weise sollen Akademiker, Forscher und Datenexperten dazu befähigt werden, Verzerrungen eliminieren zu können, während sie an Modellen zum maschinellen Lernen arbeiten.

Datenqualität entscheidet über das Ergebnis

Dass die Datenbasis entscheidend ist, wie KI-Experte Hildesheim behauptet, kann Wasenmüller vom DFKI nur bestätigen. „Heutzutage braucht man für KI-Algorithmen eine große Zahl von Daten. Und mit deren Qualität steht und fällt daher auch die Qualität des Algorithmus“, so der Experte vom DFKI.

Auch er ist in ein Projekt involviert, das sich mit der Absicherung von KI beschäftigt. Zentrale Aufgabe des Projekts ist der Nachweis der sicheren Funktion einzelner KI-basierter Funktionsblöcke im Gesamtsystem des automatisierten Fahrens. Initiiert wurde das Projekt vom Branchenverband der Automobilindustrie VDA. Dabei arbeiten erstmals Experten aus bisher weitgehend unabhängig voneinander agierenden Fachrichtungen der KI-Algorithmik, der 3D-Visualisierung und Animation sowie der funktionalen Sicherheit zusammen. Das Projekt hat im Juli dieses Jahres begonnen und ist auf drei Jahre angelegt.

Black Box KI wird nicht so schnell durchschaut werden

Trotz dieser Aktivitäten wird es jedoch noch dauern, bis die Black Box ein bisschen durchsichtiger wird. Sowohl Trapp als auch Wasenmüller betonen, dass bei dieser Thematik noch viel Forschungsarbeit notwendig ist.

Das Fraunhofer ESK verfolgt daher einen zweiten Ansatz. Dabei geht es darum, nicht die KI selbst, sondern das System, in dem sie wirkt, sicher und zuverlässig zu machen. Dafür bauen die Wissenschaftler laut Trapp Überwachungskanäle auf.

„Wir gehen nach dem Grundprinzip vor, dass es eigentlich immer leichter ist, einen Vorschlag zu bewerten, als konstruktiv selbst einen solchen zu machen“, erklärt der Wissenschaftler. „Das ist wie im echten Leben. Wenn Sie einen Vorschlag auf den Tisch legen, dann sind die Kollegen schnell dabei, diesen zu zerreißen. Aber einen eigenen Vorschlag zu bringen, ist eine ganz andere Geschichte.“ Die Experten am Fraunhofer Institut nutzen daher klassische Algorithmen, um den Vorschlag der KI zu plausibilisieren.

Klassische Algorithmen überprüfen die KI

Trapp erklärt wieder am Beispiel des autonomen Fahrens, wie das konkret funktioniert: „Beim autonomen Fahren erhält die KI ein Kamerabild, Laser- und Radardaten und andere Informationen.“ Daraus berechne sie dann zwei, drei Alternativen, wie die Fahrzeugtrajektorie aussehen kann – also welchen Weg das Fahrzeug nimmt.

„Mit klassischer Algorithmik überprüfen wir nun, ob sich auf der Trajektorie tatsächlich ein Hindernis befindet oder nicht. Das lässt sich sehr schnell umsetzen. Denn man muss nicht mehr alles durchsuchen, sondern überprüft nur die Trajektorien.“

Laut Trapp verläuft die Arbeit an dieser neuen Methode vielversprechend. „Den Fehler zu erkennen, funktioniert schon recht gut“, sagt der Forscher. „Aber das ist ja nur der erste Schritt. Die Herausforderung ist, nicht zu viele False-Positives zu produzieren.“ Es sei zum Beispiel manchmal schwer zu sagen, ob nun eine Plastiktüte auf der Straße liegt oder sich ein kleines Kind niederkniet.

KI in Produktion kann einfacher abgesichert werden

Im Produktionsumfeld dagegen ist der Ansatz laut Trapp einfacher umzusetzen. Dort arbeitet die KI etwa bei der Bilderkennung mit wenig variierenden Parametern – etwa gleichbleibenden Lichtverhältnissen. Der Kontext, in dem die Systeme eingesetzt werden, ist weniger komplex als eine Verkehrssituation, in der theoretisch alles passieren kann.

Trotzdem müsse die KI auch in dieser Umgebung abgesichert werden. Und zu viele False-Positives würden auch dort stören. Denn während beim autonomen Fahren das Auto in einem solchen Fall sicherheitshalber bremst, steht in der Fabrik die Maschine still.

„Wir können das System heute schon sicher machen“, sagt Trapp. „Es aber abzusichern, ohne die Performance der KI zu sehr einzuschränken, ist der nächste Schritt.“

Seiner Meinung nach bringen die Experten des Fraunhofer ESK mit ihrer Methode zwei Welten miteinander in Einklang. „Wir nutzen die Kreativität der KI, können diese aber trotzdem noch mal überprüfen.“

Dies ist bei der Arbeit mit KI ein entscheidender Punkt. Denn dass die Systeme auf eigenen Wegen zu Entscheidungen kommen, macht ihren Einsatz überhaupt erst interessant. „Man setzt ja die KI genau deshalb ein, weil sie eben die Dinge tut, die nicht nachvollziehbar sind“, erklärt Trapp. „Man hofft quasi genau auf dieses Unerwartete. Deswegen darf man die KI auch nicht zu sehr einschränken.“

Fabriken werden wandlungsfähig

Die KI handelt selbstständig. Und das ist gut so. Welchen Nutzen dies in der Fertigung hat, erklärt Professor Alexander Fay von der Helmut-Schmidt-Universität in Hamburg. „Anders als bei automatisierten Systemen entscheidet ein autonomes System selbständig, wann es welche Mittel einsetzt, um das Ziel zu erreichen. Zeit- und kostenintensive Prozessänderungen, die bisher noch von Ingenieuren und Informatikern umgesetzt werden, können somit zukünftig ohne Eingreifen des Menschen erfolgen.“

Die vollkommen auftragsgesteuerte Produktion und die autonome Wandlungsfähigkeit der Fabriken könnten so tatsächlich erreicht werden, glaubt Fay, der auch Mitglied im Vorstand der VDI/VDE-Gesellschaft für Mess- und Automatisierungstechnik (GMA) ist und an einem Prüfkatalog zur Zertifizierung von KI-Anwendungen mitwirkt (siehe Kasten). Wenn ein System ständig lernen soll, dann braucht es seiner Meinung nach zwar Grenzen – aber eben auch den nötigen Freiraum. „Wir brauchen keine digitalen Deppen“, formuliert es Prof. Klaus Henning etwas drastischer. „Maschinen müssen als Gegenüber des Menschen selbstreflexionsfähig sein – also eigenständig zu Entscheidungen kommen“, so Henning, der Senior Partner beim Beratungsunternehmen P3 OSTO und Vorstandsmitglied des Instituts für Unternehmenskybernetik an der RWTH Aachen ist.

Zu viele Regeln verhindern Innovation

Er warnt davor künstliche Intelligenz „so mit Regeln zuzuzementieren“, dass die Algorithmen, die dahinter stehen, nicht zur Entfaltung kommen. „Auf diese Weise entsteht nichts Neues. Dafür haben wir schon adaptive Systeme.“

Um zu erklären, was er genau damit meint, wählt er ebenfalls das Beispiel des autonomen Fahrens. „Wenn ein autonomes Fahrzeug auf einer Straße fährt, wo seine gesamte Umgebung 70 km/h fährt, obwohl 50 km/h erlaubt sind, dann wird es in einer eigenen Entscheidung darüber nachdenken, ob es nicht doch schneller fahren sollte“, so Henning. „Es wägt die Gründe ab, die dafür und dagegen sprechen und fällt eine Entscheidung. Es macht also die gleichen qualitativen Einschätzungsprozesse wie wir Menschen. Wenn ich aber die Entscheidungsfähigkeit der Maschine einschränke und sage ‚Du fährst auf keinen Fall schneller als 50‘, dann mache ich die KI dumm.“

Technik wird mehr misstraut als dem Menschen

Das lässt sich laut Henning auch auf den Roboter in der Fabrik übertragen, der kollaborativ und ohne Zäune arbeitet. „Der Roboter bewegt sich also frei im Raum. Und er muss eine eigene Strategie entwickeln, wie er sich in dieser Umgebung verhält – unter anderem aufgrund der Erfahrungen, die er bisher gemacht hat.“

In dem Thema Black Box sieht er kein grundlegendes Problem. Auch einem menschlichen Mitarbeiter müsse zunächst Vertrauen entgegen gebracht werden – zum Beispiel dass dieser in der Fabrik seine Aufgaben richtig mache. „Und die Zuverlässigkeit eines Menschen ist um ein Vielfaches geringer als die Zuverlässigkeit einer vollautomatischen Maschine ohne Intelligenz“, sagt Henning.

Trotzdem begegnet man der Technik häufig mit größeren Bedenken als dem Werker. „Wir vertrauen den Maschinen noch nicht. Wir vertrauen aber dem Menschen, weil er mit einer anderen Dimension von Intelligenz umgeht. Er kann mehr Komplexität und Dynamik assoziativ verarbeiten“, erklärt Henning. „Und das genau werden eben auch wirkliche intelligente Maschinen nach und nach lernen.“

Höhere Anforderungen als an den Menschen

Damit spricht er einen Punkt an, der bei Diskussionen über neue Technologien häufig auffällt. An die Systeme werden oft viel höhere Ansprüche gestellt als an den Menschen oder bereits vorhandene Lösungen. Beim autonomen Fahren etwa gehe man davon aus, dass die Technik mindestens um den Faktor 10 besser sein muss als der Mensch, berichtet Trapp vom Fraunhofer ESK. Und fügt hinzu: „Oder eher um den Faktor 100.“

Für den Einsatz der KI in kritischen Bereichen sind laut Trapp zwar hohe Qualitätseigenschaften notwendig. „Wir möchten dafür sensibilisieren, dass wir hier nicht von einem klassischen Softwarespielzeug reden wie einer App auf dem Smartphone.“

Doch er warnt davor, nur die Hindernisse zu sehen. „Es geht nicht darum, neue Technologien zu blockieren, sondern sich mit den entsprechenden Lösungen zu beschäftigen“, stellt Trapp klar. „Die deutsche Industrie verfügt über eine große Ingenieurstradition. Und das bietet die Chance, sich über Intelligenz plus Qualität zu differenzieren.“ Die Tech-Unternehmen dagegen seien zwar in der Intelligenz gut, „aber nicht unbedingt in der Qualität – zumindest nicht nach den Maßstäben, wie wir sie für Maschinen und Fahrzeuge brauchen.“


Künstliche Intelligenz – ethisch korrekt

Derzeit beschäftigten sich verschiedene Initiativen damit, Bedenken gegenüber KI-Systemen abzubauen. So wollen zum Beispiel die Bertelsmann Stiftung und der Think Tank iRights.Lab ethische Standards im Programmiercode verankern. Dafür haben sie neun formale Kriterien definiert, die bei der Entwicklung vom algorithmischen Systemen beachtet werden sollen. An der Entwicklung der Regeln haben insgesamt 400 Experten aus unterschiedlichen gesellschaftlichen Bereichen und wissenschaftlichen Disziplinen mitgewirkt. Die so genannten Algorules sollen dafür sorgen, dass ein algorithmisches System aus ethischer Perspektive korrekt agiert. So besagt zum Beispiel Regel Nr. 5, dass der Einsatz eines solchen Systems gekennzeichnet sein muss.

An einem Prüfkatalog zur Zertifizierung von KI-Anwendungen arbeiten unterdessen Wissenschaftler der Universitäten Köln und Bonn – unter der Federführung des Fraunhofer-Instituts für Intelligente Analyse- und Informationssysteme (IAIS) und unter Mitwirkung des Bundesamtes für Sicherheit in der Informationstechnik (BSI). Das Zertifikat soll einen Qualitätsstandard bescheinigen, der es Anbietern erlaubt, KI-Anwendungen überprüfbar technisch zuverlässig und ethisch akzeptabel zu gestalten. „Mit der Zertifizierung wollen wir dazu beitragen, Qualitätsstandards für eine ‚KI Made in Europe‘ zu setzen“, sagt Professor Stefan Wrobel, Institutsleiter des Fraunhofer IAIS.


KI wird nicht verschwinden

Wenn über neue Technologien diskutiert wird, sind die Bedenkenträger nicht weit. Und natürlich kann künstliche Intelligenz mit ihrer Intransparenz etwas beängstigend sein. Aber KI wird aus unserem Alltag nicht mehr verschwinden. Dafür sind die potenziellen Möglichkeiten zu beeindruckend. Also müssen wir uns jetzt intensiv mit Leitplanken für ihren Einsatz beschäftigen – solange KI noch zu bändigen ist.

Unsere Whitepaper-Empfehlung
Industrieanzeiger
Titelbild Industrieanzeiger 4
Ausgabe
4.2024
LESEN
ABO
Newsletter

Jetzt unseren Newsletter abonnieren

Tipps der Redaktion

Unsere Technik-Empfehlungen für Sie

Webinare & Webcasts

Technisches Wissen aus erster Hand

Whitepaper

Aktuelle Whitepaper aus der Industrie

Unsere Partner

Starke Zeitschrift – starke Partner


Industrie.de Infoservice
Vielen Dank für Ihre Bestellung!
Sie erhalten in Kürze eine Bestätigung per E-Mail.
Von Ihnen ausgesucht:
Weitere Informationen gewünscht?
Einfach neue Dokumente auswählen
und zuletzt Adresse eingeben.
Wie funktioniert der Industrie.de Infoservice?
Zur Hilfeseite »
Ihre Adresse:














Die Konradin Verlag Robert Kohlhammer GmbH erhebt, verarbeitet und nutzt die Daten, die der Nutzer bei der Registrierung zum Industrie.de Infoservice freiwillig zur Verfügung stellt, zum Zwecke der Erfüllung dieses Nutzungsverhältnisses. Der Nutzer erhält damit Zugang zu den Dokumenten des Industrie.de Infoservice.
AGB
datenschutz-online@konradin.de