Startseite » Management » IT »

Ethik und künstliche Intelligenz

Ethik in der künstlichen Intelligenz
„Sichtbare Vorteile künstlicher Intelligenz“

Anzeige
Aus ethischer Sicht erläutert Prof. Christoph Lütge, Leiter des Institute for Ethics in Artificial Intelligence an der TU München, Chancen und Risiken künstlicher Intelligenz.

Nico Schröder, Korrespondent Industrieanzeiger, Augsburg

Herr Professor Lütge, Sie leiten das 2019 gegründete Institute for Ethics in Artificial Intelligence (IEAI) an der TU München. Worum geht es bei Ethikfragen im Zusammenhang mit künstlicher Intelligenz?

Gleich zu Anfang weise ich immer darauf hin, dass Ethik nicht nur die Risiken, sondern auch die Chancen behandelt. Bevor man zu den Risiken kommt, gibt es eine Menge ethischer Chancen von KI. Dazu zählen etwa Ansätze, Unfälle zu vermeiden und Leben zu retten – beim autonomen Fahren wird das enorm wichtig. Auch zählen dazu Krebsfrüherkennung, Pflegeleistungen oder Möglichkeiten, Artenschutz und allgemein Nachhaltigkeit zu stärken.

Wo liegen, ethisch betrachtet, hingegen Risiken im Zusammenhang mit KI?

Die Risikobetrachtung bewegt sich etwa um Fragen, wie sicher die Systeme sind – gerade bei Angriffen von außen. Wichtig ist auch, inwieweit es Fairness oder eben Voreingenommenheiten der Systeme gibt, die häufig auf einer bestimmten Auswahl von Trainingsdaten basieren. Und wie steht es um die Erklärbarkeit von KI, explainable AI? Also wie gestalte ich KI-Systeme zumindest prinzipiell erklärbar, wenngleich sie Black-Box-Charakter haben? Weitere Aspekte sind digitale Kompetenz und Bildung. Dahinter steht die Frage, wie der Umgang mit KI-Systemen erlernt wird.

Sollte erkennbar sein, wo und wann Entscheidungen KI-basiert gefällt werden?

Es gibt gegenwärtig Tendenzen, zu sagen, eine künstliche Intelligenz muss sich sofort als solche identifizieren. Es gibt Studien, die zeigen, dass es hier einen gewissen Trade-off (eine gegenläufige Abhängigkeit; Anm. d. Red.) zwischen dieser Transparenz und der Effizienz geben kann. Das kann ein Problem darstellen. Der Punkt ist einfach, dass für viele Leute – wenn sie sehen, es handelt sich um ein KI-System – das Vertrauen sinkt, obwohl die Systeme eigentlich sehr hilfreich sein könnten. Die Systeme verlieren also an Effizienz. Studien zeigen, dass wenn sich Chat-Bots identifizieren, sie ihren Job nicht mehr so gut erfüllen können. Beim autonomen Fahren ist es ähnlich. Wie soll sich ein autonomes Fahrzeug identifizieren? Eine schwierige Frage.

Ethische Fragen zu künstlicher Intelligenz und entsprechende Leitlinien

Impliziert „explainable AI“ letztlich Transparenz für Anwender?

Hier wird es interessant, denn diese ganzen Prinzipien sind halt abstrakt. Wir wollen erklären, was Ethik auf Ebene eines konkreten Systems bedeutet. Nun bringt Transparenz nicht sehr viel, wenn es sich um einen einfachen Code – bei Machine Learning oftmals der Fall – handelt, der Anwender allerdings nicht weiß, was aus diesem Code resultiert. Insofern lautet die Frage eher: Wie programmiere ich zum Beispiel verschiedene Interfaces, auf denen ich sehen kann, welche Faktoren das Resultat beeinflusst haben? Wem das etwas bringt, wird kontextabhängig sein.

Sie wollen „Leitlinien für die Identifikation und Beantwortung ethischer Fragen der künstlichen Intelligenz“ erarbeiten. Was ist das Wichtigste dabei?

Das Wichtigste dabei ist sicherlich Erklärbarkeit, also Ergebnisse von KI-Prozessen erklärbar zu machen – explainable AI. Das finden Sie so nicht in anderen Bereichen der Ethik.

Leitlinien besagen noch nicht unbedingt, was zu tun ist. Wo beginnt die Arbeit für Entwickler oder industrielle Entscheider?

An uns treten Unternehmen und KI-Entwickler heran, die auf der konkreten Entwicklungsebene mit uns zusammenarbeiten möchten, weil wir zusammen mit den geistes- und sozialwissenschaftlichen Hintergründen eine entsprechende Orientierung bieten und einschätzen können, ob die Richtung stimmt. Mit KI-Prinzipien beginnt die eigentliche Arbeit erst. Man kann die Ingenieure und Informatiker nicht allein damit lassen. Und das wollen diese auch nicht. Unser Institut versteht sich als Plattform, um die Kooperationen zwischen den unterschiedlichen Disziplinen zu ermöglichen, also zwischen Ingenieurwissenschaften beziehungsweise Informatik und Geistes- sowie Sozialwissenschaften. Wir sprechen mit KI-Forschern und bringen sie mit weiteren Disziplinen zusammen.

In einem Ihrer Forschungsprojekte, „A Human preference-aware optimization system“, geht es speziell um maschinelles Lernen in der Fertigung und Fragen dazu, welche Rückschlüsse die Datenanalyse der Produktionsprozesse auf die Werker zulässt und wie sich Daten letztlich im Sinne des Werkers nutzen lassen. Was steckt hinter diesem Forschungsansatz?

Es geht vor allem darum, diejenigen in ihren Bedürfnissen zu berücksichtigen, die konkret mit KI-Systemen arbeiten, also etwa Teams in Unternehmen. Hier fühlen sich Mitarbeiter oft nicht mitgenommen.

Damit sind zutiefst kulturelle Fragen verbunden.

In unterschiedlichen Ländern und Kulturen geht man unterschiedlich unbefangen und pragmatisch mit KI um. Also wir haben ein gewisses kulturelles Problem in Deutschland. Eine Herausforderung für Unternehmen ist es, das nicht zum Risiko werden zu lassen. Wir haben einiges aufzuholen.

Künstliche Intelligenz braucht Investitionen

Wie nehmen Sie Unternehmen in Deutschland wahr?

Im Laufe des vergangenen Jahres sind einige große Player aufgewacht. Sie investieren nun massiv. Volkswagen ist ein Beispiel, das Kooperationen mit großen Partnern eingeht. Und man darf auch nicht sagen, bestimmte Kooperationen sind auszuschließen. Das halte ich für völlig verfehlt, weil es den Standort Deutschland zurückwerfen würde. Also einige sind aufgewacht, bei anderen bin ich mir nicht sicher. Das betrifft nicht nur den Mittelstand, sondern auch so manche große Unternehmen, die zu zögerlich sind, KI umzusetzen. Mittelständler fühlen sich gerade in Nischen von Marktführerschaften zu sicher. Nur rate ich zur Vorsicht, denn KI ist eine Technologie, die viel ändern wird. Es betrifft gerade die Großtechnologien, die sich ändern werden, wenn ein Fahrzeug beispielsweise autonom und rein elektrisch fährt. Die Technik, Zuliefererketten und Prozesse verändern sich. Und viel Wissen wird einfach entwertet. Ich meine, wir reden über KI, doch allein Digitalisierung ist bei einigen Unternehmen noch nicht angekommen.

Stichwort Plattform-Ökonomie: Wird KI zum kritischen Wettbewerbsfaktor?

Plattform-Ökonomie ist in den vergangenen Jahren häufig ein massives Problem der deutschen Industrie gewesen. Gerade den B2C-Bereich haben Unternehmen vernachlässigt. Mittlerweile gibt es Anzeichen dafür, dass sich etwas verändert.

Worin sehen Sie Gründe für zu zögerliches Vorgehen?

Das Thema Datenschutz wird teils zu stark vorgeschickt. Es gibt Datenschutzbeauftragte in den Unternehmen, die viel zu streng vorgehen und genauer hinsehen müssten, was in den einzelnen Gesetzen steht. Die Datenschutzgrundverordnung (DSGVO) existiert, um mit den Daten etwas machen zu können. Eine zu rigide Auslegung der Richtlinien ist gefährlich. Man muss also mit Daten umgehen können. Es reicht nicht, an der Firewall-Grenze damit aufzuhören, sondern es geht um Kooperationen mit anderen Unternehmen über die interne Datennutzung hinaus. Wenn also Automobilkonzerne in verschiedenen Bereichen, gerade beim autonomen Fahren, kooperieren, wird es darum gehen, Daten im großen Stil auszutauschen. Und das ist mit der DSGVO möglich – das sagen diejenigen selbst, die sie entwickelt haben.

Ihre Arbeit ist ein sozio-ökonomischer Balanceakt. Wie bringen Sie unterschiedliche gesellschaftliche (System-)Interessen dennoch zu einem Common Sense in Sachen KI voran?

Vorteile künstlicher Intelligenz müssen sichtbar sein und herausgestellt werden. Es wird nicht reichen zu sagen, KI ist für die deutsche Wirtschaft wichtig.

Das bedeutet, nützliche und vertrauenswürdige Systeme zu entwickeln?

Entwickler und Manager treten an mich heran, weil sie merken, dass sie auf rein technischer Seite nicht vorankommen – zum Beispiel beim Programmieren, um die Systeme vertrauenswürdig zu machen, sodass sich Vertrauen breiter gesellschaftlicher Gruppen entwickeln kann. Mir sind Fälle bekannt, wo technische, KI-basierte Lösungen entwickelt worden sind, aber nicht angenommen wurden, weil den Anwendern das Vertrauen fehlte.

Könnte ein besonderer KI-Ethik-Fokus ein Alleinstellungsmerkmal europäischer Hersteller werden?

Im Grundsatz ist es möglich. Also die Frage dahinter ist, ob es eine Art Gütesiegel werden könnte. Ich halte das für denkbar, nur erfordert es seitens Unternehmen die Bereitschaft, jetzt tätig zu werden und massiv zu investieren.

Wo künstliche Intelligenz bisher eingesetzt wird

Wie stark wird KI bereits von der Industrie genutzt?

Es ist natürlich immer die Frage, wo KI anfängt und wo sie aufhört. Relativ stark wird KI in Deutschland bisher in kontrollierten Umgebungen wie in der Logistik oder in Teilen der Produktion genutzt. Im Moment geht es aber darum, diese kontrollierten Umgebungen zu verlassen. Das bedeutet sowohl auf der technischen als auch auf der ethischen Seite eine Menge an Arbeit. Es geht um die Robustheit von Systemen, sodass diese mit Unwägbarkeiten zurecht kommen.

Mit welcher Definition von künstlicher Intelligenz oder KI arbeiten Sie?

KI muss externe Daten korrekt interpretieren können, muss auf der Basis dieser Daten lernen können und muss sich anhand der Daten flexibel anpassen können.

Machine Learning ist für Sie ein Kernbereich künstlicher Intelligenz?

Das sehe ich so. Ich behaupte gerade nicht, das wäre noch nicht „die richtige KI“.

Welche erfolgsversprechenden Geschäftsmodelle sehen Sie rund um KI?

Betrachten wir beispielsweise die Preisbildung bei Buchungssystemen, geht es um Skalierung. KI kann dabei helfen, wenn man bereit ist, zu skalieren. Was man in Deutschland eher unterschätzt – gerade bei den Mittelständlern und Hidden Champions – ist die Erweiterbarkeit und Wachstumsfähigkeit von Plattformen, die mehr sind als bloß lokale Plattformen. Nehmen Sie Mobilitätsplattformen wie Uber oder Lyft. Also mit KI-Systemen ließen sich viele Geschäftsmodelle aufbauen. Vielleicht ist eines der Probleme in Deutschland, dass man in den Großkonzernen zu sehr von den Entwicklungsabteilungen her denkt.

Unser Verhalten und Miteinander wird sich durch zunehmend KI-gestützte technische Anwendungen wohl noch deutlicher verändern. Worauf sollten wir gefasst sein?

Es wird natürlich weitere Veränderungen geben. Die Frage ist ja, wie man diese bewertet, also ob man eine positive oder negative Konsequenz ableiten möchte. Viele Menschen schauen in der U-Bahn aufs Smartphone. Und das ist nicht schlimm. Ich beobachte bei den Kritikern ein Festhalten am Überholten um seiner selbst willen. Aber ich finde, es geht doch darum Interaktionen zu fördern – in welcher Form diese Interaktionen ablaufen, ist eine zweite Frage.

Facebook wird das Institute for Ethics in Artificial Intelligence bis 2023 mit insgesamt 6,5 Mio. Euro in seiner Forschung im Bereich Ethik der KI fördern. Gibt es über diesen thematischen Forschungsrahmen hinaus inhaltliche Vorgaben durch den Konzern?

Es gibt und es gab keine inhaltlichen Vorgaben durch Facebook. Es geht darum, zu Ethik der künstlichen Intelligenz zu forschen. Die Forschungsschwerpunkte werden über ein Advisory Board bewertet und ausgewählt, das mit externen Mitgliedern besetzt ist, und ohne Facebook-Vertreter. Die endgültigen Entscheidungen werden von einem Research Selection Committee getroffen.

Anzeige
Industrieanzeiger
Titelbild Industrieanzeiger 15
Ausgabe
15.2020
LESEN
ABO
Video aktuell

Greiferintegration leicht gemacht: Die Zimmer Group zeigt, wie es geht.

Newsletter

Jetzt unseren Newsletter abonnieren

Tipps der Redaktion

Unsere Technik-Empfehlungen für Sie

Webinare & Webcasts

Technisches Wissen aus erster Hand

Whitepaper

Aktuelle Whitepaper aus der Industrie

Unsere Partner

Starke Zeitschrift – starke Partner

Anzeige
Anzeige

Industrie.de Infoservice
Vielen Dank für Ihre Bestellung!
Sie erhalten in Kürze eine Bestätigung per E-Mail.
Von Ihnen ausgesucht:
Weitere Informationen gewünscht?
Einfach neue Dokumente auswählen
und zuletzt Adresse eingeben.
Wie funktioniert der Industrie.de Infoservice?
Zur Hilfeseite »
Ihre Adresse:














Die Konradin Verlag Robert Kohlhammer GmbH erhebt, verarbeitet und nutzt die Daten, die der Nutzer bei der Registrierung zum Industrie.de Infoservice freiwillig zur Verfügung stellt, zum Zwecke der Erfüllung dieses Nutzungsverhältnisses. Der Nutzer erhält damit Zugang zu den Dokumenten des Industrie.de Infoservice.
AGB
datenschutz-online@konradin.de