Watson-Technologie wurde als Jeopardy-spielender Supercomputer bekannt. Herr Hildesheim, was genau ist Watson?
Hildesheim: Watson ist kein allwissendes Superhirn oder ein Supercomputer, sondern eine modular aufgebaute Cloud-Plattform, die mit Services auf Basis von künstlicher Intelligenz (KI) ausgestattet ist. Kunden können über Schnittstellen auf diese Dienste aus der Cloud zugreifen und so Services ohne großen Aufwand in ihre eigenen Systeme einbinden, um damit individuelle Aufgabenstellungen und Probleme zu lösen. Das können beispielsweise Sprach-, Bild- oder Textanalysen, Übersetzungsleistungen oder Konversations-Hilfen sein. Diese Services basieren auf Algorithmen, die kognitiv, also im weitesten Sinne lernfähig sind und die im Kontext ihres Einsatzes individuell trainiert werden.
Kaufen Unternehmen Watson dann als Software oder als Dienstleitung?
Hildesheim: Wir bieten Watson-Dienste im Normalfall als API-Service in der Cloud. Wenn der Kunde das wünscht, kann er damit on Premise – in der eigenen IT-Umgebung – oder als Edge-Variante arbeiten. Dafür braucht er aber große Rechenkapazität.
Welche Kosten kommen auf Anwender zu?
Hildesheim: Wir bieten unterschiedliche Preismodelle wie „Pay-per-Call“ oder Abonnements. Nur probieren kostet nichts.
Wo wird Watson in der Fertigungsindustrie schon eingesetzt?
Hildesheim: An sich profitieren alle Branchen davon – von Versicherungen über Banken bis hin zur Automobilindustrie. Der Aufzugsanlagenanbieter Kone beispielsweise setzt die Technologie für die Steuerung und Überwachung seiner Aufzüge ein. ABB nutzt Watson für die Qualitätskontrolle in der Produktion und bei der Lufthansa unterstützt das System die Mitarbeiter des internen Service & Help Centers dabei, Fragen von Passagieren weltweit schneller und exakter zu beantworten.
Inwiefern kann Watson auch für kleine und mittlere Unternehmen interessant sein?
Hildesheim: Da die Technologie aus der Cloud bezogen werden kann, ist sie für kleine Unternehmen genauso attraktiv wie für große. Bezahlt wird das, was tatsächlich in Anspruch genommen wird.
Frau Schauber, neuronale Netze gibt es in der Informatik ja schon lange: Wie begründet sich der aktuelle KI-Durchbruch?
Schauber: Es gibt drei Hauptfaktoren, die den aktuellen Durchbruch begünstigen:
- die tausendfache bis millionenfache Steigerung der Rechenkapazität gegenüber den 80er Jahren,
- Big Data, also die Verfügbarkeit von großen digitalen Datensätzen zu fast allen Themen sowie
- verbesserte Algorithmen, die wiederum von der höheren Rechenleistung und Big Data profitieren.
Diese Faktoren bedingen sich gegenseitig. Die Entwicklung verläuft gegenwärtig auch nicht mehr linear, sondern exponentiell.
Welche KI-Früchte kann man Ihrer Ansicht nach als erstes ernten – vorausschauende Wartung?
Schauber: Die vorausschauende Wartung gehört zweifellos dazu. Grundsätzlich hilft im Umfeld industrieller Fertigung insbesondere die Verknüpfung unstrukturierter Daten, wie Bilder oder Geräusche, mit strukturierten Daten aus den Maschinen. Vor allem diese Kombination wird zu neuen Erkenntnissen führen.
Was ist denn mit KI heute bereits möglich?
Schauber: Die Kernkompetenzen von kognitiven Systemen sind Spracherkennung und Dialogfähigkeit. Hinzu kommen ihre Möglichkeiten, große Mengen strukturierter und unstrukturierter Daten, wie Bilder oder handschriftliche Aufzeichnungen, zu verarbeiten, dabei Muster zu erkennen und Korrelationen herzustellen. Sie lernen und bilden ihr Verständnis aus Interaktionen und Erfahrungen, die sie mit ihrer Umgebung machen. Auf Basis dieser Eigenschaften können die Technologien Hinweise und Ratschläge für die Optimierung von Produktionsprozessen, Wartung und Reparatur geben: Sie können etwa Alarm schlagen, wenn konkrete Maschinenprobleme auftreten, können Fehler finden oder auch Attacken aus dem Cyberspace aufdecken und abwehren. Das ist heute schon möglich.
Können Sie ein Beispiel für den erfolgreichen Einsatz von KI beschreiben?
Schauber: Heute können aus der Kombination der Analyse strukturierter Daten, die für den Betrieb von Solaranlagen notwendig sind, in Kombination mit Wetterdaten, die mit Kommentaren (also unstrukturierten Daten) zum Wetter aus sozialen Medien wie Facebook oder Twitter kombiniert werden, Vorhersagen für die tatsächliche Energieerzeugung der Anlagen erstellt werden. Diese Vorhersagen können wiederum genutzt werden, um konventionelle Kraftwerke rechtzeitig aufzuschalten, damit Schwankungen im Stromnetz vermieden werden. Unsere Untersuchungen haben gezeigt, dass wir ohne lernende Systeme bei einer Vorhersage-Genauigkeit von circa 60 % liegen, mit KI-basierten Systemen aber mittlerweile bei über 90 %.
Wird KI aus Ihrer Sicht fester Bestandteil von Maschinen und Robotern werden?
Schauber: Ja. Zum einen wird KI als Cloud-Service bezahlbar, gleichzeitig verbessert sich die Qualität von Machine-Learning-Algorithmen rasant. Auch die Verfügbarkeit von Daten ist enorm gestiegen, zusätzlich machen sich die Auswirkungen der Open-Source- und Open-API-Bewegung bemerkbar: Wo noch vor wenigen Jahren meist proprietäre Systeme im Einsatz waren, sind heute viele Systeme mit standardisierten Schnittstellen versehen und damit auch wesentlich einfacher mit intelligenten Services und Anwendungen kombinierbar.
Noch klingt vieles nach Zukunftsmusik: Wie sieht denn der reale Umsetzungsstand in deutschen Industrieunternehmen aus?
Hartmaier: Predictive Maintenance muss erst mal in den Werkshallen tatsächlich angekommen sein. So weit sind wir in der Regel noch gar nicht. Gegenwärtig geht es in den meisten Betrieben erst einmal darum, eine Condition-based-Maintenance – also die zustandsabhängige Wartung von Maschinen und Anlagen, basierend auf der Auswertung von Maschinendaten – hinzubekommen. Die vorausschauende Wartung wäre dann der nächste Schritt.
Wo liegen noch Herausforderungen?
Hartmaier: Weniger in der Technik als vielmehr in der bisher mangelnden Investitionsbereitschaft für die Einführung von KI-Systemen. Viele Firmen leiden IT-technisch betrachtet unter einem regelrechten Investitionsstau. Denn IT wurde oft und zu lange nur als notwendiges Übel und nicht als Chance betrachtet. Kostenminimierung war daher auch das alles beherrschende Thema. Mit Industrie 4.0, IoT, Blockchain und KI ändert sich das gerade: Auf einmal rückt der Einsatz von Software als gewichtiger Wettbewerbsfaktor in den Mittelpunkt unternehmensstrategischer Überlegungen. Und damit kommt es sozusagen zu einem IT-Kultur-Clash: Investitionsstau mit meist veralteter Hard- und Software trifft auf eine neue Generation innovativer Technologien.
Was bedeutet das für die Unternehmen?
Hartmaier: Diese sind mehr oder weniger gezwungen eine gemeinsame Basis zu schaffen, um die Vorteile von KI und Machine Learning nutzen zu können. Das bedeutet auch: Der in den vergangenen Jahren zu beobachtende Trend einer „Two Speed IT“ funktioniert nicht. Die Unterteilung in klassische IT, die sich vor allem mit der Wartung und dem Betrieb von Bestandssystemen befasst und die, meist aus den Geschäftsbereichen heraus getriebenen, IT-Initiativen und Projekte – wie die Entwicklung mobiler, kognitiver Analytics-Applikationen – ist unserer Ansicht nach gescheitert.
Wie steht es um rechtliche Fragen: Wer haftet, wenn ein kognitiv lernender Roboter Schäden verursacht?
Hartmaier: Bei der Frage der Haftung für das Fehlverhalten eines intelligenten Roboters oder Fahrzeugs gibt es noch industrieübergreifend Handlungsbedarf. Der Roboter beziehungsweise die KI verfügt nach heute geltendem Recht nicht über eine Rechtspersönlichkeit und kann damit nicht eigenständig am Rechtsverkehr teilnehmen. Genauso wenig wie der Roboter wirksam Verträge schließen kann, kann er für Schäden, die er verursacht, haften. Im Schadensfall wird es also kompliziert.
Inwiefern?
Hartmaier: So könnte der Geschädigte Ansprüche gegen den Roboterhersteller oder der KI, also den Softwareanbieter, geltend machen. Genauso könnte er aber auch gegen den Eigentümer des Roboters oder denjenigen vorgehen, der für den Betrieb im konkreten Fall verantwortlich war. Ebenfalls nicht zu vergessen ist der- oder diejenige, die die Informationen bereitgestellt haben, mittels derer sich der Roboter die Tätigkeit beigebracht hat. Die Suche nach der Ursache und damit dem Verantwortlichen dürfte oftmals sehr schwierig und langwierig ausfallen – zum Ärger aller Beteiligten. Es ist daher Aufgabe des Gesetzgebers, hier eine zeitgemäße und praktikable Lösung zu schaffen.
Was wird zukünftig noch möglich mit künstlicher Intelligenz?
Schauber: Was die Zukunft bringt – und vor allem wie schnell eine tatsächlich autonom denkende, künstliche Intelligenz zur Verfügung stehen wird – darüber kann momentan nur spekuliert werden. Viel wichtiger ist es aber, dass die bereits verfügbaren kognitiven Lösungen auf breiter Front heute tatsächlich auch genutzt werden.
IBM stellt auf der Hannover Messe 2018 in Halle 7 an Stand C 16 aus.
Die Gesprächspartner:
- Dr. Wolfgang Hildesheim, Leiter IBM Watson und AI Innovation in der DACH-Region
- Melanie Schauber, Leiterin der Geschäftseinheit IBM Watson IoT
- Steffen Hartmaier, Leading Client Technical Architect für IBM Watson IoT
Wie funktionieren künstliche neuronale Netze?
Ein neuronales Netz ist ein Verbund vernetzter Neuronen, der als Teil unseres Nervensystems einer bestimmten Funktion dient – etwa dem Sehen. Künstliche neuronale Netzwerke (KNN) sind ähnlich aufgebaut: Sie können aus unterschiedlichen künstlichen Neuronen aufgebaut werden, die in der Regel binäre Signale verwenden. Die Topologie eines solchen Verbundes hängt von der jeweiligen Aufgabe ab, das heißt das KNN wird aufgabenspezifisch konstruiert, zum Beispiel für die Bild- oder Spracherkennung, für die Geräusch- oder Textinterpretation. Nach der Konstruktion eines künstlichen Netzes folgt dann die Trainingsphase, in der das Netz „lernt“. Das kann durch folgende Methoden geschehen:
- Entwicklung neuer Verbindungen oder Löschen bestehender Verbindungen,
- Ändern der Gewichtung,
- Anpassung der Schwellenwerte,
- Hinzufügen oder Löschen von Neuronen.
Damit arbeiten KNN ähnlich den natürlichen in unserem Nervensystem. Sie sind mithilfe von Beispielen in der Lage, eigenständig Muster zu erkennen, Verknüpfungen herzustellen oder kontext-basierte Rückschlüsse zu ziehen. Je besser ein KI-System im Vorfeld mit Daten versorgt und trainiert wird, desto präziser kann es Trends und Muster erkennen.