Wie nachvollziehbare Algorithmen Technologie-Akzeptanz schaffen
Im Frühjahr 2022 starten insgesamt sieben neue it’s OWL-Projekte mit einem Gesamtvolumen von 13,8 Millionen Euro. Dabei geht es um neue Formen der Künstlichen Intelligenz (KI), einen grünen Digitalen Zwilling, das Arbeiten mit Small Data und das automatisierte Entdecken von Treibhausgas-Verursachern in Unternehmen. Das Fraunhofer IEM ist an drei der Vorhaben beteiligt. Steven Koppert stellt uns das Projekt Erklärbare künstliche Intelligenz für sichere und vertrauenswürdige industrielle Anwendungen (ExplAIn) vor.
Maschinelles Lernen (ML) kommt in Unternehmen heute vielseitig zum Einsatz. Situationsbedingte Fehler, fehlende Nachvollziehbarkeit und Beeinflussbarkeit führen aber dazu, dass Künstlicher Intelligenz oft wenig Vertrauen geschenkt wird – sowohl in der breiten Gesellschaft als auch in der Industrie. Das Ziel des Projekts Erklärbare künstliche Intelligenz für sichere und vertrauenswürdige industrielle Anwendungen (ExplAIn) ist es, vorhandene und neue Verfahren für Maschinelles Lernen nachvollziehbarer und sicherer zu machen. Auf Basis von Anwendungsfällen bei Düspohl Maschinenbau entwickelt das Fraunhofer IEM dazu ein System auf Basis von Explainable Artificial Intelligence (XAI, erklärbare Künstliche Intelligenz). XAI setzt sich aus Prozessen und Methoden zusammen, die es Anwendern ermöglichen, durch Maschinelles Lernen erzeugte Lösungen zu verstehen, ihnen zu vertrauen und somit sichere und nachvollziehbare KI-Anwendungen in die Praxis zu bringen.
Steven, kannst du verstehen, dass viele Menschen KI gegenüber skeptisch sind?
Ja, das kann ich gut verstehen. Diese Skepsis liegt allerdings nicht in KI als Technologie begründet sondern in der leicht mystifizierenden Kommunikation über dieses Thema. KI ist zunächst mal ein Überbegriff für viele Methoden. Gemeint wird damit meist Machine Learning – und das ist nichts anderes als die automatisierte Anwendung von Mathematik. Machine Learning Modelle schauen sich einen Datensatz an und versuchen sich zu optimieren, bis sie eine vom Menschen gegebene Aufgabe bestmöglich ausführen. Ihr Verhalten wird also durch zwei Faktoren vorgegeben: Den Menschen und den Datensatz. Die Skepsis gegenüber KI sollte sich also nicht auf die Technologie, sondern auf ihre verschiedenen Anwendungen beziehen.
Im Projekt ExplAIn geht es darum, KI-Lösungen zu erklären. Mach mal ein einfaches Beispiel!
Wenn sich KI-Modelle wie Neuronale Netze selbstständig anpassen, wirkt das auf Außenstehende magisch. Dabei verbirgt sich dahinter nur ein Optimierungsprozess, der Zahlen anpasst, bis das Neuronale Netz die richtigen Dinge beachtet. In ExplAIn geben wir Außenstehenden genau in diesen Prozess Einblick: In einem Use Case sucht eine KI Werkzeuge zur Fertigung eines neuen Produkts aus und positioniert sie. Dafür erlernt sie die genaue Geometrie des Werkzeugs anhand vieler Beispiele. Wir machen diesen Lernprozess sichtbar und zeigen Außenstehenden, anhand welcher Merkmale die KI die spezifische Geometrie lernt und später eigenständig erkennt. Mit dem Wissen zu diesen Hintergründen können wir Menschen der KI übrigens helfen, noch besser zu werden.
Alles klar, etwas zu verstehen, hilft tatsächlich! Was können wir Forscherinnen und Forscher noch tun, um den Menschen die Angst für neuen Technologien zu nehmen?
Dazu sind transparente Kommunikation über Fähigkeiten und Grenzen von KI und konkrete Erfolgsbeispiele entscheidend. KI lässt sich prinzipiell mit jedem anderen Werkzeug vergleichen, z.B. mit einem Hammer: Der ist super hilfreich, um Nägel einzuschlagen. Ein Brot schmieren sollte man deshalb aber nicht unbedingt damit. Und bei falschem Gebrauch kann man sich sogar auf den Daumen hauen. Das spricht nicht pauschal gegen den Hammer – sondern für eine ordentliche Aufklärung, was er kann und was nicht. Um die Sorge vor KI zu nehmen, sollten praktische Anwendungen, die wir entwickeln, hautnah erlebbar gemacht werden, um zu zeigen, wie viel einfacher und sicherer viele Aufgaben dadurch werden.
Worauf freust du dich besonders im Projekt?
Wir fokussieren vier Ebenen erklärbarer KI, die aufeinander aufbauen. Ich freue mich am meisten auf die letzte Stufe, wenn wir Anwendern Einfluss auf KI geben. Dazu wird eine Methode zum Mensch-Maschine-Teaching entwickelt. Die KI prüft dabei, in welchen Bereichen ihr Wissen noch schwach ist, und stellt dem Menschen zu konkreten Beispielaufgaben Fragen. Dieser sieht sich an, wie die KI bisher entscheiden würde, und korrigiert sie nach seinen Vorstellungen. Wir brechen damit die Barriere auf, die sich durch die bisher schwer nachvollziehbaren internen Vorgänge in KI-Modellen aufgebaut hat, und gehen einen großen und aufregenden Schritt hin zur smarten Mensch-Maschine-Kollaboration.