Die Hersteller von Vernetzungstechnologien haben dies rasch als einen neuen Markt erkannt und propagieren daher in den letzten Jahren das „Industrielle Internet“. Ohne Zweifel ist die digitale Vernetzung aller Produktionsmaschinen eine notwendige Voraussetzung für Industrie 4.0, bringt aber zunächst keinen Mehrwert, wenn darauf aufsetzend nicht die intelligente Datenauswertung, verteilte Echtzeitproduktionsplanung, die zustandsbasierte Prognose und Abwehr von Anomalien sowie die innovative Mensch-Technik-Interaktion erfolgt.
Das industrielle Internet ist also lediglich eine notwendige, aber keine hinreichende Bedingung für Industrie 4.0 und deckt nach meiner Erfahrung bei dem Retrofitting großer Fabriken nur etwa 20% des Transformationsaufwandes ab. Das reine Sammeln und der Austausch von Daten über IP-Protokolle bringen zunächst kaum wirtschaftliche Vorteile und das „industrielle Internet“ wird zur Innovationsfalle, wenn man bei der Einführung von Industrie 4.0 auf dieser Vorstufe von Industrie 4.0 hängen bleibt.
Durchbruch mit Deep Learning
Die Auswertung der Massendaten aus der Vielzahl von Sensoren in einer Smart Factory sowie die intelligente Fusion, Klassifikation und Abstraktion der Auswertungsergebnisse kann wirtschaftlich kaum durch menschliche Datenanalysten oder durch manuell programmierte Algorithmen geleistet werden, sondern muss die erfolgreichen neuen Methoden des maschinellen Lernens als Beschleuniger nutzen. Mit statistischen Lernverfahren kann man auch eine signifikant verbesserte maschinelle Bild- und Szenenanalyse erreichen und damit die Prozessüberwachung und die Qualitätsprüfung während der Produktion entscheidend verbessern. Auch kollaborative Roboter können neue Aufgaben, die sie im Team mit menschlichen Werken erledigen sollen, rasch aus Beispieldaten maschinell erlernen und müssen nicht mehr aufwändig manuell programmiert werden.
Ein Durchbruch wurde in den letzten Jahren mit dem Deep Learning erreicht, das auf einer Weiterentwicklung neuronaler Netze beruht. Diese wurden bereits auf der ersten KI-Konferenz vor 60 Jahren als einfaches Lernverfahren vorgestellt. Ein neuronales Netz ist ein System miteinander verbundener künstlicher Neuronen, die Nachrichten untereinander austauschen. Die Verbindungen haben eine numerische Gewichtung, die während des Trainingsprozesses angepasst wird, so dass ein korrekt trainiertes Netzwerk bei einem zu erkennenden Muster richtig reagiert. Das Netzwerk besteht aus mehreren Schichten mit Merkmal- erkennenden Neuronen. Jede Schicht verfügt über eine Vielzahl an Neuronen, die auf verschiedene Kombinationen von Eingaben von den vorhergehenden Schichten reagieren. Die Schichten sind so aufgebaut, dass die erste Schicht verschiedene primitive Muster in der Eingabe entdeckt, die zweite Schicht Muster von Mustern, die dritte Schicht entdeckt Muster jener Muster und so weiter bis dann in der Ausgabeschicht das spezifische Ergebnis der Klassifikation erscheint. Das Training erfolgt mit einem Datensatz, der eine große Zahl von repräsentativen Eingabe-Mustern enthält, die mit der jeweils erwarteten Ausgabe-Antwort erweitert werden. Das Training wird dazu genutzt, die Gewichtung der Neuronen für die Zwischen- und Endmerkmale iterativ zu bestimmen. Neuronale Netze sind zwar biologisch von Gehirnen – insbesondere in den Grundbausteinen und der Terminologie – inspiriert, sind aber eher graphbasierte Berechnungsmodelle als eine Gehirnsimulation, da das Gehirn erheblich komplexer strukturiert ist.
Kollaborative Roboter können neue Aufgaben, die sie im Team mit menschlichen Werken erledigen sollen, rasch aus Beispieldaten maschinell erlernen und müssen nicht mehr aufwändig manuell programmiert werden.
Deutschland spielt in der Champions League
Umso mehr verdeckte Schichten ein Deep Learning Netz hat, umso besser kann es abstrahieren und damit auch komplexere Zusammenhänge und subtile Merkmale in den Daten erkennen. Allerdings wird mit jeder Schicht auch die erforderliche Rechenleistung dramatisch erhöht. Es wird bereits an Netzen mit über 1000 Schichten gearbeitet, um die Mensch-Roboter-Kollaboration weiter zu verbessern. Der Erfolg von Deep Learning hängt auch mit der Möglichkeit zur massiven Parallelisierung und damit auch der Beschleunigung des Trainings zusammen. Computergraphikkarten – sogenannte GPUs (Graphics Processing Unit) eignen sich zur Parallelisierung des Trainings neuronaler Netze. GPUs haben massivparallele Architekturen, die eine fast 100-fache Beschleunigung der Berechnungen beim Maschinellen Lernen bewirken. Das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI) ist mit über 800 Fachexperten größte KI-Zentrum weltweit und nutzt in seinem Kompetenzzentrum Deep Learning solche auf maschinelles Lernen optimierte parallele GPU-Supercomputer für seine Kooperationspartner aus der Industrie.
Deutschland spielt auf dem Gebiet der Künstlichen Intelligenz in der Champions League. Wir haben daher als Ideengeber und Ursprungsland für Industrie 4.0 die besten Chancen, unseren Vorsprung von 2-3 Jahren gegenüber globalen Wettbewerbern durch den KI-Beschleunigungseffekt in weitere wirtschaftliche Erfolge als exportorientierter Leitanbieter umzusetzen.
Prof. Dr. Dr. h.c. Wolfgang Wahlster
Vors. der Geschäftsführung & Direktor,
DFKI, Deutsches Forschungszentrum für Künstliche Intelligenz
Dieser Beitrag ist Teil der aktuellen Ausgabe des Handelsblatt Journals „Industrie 4.0 – Smart – Agile - Connected“, das Sie hier erhalten können