Künstliche Intelligenz (KI) ist auf dem Vormarsch. Von einer superintelligenten KI, die aus eigenem Antrieb handelt, sind wir zwar noch weit entfernt. Aber Systeme, die spezifische Anwendungsprobleme mit Machine-Learning-Algorithmen lösen, sind heute schon Alltag – von KI-Analysen im Big-Data-Bereich bis hin zu Chatbots.

Wir zeigen Ihnen, wie Sie Ihr Geschäftsmodell digitalisieren.

Diese KIs brauchen jedoch eine präzise Aufgabenstellung und gutes Lernmaterial. Andernfalls besteht das Risiko, dass die künstliche Intelligenz Probleme auf eine Art löst, die nicht der Intention ihrer Anwender entspricht. Und gerade im Business-Kontext kann das Probleme verursachen.

KIs denken nicht wie Menschen

Bei jeder künstlichen Intelligenz, die heute existiert, handelt sich um schwache KIs. Sie wurden entwickelt, um spezifische Probleme mit Hilfe mathematischer Methoden zu lösen. Schwache KIs entwickeln sich zwar stetig weiter, um ihre Aufgaben noch effizienter zu bewältigen. Aber sie entwickeln keine Intelligenz im eigentlichen Sinne. Solche KIs tun schlicht und ergreifend das, wofür sie gebaut wurden, und nicht mehr.

Vor diesem Hintergrund wird klar, weshalb Entwicklung und Training eines neuronalen Netzes (also einer KI, deren technischer Aufbau dem menschlichen Gehirn nachempfunden ist) eine Herausforderung darstellen. Künstliche Intelligenz kann Aufgaben nicht interpretieren. Sie weiß nicht, worauf ihre Anwender eigentlich hinauswollen. Eine KI braucht präzise Anweisungen und Vorgaben, die keinen Interpretationsspielraum lassen. Sonst kann es vorkommen, dass die Ergebnisse einer KI-Analyse nicht dem entsprechen, was sich der Mensch erhofft hat.

KIs können spezifische Probleme schnell und effizient lösen, aber dafür brauchen sie eine präzise Aufgabenstellung und geeignetes Lernmaterial.

Mit Ihren Kollegen teilen:

Auf der Cebit 2018 haben KI-Experten beispielsweise einen Algorithmus zur Bilderkennung demonstriert, der Huskys fälschlicherweise als Wölfe identifiziert. Grund dafür waren die Trainingsdaten des neuronalen Netzes. Die meisten Wolfsbilder wurden in Schneeregionen aufgenommen. Der Algorithmus hat dieses Detail erkannt und Schnee als Erkennungsmerkmal für Wölfe eingeordnet. Aus einem Husky, einem Schneehund, wurde somit ein Wolf.

Ein Mensch hätte diesen Fehler nicht gemacht, da er den Kontext der Aufgabe versteht. Die KI konnte dies jedoch nicht. Sie hat den Input ausgewertet und Muster identifiziert, die sich für die Bilderkennung eignen. Nicht die KI war an dieser Stelle fehlerhaft, sondern die Daten, mit denen sie trainiert wurde.

Das Beispiel zeigt, welche Konsequenzen ungeeignetes Lernmaterial für KI-Analysen haben kann. Übertragen auf den Business-Kontext könnten falsch trainierte neuronale Netze etwa dazu führen, dass einwandfreie Produktionschargen aussortiert werden, weil sich die KI auf irrelevante Faktoren konzentriert. Oder schlimmer: Defekte Chargen passieren die Kontrolle, weil der irrelevante Faktor fehlt – wie ein Wolf, der als Hund durchgeht, weil er zufällig im Sommer abgelichtet wurde.

Eine KI zu trainieren ist eine Herausforderung

Wie gut ein neuronales Netz funktioniert, hängt in erster Linie von der Qualität der Trainingsdaten ab.

Das Husky-Beispiel ist passiert, weil alle Wolfsbilder in einem ähnlichen Umfeld erstellt wurden. Der Algorithmus hat gelernt, dass eine Korrelation zwischen Wölfen und Schnee besteht, und diesen Zusammenhang in seine Einschätzungen einfließen lassen. Das wäre nicht geschehen, wenn die Trainingsbilder Wölfe in verschiedenen Umgebungen gezeigt hätten.

Ein neuronales Netz sollte in der Lernphase Input erhalten, der:

  • das zu identifizierende Szenario detailliert beschreibt und
  • den Kontext der Beobachtung einbezieht.

Es reicht nicht aus, ein neuronales Netz mit Tausenden kontextfreien Parametern zu füttern. Die Daten müssen mit praktischen Anwendungsfällen verknüpft sein, sonst generieren sie keinen Mehrwert.

KIs sind hochentwickelte Algorithmen. Sie können vordefinierte Aufgaben effizient erledigen, aber Probleme nicht abstrahieren.

Eine KI, die den Output einer Fertigungsanlage kontrollieren soll, muss also mit Sensordaten konkreter Produktionschargen trainiert werden, wie sie auch in der Praxis vorkommen. Das Lernmaterial sollte sowohl korrekte als auch fehlerhafte Chargen abbilden, denn die KI muss lernen, Faktoren ohne Entscheidungsbezug herauszufiltern.

Eine Herausforderung ist dabei die benötigte Datenmenge. KI-Analysen umfassen komplexe Datenströme mit Tausenden Datensets. Das Trainingsmaterial solch eines Systems sollte natürlich ähnlich umfangreich sein.

Auch Kontextinformationen sind für die KI-Entwicklung relevant. Es reicht nicht aus, die künstliche Intelligenz mit Sensormessungen zu versorgen. Sie muss auch wissen, welche Muster positiv oder negativ sind (zum Beispiel die Profile laufender oder defekter Maschinen), wie das beobachtete Objekt bzw. Szenario konfiguriert ist und welche Umgebungsfaktoren vorherrschen. Um bei dem Husky-Beispiel zu bleiben: Die KI braucht nicht nur Informationen über das abgebildete Tier, sondern auch über Beleuchtung, Wetterbedingungen und weitere Objekte auf dem Foto.

Im Business-Umfeld kommen die Kontextinformationen meist aus dem ERP-System. Denn dort sind ohnehin alle geschäftsrelevanten Daten der Organisation gespeichert. Diese mit Sensormessungen zu verknüpfen, um ein realistisches Trainingsszenario für künstliche Intelligenzen zu schaffen, ist der logische nächste Schritt.

Das richtige Trainingsmaterial

Wie kontextbezogene Trainingsdaten in der Praxis bereitgestellt werden können, haben im Juli 2019 Studenten der Hochschule Pforzheim demonstriert.

In Zusammenarbeit mit Asseco haben sie Maschinendaten eines Aluminiumdruckguss-Unternehmens analysiert und nach typischen Datenkonstellationen für Fehlgüsse gesucht. Das Unternehmen, ein Asseco-Kunde, erfasst für jeden Druckguss bis zu 600 Sensorparameter. Allerdings waren diese Daten nie konkreten Störungen oder fehlerhaften Chargen zugeordnet worden. Kontextinformationen für die Sensormessungen waren somit nicht vorhanden – und das erschwerte die Fehleranalysen.

Im Rahmen eines Data-Science-Projekts entwickelten die Studenten eine Methodik, um dokumentierte Fehler wie Lufteinschlüsse oder ungenügendes Aushärten des Aluminiums mit den zugehörigen Sensorparametern zu synchronisieren. Dadurch konnten sie für knapp 30 Fehlertypen charakteristische Parameterkonstellationen identifizieren.

Die gewonnenen Erkenntnisse gingen nicht nur an das teilnehmende Unternehmen. Asseco verwendet diese Daten auch, um ein geplantes KI-System zur Anomalieerkennung zu trainieren. Die künstliche Intelligenz soll in Zukunft Sensordaten überwachen und Alarm schlagen, wenn sich Parameter einem kritischen Fehlermuster nähern.

Dieses Praxisbeispiel veranschaulicht, welche Rolle Kontextinformationen bei der KI-Entwicklung spielen. Die Sensordaten der Produktionsmaschinen hatten in Rohform nur einen geringen Mehrwert für den Aludruckguss-Spezialisten. Erst nach der Synchronisation mit bekannten Fehlertypen wurden daraus konkrete Sensormuster, die eine KI als Input für automatisiertes Qualitätsmanagement verwenden kann.

Für KI-Analysen ist der Input entscheidend

Künstliche Intelligenz ist menschlicher Intelligenz schon heute in manchen Bereichen überlegen. Aber ihre Fähigkeiten sind stark fokussiert. KIs können spezifische Probleme schnell und effizient lösen, aber dafür brauchen sie eine präzise Aufgabenstellung und geeignetes Lernmaterial.

Ohne entsprechende Vorgaben kommen KIs manchmal auf Lösungen, die im besten Fall amüsant und im schlimmsten Fall schädlich sind. Daher ist es wichtig, geeignetes Trainingsmaterial für die KI-Entwicklung bereitzustellen: konkret, praxisorientiert und angereichert mit Kontextinformationen.

Wenn Sie wissen möchten, wie Sie schon heute von Zukunftstechnologien profitieren können, empfehlen wir Ihnen unser Whitepaper „Service als Start in die Industrie 4.0“. Es zeigt Ihnen, wie Sie Ihren Service zu einem datenbasierten Geschäftsmodell umbauen.