In der Logistik, in der Medizintechnik, in der Automobilindustrie, in der Produktion, in der Plattformökonomie – überall begegnet uns aktuell das Thema „Künstliche Intelligenz“. Google alleine hat in den vergangenen sechs Jahren bis heute 14 Start-Ups aus dem AI-Bereich gekauft, gefolgt von Apple, Facebook und Amazon.  Alleine 2017 haben insgesamt 115 Unternehmensübernehmen im Bereich künstlicher Intelligenz stattgefunden. Im Vergleich: 2013 waren es noch 22.

Gleichzeitig fallen Begriffe wie „Neuronale Netze“, „Machine Learning“ und „Deep Leaning“, die anscheinend den Durchbruch im Bereich der künstlichen Intelligenz bringen sollen. Und dann lässt auch noch China´s Regierung verkünden, dass man bis 2030 die neue Führungsmacht in künstlicher Intelligenz werden will. Grund genug, sich diesem Thema eingehender zu widmen und herauszufinden, wo wir im Digital Business eigentlich aktuell stehen.

Aber first things first: Was ist künstliche Intelligenz denn nun genau?   

Wer sich heute mit Künstlicher Intelligenz beschäftigt, dem wird vor allem der Begriff „Maschinelles Lernen“ über den Weg laufen. Meinen die beiden Begriffe das Gleiche? Einfache Antwort: Nein.

Denn Maschinelles Lernen ist lediglich ein Teilgebiet Künstlicher Intelligenz, ebenso wie wissensbasierte Systeme, Logiksysteme und Robotik Teilgebiete künstlicher Intelligenz sind. Maschinelles Lernen (Machine Learning) erlebt jedoch momentan einen Höhenflug, denn dank moderner Grafikprozessoren und schneller In-Memory Datenbanken wie SAP HANA können nun extrem viele Datensätze binnen kürzester Zeit intelligent verarbeitet werden.

Intelligent verarbeiten – was heißt das?

Im Kern geht es bei Maschinellem Lernen darum, dass ein System selbstständig Wissen aus Erfahrung generiert, also LERNT. Der grundlegende Ansatz sieht es vor, einem Modell so viele Daten wie möglich vorzulegen, so dass die Maschine die zugrundeliegenden Strukturen, Regeln, Muster und Gesetzmäßigkeiten selbst erkennt. Ziel: Daten intelligent verknüpfen, Zusammenhänge erkennen, Rückschlüsse ziehen und Vorhersagen treffen, und das um ein X-faches besser und schneller, als es ein Mensch jemals könnte.

Solche Systeme müssen trainiert werden – und das entweder in überwachter oder in unüberwachter Weise.

Überwachte Lernen ist die Bilderkennung: Ein klassisches Beispiel

Da stößt die Bilderkennung an seine Grenzen: Muffin oder Chihuahua?

Wollen wir einem System bspw. beibringen, zunächst zwischen Hund und Katze zu unterscheiden und darauf aufbauend auch zwischen verschiedenen Hundearten zu unterscheiden, dann passiert folgendes: Der Maschine werden Trainingsdatensätze – also Bilder – vorgelegt und es wird ihm anfangs mitgeteilt, um welches Tier es sich jeweils handelt. Das System bringt sich auf dieser Basis selbst bei, Kriterien zu definieren, nach denen es künftig selbstständig zwischen Hund und Katze sowie zwischen verschiedenen Hundearten unterscheiden kann. Wird der Maschine das Signal gegeben, dass sie falsch liegt, nimmt die Maschine automatisch Korrekturen vor und wird so mit steigendem Trainingssatz immer präziser. Selbstlernende Systeme haben in den letzten 2 Jahren zwar enorme Sprünge gemacht, aber die Praxis zeigt, dass sie immer wieder an ihre Grenzen stoßen.

Unüberwachtes Lernen folgt einer anderen Intention

Unüberwachtes Lernen dient dazu, Strukturen in Datensätze zu erkennen, die dem Menschen verborgen bleiben – sie dienen dem Data Mining. Da der Output nicht klar ist, können sie auch nicht daraufhin trainiert werden. Es geht vielmehr darum, aus unstrukturierten und einer gigantischen Anzahl an Datensätzen sinnvolle Cluster zu bilden.

 

Und was ist dann Deep Learning?

Deep Learning (DL) ist eine Disziplin des maschinellen Lernens unter Einsatz von künstlichen neuronalen Netzen und gilt momentan als populärstes und vielversprechendstes Teilgebiet des maschinellen Lernens. Künstliche neuronale Netze simulieren nach dem Vorbild des Nervensystems – und speziell das des menschlichen Gehirns – ein Netzwerk aus miteinander verbundenen Neuronen, die Signale empfangen, gewichtet verarbeiten und einen bestimmten Output erzeugen.

Hier eine vereinfachte Abbildung für neuronale Netze:

Die hellgrauen Punkte repräsentieren die Eingabeschicht (Input Layer). Sie ist dafür zuständig, Reize aus der Umwelt aufzunehmen. Bei menschlichen neuronalen Netzen entspricht das der Aufnahme von Reizen über unsere Sinnesorgane. Dementsprechend müssen auch künstliche neuronale Netze mit diesen Informationen gefüttert werden. Bei der Bilderkennung bspw. geht es um das Sehen, bei der Spracherkennung um das Hören. Für unser Schäferhund Beispiel oben bedeutet das: Alle einzelnen Pixel des Bildes gehen über die Eingabeschicht an die Verarbeitungsschicht.

Die roten Punkte stellen die Verarbeitungsschicht (Hidden Layer) dar. Hier findet die Verarbeitung der Informationen im zentralen Nervensystem statt. Die Anzahl der einzelnen Schichten ist nicht festgelegt. EIN Aspekt spielt hier eine besonders wichtige Rolle: Die Gewichtung. Sie wird mit zunehmendem Lernen vom System selbstständig angepasst. Je stärker die Gewichtung, desto größeren Einfluss kann ein Neuron über die Verbindung auf ein anderes Neuron ausüben. Was bedeutet das für unser Beispiel oben? Die erste Schicht identifiziert bspw. die Augen des Hundes. Es wird sich also um ein Lebewesen handeln, und nicht um einen Gegenstand oder eine Pflanze. Die Gewichtung des Neurons, das Augen mit Lebewesen in Verbindung bringt, fällt dementsprechend stark aus und wird so an die nächste Schicht weitergegeben.

Sobald alle Signale sämtliche Schichten der Verarbeitungsschicht durchlaufen haben, kommt man zu einem – hoffentlich richtigen – Ergebnis: Dass es sich um einen Schäferhund handelt, wird in der Ausgabeschicht (Output Layer)  ausgegeben, da hier das Gesamtergebnis aller mathematischen Funktionen und Gewichtungen berechnet wird.

Weiterführende Informationen zu künstlichen neuronalen Netzen findest du hier:

Künstliche neuronale Netze – Aufbau & Funktionsweise

Preview: Im nächsten Beitrag zu Künstlicher Intelligenz geht es um KI in unserem Alltag!