Im vergangenen Jahr hat unser Autor Achim Liese bereits über aktuelle Anwendungen aus dem Bereich Data Science berichtet. Es ging um McLaren Applied Technologies, die Machine Learning und andere Verfahren aus dem Bereich Künstliche Intelligenz nutzen, um das Prototyping zu verbessern oder um die Otto-Group, die selbstlernende Analyse-Tools verwendet, um die Qualität ihrer Prognosen zu verbessern. Was hat sich seither getan? Achim Liese zeigt die neuesten Entwicklungen, erläutert die Hintergründe und erklärt welche Auswirkungen Machine Learning im E-Commerce hat.
Was sind Data Science und Machine Learning?
Zuerst aber die Basics. Ohne den Begriff fachlich in seiner ganzen Breite darstellen zu wollen oder zu können: Bei Data Science geht es um die Destillation von Wissen aus Daten. Etwas präziser widmet sich die Disziplin der wissenschaftlich fundierten, automatisierten Aufbereitung und Analyse von Daten, um aus ihnen für ein bestimmtes Erkenntnisinteresse wertvolle Informationen zu extrahieren, etwa um Vorhersagen zu treffen. Data Science beschäftigt sich dabei nicht zwingend mit Big Data – großen, nicht statischen Datensätzen, die zudem sehr variantenreiche, unterschiedlich strukturierte Daten aus unterschiedlichen Quellen umfassen. In der Praxis geht es häufig darum, komplexe Zusammenhänge innerhalb einer großen Menge von Daten aufzudecken. Für dieses Erkennen von Gesetzmäßigkeiten oder Mustern innerhalb der Daten sind Verfahren aus dem Machine Learning von zentraler Bedeutung.
Machine Learning bzw. Maschinelles Lernen bedient sich unterschiedlicher Methoden aus der Mathematik, unter anderem der Statistik, der linearen Algebra, der Optimierungstheorie und der Informationstheorie. Machine Learning gilt als Teilgebiet der Artificial Intelligence, Künstlichen Intelligenz, da die Fähigkeit des Lernens ein Merkmal intelligenter Systeme ist. Letztlich sind aber weder die Begriffe noch die Disziplinen völlig trennscharf.
Warum Machine Learning?
Machine Learning zielt darauf ab, Systeme zu entwickeln, die selbstständig in der Lage sind, Modelle zu konzipieren, die wiederum aus Daten entweder:
• Erkenntnisse über die Vergangenheit gewinnen (descriptive analytics),
• belastbare Vorhersagen treffen (predictive analytics),
• Handlungs-Empfehlungen durch die Abwägung des Resultats möglicher Handlungen geben (prescriptive analytics)
Machine Learning bietet hier Lösungen für zwei große Herausforderungen: Erstens ist es in vielen Bereichen auf Grund der hohen Komplexität und Vielfalt der Daten kaum möglich, manuell ein geeignetes Lösungsmodell zu entwickeln. Es existieren oftmals keine analytischen Lösungen (im Sinne von lösbaren, mathematischen Gleichungen) oder sie sind nur mit sehr hohem Aufwand zu finden. Zweitens wird das „erlernte“ Modell in der Regel bessere Ergebnisse liefern als ein manuell entwickeltes, wenn es auf neue Datensätze trifft. Die Anpassungsfähigkeit – man spricht auch von Robustheit – gegenüber Neuem ist größer. Auf maschinellem Lernen basierende Modelle bieten also den Vorteil, komplexe Analysen entweder erst zu ermöglichen oder sie zumindest wesentlich schneller und kosteneffizienter durchzuführen.
Für die eiligen Leser: die nächsten beiden Absätze befassen sich mit der Theorie. Wer gleich zum Business und E-Commerce möchte, kann sie auch überspringen.
Wie lernen Maschinen?
Die Systeme lernen mehr oder minder eigenständig, wie sich das Problem einer speziellen Modellierung lösen lässt. Mit System ist hier im Kern ein spezieller Algorithmus gemeint. Das Prinzip, das der Algorithmus nachbilden soll, ist aber ein sehr allgemeines: ein Verhalten, das in einer Situation erfolgreich ist (also ein Lösungsmodell), wird in einer gleichen oder ähnlichen Situation wahrscheinlich ebenfalls erfolgreich sein. Ist das Ergebnis nicht korrekt, muss das Verhalten angepasst werden.
In der ersten Phase, der sogenannten Trainings- oder Lernphase, arbeitet sich der Algorithmus durch ein Set an Trainingsdaten. Beim supervised learning, einem von mehreren möglichen Lernverfahren, sind dabei sowohl die Aufgabenstellung (fachlich sind damit die entsprechenden Features gemeint) als auch die korrekte Lösung bekannt. Dies kann z. B. der Wert einer Immobilie anhand einiger Parameter, wie Lage, Größe, Anzahl Zimmer, etc. sein. Ziel des Trainings ist die Entwicklung eines Modells, das später bei der Anwendung auf unbekannte Daten sinnvolle Prognosen liefert, welches also gut verallgemeinert (generalization). Dazu muss allerdings das sogenannte overfitting, die zu starke Anpassung eines Modells an die Trainingsdaten – grob vergleichbar mit Auswendig-Lernen – verhindert werden. Dafür wird zusätzlich eine Kreuzvalidierung (Cross Validation) vorgenommen. Dazu hält man während der Trainingsphase einen Teil der Daten zurück und kann nach dem Training mit diesem Teil der Daten prüfen, ob das Modell auch auf diesen, ihm noch unbekannten Datensatz, sinnvolle Vorhersagen trifft. Je nachdem, welche Aufgabenstellung das System zu lösen hat (z. B. Muster erkennen), auf welcher Grundlage (Art der Daten) es das entsprechende Modell erlernen muss und auf welche Art und Weise dies geschehen soll, werden unterschiedliche Algorithmen und Verfahren verwendet. So kommen in Abhängigkeit von den vorliegenden Daten entweder supervised, semi-supervised oder unsupervised-Verfahren zum Einsatz. Vor allem beim supervised learning unterscheidet man weiterhin je nach gewünschtem Ergebnistyp zwischen Classification (diskrete Klassen als Ergebnisse sind z. B. „Ja“ / „Nein” auf die Frage „Wird Kunde X Produkt Y kaufen?” oder „A” / „B” / „C” auf die Frage „Welcher Kandidat wird die Wahl gewinnen?”) und Regression (beliebiger Zahlenwert als Ergebnis wie etwa 1.256,43 EUR auf die Frage „Wie hoch ist der zu erzielende m²-Preis beim Verkauf einer Immobilie mit den Eigenschaften X, Y, Z?”). Außerdem wählt man zwischen Offline oder Online-Lernverfahren, je nachdem ob es ein eher statischer Datenbestand ist oder ein kontinuierlicher Datenstrom. So entsteht dann eine Matrix, in der es für jeden Fall einen oder mehrere spezielle Algorithmen gibt, die sich besonders gut eignen (z. B. hinsichtlich der Lerngeschwindigkeit, Abfragegeschwindigkeit, Robustheit gegenüber ungenauen Daten oder der Vorhersage-Genauigkeit).
Kognitive Technologien
In der Wirtschaft werden Anwendungen, die auf Künstlicher Intelligenz basieren, und unter anderem die beschriebenen, sich selbst optimierenden Machine Learning Algorithmen nutzen, auch kognitive Technologien genannt. Diese Technologien lassen sich grob nach drei Anwendungsfeldern unterscheiden, auch wenn es natürlich immer Überschneidungen gibt. Es sind die Bereiche Produkte & Services, Prozessoptimierung sowie Erkenntnisgewinnung, also Analysen und Vorhersagen. Im Bereich Produkte & Services geht es vor allem darum, Nutzern einen höheren Komfort zu bieten oder sie aktiv im Alltag zu unterstützen. Die Nutzung von Geräten und Diensten soll generell vereinfacht und der Verbraucher durch ein möglichst adaptives, auf sein individuelles Verhalten reagierendes System entlastet werden. Beispiele sind etwa autonome Haushaltsroboter, die selbstständig auf Veränderungen in der Umgebung reagieren oder Fahrerassistenzsysteme, die in Abhängigkeit von der Uhrzeit, Verkehrsdichte, Witterung, Fahrverhalten und zusätzlichen Erfahrungswerten die aktuell beste Strecke wählen. Vereinfacht gesagt, die Systeme sollen mitdenken.
Der Bereich Prozesse meint in der Hauptsache Geschäftsprozesse. Hier geht es im Schwerpunkt nicht um die Vereinfachung von Abläufen und die Entlastung von Mitarbeitern, auch wenn dies durchaus ein Ergebnis sein kann. Das Ziel ist vielmehr durch einen hohen Grad an Automatisierung und Autonomie, die Prozessarchitektur zu optimieren und den Ablauf zu beschleunigen. Hinter all dem steht der Wunsch nach Produktivitätssteigerung und Kostenreduktion. Das Fraunhofer Institut erforscht beispielsweise, wie sich Fertigungssysteme zukünftig noch während des Betriebs selbst verbessern können. Ganz konkret könnte eine Anlage etwa die Parameter einer Werkzeugsteuerung eigenständig anpassen oder für neue Bauteile weiterentwickeln. Ein manuelles Einrichten würde entfallen. Der letzte Bereich dreht sich um die leistungsfähige Analyse von Daten, um das Maximum an Informationen aus ihnen zu extrahieren und diese zu nutzwertigem Wissen aufzubereiten. Ziel ist es, damit Unternehmen die bestmögliche Grundlage für operative und strategische Geschäftsentscheidungen zu geben. Das meint aber nicht nur eine belastbare Analyse des Status Quo, sondern ebenso auch valide Vorhersagen über zukünftige Ereignisse und Entwicklungen sowie qualifizierte Bewertungen wie am besten darauf zu reagieren ist.
Weiter mit E-Commerce
Branchen und Einsatzbereiche
Wo werden diese Technologien heute schon eingesetzt? Generell in allen Sparten und Branchen, in denen schnell größere Mengen unterschiedlich strukturierter
Daten oder ein Datenstrom in Echtzeit analysiert werden müssen. Dazu zählen neben dem E-Commerce etwa der Tourismus, Versicherungen und Finanzdienstleister, Healthcare, die öffentliche Verwaltung oder auch die Immobilienbranche. Hier geht es meist, aber nicht ausschließlich, um die Extraktion von Wissen mit dem Ziel, Angebot und Geschäftsstrategie zu verbessern. In der Fertigungsindustrie oder für Infrastrukturbetreiber – Bereiche die nicht per se digital bzw. datengetrieben sind – bietet sich die Möglichkeit, Prozesse zu automatisieren und intelligente Produkte auf den Markt zu bringen.
Machine Learning im Online-Handel
Im eher anonymen Online-Handel erlauben es Machine Learning-Verfahren, vor allem den Kunden besser zu verstehen. Ein möglicher Anwendungsbereich ist die Optimierung des Customer Service. Laut Lumidatum, dem Anbieter einer Predictive Analytics Plattform, korreliert die Kundenzufriedenheit mit dem finanziellen Wert der Kundenbeziehung, der Customer Lifetime Value. Wieviel Zeit ein Kunde mit der Nutzung seines Produkts verbringen kann bzw. umgekehrt mit der Lösung von Problemen bei diesem Produkt, steht in einem direkten Zusammenhang mit den potentiellen Ausgaben des Kunden.
Unabhängig davon, ob Shopbetreiber nun einen virtuellen Support, einen rein menschlichen oder eine Kombination aus beiden anbieten, wichtig ist, die Kunden richtig zu unterstützen. Mit Machine Learning im E-Commerce lässt sich etwa problemlos unterscheiden, ob ein Kunde bereits Erfahrung mit einem Produkt hat oder erst damit beginnt. Letzterer benötigt sicher eine intensivere Betreuung. Genauso lässt sich aber auch das Verhalten auf der Shopseite analysieren und ein entsprechend situationsbezogener Support bereitstellen. Statt einem simplen Pop-up „Kann ich Ihnen helfen?”, dann doch lieber „Wenn Sie den Artikel XY in der Konfiguration YZ bestellen möchten, müssen Sie folgendes tun”.
Ein weiteres spannendes Beispiel aus dem Bereich Curated Shopping ist Stitch Fix. Verbraucher erhalten über den Subscription Service monatlich hochgradig personalisierte Angebotspakete, zusammengestellt durch den Abgleich persönlicher Angaben und Verhaltensweisen mit den Produktinformationen. Mit jedem weiteren Shopper (Datenbestand) und je länger das System genutzt wird (Lernzeit, Anzahl der Durchgänge), umso präziser und treffsicherer sind die Vorhersagen. Nach eigenen Angaben kaufen mehr als 80 Prozent der Kunden innerhalb von 90 Tagen ein zweites Mal und ein Drittel tätigt 50 Prozent der Ausgaben für Kleider über Stitch Fix.
Marketing und Werbung
Besonders beeindruckend ist auch das Verständnis Künstlicher Intelligenz für menschliches Verhalten. Lange galten unsere Verhaltensweisen, unser physischer Ausdruck und die zugrundeliegenden Motivationen als zu komplex, um von Maschinen richtig gedeutet zu werden, zumindest nicht in Echtzeit. Mit Machine Learning-Verfahren ist es Forschern in jüngster Zeit gelungen, menschliches Verhalten recht gut zu verstehen. Affectiva, ein Unternehmen aus Boston, bietet eine Software, die in Echtzeit die Mimik eines Menschen analysieren und auf dessen emotionale Verfassung schließen kann. Selbst Stimmungswechsel innerhalb von Mikrosekunden, die uns selbst gar nicht bewusst sind, registriert die Anwendung. Werbekonzerne und Vermarkter haben sich daher sofort auf diese Entwicklung gestürzt. Sie macht aufwendige und vor allem langwierige Zielgruppenbefragungen unnötig und bildet einen wichtigen Baustein für neue, zielgenaue und hochgradig personalisierte Vermarktungsmodelle. Wenn man weiß, dass ein Verbraucher gerade von einem Film zu Tränen gerührt wurde, macht es durchaus Sinn, im nächsten Moment Werbung für Taschentücher einzublenden.
Evolvierter E-Commerce – das ist die Zukunft
Kombiniert man diese Konzepte zur Echtzeitmessung von Emotionen mit der Fähigkeit, das aktuelle Userverhalten zu verstehen und daraus Bedürfnisse abzuleiten sowie den Produktwunsch vorhersagen zu können, ist die übernächste Stufe des E-Commerce greifbar: Shopsysteme, die nicht nur einzelne Services personalisieren, sondern ein User Interface bieten, das als solches intelligent ist und die individuellen Nutzerbedürfnisse vollständig vorausahnen und sich darauf einstellen können. Eine ganz persönliche Shoppinghilfe, der wir sogar zutrauen, Standardkäufe in unserem Sinne zu tätigen.
Bilder: netz98, freepik