Susanne Mentel

Predictive Analytics World im Rahmen der Data Driven Business 2016


Bereits zum vierten Mal fand vom 8.-9.11.2016 die Predictive Analytics World in Berlin statt. Die Fachkonferenz richtet sich an Anwender, Entscheider und Experten von Predictive Analytics und wird auch in London, New York, Chicago und San Francisco veranstaltet.

MMR-Aktuell 2016, 384525     Unter dem Leitthema Algorithmic Economy befassten sich die Vorträge u.a. mit Nachfragevorhersage, Betrugserkennung und dynamischer Preisfestsetzung (Dynamic Pricing) bis hin zu intelligenten Assistenten in der Reisebranche (sog. Chat Bots) und Modellen zur Vorhersage bestimmter Krankheitsrisiken – kurz mit der Algorithmisierung von Wirtschaft und Gesellschaft. Die Konferenz bot einen Einblick in praktische Anwendungsfelder von Predictive Analytics und sollte laut dem Veranstalter auch dazu verleiten, sich von den Erfolgen inspirieren zu lassen. Martin Szugat, Programm Chair der Veranstaltung, moderierte die Tagung und wies auf die steigende Resonanz der Predictive Analytics World im Vergleich zum Vorjahr hin.

Der erste Vortrag von Dr. Ralf Herbrich, Managing Director, Amazon Development Center Germany, führte mit dem Thema „Die Bedeutung von Machine Learning für den E-Commerce am Beispiel von Amazon“ gleich mitten in die Thematik. Machine Learning sei als Technik zwar noch ein vergleichsweise junges Feld, aber für viele Bereiche innerhalb des Amazon-Unternehmens wichtig. Auf der Amazon-Plattform ist dies vor allem für Nachfragevorhersagen und Preisfestsetzungen, aber auch für die allseits bekannte Empfehlungs-Leiste der Fall. Darüber hinaus ist Amazon nicht nur elektronischer Händler, sondern wird im Bereich „Amazon Web Services“ auch als Dienstleister für verschiedenste Online-Dienste von führenden Unternehmen genutzt. Die Erfahrungen eben dieser Unternehmen mit Predictive Analytics brachte die Konferenz mit Vorträgen zu dem „Entwicklungsprozess einer ganzheitlichen CRM-Steuerung bei XING“ oder der von Unternehmensvertretern der baby-walz GmbH vorgestellten Möglichkeit, durch Hyper-Personalisierung im Printbereich wettbewerbsfähig zu bleiben, nahe. Beide Vorträge zielten auf ein mittels Predictive Analytics erreichbares Ziel ab, nämlich die Vorhersage des Kundenkreises, der wahrscheinlich auf eine Anzeige oder ein Mailing reagieren wird. Die Adressierung einer Werbemaßnahme an eine vorher als relevant vorhergesagte Zielgruppe soll den Unternehmen vor allem Kosten sparen.

Nach der Mittagspause erwartete die Teilnehmer ein begeisterungsfähiger Dean Abbott, Co-Founder and Chief Data Scientist, SmarterHQ, der zu einem der bekanntesten Persönlichkeiten in der Predictive Analytics-Szene zählt. Seine packende Keynote über „How Predictive Modelers Should Think About Big Data“ thematisierte „the Good, the Bad and the Ugly of Big Data“. Von der Idee fasziniert, dass Daten für sich sprechen und alles, was man sich wünscht, verraten können, spricht Abbott auch ironisch von dem Algorithmus-Biest, das mit Daten gefüttert werden will. Als einen weniger faszinierenden und deshalb „ugly“ Teil von Big Data nennt der Datenexperte die Notwendigkeit der Aufbereitung von Daten. Insofern ist es auch in seinen Augen sinnvoll, nicht so viel Daten wie möglich, sondern nur solche zu verwenden, die für eine Analyse wirklich benötigt werden. Den kritischen Punkt Datenschutz traute sich Christian Hoops, Senior Business Analyst, Otto GmbH & Co KG, anzusprechen. Zusammen mit Kerstin Pape, Bereichsleiterin Online Marketing, ebenfalls Otto, geht dieser darauf ein, inwieweit die Analysen auch Datenschutzthemen berücksichtigen. Das darauf genannte Buzzword stammt in diesem Fall nicht aus der Tech-Branche und heißt Anonymisierung.

Aber nicht jede Selbstverständlichkeit stellt sich auch in der Praxis als Vorteil heraus - so im Falle des Dynamic Pricing, dem Abhängigmachen eines Preises von unterschiedlichen Faktoren. Für die Conrad Electronic SE stellte Dr. Jörg Dubiel, Director Corporate Intelligence des Elektronikkonzerns, klar, dass der niedrige Konkurrenzpreis nicht zwingend der richtige Preis für das eigene Unternehmen sei. Zudem ersetze der Algorithmus noch immer nicht den Menschen, der die Entscheidungen letztlich zu fällen hat. Die neue Strategie von Microsoft sieht dagegen ein Mehr an digitaler Transformation als entscheidenden Wettbewerbsvorteil an. Der Slogan „mobile first, cloud first“ lässt schon eine Abkehr des bisherigen Fokus auf die traditionelle Immer-Wiederauflage des neuesten Office-, etc.-Pakets erkennen. Dr. Stefan Schulte, Area Chief Analytics Officer bei Microsoft Deutschland, veranschaulicht seine Erfahrungen mit Predictive Analytics in Zahlen: Allein 2.000 Server speichern die Daten, die Microsoft für seine Vorhersage-Modelle benutzt. Getestet werden diese anhand von 1.500 Variablen. Trotz dieser immensen Menge setzt Microsoft aber auch noch auf klassische Scoring-Verfahren, die mit kleinen Data Mining-Modellen aufgesetzt werden.

Den Tagesabschluss bildete eine sog. Featured Session von Graeme Noseworthy, Senior Content Marketing Manger, IBM. Dem Wissen darüber, wer der eigene Kunde ist und wie er angesprochen werden will, gehe nicht die Frage voraus, welches Unternehmen mit solchen Themen zu tun hat. Vielmehr stelle sich die Frage, welches Unternehmen nicht damit zu tun hat. Im Analysebereich sei bereits vieles machbar, aber auch der Privacy Officer, sprich der Datenschutzbeauftragte in den USA, habe ein Wörtchen mitzureden. Noseworthy hob in seiner Session noch einmal die vielen Möglichkeiten von Predictive Analytics hervor: Angefangen von Predictive Maintenance, der vorhersagenden Wartung von Maschinen, über Vorhersagen in der Versicherungs- und Bankbranche bis hin zu verhaltensbasierten Einblicken bei Sportfans sei die Bandbreite groß.

Der 2. Konferenztag begann mit einem auch für den Referenten Phil Winters, Senior Managing Partner, CIAgenda, bis vor kurzem völlig neuen Thema. Seine Keynote mit dem Titel „Model Automation: So erhalten Sie Ihr Leben zurück“ führte in die Automatisierung der für Predictive Analytics erforderlichen Modellbearbeitung ein. Diese Überarbeitung stehe als notwendiger Baustein hinter jeder „Predictive History“. Jeder Vorhersage sei ein Prozess vorgeschaltet, der aus den Bausteinen Daten verstehen, bearbeiten, ein Modell entwickeln, das Modell bewerten und schließlich der Anwendung des entwickelten Modells besteht. Model Management beschleunigt diesen Prozess, indem die Abläufe automatisiert werden. Dies sei vor allem dann spannend, wenn ein Modell anhand beliebig vieler Komponenten getestet werden soll, was manuell nicht oder nur in einem längeren Zeitraum möglich ist. Als Praxisbeispiel nennt Winters einen von ihm für Whitch, dem englischen Pendant der Stiftung Warentest, entwickelten Price-Predictor. Dieses Tool gibt eine Prognose darüber ab, ob der Preis für ein Produkt innerhalb von 7 Tagen fallen oder steigen wird, respektive gleich bleibt. Whitch gibt seinen Nutzern damit eine wichtige Information für ihre Kaufentscheidung an die Hand. Die ständige Überarbeitung eines solchen Modells könne laut Winters auch automatisch erfolgen.

Im Anschluss stellten Ralf Jäger, Director Database Marketing, Unitymedia NRW GmbH, und Sabine Marcus, Director Analysis & Direct Marketing, DataLab. GmbH, ihre Zusammenarbeit im Rahmen von Predictive Analytics-Anwendungen beim Kabelnetzbetreiber Unitymedia vor. Die Herausforderungen lägen vor allem in der Auswahl und Zusammenführung der Daten, so die beiden Referenten. Unitymedia verwendet für seine Analysen sowohl extern als auch intern erhobene Daten, wobei dem Merkmal Alter eine besondere Relevanz für die Scoreberechnung zukommt. Der wohl berühmteste „Bot“, der Crawler von Google, ist schon lange nicht mehr alleine. Über die Integration eines „Chat-Bots“ in der Reisebranche referierte Dr. Thomas Spura, Data Scientist, pmOne Analytics GmbH. Damit dieser seine Aufgaben erfüllen kann, muss er „intelligent“ sein, was vor allem die Fähigkeit verlangt, sprachlich interagieren zu können, um Anfragen von Kunden verstehen und zufriedenstellend beantworten zu können. Trotz aller Euphorie dürften dabei aber auch die Gefahren nicht außer Acht gelassen werden. Spura nennt hierfür den Fall einer Dating-Plattform, auf der anstelle von interessierten Singles programmierte Bots kommunizierten. Wichtig sei daher immer klarzustellen, wenn der Kunde es mit einem Bot zu tun hat. Der Chat-Bot ist jedoch nur ein Zweig des Unternehmens. So gehören auch Kunden- und Produktanalysen sowie Predictive Maintenance in das Predictive Analytics-Portfolio.

Vor der Mittagspause führte Paul Mlakar, Owner der Graypoint Industries, in ein mittels Datenanalyse gelöstes Dilemma ein: Wie können öffentliche Aufträge erfolgreich gewonnen werden, wenn der von der Konkurrenz gebotene Preis nicht bekannt ist? Mlakars Lösung: Indem der Preis der Konkurrenz vorhergesagt und dann unterboten wird. Für seine erfolgversprechende Analyse verwendete der für verschiedene Branchen tätige Berater Daten aus dem frei zugänglichen Internet. Ebenso spannend war der Einblick in den von Paul Hellwig, Director Research & Development, Elsevier, vorgestellten Elsevier Medical Graph. Mit diesem kann die Wahrscheinlichkeit, an Herzinfarkt oder Epilepsie zu erkranken, „vorhergesagt“ werden. Der Analyse liegen 3,8 Mio. Patientendaten zu Grunde, die anhand von bis zu 1.600 Modellen getestet werden, und soll Mediziner in ihrer täglichen Arbeit unterstützen. Für die Berechnung verwendet Elsevier lineare Modelle. Warum das Unternehmen eine solch grundlegende Methode und kein technisches Hexenwerk verwendet, hat einen Grund: Anders als sog. Black-Box-Modelle, bei denen im Nachhinein nicht mehr feststellbar ist, wie ein Ergebnis zu Stande kam, bleiben lineare Modelle transparent. Das ist vor allem den Ärzten wichtig, die als Anwender auf Erklärungen bestehen, ehe sie ihr Handeln auf das Ergebnis von Algorithmen stützen.

Nach diesem spannenden ersten Teil betrachtete Pascal Weinberger, Co-Founder & CTO, Gaia Solutions Ltd. und mit 19 Jahren jüngster Redner der Veranstaltung, am Nachmittag unter dem Oberbegriff „Anomalie“ die Erkennung von Abweichungen im menschlichen Gehirn und solchen bei der Vorhersage von Katastrophen im Finanz-, Erdbeobachtungs- und Betrugssektor. Sein Vortrag umfasste grafische Darstellungen von neuronalen Abläufen im Gehirn ebenso wie die Konzentration von Erdbewegungen im Vergleich zu der vorhergesagten Verteilung. Mit der Vorhersage flüchtlingsfeindlicher Vorfälle durch Epidemiologie beschäftigte sich David Bencek, Researcher am Institut für Weltwirtschaft. Alarmiert von der Zunahme rechtsextremer Bewegungen seit Sommer 2015 entwickelte sein Institut ein Modell, das Übergriffe auf Menschen und Unterkünfte regionsbezogen vorhersagen soll. Auch mit diesem Vortrag wird dem Auditorium deutlich, wie weit die Einsatzgebiete von Predictive Analytics schon reichen.

Aber wie können Use Cases für solche Analysen gefunden werden? Über eine von vielen Möglichkeiten referierte Thomas Löchte, Gründer und Geschäftsführer der Informationsfabrik GmbH, in seinem Vortrag „Mit Design Thinking Analytics Use Cases finden und Nutzen stiftende Datenprodukte entwickeln“. Der Referent stellt in einem interaktiven Workshop-Charakter Design Thinking als einen Ansatz vor, mit dem Probleme gelöst und neue Ideen entwickelt werden können. Einen wichtigen Punkt hob Dr. Jochen Groß, Director Data Analytics (CF A IT Audit), Siemens AG, noch kurz vor Veranstaltungsende hervor. Zu Beginn Transparenz zu schaffen, mache überspitzt formuliert bereits 80% einer Predictive Analytic-Anwendung aus. Das Ende der Konferenz bildete die Abschluss-Keynote von Dr. Sven Crone, Director, Lancaster Research Centre for Forecasting. Er visualisierte die Themen, die laut Gartner, einem der führenden Anbieter von Marktforschung und Analysen, in den letzten Jahren einen Hype erlebten. Die Grafiken führen das Schlagwort Predictive Analytics konstant auf. Trotz dieses Umstands seien viele für Predictive Analytics verwendeten Werkzeuge zum Teil noch auf dem technischen Stand von vor 50 Jahren. Crone vergleicht dieses Vorgehen karikativ mit der Vorstellung, ein modernes Hochhaus mit einem platten Hammer bauen zu wollen.

Auch eine nur gespielte Befürchtung, die Branche sei noch zu sehr in alten Mustern verhaftet, kann gerade nach dieser Konferenz zweifelsfrei zurückgewiesen werden. Die Vorträge und der Austausch zeigten im Gegenteil auf, welche enormen Potenziale sowohl hinsichtlich der Anwendungsbereiche als auch bezüglich der verwendeten Verfahren bereits bestehen. Es bleibt spannend, wie sich das Feld von Predictive Analytics bis zur nächsten Tagung vom 13.-14.11.2017 in Berlin weiterentwickeln wird.

 

Susanne Mentel ist Dipl.-Jur. und Doktorandin am Institut für Informations-, Telekommunikations- und Medienrecht (ITM) der Universität Münster.