Predictive Analytics World Berlin 2014 - Tag 2

Tags: Predictive AnalyticsKonferenzenBerlin
Autor: Oliver Staubli, Founder & Data Scientist
Publiziert:    (Aktualisiert 16. November 2014)

Auch der zweite Konferenz-Tag wartete mit vielen spannenden Vorträgen auf. Dank dem DDB Networking Lounge Event am Vorabend war der Einstieg in den Referate-Maraton zwar etwas hart, aber mit genügend Kaffee war auch das kein wirkliches Problem.

Erster Tag der Konferenz


Anbei meine Highlights vom zweiten Tag der Konferenz:

Internet of Things trifft auf Customer Intelligence (CIAgenda)

Dies war für mich der amüsanteste Vortrag der Konferenz, was hauptsächlich am Referenten Phil Winters lag. Er widerlegte die Behauptung von der letztjährigen PAW, dass er es nicht hinkriegen würde, die beiden Themen Internet of Things (IoT) und Customer Intelligence in einem Vortrag zusammenzubringen.
Phil erzählte, dass das Schwierigste am Projekt die Suche nach öffentlichen IoT Daten war. Er wurde nach zwei Monaten bei Capital Bikeshare (CB) fündig. CB vermietet in Washington, D.C. über 2500 Fahrräder an über 300 Stationen. Da die ersten 30 Minuten gratis sind und die Fahrräder an jeder Station zurückgegeben werden können, wird dieser Service nicht nur von Touristen, sondern auch von Einheimischen rege genutzt. Das Problem für Capital Bikeshare liegt darin, dass gewisse Stationen häufig leer oder voll sind. Sobald eine Station länger als eine Stunde leer oder voll ist, muss CB der Stadt eine Busse zahlen. Die Stationen sowie Fahrräder sind zwar alle vernetzt mit der Zentrale, doch bis anhin wurden erst dann Angestellte zum Fahrrad transportieren losgeschickt, wenn mehrere Station voll, bzw. leer waren.
Phil stellte sich nun die Aufgabe, diese sowohl für Anbieter wie die Endkunden unbefriedigende Situation zu verbessern. Anhand von öffentlich verfügbaren Datenquellen (Google Maps, Wetter, Ferienzeiten), welche Phil mittels REST APIs integrierte, konnte er ein Vorhersagemodell erstellen, welches die Zentrale eine Stunde vor einem Engpass vorwarnt. Erstaunlich zu sehen war, dass Wetter und Ferienzeiten kaum Einfluss auf das Modell hatten, jedoch die Höhenunterschiede der Stationen wichtig waren: "Keiner will den Berg hochfahren!". Phil wird die Daten und den Workflow zum Reproduzieren zur Verfügung stellen.

Real-Time Text Analytics: Erkennung marktbewegender Ereignisse und Stimmungen in Finanznachrichten sowie Vorhersage von Kursinstabilitäten (Baader Bank AG)

Täglich müssen bis zu 500.000 Nachrichten von den Brokern der Baader Bank überwacht werden, um zeitnah auf Marktbewegungen reagieren zu können. Oft gehen dabei kursbewegende Ereignisse unter und es entstehen hohe Verluste.
Peter Blenninger zeigte auf, wie die Baader Bank gemeinsam mit der Clueda AG eine Lösung für die assoziative Textanalyse entwickelte (siehe Slide), welche marktbewegende Ereignisse mit einer Geschwindigkeit von 50 Millisekunden pro Nachricht erkennt und die Aktienhändler sofort informiert und im Notfall sogar eingreift - Pinkel-Pausen seien seither kein Problem mehr. Dank dieser Lösung werden täglich mehrere tausend Euro an Verlusten vermieden. Die assoziative Textanalyse kombiniert Methoden aus NLP, Statistik und neuronalen Netzen um Wirkungszusammenhänge aus unstrukturierten Textdaten zu extrahieren. Spannend waren ebenfalls die Ansätze zu Systemic Mood und Systemic Stability Indicator, welche zur Vorhersage von Kursschwankungen genutzt wurden (siehe Slide).

Hier die ganze Präsentation auf SlideShare.

Social Media Text Analytics (Telekom Deutschland GmbH)

Tobias Junge präsentierte das Scoial Media Center der Telekom Deutschland. Dort werden mittels Text Mining und Social Media Analytics Kundenfeedback auf allen Kanälen effizient gefiltert und priorisiert um bei aufkeimenden Shitstorms frühzeitig eingreifen zu können (siehe Slide). Top Autoren mit hoher Reichweite werden dazu prioritär behandelt.
Für einige Lacher im Publikum sorgte die Analyse des Markenbezugs bzw. die Liste der gefundenen Spottnamen wie #tdoof, #drosselkom, ... (siehe Slide).
Durch Social Media Analytics und dem Aufbau eines "A-Teams" von Social Media Kundenberatern ist die Telekom nun in der Lage schnell und effizient auf das Feedback der Kunden zu reagieren.

Churn - Entwicklung eines Kündigerfrühwarnsystems (Raiffeisenlandesbank NÖ-Wien)

Michael Sailer erzählte wie das entwickelte Kündigerfrühwarnsystems der Raiffeisenlandesbank NÖ-Wien auf internen Widerstand bei den Relationship Managers (RMs) stiess: "Ich kenne meine Kunden wohl besser als ein Algorithmus!" Doch als sich die ersten Absprung-Prognosen bestätigten, konnten auch die härtesten Kritiker vom neuen Vorgehen überzeugt werden. Erfolgsanalysen zeigten, dass wenn die prognostizierten "gefährdeten" Kunden tatsächlich kontaktiert wurden, eine Kündigerreduktion von bis zu 30% gegenüber der Prognose erreicht werden konnte.
Neben der Berechnung der Kündigungswahrscheinlichkeiten mittels statistisch-analytischer Modelle (Baumverfahren und logistische Regression) gab es einen weiteren wichtigen Erfolgsfaktor bei Einführung des neuen Ansatzes: Neben den nackten Wahrscheinlichkeitszahlen wurden dem RM auch die Begründung für das Kündigungs-Risiko als Text-Information mitgeliefert (z.B. "Wohnortswechsel", "Alle seine Produkte laufen aus"). Somit war die einzelne Kündigungswahrscheinlichkeit für die RMs gut nachvollziehbar und die RMs waren ideal auf das Kundengespräch vorbereitet.

Predictive Analytics im Einsatz in der Telekommunikationsbranche (Nokia)

Norbert Kraft zeigte eine eindrückliche Übersicht von Einsatzszenarien von Predictive Analytics in der Telekommunikationsindustrie (siehe Slide). In seinem Vortrag ging er näher auf das Anwendungsgebiet der User Mobility ein: Analysen von Bewegungsdaten helfen bei der Planung von Strassen sowie bei der Vorhersage von Verkehrsstaus (siehe Slide).
Norbert stellte einen Entwicklungs-Prototypen vor, in welchem die Möglichkeiten der Netzausfallvorhersage sowie deren Ursachenanalyse untersucht werden konnte. Dazu wurden unterschiedliche Data Mining und Machine Learning Verfahren verwendet, z.B. (Un-)supervised Learning, Clustering Verfahren für die Klassifizierung von Kundenprofilen oder Radiozellen sowie eine Zeitreihenanalyse zur Vorhersage von Netzausfällen. Beeindruckend war ebenfalls die visuelle Aufbereitung der Webanwendung in welchem sich die Netzausfallvorhersage anschauen liessen.
Spannend war zum Ende auch seine Aussage zur Verteilung der Entwicklungszeit im Predictive Analytics Projekten: (Gute) Visualisierungen benötigen in der Praxis vergleichbar viel Zeit wie das langwierige Aufbereiten der Daten (siehe Slide).

Market Trends in Predictive Analytics (Gartner)

Alexander Linden zeigte auf wohin sich laut Gartner der Predictive Analytics Markt hinbewegen wird. Auch er präsentierte eine umfangreiche Reihe an Use Cases (siehe Slide) - wobei "Predictive Policing" bei mir ungute Erinnerungen an den Film Minority Reprot hervorrufte, wo Verbrechen noch vor deren Ausübung geahndet wurden. Gut erklärt fand ich auch den Unterschied zwischen Analytics und Advanced Analytics (siehe Slide). Es brauche für Advanced Analytics grundsätzlich andere Skills als für Analytics, weil das eine nicht auf dem Andren aufbaue. Dies bedeute wiederum, dass es für Firmen schwer werde, von Analytics zu Advanced Analytics überzugehen.
Gut nachvollziehbar fand ich die Prognose, dass sich Analytics Marketplaces etablieren werden, in welchen sich Datenströme wie heute Apps in Appstores verwalten liesse: "Data As App" (siehe Slide).

Diskussionsrunde: Data Scientist - Sexiest job of the 21th Century?

Zum Abschluss der Konferenz gab es noch eine Diskussionsrunde, moderiert von Martin Szugat, zum Thema was denn nun ein "Data Scientist" genau sei. Interessant fand ich Alexander Lindens provokative Aussage, die Anzahl der Data Scientist Jobs sei rückläufig: Viele amerikanische Firmen hätten aufgegeben Data Scientists zu suchen. Dies aber nur weil sich kaum Data Scientists mit geforderten Profilen finden liessen. Es sei ein Trend absehbar, dass sich die Firmen nun mit "Citizen Data Scientists" begnügen, welche zwar nicht die (zu-)hohen Jobanforderungen erfüllen, dafür Tools bedienen können und zur Verfügung stehen.
In der Runde war man sich ebenfalls einig, dass es eigentlich noch einen weiteren Job-Typen geben müsste, welcher als Vermittler zwischen IT, Business und Data Scientist fungieren sollte.



Workshop mit Dean Abbott