888Poker ! Let's us help you to became best player

Review and Tips: Poker Casino Sport .

You are not logged in.

#1 2020-09-13 23:14:12

Miroslavafluit
Member
Registered: 2020-09-13
Posts: 3

Data Science Blog: Sind die Kundencluster dann erkannt

Must-have Skills to Master  Data Science .
August 25, 20201 Comment in Carrier, Gerneral,   by Ranjana Moolya      The need to process a massive amount of data sets is making  Data Science  the most-demanded job across diverse industry verticals.
In today’s times, organizations are actively looking for Data  Scientists .
But  What does  a Data Scientist do.
Data Scientist design data models, create various algorithms to extract the data the organization needs, and then they analyze the gathered data and communicate the data insights with the business  stakeholder s.
If you are looking forward to pursuing a career in Data Science, then this blog is for you ????   Data Scientists often come from many different educational and work  experience  backgrounds but few skills are common and essential.
Let’s have a look at all the essential skills required to become a  Data Scientist :    Multivariable Calculus & Linear Algebra.
Probability &  Statistics .
Programming Skills (Python & R).
Machine Learning  Algorithms .
Data  Visualization .
Data Wrangling.
Data Intuition.
Let’s dive deeper into all these skills one by one.
Multivariable Calculus & Linear Algebra:   Having a solid understanding of math concepts is very helpful for a Data Scientist.
Key Concepts:    Matrices.
Linear Algebra Functions.
Derivatives and Gradient.
Relational Algebra.
Probability & Statistics:   Probability and Statistics play a major role in Data Science for estimation and prediction purposes.
Key concepts required:    Probability Distributions.
Conditional Probability.
Bayesian Thinking.
Descriptive Statistics.
Random Variables.
Hypothesis Testing and Regression.
Maximum Likelihood Estimation.
Programming Skills (Python & R):   Python :   Start with Python Fundamentals using a jupyter notebook, which comes pre-packaged with Python libraries.
Important Python Libraries used:    NumPy (For Data Exploration).
Pandas (For Data Exploration).
Matplotlib (For Data Visualization).
R:   It is a programming language and software environment used for statistical computing and graphics.    Key Concepts required:    R Languages fundamentals and basic syntax.
Vectors, Matrices, Factors.
Data frames.
Basic Graphics.
Machine Learning Algorithms   Machine Learning is an innovative and essential field in the industry.
There are quite a few algorithms out there, major ones are as follows –    Linear Regression.
Logistic Regression.
Decision Trees.
Random Forest.
Naïve Bayes.
Support Vector Machines.
Dimensionality Reduction.
K-means.
Artificial Neural Networks.
Data Visualization:   Data visualization is very essential when it comes to analyzing a massive amount of information and data.    To make data-driven decisions, data visualization tools, and technologies are essential in the world of Data Science.
Data Visualization tools:    Tableau.
Microsoft Power Bi.
E Charts.
Datawrapper.
HighCharts.
Data Wrangling:   Data wrangling, this term refers to the process of cleaning and refining the messy and complex data available into a more usable format.    It is considered one of the most crucial parts of working with data.
Important Steps to Data Wrangling:    Discovering.
Structuring.
Cleaning.
Enriching.
Validating.
Documenting.
Tools used:    Tabula.
Google DataPrep.
Data Wrangler.
CSVkit.
Data Wrangling can be done using Python and R.
Data Intuition:   Data Intuition in Data Science is an intuitive understanding of concepts.
It’s one of the most significant skills required to become a Data Scientist.
It’s about recognizing patterns where none are observable on the surface.
This is something that you need to develop.
It is a skill that will only come with experience.
A Data Scientist should know which Data Science methods to apply to the problem at hand.
Conclusion:    As you can see, all these skills – from programming to algorithmic methods, work with one another to build on top of each other for gathering deeper data insights.
There are a wide number of courses available online for developing these skills and to help you become a true talent in this data industry.
Sure, this journey isn’t an easy one to follow but it’s not impossible.
With sheer determination and consistency, you will be able to cross all the hurdles in your Data Science career path.
https://data-science-blog.com/wp-content/uploads/2020/08/skills-a-data-scientists-must-have-header.png        338        925          Ranjana Moolya          Ranjana Moolya  2020-08-25 10:59:00 2020-09-01 19:12:50 Must-have Skills to Master Data Science       Process Mining mit Celonis – Artikelserie.
August 19, 20201 Comment in , , , , , Tool Introduction  by Jurek Dörner     Der erste Artikel dieser Artikelserie Process Mining Tools beschäftigt sich mit dem Anbieter Celonis.
Das 2011 in Deutschland gegründete Unternehmen ist trotz wachsender Anzahl an Wettbewerbern zum Zeitpunkt der Veröffentlichung dieses Artikels der eindeutige Marktführer im Bereich Process Mining.
Celonis Process Mining – Teil 1 der Artikelserie.
Celonis Process Mining ist 2011 als reine On-Premise-Lösung gestartet und seit 2018 auch als Cloud-Lösuung zu haben.
Übersicht zu den vier verschiedenen Produktversionen der Celonis Process Mining Lösungen:     Celonis Snap  Celonis Enterprise  Celonis Academic  Celonis Consulting    Lizenz:   Kostenfrei  Kostenpflichtige Lösungspakete  Kostenfrei  Consulting Lizenz on Demand    Zielgruppe:   Für kleine Unternehmen und Einzelanwender  Für mittel- und große Unternehmen  Für akademische Einrichtungen und Studenten  Für Berater    Datenquellen:  ServiceNow, CSV/XLS -Datei  Beliebig (On-Premise- und Cloud – Anbindungen)  ServiceNow, CSV/XLS/XES –Datei oder Demosysteme  Beliebig (On-Premise- und Cloud – Anbindungen)    Datenvolumen:  Limitiert auf 500 MB Event-Log-Daten  Unlimitierte Datenmengen (Größte Installation 50 TB)  Unlimitierte Datenmengen  Unlimitierte Datenmengen (Größte Installation 30 TB    Architektur:  Cloud & On-Premise  Cloud & On-Premise  Cloud & On-Premise  Cloud & On-Premise     Dieser Artikel bezieht sich im weiteren Verlauf auf die Celonis Enterprise Version, wenn nicht anders gekennzeichnet.
Spezifische Unterschiede unter den einzelnen Produkten und weitere Informationen können auf der Website von Celonis entnommen werden.
Bedienbarkeit und Anpassungsfähigkeit der Analysen.
In Sachen Bedienbarkeit punktet Celonis mit einem sehr übersichtlichen und einsteigerfreundlichem Userinterface.
Jeder der mit BI-Tools wir z.
B.
„Power-BI“ oder „Tableau“ gearbeitet hat, wird sich wahrscheinlich schnell zurechtfinden.
Abbildung 1: Userinterface von Celonis.
Über die Reiter kann direkt von der Analyse (Process Analytics) zu den ETL-Prozessen (Event Collection) gewechselt werden.
Das Erstellen von Analysen funktioniert intuitiv und schnell, auch weil die einzelnen Komponentenbausteine lediglich per drag & drop platziert und mit den gewünschten Dimensionen und KPI’s bestückt werden müssen.
Abbildung 2: Typische Analyse im Edit Modus.
Neue Komponenten können aus dem Reiter (rechts im Bild) mittels drag & drop auf der Dashboard Bearbeitungsfläche platziert werden.
Darüber hinaus bietet Celonis mit seinem kostenlosen Programm „Celonis Acadamy“ einen umfangreichen und leicht verständlichen Pool an Trainingseinheiten für die verschiedenen User-Rollen: „Snap“, „Executive“, „Business User“, „Analyst“ und „Data Engineer“.
Einsteiger finden sich nach der Absolvierung der Grundkurse etwa nach vier Stunden in dem Tool zurecht.
Abbildung 3: Conformance Analyse In Celonis.
Es kann direkt analysiert werden, welche Art von Verstößen welche Auswirkungen haben und mit welcher Häufigkeit diese auftreten.
Die Definition von eigenen KPIs erfolgt mittels übersichtlichem Code Editor.
Die verwendete proprietäre und patentierte Programmiersprache lautet PQL (Process Query Language) , dessen Syntax stark an SQL angelehnt ist und alle prozessrelevanten Berechnungen ermöglicht.
Noch einsteigerfreundlicher ist der Visual Editor, in welchem KPIs alternativ mit zahlreicher visueller Unterstützung und über 130 mathematischen Operatoren erstellt werden können – ganz ohne Coding Erfahrung.
Mit Hilfe von über 30 Komponenten lassen sich alle üblichen Charts und Grafiken erstellen.
Ich hatte das Gefühl, dass die Auswahl grundsätzlich ausreicht und dem Erkenntnisgewinn nicht im Weg steht.
Dieses Gefühl rührt nicht zuletzt daher, dass die vorgefertigten Features, wie zum Beispiel „Conformance“ direkt und ohne Aufwand implementiert werden können und bemerkenswerte Erkenntnisse liefern.
Kurzum: Ja es ist vieles vorgefertigt, aber hier wurde mit hohen Qualitätsansprüchen vorgefertigt.
Abbildung 4: Coder Editor (links) und Visual Editor (rechts).
Während im Code Editor mit PQL geschrieben werden muss, können Einsteiger im Visual Editor visuelle Hilfestellungen nehmen, um KPIs zu definieren.
Diese Flexibilität erscheint groß und bedient mehrere Zielgruppen, beginnend bei den Einsteigern.
Insbesondere da das Verständnis für den Code Editor und somit für PQL durch die Arbeit mit dem Visual Code Editor gefördert wird.
Wer SQL-Kenntnisse mitbringt, wird sehr schnell ohne Probleme KPIs im Code Editor definieren können.
Erfahrenen Data Engineers stünde es dennoch frei, die Entwicklungsarbeit auf die Datenbankebene zu verschieben.
Abbildung 5: Mit Hilfe zahlreicher Möglichkeiten können Einsteiger im Visual Editor visuelle Hilfestellungen nehmen, um individuelle KPIs zu definieren.
Nachdem die ersten Analysen erstellt wurden, steht der Prozessanalyse nichts mehr im Wege.
Während sich per Knopfdruck auf alle visualisierten Datenpunkte filtern lässt, unterstützt auch hier Celonis zusätzlich mit zahlreichen sogenannten ‘Auswahlansichten’, um die Entdeckung unerwünschter oder betrügerischer Prozesse so einfach wie das Googeln zu machen.
Abbildung 6: Die anwenderfreundlichen Auswahlarten ermöglichen es dem Benutzer, einfach mit wenigen Klicks nach Unregelmäßigkeiten oder Mustern in Transaktionen zu suchen und diese eingehend zu analysieren.
Integrationsfähigkeit.
Die Celonis Enterprise Version ist sowohl als Cloud- und On-Premise-Lösung verfügbar.
Die Cloud-Lösung bietet die folgenden Vorteile: Zum einen zusätzliche Leistungen wieCloud Connectoren, einer sogenannten Action Engine die jeden einzelnen Mitarbeiter in einem Unternehmen mit datengetriebenen nächstbesten Handlungen unterstützt, intelligenter Process Automation, Machine Learning und AI, einen App Store sowie verschiedene Boards.
Diese Erweiterungen zeigen deutlich den Anspruch des Münchner Process Mining Vendors auf, neben der reinen Prozessanalyse Unternehmen beim heben der identifizierten Potentiale tatkräftig zu unterstützen.
Darüber hinaus kann die Cloud-Lösung punkten mit, einer schnellen Amortisierung, bedarfsgerechter Skalierbarkeit der Kapazitäten sowie einen noch stärkeren Fokus auf Security & Compliance.
Darüber hinaus  erfolgen regelmäßig Updates.
Abbildung 7: Celonis Process Automation ermöglicht Unternehmen ihre Prozesse auf intelligente Art und Weise so zu automatisieren, dass die Zielerreichung der jeweiligen Fachabteilung im Fokus stehen.
Auch hier trumpft Celonis mit über 30+ vorgefertigten Möglichkeiten von der Automatisierung von Kommunikation, über Backend Automatisierung in Quellsystemen bis hin zu Einbindung von RPA Bots und vielem mehr.
Der Schwenk von Celonis scheint in Richtung Cloud zu sein und es bleibt abzuwarten, wie die On-Premise-Lösung zukünftig aussehen wird und ob sie noch angeboten wird.
Je nach Ausgangssituation gilt es hier abzuwägen, welche der beiden Lösungen die meisten Vorteile bietet.
In jedem Fall wird Celonis als browserbasierte Webanwendung für den Endanwender zur Verfügung gestellt.
Die folgende Abbildung zeigt eine beispielhafte Celonis on-Premise-Architektur, bei welcher der User über den Webbrowser Zugang erhält.
Celonis bringt eine ausreichende Anzahl an vordefinierten Datenschnittstellen mit, wodurch sowohl gängige on-Premise Datenbanken / ERP-Systeme als auch Cloud-Dienste, wie z.
B.
„ServiceNow“ oder „Salesforce“ verbunden werden können.
Im „App Store“ können zusätzlich sogenannte „prebuild Process-Connectors“ kostenlos erworben werden.
Diese erstellen die Verbindung und erzeugen das Datenmodell (Extract and Transform) für einen Standard Prozess automatisch, so dass mit der Analyse direkt begonnen werden kann.
Über 500 vordefinierte Analysen für Standard Prozesse gibt es zusätzlich im App Store.
Dadurch kann die Bearbeitungszeit für ein Process-Mining Projekt erheblich verkürzt werden, vorausgesetzt das benötigte Datenmodel weicht im Kern nicht zu sehr von dem vordefinierten Model ab.
Sollten Schnittstellen mal nicht vorhanden sein, können Daten auch als CSV oder XLS Format importiert werden.
Abbildung 8: Der Celonis App Store beinhaltet über 100 Prozesskonnektoren, über 500 vorgefertigte Analysen und über 80 Action Engine Fähigkeiten die kostenlos mit der Cloud Lizenz zur Verfügung stehen  Auch wenn von einer 100%-Cloud gesprochen wird, muss für die Anbindung von unternehmensinternen on-premise Datenquellen (z.
B.
lokale Instanzen von SAP ERP, Oracle ERP, MS Dynamics ERP) ein sogenannter Extractor on-premise installiert werden.
Abbildung 9: Celonis Extractor muss für die Anbindung von On-Premise Datenquellen ebenfalls On-Premise installiert werden.
Dieser arbeitet wie ein Gateway zur Celonis Intelligent Business Cloud (IBC).
Die IBC enthält zudem einen eigenen Extratctor für die Anbindung von Daten aus anderen Cloud-Systemen.
Celonis bietet in der Enterprise-Ausführung zudem ein umfassendes Benutzer-Berechtigungsmanagement, so dass beispielsweise für Analysen im Einkauf die Berechtigungen zwischen dem Einkaufsleiter, Einkäufern und Praktikanten im Einkauf unterschieden werden können.
Auch dieser Punkt ist für viele Unternehmen eine Grundvoraussetzung für einen eventuellen unternehmensweiten Roll-Out.
Skalierbarkeit.
In Punkto großen Datenmengen kann Celonis sich sehen lassen.
Allein für „Uber“ verarbeitet die Cloud rund 50 Millionen Datensätze, wobei ein einzelner mehrere Terabyte (TB) groß sein kann.
Der größte einzelne Datenblock, den Celonis analysiert, beträgt wohl etwas über 50 TB.
Celonis bietet somit Process Mining, zeitgerecht im Bereich Big Data an und kann daher auch viele große renommierten Unternehmen zu seinen Kunden zählen, wie zum Beispiel Siemens, ABB oder BMW.
Doch wie erweiterbar und flexibel sind die erstellten Datenmodelle.
An diesem Punkt konnte ich keine Schwierigkeiten feststellen.
Celonis bietet ein übersichtlich gestaltetes Userinterface, welches das Datenmodell mit seinen Tabellen und Beziehungen sauber darstellt.
Modelliert wird mit SQL-Befehlen, wodurch eine zusätzliche Abfragesprache entfällt.
Der von Celonis gewählte SQL-Dialekt ist Vertica.
Dieser ist keineswegs begrenzt und bietet die ausreichende Tiefe, welche an dieser Stelle benötigt wird.
Die Erweiterbarkeit sowie die Flexibilität der Datenmodelle wird somit ausschließlich von der Arbeit des Data Engineer bestimmt und in keiner Weise durch Celonis selbst eingeschränkt.
Durch das Zurückgreifen auf die Abfragesprache SQL, kann bei der Modellierung auf eine sehr breite Community zurückgegriffen werden.
Darüber hinaus können bestehende SQL-Skripte eingefügt und leicht angepasst werden.
Und auch die Suche nach einem geeigneten Data Engineer gestaltet sich dadurch praktisch, da SQL eine der meistbeherrschten Abfragesprachen ist.
Zukunftsfähigkeit.
Machine Learning umfasst Data Mining und Predictive Analytics und findet vermehrt den Einzug ins Process Mining.
Auch ist es längst ein wesentlicher Bestandteil von Celonis.
So basiert z.
B.
das Feature „Conformance“ auf Machine Learning Algorithmen, welche zu den identifizierten Prozessabweichungen den Einfluss auf das Geschäft berechnen.
Aber auch Lösungen zu den Identifizierten Problemen werden von Verfahren des maschinellen Lernens dem Benutzer vorgeschlagen.
Was zusätzlich in Sachen Machine Learning von Celonis noch bereitgestellt wird, ist die sogenannte Machine-Learning-Workbench, welche in die Intelligent Business Cloud integriert ist.
Hier können eigene Anwendungen mit Machine Learning auf Basis der Event-Log Daten entwickelt und eingesetzt werden, um z.
B.
Vorhersagen zu Lieferzeiten treffen zu können.
Task Mining ist einer der nächsten Schritte im Bereich Process Mining, der den Detailgrad für Analysen von Prozessen bis hin zu einzelnen Aufgaben auf Mausklick-Ebene erhöht.
Im Oktober 2019 hatte Celonis bereits angekündigt, dass die Intelligent Business Cloud um eben diese neue Technik der Datenerhebung und -analyse erweitert wird.
Die beiden Methoden Prozess Analyse und Task Mining ergänzen sich ausgezeichnet.
Stelle ich in der Prozess Analyse fest, dass sich eine bestimmte Aktivität besonders negativ auf meine gewünschte Performance auswirkt (z.
B.
Zeit), können mit Task Mining diese Aktivität genauer untersuchen und die möglichen Gründe sehr granular betrachten.
So kann ich evtl.
feststellen das Mitarbeiter bei einer bestimmten Art von Anfrage sehr viel Zeit in Salesforce verbringen, um Informationen zu sammeln.
Hier liegt also viel Potential versteckt, um den gesamten Prozess zu verbessern.
In dem z.
B.
die Informationsbeschaffung erleichtert wird oder evtl.
der Anfragetyp optimiert wird, kann dieses Potential genutzt werden.
Auch ist Task Mining die ideale Grundlage zur Formulierung von RPA-Lösungen.
Ebenfalls entscheidend für die Zukunftsfähigkeit von Process Mining ist die Möglichkeit, Verknüpfungen zwischen unterschiedlichen Geschäftsprozesse zu erkennen.
Häufig sind diese untrennbar miteinander verbunden und der Output eines Prozesses bildet den Input für einen anderen.
Mit prozessübergreifenden Multi-Event Logs bietet Celonis die Möglichkeit, genau diese Verbindungen aufzuzeigen.
So entsteht ein einheitliches Prozessmodell für das gesamte Unternehmen.
Und das unter bestimmten Voraussetzungen auch in nahezu Echtzeit.
Werden die ersten Entwicklungen im Bereich Machine Learning und Task Mining von Celonis weiter ausgebaut, ist Celonis weiterhin auf einem zukunftssicheren Weg.
Unternehmen, die vor allem viel Wert auf Enterprise-Readiness und eine intensive Weiterentwicklung legen, dürften mit Celonis auf der sicheren Seite sein.
Preisgestaltung.
Die Preisgestaltung der Enterprise Version wird von Celonis nicht transparent kommuniziert.
Angeboten werden verschiedene kostenpflichtige Lösungspakete, welche sich aus den Anforderungen eines Projektes ergeben.  Generell stufe ich die Celonis Enterprise Version als Premium Produkt ein.
Dies liegt auch daran, weil die Basisausführung der Celonis Enterprise Version bereits sehr umfänglich ist und neben der Software Subscription standardmäßig auch mit Wartung und Support kommt.
Zusätzlich steckt mittlerweile sehr viel Entwicklungsarbeit in der Celonis Process Mining Plattform, welche weit über klassische Process Discovery Solutions hinausgeht.  Für kleinere Unternehmen mit begrenztem Budget gibt es daher zwischen der kostenfreien Snap Version und den Basis Paketen der Enterprise Version oft keine Interimslösung.
Fazit.
Insgesamt stellt Celonis ein unabhängiges und leistungsstarkes Process Mining Tool in der Cloud bereit.
Gehört die Cloud zur Unternehmensstrategie, ist man bei Celonis an der richtigen Adresse.
Die „prebuild Process-Connectors“ und die vordefinierten Analysen können ein Process Mining Projekt signifikant beschleunigen und somit die Time-to-Value lukrativ verkürzen.
Die Analyse Tools sind leicht bedienbar und schaffen dank integrierter Machine Learning Algorithmen Optimierungspotentiale.
Positiv ist auch zu bewerten, dass Celonis ohne speziellen Syntax auskommt und mittelmäßige SQL-Fähigkeiten somit völlig ausreichend sind, um Prozessanalysen vollumfänglich durchzuführen.
Diesen vielen positiven Aspekten steht eigentlich nur die hohe Preisgestaltung für die Enterprise Version gegenüber.
Ob diese im Einzelfall gerechtfertigt ist, sollte situationsabhängig evaluiert werden.
Sicherlich richtet sich Celonis Enterprise in erster Linie an größere Unternehmen, welche komplexe Prozesse mit hohen Datenvolumina analysieren möchte.  Mit Celonis-Snap können jedoch auch kleine Unternehmen und Start-ups einen begrenzten Einblick in dieses gut gelungene Process Mining Tool erhalten.
https://data-science-blog.com/wp-content/uploads/2020/08/process-mining-artikelserie-header.png        393        1141          Jurek Dörner          Jurek Dörner  2020-08-19 08:13:15 2020-08-24 11:27:19 Process Mining mit Celonis - Artikelserie       Interview: Data Science in der Finanzbranche.
July 29, 20200 Comments in , , ,   by Benjamin Aunkofer     Interview mit Torsten Nahm von der DKB (Deutsche Kreditbank AG) über Data Science in der Finanzbranche Torsten Nahm ist Head of Data Science bei der DKB (Deutsche Kreditbank AG) in Berlin.
Er hat Mathematik in Bonn mit einem Schwerpunkt auf Statistik und numerischen Methoden studiert.
Er war zuvor u.a.
als Berater bei KPMG und OliverWyman tätig sowie bei dem FinTech Funding Circle, wo er das Risikomanagement für die kontinentaleuropäischen Märkte geleitet hat.
Hallo Torsten, wie bist du zu deinem aktuellen Job bei der DKB gekommen.
Die Themen Künstliche Intelligenz und maschinelles Lernen haben mich schon immer fasziniert.
Den Begriff „Data Science“ gibt es ja noch gar nicht so lange.
In meinem Studium hieß das „statistisches Lernen“, aber im Grunde ging es um das gleiche Thema: dass ein Algorithmus Muster in den Daten erkennt und dann selbstständig Entscheidungen treffen kann.
Im Rahmen meiner Tätigkeit als Berater für verschiedene Unternehmen und Banken ist mir klargeworden, an wie vielen Stellen man mit smarten Algorithmen ansetzen kann, um Prozesse und Produkte zu verbessern, Risiken zu reduzieren und das Kundenerlebnis zu verbessern.
Als die DKB jemanden gesucht hat, um dort den Bereich Data Science weiterzuentwickeln, fand ich das eine äußerst spannende Gelegenheit.
Die DKB bietet mit über 4 Millionen Kunden und einem auf Nachhaltigkeit fokussierten Geschäftsmodell m.
E.
ideale Möglichkeiten für anspruchsvolle aber auch verantwortungsvolle Data Science.
Du hast viel Erfahrung in Data Science und im Risk Management sowohl in der Banken- als auch in der Versicherungsbranche.
Welche Rolle siehst du für Big Data Analytics in der Finanz- und Versicherungsbranche.
Banken und Versicherungen waren mit die ersten Branchen, die im großen Stil Computer eingesetzt haben.
Das ist einfach ein unglaublich datengetriebenes Geschäft.
Entsprechend haben komplexe Analysemethoden und auch Big Data von Anfang an eine große Rolle gespielt – und die Bedeutung nimmt immer weiter zu.
Technologie hilft aber vor allem dabei Prozesse und Produkte für die Kundinnen und Kunden zu vereinfachen und Banking als ein intuitives, smartes Erlebnis zu gestalten – Stichwort „Die Bank in der Hosentasche“.
Hier setzen wir auf einen starken Kundenfokus und wollen die kommenden Jahre als Bank deutlich wachsen.
Kommen die Bestrebungen hin zur Digitalisierung und Nutzung von Big Data gerade eher von oben aus dem Vorstand oder aus der Unternehmensmitte, also aus den Fachbereichen, heraus.
Das ergänzt sich idealerweise.
Unser Vorstand hat sich einer starken Wachstumsstrategie verschrieben, die auf Automatisierung und datengetriebenen Prozessen beruht.
Gleichzeitig sind wir in Dialog mit vielen Bereichen der Bank, die uns fragen, wie sie ihre Produkte und Prozesse intelligenter und persönlicher gestalten können.
Was ist organisatorische Best Practice.
Finden die Analysen nur in deiner Abteilung statt oder auch in den Fachbereichen.
Ich bin ein starker Verfechter eines „Hub-and-Spoke“-Modells, d.h.
eines starken zentralen Bereichs zusammen mit dezentralen Data-Science-Teams in den einzelnen Fachbereichen.
Wir als zentraler Bereich erschließen dabei neue Technologien (wie z.
B.
die Cloud-Nutzung oder NLP-Modelle) und arbeiten dabei eng mit den dezentralen Teams zusammen.
Diese wiederum haben den Vorteil, dass sie direkt an den jeweiligen Kollegen, Daten und Anwendern dran sind.
Wie kann man sich die Arbeit bei euch in den Projekten vorstellen.
Was für Profile – neben dem Data Scientist – sind beteiligt.
Inzwischen hat im Bereich der Data Science eine deutliche Spezialisierung stattgefunden.
Wir unterscheiden grob zwischen Machine Learning Scientists, Data Engineers und Data Analysts.
Die ML Scientists bauen die eigentlichen Modelle, die Date Engineers führen die Daten zusammen und bereiten diese auf und die Data Analysts untersuchen z.
B.
Trends, Auffälligkeiten oder gehen Fehlern in den Modellen auf den Grund.
Dazu kommen noch unsere DevOps Engineers, die die Modelle in die Produktion überführen und dort betreuen.
Und natürlich haben wir in jedem Projekt noch die fachlichen Stakeholder, die mit uns die Projektziele festlegen und von fachlicher Seite unterstützen.
Und zur technischen Organisation, setzt ihr auf On-Premise oder auf Cloud-Lösungen.
Unsere komplette Data-Science-Arbeitsumgebung liegt in der Cloud.
Das vereinfacht die gemeinsame Arbeit enorm, da wir auch sehr große Datenmengen z.
B.
direkt über S3 gemeinsam bearbeiten können.
Und natürlich profitieren wir auch von der großen Flexibilität der Cloud.
Wir müssen also z.
B.
kein Spark-Cluster oder leistungsfähige Multi-GPU-Instanzen on premise vorhalten, sondern nutzen und zahlen sie nur, wenn wir sie brauchen.
Gibt es Stand heute bereits Big Data Projekte, die die Prototypenphase hinter sich gelassen haben und nun produktiv umgesetzt werden.
Ja, wir haben bereits mehrere Produkte, die die Proof-of-Concept-Phase erfolgreich hinter sich gelassen haben und nun in die Produktion umgesetzt werden.
U.a.
geht es dabei um die Automatisierung von Backend-Prozessen auf Basis einer automatischen Dokumentenerfassung und -interpretation, die Erkennung von Kundenanliegen und die Vorhersage von Prozesszeiten.
In wie weit werden unstrukturierte Daten in die Analysen einbezogen.
Das hängt ganz vom jeweiligen Produkt ab.
Tatsächlich spielen in den meisten unserer Projekte unstrukturierte Daten eine große Rolle.
Das macht die Themen natürlich anspruchsvoll aber auch besonders spannend.
Hier ist dann oft Deep Learning die Methode der Wahl.
Wie stark setzt ihr auf externe Vendors.
Und wie viel baut ihr selbst.
Wenn wir ein neues Projekt starten, schauen wir uns immer an, was für Lösungen dafür schon existieren.
Bei vielen Themen gibt es gute etablierte Lösungen und Standardtechnologien – man muss nur an OCR denken.
Kommerzielle Tools haben wir aber im Ergebnis noch fast gar nicht eingesetzt.
In vielen Bereichen ist das Open-Source-Ökosystem am weitesten fortgeschritten.
Gerade bei NLP zum Beispiel entwickelt sich der Forschungsstand rasend.
Die besten Modelle werden dann von Facebook, Google etc.
kostenlos veröffentlicht (z.
B.
BERT und Konsorten), und die Vendors von kommerziellen Lösungen sind da Jahre hinter dem Stand der Technik.
Letzte Frage: Wie hat sich die Coronakrise auf deine Tätigkeit ausgewirkt.
In der täglichen Arbeit eigentlich fast gar nicht.
Alle unsere Daten sind ja per Voraussetzung digital verfügbar und unsere Cloudumgebung genauso gut aus dem Home-Office nutzbar.
Aber das Brainstorming, gerade bei komplexen Fragestellungen des Feature Engineering und Modellarchitekturen, finde ich per Videocall dann doch deutlich zäher als vor Ort am Whiteboard.
Insofern sind wir froh, dass wir uns inzwischen auch wieder selektiv in unseren Büros treffen können.
Insgesamt hat die DKB aber schon vor Corona auf unternehmensweites Flexwork gesetzt und bietet dadurch per se flexible Arbeitsumgebungen über die IT-Bereiche hinaus.
https://data-science-blog.com/wp-content/uploads/2020/07/interview-data-science-finanz-branche.png        478        1258                    2020-07-29 08:01:43 2020-08-15 21:29:32 Interview: Data Science in der Finanzbranche       Sechs Eigenschaften einer modernen Business Intelligence.
July 10, 20201 Comment in Artificial Intelligence, , , , , Data Science News, Data Warehousing, Database, Gerneral, , , Predictive Analytics,   by Benjamin Aunkofer     Völlig unabhängig von der Branche, in der Sie tätig sind, benötigen Sie Informationssysteme, die Ihre geschäftlichen Daten auswerten, um Ihnen Entscheidungsgrundlagen zu liefern.
Diese Systeme werden gemeinläufig als sogenannte Business Intelligence (BI) bezeichnet.
Tatsächlich leiden die meisten BI-Systeme an Mängeln, die abstellbar sind.
Darüber hinaus kann moderne BI Entscheidungen teilweise automatisieren und umfassende Analysen bei hoher Flexibilität in der Nutzung ermöglichen.
Read this article in English: “Six properties of modern Business Intelligence”  Lassen Sie uns die sechs Eigenschaften besprechen, die moderne Business Intelligence auszeichnet, die Berücksichtigungen von technischen Kniffen im Detail bedeuten, jedoch immer im Kontext einer großen Vision für die eigene Unternehmen-BI stehen: 1.      Einheitliche Datenbasis von hoher Qualität (Single Source of Truth).
Sicherlich kennt jeder Geschäftsführer die Situation, dass sich seine Manager nicht einig sind, wie viele Kosten und Umsätze tatsächlich im Detail entstehen und wie die Margen pro Kategorie genau aussehen.
Und wenn doch, stehen diese Information oft erst Monate zu spät zur Verfügung.
In jedem Unternehmen sind täglich hunderte oder gar tausende Entscheidungen auf operative Ebene zu treffen, die bei guter Informationslage in der Masse sehr viel fundierter getroffen werden können und somit Umsätze steigern und Kosten sparen.
Demgegenüber stehen jedoch viele Quellsysteme aus der unternehmensinternen IT-Systemlandschaft sowie weitere externe Datenquellen.
Die Informationsbeschaffung und -konsolidierung nimmt oft ganze Mitarbeitergruppen in Anspruch und bietet viel Raum für menschliche Fehler.
Ein System, das zumindest die relevantesten Daten zur Geschäftssteuerung zur richtigen Zeit in guter Qualität in einer Trusted Data Zone als Single Source of Truth (SPOT) zur Verfügung stellt.
SPOT ist das Kernstück moderner Business Intelligence.
Darüber hinaus dürfen auch weitere Daten über die BI verfügbar gemacht werden, die z.
B.
für qualifizierte Analysen und Data Scientists nützlich sein können.
Die besonders vertrauenswürdige Zone ist jedoch für alle Entscheider diejenige, über die sich alle Entscheider unternehmensweit synchronisieren können.
2.      Flexible Nutzung durch unterschiedliche Stakeholder.
Auch wenn alle Mitarbeiter unternehmensweit auf zentrale, vertrauenswürdige Daten zugreifen können sollen, schließt das bei einer cleveren Architektur nicht aus, dass sowohl jede Abteilung ihre eigenen Sichten auf diese Daten erhält, als auch, dass sogar jeder einzelne, hierfür qualifizierte Mitarbeiter seine eigene Sicht auf Daten erhalten und sich diese sogar selbst erstellen kann.
Viele BI-Systeme scheitern an der unternehmensweiten Akzeptanz, da bestimmte Abteilungen oder fachlich-definierte Mitarbeitergruppen aus der BI weitgehend ausgeschlossen werden.
Moderne BI-Systeme ermöglichen Sichten und die dafür notwendige Datenintegration für alle Stakeholder im Unternehmen, die auf Informationen angewiesen sind und profitieren gleichermaßen von dem SPOT-Ansatz.
3.      Effiziente Möglichkeiten zur Erweiterung (Time to Market).
Bei den Kernbenutzern eines BI-Systems stellt sich die Unzufriedenheit vor allem dann ein, wenn der Ausbau oder auch die teilweise Neugestaltung des Informationssystems einen langen Atem voraussetzt.
Historisch gewachsene, falsch ausgelegte und nicht besonders wandlungsfähige BI-Systeme beschäftigen nicht selten eine ganze Mannschaft an IT-Mitarbeitern und Tickets mit Anfragen zu Änderungswünschen.
Gute BI versteht sich als Service für die Stakeholder mit kurzer Time to Market.
Die richtige Ausgestaltung, Auswahl von Software und der Implementierung von Datenflüssen/-modellen sorgt für wesentlich kürzere Entwicklungs- und Implementierungszeiten für Verbesserungen und neue Features.
Des Weiteren ist nicht nur die Technik, sondern auch die Wahl der Organisationsform entscheidend, inklusive der Ausgestaltung der Rollen und Verantwortlichkeiten – von der technischen Systemanbindung über die Datenbereitstellung und -aufbereitung bis zur Analyse und dem Support für die Endbenutzer.
4.      Integrierte Fähigkeiten für Data Science und AI.
Business Intelligence und Data Science werden oftmals als getrennt voneinander betrachtet und geführt.
Zum einen, weil Data Scientists vielfach nur ungern mit – aus ihrer Sicht – langweiligen Datenmodellen und vorbereiteten Daten arbeiten möchten.
Und zum anderen, weil die BI in der Regel bereits als traditionelles System im Unternehmen etabliert ist, trotz der vielen Kinderkrankheiten, die BI noch heute hat.
Data Science, häufig auch als Advanced Analytics bezeichnet, befasst sich mit dem tiefen Eintauchen in Daten über explorative Statistik und Methoden des Data Mining (unüberwachtes maschinelles Lernen) sowie mit Predictive Analytics (überwachtes maschinelles Lernen).
Deep Learning ist ein Teilbereich des maschinellen Lernens (Machine Learning) und wird ebenfalls für Data Mining oder Predictvie Analytics angewendet.
Bei Machine Learning handelt es sich um einen Teilbereich der Artificial Intelligence (AI).
In der Zukunft werden BI und Data Science bzw.
AI weiter zusammenwachsen, denn spätestens nach der Inbetriebnahme fließen die Prädiktionsergebnisse und auch deren Modelle wieder in die Business Intelligence zurück.
Vermutlich wird sich die BI zur ABI (Artificial Business Intelligence) weiterentwickeln.
Jedoch schon heute setzen viele Unternehmen Data Mining und Predictive Analytics im Unternehmen ein und setzen dabei auf einheitliche oder unterschiedliche Plattformen mit oder ohne Integration zur BI.
Moderne BI-Systeme bieten dabei auch Data Scientists eine Plattform, um auf qualitativ hochwertige sowie auf granularere Rohdaten zugreifen zu können.
5.      Ausreichend hohe Performance.
Vermutlich werden die meisten Leser dieser sechs Punkte schon einmal Erfahrung mit langsamer BI gemacht haben.
So dauert das Laden eines täglich zu nutzenden Reports in vielen klassischen BI-Systemen mehrere Minuten.
Wenn sich das Laden eines Dashboards mit einer kleinen Kaffee-Pause kombinieren lässt, mag das hin und wieder für bestimmte Berichte noch hinnehmbar sein.
Spätestens jedoch bei der häufigen Nutzung sind lange Ladezeiten und unzuverlässige Reports nicht mehr hinnehmbar.
Ein Grund für mangelhafte Performance ist die Hardware, die sich unter Einsatz von Cloud-Systemen bereits beinahe linear skalierbar an höhere Datenmengen und mehr Analysekomplexität anpassen lässt.
Der Einsatz von Cloud ermöglicht auch die modulartige Trennung von Speicher und Rechenleistung von den Daten und Applikationen und ist damit grundsätzlich zu empfehlen, jedoch nicht für alle Unternehmen unbedingt die richtige Wahl und muss zur Unternehmensphilosophie passen.
Tatsächlich ist die Performance nicht nur von der Hardware abhängig, auch die richtige Auswahl an Software und die richtige Wahl der Gestaltung von Datenmodellen und Datenflüssen spielt eine noch viel entscheidender Rolle.
Denn während sich Hardware relativ einfach wechseln oder aufrüsten lässt, ist ein Wechsel der Architektur mit sehr viel mehr Aufwand und BI-Kompetenz verbunden.
Dabei zwingen unpassende Datenmodelle oder Datenflüsse ganz sicher auch die neueste Hardware in maximaler Konfiguration in die Knie.
6.      Kosteneffizienter Einsatz und Fazit.
Professionelle Cloud-Systeme, die für BI-Systeme eingesetzt werden können, bieten Gesamtkostenrechner an, beispielsweise Microsoft Azure, Amazon Web Services und Google Cloud.
Mit diesen Rechnern – unter Einweisung eines erfahrenen BI-Experten – können nicht nur Kosten für die Nutzung von Hardware abgeschätzt, sondern auch Ideen zur Kostenoptimierung kalkuliert werden.
Dennoch ist die Cloud immer noch nicht für jedes Unternehmen die richtige Lösung und klassische Kalkulationen für On-Premise-Lösungen sind notwendig und zudem besser planbar als Kosten für die Cloud.
Kosteneffizienz lässt sich übrigens auch mit einer guten Auswahl der passenden Software steigern.
Denn proprietäre Lösungen sind an unterschiedliche Lizenzmodelle gebunden und können nur über Anwendungsszenarien miteinander verglichen werden.
Davon abgesehen gibt es jedoch auch gute Open Source Lösungen, die weitgehend kostenfrei genutzt werden dürfen und für viele Anwendungsfälle ohne Abstriche einsetzbar sind.
Die Total Cost of Ownership (TCO) gehören zum BI-Management mit dazu und sollten stets im Fokus sein.
Falsch wäre es jedoch, die Kosten einer BI nur nach der Kosten für Hardware und Software zu bewerten.
Ein wesentlicher Teil der Kosteneffizienz ist komplementär mit den Aspekten für die Performance des BI-Systems, denn suboptimale Architekturen arbeiten verschwenderisch und benötigen mehr und teurere Hardware als sauber abgestimmte Architekturen.
Die Herstellung der zentralen Datenbereitstellung in adäquater Qualität kann viele unnötige Prozesse der Datenaufbereitung ersparen und viele flexible Analysemöglichkeiten auch redundante Systeme direkt unnötig machen und somit zu Einsparungen führen.
In jedem Fall ist ein BI für Unternehmen mit vielen operativen Prozessen grundsätzlich immer günstiger als kein BI zu haben.
Heutzutage könnte für ein Unternehmen nichts teurer sein, als nur nach Bauchgefühl gesteuert zu werden, denn der Markt tut es nicht und bietet sehr viel Transparenz.
Dennoch sind bestehende BI-Architekturen hin und wieder zu hinterfragen.
Bei genauerem Hinsehen mit BI-Expertise ist die Kosteneffizienz und Datentransparenz häufig möglich.
https://data-science-blog.com/wp-content/uploads/2019/12/bi-dashboard-header.png        478        1400                    2020-07-10 07:46:23 2020-07-10 08:09:12 Sechs Eigenschaften einer modernen Business Intelligence       Data Science für Smart Home im familiengeführten Unternehmen Miele.
June 30, 20200 Comments in Artificial Intelligence, , , , Machine Learning, , Use Cases  by Benjamin Aunkofer     Dr.
Florian Nielsen ist Principal for AI und Data Science bei Miele im Bereich Smart Home und zuständig für die Entwicklung daten-getriebener digitaler Produkte und Produkterweiterungen.
Der studierte Informatiker promovierte an der Universität Ulm zum Thema multimodale kognitive technische Systeme.
Data Science Blog: Herr Dr.
Nielsen, viele Unternehmen und Anwender reden heute schon von Smart Home, haben jedoch eher ein Remote Home.
Wie machen Sie daraus tatsächlich ein Smart Home.
Tatsächlich entspricht das auch meiner Wahrnehmung.
Die bloße Steuerung vernetzter Produkte über digitale Endgeräte macht aus einem vernetzten Produkt nicht gleich ein „smartes“.
Allerdings ist diese Remotefunktion ein notwendiges Puzzlestück in der Entwicklung von einem nicht vernetzten Produkt, über ein intelligentes, vernetztes Produkt hin zu einem Ökosystem von sich ergänzenden smarten Produkten und Services.
Vernetzte Produkte, selbst wenn sie nur aus der Ferne gesteuert werden können, erzeugen Daten und ermöglichen uns die Personalisierung, Optimierung oder gar Automatisierung von Produktfunktionen basierend auf diesen Daten voran zu treiben.
„Smart“ wird für mich ein Produkt, wenn es sich beispielsweise besser den Bedürfnissen des Nutzers anpasst oder über Assistenzfunktionen eine Arbeitserleichterung im Alltag bietet.

Data Science Blog: Smart Home wiederum ist ein großer Begriff

der weit mehr als Geräte für Küchen und Badezimmer betrifft.
Wie weit werden Sie hier ins Smart Home vordringen können.
Smart Home ist für mich schon fast ein verbrannter Begriff.
Der Nutzer assoziiert hiermit doch vor allem die Steuerung von Heizung und Rollladen.
Im Prinzip geht es doch um eine Vision in der sich smarte, vernetzte Produkt in ein kontextbasiertes Ökosystem einbetten um den jeweiligen Nutzer in seinem Alltag, nicht nur in seinem Zuhause, Mehrwert mit intelligenten Produkten und Services zu bieten.
Für uns fängt das beispielsweise nicht erst beim Starten des Kochprozesses mit Miele-Geräten an, sondern deckt potenziell die komplette „User Journey“ rund um Ernährung (z.
B.
Inspiration, Einkaufen, Vorratshaltung) und Kochen ab.
Natürlich überlegen wir verstärkt, wie Produkte und Services unser existierendes Produktportfolio ergänzen bzw.
dem Nutzer zugänglicher machen könnten, beschränken uns aber hierauf nicht.
Ein zusätzlicher für uns als Miele essenzieller Aspekt ist allerdings auch die Privatsphäre des Kunden.
Bei der Bewertung potenzieller Use-Cases spielt die Privatsphäre unserer Kunden immer eine wichtige Rolle.

Data Science Blog: Die meisten Data-Science-Abteilungen befassen sich eher mit Prozessen

z.
B.
der Qualitätsüberwachung oder Prozessoptimierung in der Produktion.
Sie jedoch nutzen Data Science als Komponente für Produkte.
Was gibt es dabei zu beachten.
Kundenbedürfnisse.
Wir glauben an nutzerorientierte Produktentwicklung und dementsprechend fängt alles bei uns bei der Identifikation von Bedürfnissen und potenziellen Lösungen hierfür an.
Meist starten wir mit „Design Thinking“ um die Themen zu identifizieren, die für den Kunden einen echten Mehrwert bieten.
Wenn dann noch Data Science Teil der abgeleiteten Lösung ist, kommen wir verstärkt ins Spiel.
Eine wesentliche Herausforderung ist, dass wir oft nicht auf der grünen Wiese starten können.
Zumindest wenn es um ein zusätzliches Produktfeature geht, das mit bestehender Gerätehardware, Vernetzungsarchitektur und der daraus resultierenden Datengrundlage zurechtkommen muss.
Zwar sind unsere neuen Produktgenerationen „Remote Update“-fähig, aber auch das hilft uns manchmal nur bedingt.
Dementsprechend ist die Antizipation von Geräteanforderungen essenziell.
Etwas besser sieht es natürlich bei Umsetzungen von cloud-basierten Use-Cases aus.

Data Science Blog: Es heißt häufig

dass Data Scientists kaum zu finden sind.
Ist Recruiting für Sie tatsächlich noch ein Thema.
Data Scientists, hier mal nicht interpretiert als Mythos „Unicorn“ oder „Full-Stack“ sind natürlich wichtig, und auch nicht leicht zu bekommen in einer Region wie Gütersloh.
Aber Engineers, egal ob Data, ML, Cloud oder Software generell, sind der viel wesentlichere Baustein für uns.
Für die Umsetzung von Ideen braucht es nun mal viel Engineering.
Es ist mittlerweile hinlänglich bekannt, dass Data Science einen zwar sehr wichtigen, aber auch kleineren Teil des daten-getriebenen Produkts ausmacht.
Mal abgesehen davon habe ich den Eindruck, dass immer mehr „Data Science“- Studiengänge aufgesetzt werden, die uns einerseits die Suche nach Personal erleichtern und andererseits ermöglichen Fachkräfte einzustellen die nicht, wie früher einen PhD haben (müssen).
Data Science Blog: Sie haben bereits einige Analysen erfolgreich in Ihre Produkte integriert.
Welche Herausforderungen mussten dabei überwunden werden.
Und welche haben Sie heute noch vor sich.
Wir sind, wie viele Data-Science-Abteilungen, noch ein relativ junger Bereich.
Bei den meisten unserer smarten Produkte und Services stecken wir momentan in der MVP-Entwicklung, deshalb gibt es einige Herausforderungen, die wir aktuell hautnah erfahren.
Dies fängt, wie oben erwähnt, bei der Berücksichtigung von bereits vorhandenen Gerätevoraussetzungen an, geht über mitunter heterogene, inkonsistente Datengrundlagen, bis hin zur Etablierung von Data-Science- Infrastruktur und Deploymentprozessen.
Aus meiner Sicht stehen zudem viele Unternehmen vor der Herausforderung die Weiterentwicklung und den Betrieb von AI bzw.
Data- Science- Produkten sicherzustellen.
Verglichen mit einem „fire-and-forget“ Mindset nach Start der Serienproduktion früherer Zeiten muss ein Umdenken stattfinden.
Daten-getriebene Produkte und Services „leben“ und müssen dementsprechend anders behandelt und umsorgt werden – mit mehr Aufwand aber auch mit der Chance „immer besser“ zu werden.
Deshalb werden wir Buzzwords wie „MLOps“ vermehrt in den üblichen Beraterlektüren finden, wenn es um die nachhaltige Generierung von Mehrwert von AI und Data Science für Unternehmen geht.
Und das zu Recht.
Data Science Blog: Data Driven Thinking wird heute sowohl von Mitarbeitern in den Fachbereichen als auch vom Management verlangt.
Gerade für ein Traditionsunternehmen wie Miele sicherlich eine Herausforderung.
Wie könnten Sie diese Denkweise im Unternehmen fördern.
Data Driven Thinking kann nur etabliert werden, wenn überhaupt der Zugriff auf Daten und darauf aufbauende Analysen gegeben ist.
Deshalb ist Daten-Demokratisierung der wichtigste erste Schritt.
Aus meiner Perspektive geht es darum initial die Potenziale aufzuzeigen, um dann mithilfe von Daten Unsicherheiten zu reduzieren.
Wir haben die Erfahrung gemacht, dass viele Fachbereiche echtes Interesse an einer daten-getriebenen Analyse ihrer Hypothesen haben und dankbar für eine daten-getriebene Unterstützung sind.
Miele war und ist ein sehr innovatives Unternehmen, dass „immer besser“ werden will.
Deshalb erfahren wir momentan große Unterstützung von ganz oben und sind sehr positiv gestimmt.
Wir denken, dass ein Schritt in die richtige Richtung bereits getan ist und mit zunehmender Zahl an Multiplikatoren ein „Data Driven Thinking“ sich im gesamten Unternehmen etablieren kann.
https://data-science-blog.com/wp-content/uploads/2020/06/interview-miele-header-1.png        476        1258                    2020-06-30 09:35:25 2020-06-22 21:42:17 Data Science für Smart Home im familiengeführten Unternehmen Miele       Process Mining Tools – Artikelserie.
June 29, 20200 Comments in , , , Data Warehousing, Gerneral, , , Predictive Analytics, , Tool Introduction, Visualization  by Jurek Dörner     Process Mining ist nicht länger nur ein Buzzword, sondern ein relevanter Teil der Business Intelligence.
Process Mining umfasst die Analyse von Prozessen und lässt sich auf alle Branchen und Fachbereiche anwenden, die operative Prozesse haben, die wiederum über operative IT-Systeme erfasst werden.
Um die zunehmende Bedeutung dieser Data-Disziplin zu verstehen, reicht ein Blick auf die Entwicklung der weltweiten Datengenerierung an.
Waren es 2010 noch 2 Zettabytes (ZB), sind laut Statista für das Jahr 2020 mehr als 50 ZB an Daten zu erwarten.
Für 2025 wird gar mit einem Bestand von 175 ZB gerechnet.
Abbildung 1 zeigt die Entwicklung des weltweiten Datenvolumen (Stand 2018).
Quelle: https://www.statista.com/statistics/871513/worldwide-data-created/  Warum jetzt eigentlich Process Mining?.
Warum aber profitiert insbesondere Process Mining von dieser Entwicklung.
Der Grund liegt in der Unordnung dieser Datenmenge.
Die Herausforderung der sich viele Unternehmen gegenübersehen, liegt eben genau in der Analyse dieser unstrukturierten Daten.
Hinzu kommt, dass nahezu jeder Prozess Datenspuren in Informationssystemen hinterlässt.
Die Betrachtung von Prozessen auf Datenebene birgt somit ein enormes Potential, welches in Anbetracht der Entwicklung zunehmend an Bedeutung gewinnt.
Was war nochmal Process Mining?.
Process Mining ist eine Analysemethodik, welche dazu befähigt, aus den abgespeicherten Datenspuren der Informationssysteme eine Rekonstruktion der realen Prozesse zu schaffen.
Diese Prozesse können anschließend als Prozessflussdiagramm dargestellt und ausgewertet werden.
Die klassischen Anwendungsfälle reichen von dem Aufspüren (Discovery) unbekannter Prozesse, über einen Soll-Ist-Vergleich (Conformance) bis hin zur Anpassung/Verbesserung (Enhancement) bestehender Prozesse.
Mittlerweile setzen viele Firmen darüber hinaus auf eine Integration von RPA und Data Science im Process Mining.
Und die Analyse-Tiefe wird zunehmen und bis zur Analyse einzelner Klicks reichen, was gegenwärtig als sogenanntes „Task Mining“ bezeichnet wird.
Abbildung 2 zeigt den typischen Workflow eines Process Mining Projektes.
Oftmals dient das ERP-System als zentrale Datenquelle.
Die herausgearbeiteten Event-Logs werden anschließend mittels Process Mining Tool visualisiert.
In jedem Fall liegt meistens das Gros der Arbeit auf die Bereitstellung und Vorbereitung der Daten und der Transformation dieser in sogenannte „Event-Logs“, die den Input für die Process Mining Tools darstellen.
Deshalb arbeiten viele Anbieter von Process Mining Tools schon länger an Lösungen, um die mit der Datenvorbereitung verbundenen zeit -und arbeitsaufwendigen Schritte zu erleichtern.
Während fast alle Tool-Anbieter vorgefertigte Protokolle für Standardprozesse anbieten, gehen manche noch weiter und bieten vollumfängliche Plattform Lösungen an, welche eine effiziente Integration der aufwendigen ETL-Prozesse versprechen.
Der Funktionsumfang der Process Mining Tools geht daher mittlerweile deutlich über eine reine Darstellungsfunktion hinaus und deckt ggf.
neue Trends sowie optimierte Einsteigerbarrieren mit ab.
Motivation dieser Artikelserie.
Die Motivation diesen Artikel zu schreiben liegt nicht in der Erläuterung der Methode des Process Mining.
Hierzu gibt es mittlerweile zahlreiche Informationsquellen.
Eine besonders empfehlenswerte ist das Buch „Process Mining“ von Will van der Aalst, einem der Urväter des Process Mining.
Die Motivation dieses Artikels liegt viel mehr in der Betrachtung der zahlreichen Process Mining Tools am Markt.
Sehr oft erlebe ich als Data-Consultant, dass Process Mining Projekte im Vorfeld von der Frage nach dem „besten“ Tool dominiert werden.
Diese Fragestellung ist in Ihrer Natur sicherlich immer individuell zu beantworten.
Da individuelle Projekte auch einen individuellen Tool-Einsatz bedingen, beschäftige ich mich meist mit einem großen Spektrum von Process Mining Tools.
Daher ist es mir in dieser Artikelserie ein Anliegen einen allgemeingültigen Überblick zu den üblichen Process Mining Tools zu erarbeiten.
Dabei möchte ich mich nicht auf persönliche Erfahrungen stützen, sondern die Tools anhand von Testdaten einem praktischen Vergleich unterziehen, der für den Leser nachvollziehbar ist.
Um den Umfang der Artikelserie zu begrenzen, werden die verschiedenen Tools nur in Ihren Kernfunktionen angewendet und verglichen.
Herausragende Funktionen oder Eigenschaften der jeweiligen Tools werden jedoch angemerkt und ggf.
in anderen Artikeln vertieft.
Das Ziel dieser Artikelserie soll sein, dem Leser einen ersten Einblick über die am Markt erhältlichen Tools zu geben.
Daher spricht dieser Artikel insbesondere Einsteiger aber auch Fortgeschrittene im Process Mining an, welche einen Überblick über die Tools zu schätzen wissen und möglicherweise auch mal über den Tellerand hinweg schauen mögen.
Die Tools.
Die Gruppe der zu betrachteten Tools besteht aus den folgenden namenhaften Anwendungen:  Die Auswahl der Tools orientiert sich an den „Market Guide for Process Mining 2019“ von Gartner.
Aussortiert habe ich jene Tools, mit welchen ich bisher wenig bis gar keine Berührung hatte.
Diese Auswahl an Tools verspricht meiner Meinung nach einen spannenden Einblick von verschiedene Process Mining Tools am Markt zu bekommen.
Die Anwendung in der Praxis.
Um die Tools realistisch miteinander vergleichen zu können, werden alle Tools die gleichen Datengrundlage benutzen.
Die Datenbasis wird folglich über die gesamte Artikelserie hinweg für die Darstellungen mit den Tools genutzt.
Ich werde im nächsten Artikel explizit diese Datenbasis kurz erläutern.
Das Ziel der praktischen Untersuchung soll sein, die Beispieldaten in die verschiedenen Tools zu laden, um den enthaltenen Prozess zu visualisieren.
Dabei möchte ich insbesondere darauf achten wie bedienbar und anpassungsfähig/flexibel die Tools mir erscheinen.
An dieser Stelle möchte ich eindeutig darauf hinweisen, dass dieser Vergleich und seine Bewertung meine Meinung ist und keineswegs Anspruch auf Vollständigkeit beansprucht.
Da der Markt in Bewegung ist, behalte ich mir ferner vor, diese Artikelserie regelmäßig anzupassen.
Die Kriterien.
Neben der Bedienbarkeit und der Anpassungsfähigkeit der Tools möchte ich folgende zusätzliche Gesichtspunkte betrachten:  Bedienbarkeit: Wie leicht gehen die Analysen von der Hand.
Wie einfach ist der Einstieg?.
Anpassungsfähigkeit: Wie flexibel reagiert das Tool auf meine Daten und Analyse-Wünsche?.
Integrationsfähigkeit: Welche Schnittstellen bringt das Tool mit.
Läuft es auch oder nur in der Cloud?.
Skalierbarkeit: Ist das Tool dazu in der Lage, auch große und heterogene Daten zu verarbeiten?.
Zukunftsfähigkeit: Wie steht es um Machine Learning, ETL-Modeller oder Task Mining?.
Preisgestaltung: Nach welchem Modell bestimmt sich der Preis?.
Die Datengrundlage.
Die Datenbasis bildet ein Demo-Datensatz der von Celonis für die gesamte Artikelserie netter Weise zur Verfügung gestellt wurde.
Dieser Datensatz bildet einen Versand Prozess vom Zeitpunkt des Kaufes bis zur Auslieferung an den Kunden ab.
In der folgenden Abbildung ist der Soll Prozess abgebildet.
Abbildung 4 zeigt den gewünschten Versand Prozess der Datengrundlage von dem Kauf des Produktes bis zur Auslieferung.
Die Datengrundlage besteht aus einem 60 GB großen Event-Log, welcher lokal in einer Microsoft SQL Datenbank vorgehalten wird.
Da diese Tabelle über 600 Mio.
Events beinhaltet, wird die Datengrundlage für die Analyse der einzelnen Tools auf einen Ausschnitt von 60 Mio.
Events begrenzt.
Um die Performance der einzelnen Tools zu testen, wird jedoch auf die gesamte Datengrundlage zurückgegriffen.
Der Ausschnitt der Event-Log Tabelle enthält 919 verschiedene Varianten und weisst somit eine ausreichende Komplexität auf, welche es mit den verschiednene Tools zu analysieren gilt.
Folgender Veröffentlichungsplan gilt für diese Artikelserie und wird mit jeder Veröffentlichung verlinkt:  Celonis.
PAFnow (erscheint demnächst).
MEHRWERK (erscheint demnächst).
Lana Labs (erscheint demnächst).
Signavio (erscheint demnächst).
Process Gold (erscheint demnächst).
Fluxicon Disco (erscheint demnächst).
Aris Process Mining der Software AG (erscheint demnächst).
https://data-science-blog.com/wp-content/uploads/2020/07/process-mining-artikelserie-header-1.png               1499          Jurek Dörner          Jurek Dörner  2020-06-29 08:15:43 2020-08-20 08:14:07 Process Mining Tools - Artikelserie       Severity of lockdowns and how they are reflected in mobility data.
June 16, 20200 Comments in , Data Science News,   by Emilia Cheladze     The global spread of the SARS-CoV-2 at the beginning of March 2020 forced majority of countries to introduce measures to contain the virus.
The governments found themselves facing a very difficult tradeoff between limiting the spread of the virus and bearing potentially catastrophic economical costs of a lockdown.
Notably, considering the level of globalization today, the response of countries varied a lot in severity and response latency.
In the overwhelming amount of media and social media information feed a lot of misinformation and anecdotal evidence surfaced and remained in people’s mind.
In this article, I try to have a more systematic view on the topics of severity of response from governments and change in people’s mobility due to the pandemic.
I want to look at several countries with different approach to restraining the spread of the virus.
I will look at governmental regulations, when, and how they were introduced.
For that I am referring to an index called Oxford COVID-19 Government Response Tracker (OxCGRT)[1].
The OxCGRT follows, records, and rates the actions taken by governments, that are available publicly.
However, looking just at the regulations and taking them for granted does not provide that we have the whole picture.
Therefore, equally interesting is the investigation of how the recommended levels of self-isolation and social distancing is reflected in the mobility data and we will look at it first.
The mobility dataset.
The mobility data used in this article was collected by Google and made freely accessible[2].
The data reflects how the number of visits and their length changed as compared to a baseline from before the pandemic.
The baseline is the median value for the corresponding day of the week in the period from 3.01.2020 – 6.02.2020.
The dataset contains data in six categories.
Here we look at only 4 of them: public transport stations, places of residence, workplaces, and retail/recreation (including shopping centers, libraries, gastronomy, culture).
The analysis intentionally omits parks (public beaches, gardens etc.) and grocery/pharmacy category.
Mobility in parks is excluded due to huge weather change confound.
The baseline was created in winter and increased/decreased (depending on the hemisphere) activity in parks is expected as the weather changes.
It would be difficult to detangle tis change from the change caused by the pandemic without referring to a different baseline.
The grocery shops and pharmacies are excluded because the measures regarding the shopping were very similar across the countries.
Amid the Covid-19 pandemic a lot of anecdotal information surfaced, that some countries, like Sweden, acted completely against the current by not introducing a lockdown.
It was reported that there were absolutely no restrictions and Sweden can be basically treated as a control group for comparing the different approaches to lockdown on the spread of the coronavirus.
Looking at the mobility data (below), we can see however, that there was a change in the mobility of Swedish citizens in comparison to the baseline.
Fig.
1 Moving average (+/- 6 days) of the mobility data in Sweden in four categories.
Looking at the change in mobility in Sweden, we can see that the change in the residential areas is small, but it is indicating some change in behavior.
A change in the retail and recreational sector is more noticeable.
Most interestingly it is approaching the baseline levels at the beginning of June.
The most substantial changes, however, are in the workplaces and transit categories.
They are also much slower to come back to the baseline, although a trend in that direction starts to be visible.
Next, let us have a look at the change in mobility in selected countries, separately for each category.
Here, I compare Germany, Sweden, Italy, and New Zealand.
(To see the mobility data for other countries visit https://covid19.datanomiq.de/#section-mobility).
Fig.
2 Moving average (+/- 6 days) of the mobility data.
Looking at the data, we can see that the change in mobility in Germany and Sweden was somewhat similar in orders of magnitude, in comparison to changes in mobility in countries like Italy and New Zealand.
Without a doubt, the behavior in Sweden changed the least from the baseline in all the categories.
Nevertheless, claiming that people’s reaction to the pandemic in Sweden in Germany were polar opposites is not necessarily correct.
The biggest discrepancy between Sweden and Germany is in the retail and recreation sector out of all categories presented.
The changes in Italy and New Zealand reached very comparable levels, but in New Zealand they seem to be much more dynamic, especially in approaching the baseline levels again.
The government response dataset.
Oxford COVID-19 Government Response Tracker records regulations from number of countries, rates them and categorizes into a few indices.
The number between 1 and 100 reflects the level of the action taken by a government.
Here, I focus on the Containment and Health sub-index that includes 11 indicators from categories: containment and closure policies and health system policies[3].
The actions included in the index are for example: school and workplace closing, restrictions on public events, travel restrictions, public information campaigns, testing policy and contact tracing.
Below, we look at a plot with the Containment and Health sub-index value for the four aforementioned countries.
Data and documentation is available here[4] Fig.
3 Oxford COVID-19 Government Response Tracker, the Containment and Health sub-index.
Here the difference between Sweden and the other countries that we are looking at becomes more apparent.
Nevertheless, the Swedish government did take some measures in order to condemn the spread of the SARS-CoV-2.
At the highest, the index reached value 45 points in Sweden, 73 in Germany, 92 in Italy and 94 in New Zealand.
In all these countries except for Sweden the index started dropping again, while the drop is the most dynamic in New Zealand and the index has basically reached the level of Sweden.
Conclusions.
As we have hopefully seen, the response to the COVID-19 pandemic from governments differed substantially, as well as the resulting change in mobility behavior of the inhabitants did.
However, the discrepancies were probably not as big as reported in the media.
The overwhelming presence of the social media could have blown some of the mentioned differences out of proportion.
For example, the discrepancy in the mobility behavior between Sweden and Germany was biggest in recreation sector, that involves cafes, restaurants, cultural resorts, and shopping centers.
It is possible, that those activities were the ones that people in lockdown missed the most.
Looking at Swedes, who were participating in them it was easy to extrapolate on the overall landscape of the response to the virus in the country.
It is very hard to say which of the world country’s approach will bring the best effects for the people’s well-being and the economies.
The ongoing pandemic will remain a topic of extensive research for many years to come.
We will (most probably) eventually find out which approach to the lockdown was the most optimal (or at least come close to finding out).
For the time being, it is however important to remember that there are many factors in play and looking into one type of data might be misleading.
Comparing countries with different history, weather, political and economic climate, or population density might be misleading as well.
But it is still more insightful than not looking into the data at all.
[1] Hale, Thomas, Sam Webster, Anna Petherick, Toby Phillips, and Beatriz Kira (2020).
Oxford COVID-19 Government Response Tracker, Blavatnik School of Government.
Data use policy: Creative Commons Attribution CC BY standard.
[2] Google LLC “Google COVID-19 Community Mobility Reports”.
https://www.google.com/covid19/mobility/ retrived: 04.06.2020 [3] See documentation https://github.com/OxCGRT/covid-policy-tracker/tree/master/documentation [4] https://github.com/OxCGRT/covid-policy-tracker  retrieved on 04.06.2020             https://data-science-blog.com/wp-content/uploads/2020/06/severity-of-lockdowns-covid19-data-analysis.png        599        1600          Emilia Cheladze          Emilia Cheladze  2020-06-16 09:12:54 2020-06-13 09:13:11 Severity of lockdowns and how they are reflected in mobility data       Capturing COVID: How and Why Data Mining is Being Used to Combat Coronavirus.
June 13, 20201 Comment in   by Luke Smith     Image Source: Pixabay (https://pixabay.com/illustrations/artificial-intelligence-brain-think-3382507/).
In just a few short months, the coronavirus pandemic has infiltrated pretty much every aspect of daily life.
It has virtually decimated the global economy.
It has taken our children out of their schools.
It’s wrought havoc on an already overburdened healthcare system.
That, however, is changing.
And technology is the reason why.
Data mining is nothing new, of course, and its use in the field of healthcare is well-established.
But the importance of data mining has never been more apparent than right now, as scientists, researchers, and healthcare providers race to develop a clear and effective profile of this unseen adversary.
What is Data Mining and Why Does It Matter?.
Put simply, data mining uses automated technology to scour other technologies for relevant information collected from the tech’s users.
Data scientists then analyze these enormous — and we do mean enormous — quantities of data for some actionable purpose.
Big data can be used for anything from developing a targeted market plan for a large multinational based on customer research to formulating emergency preparedness plans based on community risk assessments to investigating crime scenes.
Data Mining, Healthcare, and Corona.
In the face of rising healthcare costs, surging demand, and shrinking resources, data mining has proved an invaluable tool for evidence-based healthcare.
For years now, anonymized patient data has been mined to identify public health concerns, individual patient risks, and customized treatment protocols.
All of these are derived from the nearly instantaneous automated analysis of literally billions of gigabytes of data.
When it comes to combating coronavirus, data mining is turning out to be one of the most powerful weapons in the public health arsenal.
Through healthcare data, researchers and policymakers can better describe the virus, its impacts, and its behaviors.
For example, COVID patients’ electronic health records (EHR) are being anonymized and mined for data on how the virus presented, what course it took, and what pre-existing factors, from age and gender to prior health status, the patient had.
Likewise, hospital and clinical data are collected to determine how many patients, and in what demographics, were presenting with symptoms of the disease at any given time.
Once a more comprehensive description of the virus has been developed, researchers can use this information to predict who will be affected, how, and where.
Armed with this knowledge, public health officials can make informed decisions on policies to help prevent or slow the spread.
Likewise, healthcare providers can devise more effective treatment plans based on success rates drawn from data accumulated from across the globe.
They can even use the information drawn from mined healthcare data to determine who is at great risk for a poor outcome or severe complications, such as blood clots.
For example, these data can help determine who might be the best candidate for convalescent plasma or antivirals like Remdesivir.
Scientists and healthcare providers are also increasingly cognizant of the risk of a severe autoimmune syndrome that children who have been exposed to the virus might experience, even if they had never become symptomatic for COVID.
The Really Smartphone.
It’s not just patient records and other medical data that are being mined in the fight against coronavirus.
As it turns out, your friendly, unassuming little smartphone is proving to be a treasure trove of essential public health data.
Your cell phone data plan allows you to live your digital life via your smartphone.
When you’re streaming videos or surfing the web on your phone, you’re almost certainly using data, and that data can be mined — both for malicious (or at least questionable) purposes and for good ones.
When you link your smartphone to the network, your movements can be tracked using your phone’s geolocation capabilities.
To be sure, that capability hasn’t gone without significant opposition from privacy advocates.
Significant fears over the security of that data and how it might be used has fueled a long and often heated debate, both in courts of law and in the court of public opinion.
But now, in the face of a global pandemic, with the virus continuing to menace nearly every corner of the globe, the capacity to track the movements of those who have been in active hot zones, and especially of travelers coming from them, isn’t just helpful.
It’s lifesaving.
Through the use of cellphone data, for instance, not only can scientists track the spread of the virus, but they can also engage in more effective contract tracing.
This includes the ability to warn individuals who have been in close proximity to an infected person.
The Takeaway.
The coronavirus pandemic is like nothing many of us have ever seen before.
This previously unknown pathogen has changed the world as we once knew it.
It has not only altered the way we live, but it has threatened our own lives and the lives of those we love.
But the virus will not be able to exploit its novelty for much longer.
Every day, scientists and researchers are mining essential data to better understand the virus, what it does, and how it moves.
Every moment, new treatment and containment strategies are emerging based on the power of big data.
Every second, we are mining for the data for the weapon that will kill the enemy once and for all.
https://data-science-blog.com/wp-content/uploads/2020/06/datamining-used-against-covid19-header.png        416        1076          Luke Smith          Luke Smith  2020-06-13 12:28:47 2020-06-12 21:40:18 Capturing COVID: How and Why Data Mining is Being Used to Combat Coronavirus       Interview – Machine Learning in Marketing und CRM.
June 11, 20200 Comments in Artificial Intelligence, , Data Science News, Gerneral, , , Machine Learning,   by Redaktion     Interview mit Herrn Laurenz Wuttke von der datasolut GmbH über Machine Learning in Marketing und CRM.
Laurenz Wuttke ist Data Scientist und Gründer der datasolut GmbH.
Er studierte Wirtschaftsinformatik an der Hochschule Hannover und befasst sich bereits seit 2011 mit Marketing- bzw.
CRM-Systemen und der Datenanalyse.
Heute ist er Dozent für Big Data im Marketing an der Hochschule Düsseldorf und unterstützt Unternehmen dabei, durch den Einsatz von künstlicher Intelligenz, individuell auf die Kundenbedürfnisse tausender Kunden einzugehen.
Damit jeder Marketing Manager jedem Kunden das richtige Angebot zur richtigen Zeit machen kann.
Data Science Blog: Herr Wuttke, Marketing gilt als einer der Pionier-Bereiche der Unternehmen für den Einstieg in Big Data Analytics.
Wie etabliert ist Big Data und Data Science heute im Marketing.

Viele Unternehmen in Deutschland erkennen gerade Chancen und den Wert ihrer Daten

Dadurch investieren die Unternehmen in Big Data Infrastruktur und Data Science Teams.
Gleichzeitig denke ich, wir stehen im Marketing gerade am Anfang einer neuen Daten-Ära.
Big Data und Data Science sind im Moment noch ein Thema der großen Konzerne.
Viele kleine und mittelständische Unternehmen haben noch viele offene Potentiale in Bezug auf intelligente Kundenanalysen.
Durch stetig steigende Preise für die Kundenakquise, wird die Erhaltung und Steigerung einer guten Kundenbindung immer wichtiger.
Und genau hier sehe ich die Vorteile durch Data Science im Marketing.
Unternehmen können viel genauer auf Kundenbedürfnisse eingehen, antizipieren welches Produkt als nächstes gekauft wird und so ihr Marketing zielgenau ausrichten.
Dieses „personalisierte Marketing“ führt zu einer deutlich stärkeren Kundenbindung und steigert langfristig Umsätze.
Viele amerikanische Unternehmen machen es vor, aber auch deutsche Unternehmen wie Zalando oder AboutYou investieren viel Geld in die Personalisierung ihres Marketings.
Ich denke, die Erfolge sprechen für sich.
Data Science Blog: Ein häufiges Anliegen für viele Marketing Manager ist die treffsichere Kundensegmentierung nach vielerlei Kriterien.
Welche Verbesserungen sind hier möglich und wie können Unternehmen diese erreichen.
Kundensegmentierungen sind ein wichtiger Bestandteil vieler Marketingstrategien.
Allerdings kann man hier deutlich weitergehen und Marketing im Sinne von „Segments of One“ betreiben.
Das bedeutet wir haben für jeden einzelnen Kunden eine individuelle „Next Best Action und Next Best Offer“.
Somit wird jeder Kunde aus Sicht des Marketings individuell betrachtet und bekommt individuelle Produktempfehlungen sowie Marketingmaßnahmen, welche auf das jeweilige Kundenbedürfnis zugeschnitten sind.
Dies ist auch ein wichtiger Schritt für die Marketingautomatisierung, denn wir können im Marketing schlichtweg keine tausenden von Kunden persönlich betreuen.
Data Science Blog: Sind die Kundencluster dann erkannt, stellt sich die Frage, wie diese besser angesprochen werden können.
Wie funktioniert die dafür notwendige Kundenanalyse.
Ganz unterschiedlich, je nach Geschäftsmodell und Branche fällt die Kundenanalyse anders aus.
Wir schauen uns unterschiedliche Merkmale zum historischen Kaufverhalten, Demografie und Produktnutzung an.
Daraus ergeben sich in der Regel sehr schnell Kundenprofile oder Personas, die gezielt angesprochen werden können.

Data Science Blog: Oft werden derartige Analyse-Vorhaben auf Grund der Befürchtung

die relevanten Daten seien nicht verfügbar oder die Datenqualität sei einer solchen Analyse nicht würdig, gar nicht erst gestartet.
Sind das begründete Bedenken.
Nein, denn oft kommen die Daten, die für eine Kundenanalyse oder die Vorhersage von Ergebnissen braucht, aus Datenquellen wie z.
B.
den Transaktionsdaten.
Diese Daten hat jedes Unternehmen in guter Qualität vorliegen.
Natürlich werden die Analysen besser, wenn weitere Datenquellen wie bspw.
Produktmetadaten, Kundeneigenschaften oder das Klickverhalten zur Verfügung stehen, aber es ist kein Muss.
Aus meiner Praxiserfahrung kann ich sagen, dass hier oft ungenutzte Potentiale schlummern.

Data Science Blog: Wie ist da eigentlich Ihre Erfahrung bzgl

der Interaktion zwischen Marketing und Business Intelligence.
Sollten Marketing Manager ihre eigenen Datenexperten haben oder ist es besser, diese Ressourcen zentral in einer BI-Abteilung zu konzentrieren.
Aus meiner Sicht funktioniert moderenes Marketing heute nicht mehr ohne valide Datenbasis.
Aus diesem Grund ist die Zusammenarbeit von Marketing und Business Intelligence unersetzbar, besonders wenn es um Bestandskundenmarketing geht.
Hier laufen idealerweise alle Datenquellen in einer 360 Grad Kundensicht zusammen.
Dies kann dann auch als die Datenquelle für Machine Learning und Data Science verwendet werden.
Alle wichtigen Daten können aus einer strukturierten 360 Grad Sicht zu einer Machine Learning Datenbasis (ML-Feature Store) umgewandelt werden.
Das spart enorm viel Zeit und viel Geld.
Zu Ihrer zweiten Frage: Ich denke es gibt Argumente für beide Konstrukte, daher habe ich da keine klare Präferenz.
Mir ist immer wichtig, dass der fachliche Austausch zwischen Technik und Fachbereich gut funktioniert.
Ziele müssen besprochen und gegeben falls angepasst werden, um immer in die richtige Richtung zu gehen.
Wenn diese Voraussetzung mit einer guten Data Science Infrastruktur gegeben ist, wird Data Science für wirklich skalierbar.
Data Science Blog: Benötigen Unternehmen dafür eine Customer Data Platform (CDP) oder zumindest ein CRM.
Womit sollten Unternehmen beginnen, sollten sie noch ganz am Anfang stehen.
Eine Customer Data Platform (CDP) ist von Vorteil, ist aber kein Muss für den Anfang.
Ein guts CRM-System oder gute gepflegte Kundendatenbank reicht zunächst für den Anfang.
Natürlich bietet eine CDP einen entscheidenden Vorteil durch die Zusammenführung von der Online- und der CRM-Welt.
Das Klickverhalten hat einen enormen Einfluss auf die analytischen Modelle und hilft dabei, Kunden immer besser zu verstehen.
Das ist besonders wichtig in unserer Zeit, da wir immer weniger direkten Kundenkontakt haben und zukünftig wird dieser auch noch weiter abnehmen.
Zusammengefasst: Wer diese Kundendaten intelligent miteinander verknüpft hat einen großen Vorteil.

Data Science Blog: Wie integrieren Sie App- und Webtracking in Ihre Analysen

Trackingdaten aus Apps und Webseiten sind ein wichtiger Bestandteil unserer Machine Learning Modelle.
Sie geben wichtige Informationen über das Kundenverhalten preis.
So können die Trackingdaten gute Merkmale für Anwendungsfälle wie Churn Prediction, Customer Lifetime Value und Next Best Offer sein.
Häufig sind die Trackingdaten von unterschiedlichen Anbietern (Google Analytics, Piwik etc.) leicht anders in ihrer Struktur, dafür haben wir uns einen intelligenten Ansatz überlegt, um diese zu vereinheitlichen und in unseren Modellen anzuwenden.

Data Science Blog: Zurück zum Kunden

Seine Bedürfnisse stehen bei erfolgreichen Unternehmen im Fokus stehen.
Einige Geschäftsmodelle basieren auf Abonnements oder Mitgliedschaften.
Wie können Sie solchen Unternehmen helfen.
Abonnements und Subscriptions sind ein großer Trend: Der Kunde wird zum Nutzer und es fallen viele Kundendaten an, die gesammelt werden können.
Viele unserer Kunden haben subscription- oder vertragsbasierte Geschäftsmodelle, was ich persönlich sehr interessante Geschäftsmodelle finde.
Diese haben häufig die Herausforderung ihre Kunden langfristig zu binden und eine gesunde Kundenbindung aufzubauen.
Die Akquisition ist meistens sehr teuer und die Kundenabwanderung oder Customer Churn zu reduzieren damit ein strategisches Ziel.
Wirklich erfolgreich werden diese dann, wenn die Churn Rate geringgehalten wird.
Die Lösung für eine niedrige Kundenabwanderung, neben einem guten Produkt und gutem Kundenservice, ist eine Churn Prediction und darauf aufbauende Churn Prevention Maßnahmen.
Wir nehmen uns dazu das historische Kundenverhalten, schauen uns die Kündiger an und modellieren daraus eine Vorhersage für die Kundenabwanderung.
So können Unternehmen abwanderungsgefährdete Kunden schon frühzeitig erkennen und entsprechend handeln.
Das hat den entscheidenden Vorteil, dass man nicht einen schon verlorenen Kunden erneut gewinnen muss.
Es gibt aber auch Möglichkeiten schon weit vor der eigentlichen Churn-Gefahr anzusetzen, bei drohender Inaktivität.
So haben wir für einen großen Fitness-App-Anbieter ein Alarmsystem entwickelt, das Kunden automatisiert Engagement-Kampagnen versendet, um bei drohender Inaktivität, den Kunden auf die Angebote aufmerksam zu machen.
Sie kennen das von der Netflix-App, welche Ihnen jeden Abend einen guten Tipp für das Fernsehprogramm bereitstellt.

Data Science Blog: Gehen wir mal eine Ebene höher

So mancher CMO hat mit dem CFO den Deal, jährlich nur einen bestimmten Betrag ins Marketing zu stecken.
Wie hilft Data Science bei der Budget-Verteilung auf die Bestandskunden.
Da gibt es eine einfache Lösung für „Customer Lifetime Value Prognosen“.
Durch Machine Learning wird für jeden einzelnen Kunden eine Umsatz-Vorhersage für einen bestimmten Zeitraum getroffen.
So kann das Bestandkundenmarketing das Marketingbudget ganz gezielt einsetzen und nach dem Kundenwert steuern.
Ich gebe Ihnen ein Beispiel: Kundenreaktivierung im Handel.
Sie haben ein bestimmtes Budget und können nicht jedem Kunden eine Reaktivierungsmaßnahme zukommen lassen.
Wenn Sie einen gut berechneten Customer Lifetime Value haben, können Sie sich so auf die wertigen Kunden konzentrieren und diese reaktivieren.

Data Science Blog: Mit welchen Technologien arbeiten Sie bevorzugt

Welche Tools sind gerade im Kontext von analytischen Aufgaben im Marketing besonders effizient.
Wir haben uns in den letzten Jahren besonders auf Python und PySpark fokussiert.
Mit der Entwicklung von Python für Data Science konnten die anderen Umgebungen kaum mithalten und somit ist Python aus meiner Sicht derzeit die beste Umgebung für unsere Lösungen.
Auch die Cloud spielt eine große Rolle für uns.
Als kleines Unternehmen haben wir uns bei datasolut auf die AWS Cloud fokussiert, da wir gar nicht in der Lage wären, riesige Datenbestände unserer Kunden zu hosten.
Vor allem von dem hohen Automatisierungsgrad in Bezug auf Datenverarbeitung und Machine Learning bietet AWS alles, was das Data Science Herz begehrt.
Data Science Blog: Was würden Sie einem Junior Marketing Manager und einem Junior Data Scientist für den Ausbau seiner Karriere raten.
Wie werden diese jungen Menschen zukünftig beruflich erfolgreich.
Dem Junior Marketing Manager würde ich immer raten, dass er sich Datenanalyse-Skills erarbeiten soll.
Aber vor allem sollte er verstehen, was mit Daten alles möglich ist und wie diese eingesetzt werden können.
Auch in meiner Vorlesung zu „Big Data im Marketing“ an der Hochschule Düsseldorf unterrichte ich Studierende, die auf Marketing spezialisiert sind.
Hier gebe ich stets diesen Ratschlag.
Bei den Junior Daten Scientist ist es andersherum.
Ich sehe in der Praxis immer wieder Data Scientists, die den Transfer zwischen Marketing und Data Science nicht gut hinbekommen.
Daher rate ich jedem Data Scientist, der sich auf Marketing und Vertrieb fokussieren will, dass hier fachliches Know-How essentiell ist.
Kein Modell oder Score hat einen Wert für ein Unternehmen, wenn es nicht gut im Marketing eingesetzt wird und dabei hilft, Marketingprozesse zu automatisieren.
Ein weiterer wichtiger Aspekt ist, dass sich Data Science und Machine Learning gerade rasant ändern.
Die Automatisierung (Stichwort: AutoML) von diesen Prozessen ist auf der Überholspur, dass zeigen die großen Cloudanbieter ganz deutlich.
Auch wir nutzen diese Technologie schon in der Praxis.
Was der Algorithmus aber nicht übernehmen kann, ist der Transfer und Enablement der Fachbereiche.
Data Science Blog: Zum Schluss noch eine Bitte: Was ist Ihre Prophezeiung für die kommenden Jahre 2021/2022.
What is the next big thing in Marketing Analytics.
Es gibt natürlich viele kleinere Trends, welche das Marketing verändern werden.
Ich denke jedoch, dass die größte Veränderung für die Unternehmen sein wird, dass es einen viel großflächigeren Einsatz von Machine Learning im Marketing geben wird.
Dadurch wird der Wettbewerb härter und für viele Unternehmen wird Marketing Analytics ein essentieller Erfolgsfaktor sein.
https://data-science-blog.com/wp-content/uploads/2020/06/interview-machine-learning-marketing-crm-header.png        438        1500          Redaktion          Redaktion  2020-06-11 09:40:35 2020-06-08 12:55:05 Interview - Machine Learning in Marketing und CRM        How Text to Speech Voices Are Used In Data Science.
June 9, 20200 Comments in Data Science News, , Machine Learning,   by Walter T.
Cassady     To speak on voices, text to speech platforms are bringing versatility to a new scale by implementing voices that sound more personal and less like a robot.
As these services gain traction, vocal quality, and implementation improve to give sounds that feel like they’re speaking to you from a human mouth.
The intention of most text to speech platforms have always been to provide experiences that users feel comfortable using.
Voices are a huge part of that, so great strides have been taken to ensure that they sound right.
How Voices are Utilized.
Voices in the text to speech are generated by a computer itself.
As the computer-generated voices transcribe the text into oral responses, they make up what we hear as dialogue read to us.
These voice clips initially had the problem of sounding robotic and unpersonable as they were pulled digitally together.
Lately, though, the technology has improved to bring faster response time in transcribing words, as well as seamlessly stringing together.
This has brought the advantage of making a computer-generated voice sound much more natural and human.
As people seek to connect more with the works they read, having a human-sounding voice is a huge step in letting listeners relate to their works.
To give an example of where this works, you might have a GPS in your car.
The GPS has a function where it will transcribe the car’s route and tell you each instruction.
Some GPS companies have made full use of this feature and added fun voices to help entertain drivers.
These include Darth Vader and Yoda from Star Wars or having Morgan Freeman and Homer Simpson narrate your route.
Different voice types are utilized in services depending on the situation.
Professional uses like customer service centers will keep automated voices sounding professional and courteous when assisting customers.
Educational systems will keep softer and kinder sounding voices to help sound more friendly with students.
When compared to older solutions, the rise of vocal variety in Text to Speech services has taken huge leaps as more people see the value of having a voice that they can connect to.
Expressive voices and emotional variance are being applied to voices to help further convey this, with happy or sad sounding voices being implemented wherever appropriate.
As time goes on, these services will get better at the reading context within sentences to apply emotion and tone at the correct times, and improve overall vocal quality as well.
These reinvent past methods by advancing the once static and robotic sounds that used to be commonplace among text to voice services.
More infrastructures adopt these services to expand their reach to consumers who might not have the capabilities to utilize their offerings.  Having clear and relatable voices matter because customers and users will be drawn to them considerably more than if they chose not to offer them at all.
In the near future text to speech voices will develop even further, enhancing the way people of all kinds connect to the words they read.
https://data-science-blog.com/wp-content/uploads/2017/07/ai-mal-header.png        348        683          Walter T.
Cassady          Walter T.
Cassady  2020-06-09 10:35:41 2020-06-08 12:42:05  How Text to Speech Voices Are Used In Data Science   Page 1 of 10 1 23›».
Insights.

Offline

Kèo nhà cái

Board footer

Powered by FluxBB