Wann Big Data im Forderungsmanagement sinnvoll ist

Wann Big Data im Forderungsmanagement sinnvoll ist

Ob Analyseverfahren für ein Unternehmen sinnvolle Ergebnisse bringen, kann nicht pauschal beantwortet werden. Wer sich aufmacht, den Datenschatz des eigenen Unternehmens zu heben, sollte aber vor dem ersten Spatenstich folgende Fragen mit einem Ja beantworten: Speist sich der Bestand aus einer Vielzahl heterogener Daten? Ist die Reaktionsgeschwindigkeit bei der derzeitigen Analyse zu gering? Besteht hoher Zeitdruck bei der Einführung neuer KPIs und Methoden? Und gibt es überhaupt eine grundsätzliche Bereitschaft, datengesteuerte Prozesse umzusetzen?

Auch wenn diese Kriterien erfüllt sind, ist für den konkreten Einzelfall zu prüfen, inwiefern es sinnvoll ist, sich mit neuen Methoden auf das unbekannte Terrain vorzuwagen. Deshalb sollte zu Beginn einer Big-Data-Analyse ein Pre-Test stehen. Dort entwickeln Datenspezialisten gemeinsam mit Fachleuten aus dem Unternehmen Ziele und mögliche Fragen. Auf dieser Basis wird dann die Qualität und Eignung der Datenstrukturen anhand ausgewählter Datensätze des Unternehmens getestet und die Ergebnisse explorativ ausgewertet und diskutiert. Kommen die Beteiligten hier zu einem positiven Fazit, wird die Analyse ausgeweitet. Die Erfahrungen von Neofonie bei Big-Data-Analysen haben gezeigt, dass gerade die explorative Zusammenarbeit von Analysten auf Unternehmensseite mit den externen Informatikern unabdingbare Voraussetzung ist, um die Analyseergebnisse bewerten und sinnvolle Rückschlüsse für das Business ziehen zu können.

Im Erfolgsfall liegen nach der Implementierung eines Big-Data-Systems quantifizierte Daten für eine KPI-Steuerung vor. Beispielsweise weiß das Unternehmen dann nicht nur, welche Prozessschritte im Call Center im konkreten Fall am erfolgversprechendsten sind, sondern auch, wie hoch die Wahrscheinlichkeit ist, dass ein einzelner Prozessschritt – etwa ein zusätzlicher Anruf beim Kunden – zur Zahlung führt.

Mit welchen konkreten Anwendungsfällen können Unternehmen die Potenziale durch Big Data ausschöpfen?

Wie immer, wenn eine disruptive Technologie wie Big Data auf den Markt kommt, gibt es die „Early Adopter“ und die „Late Mover“. So ein einheitliches Bild wie vor zwei Jahren (als viele noch nichts von Big Data gehört hatten oder die ersten Schritte starteten) lässt sich heute nicht mehr zeichnen. Im Markt existieren eine ganze Reihe von unterschiedlichen Big Data Reifegraden. Unternehmen, die auf Basis von Big Data völlig neue Geschäftsmodelle, Produkte und Services entwerfen, bis hin zu Unternehmen, die gerade erst anfangen, eine grundsätzliche Potenzialabschätzung zu entwickeln. Big Data ist in aller Munde und fast jeder will „irgendwie“ mitmischen. Unternehmen, die heute noch orientierungslos sind, werden im Zeitalter der Data-Economy auf mittel- bis langfristige Sicht verdrängt werden.

Ziel von Big Data ist das Aufdecken von neuen Potenzialen und das Heben von vorhandenen „Daten-Schätzen“ und das oft in neuen Kontexten. Wie massiv und erfolgreich Big Data das bestehende Geschäft von Unternehmen digital transformieren kann, zeigen drei Beispiele:

Onlineshops stellen im Mittel 30% Umsatzwachstum durch auf Big Data basierende Recommendations fest (ein klassisches Big Data & Maschine Learning Thema); Banken bewerten heute die Risiken von Wertpapier-Portfolios in Echtzeit durch semantische Text-Analyse von Nachrichtenströmen und nutzen Social Media Monitoring für Scoring Verfahren; Verlage wie die New York Times nutzen Datenjournalismus, um Lesern “Live Experience” zu bieten und gleichzeitig neue Umsatzquellen zu erschliessen.

Wie stellen Unternehmen überhaupt fest, dass sich die intelligente und automatisierte Nutzung der eigenen Daten für sie lohnt?

Um eine Potenzialanalyse durchführen zu können, ist grundsätzliche die Kenntnis über die unternehmensspezifischen „Datenschätze“ und die Formulierung der „richtigen Fragen“ bzw. Anwendungsfälle nötig. Die explorative und flexible Methodik von Big Data ist bestens geeignet, um Anwendungsfälle schnell und kostengünstig zu bestätigen, anzupassen oder zu verwerfen – unabhängig der Branche oder Unternehmensgröße. Die Anwendungsfälle können dabei relativ einfach oder eben komplex ausfallen. Nutze ich vorhandene Daten oder neue Daten? Optimiere ich das bestehende Business oder baue ich neue Geschäftsmodelle auf? Der vermutlich einfachste Einstieg in die Welt der agilen Datenanalyse beginnt mit der Frage, wie mit den vorhandenen Daten das bestehende Business optimiert werden kann.

Ein aktuelles Beispiel aus der Praxis: Die gesamte Verlagsbranche steht vor einem massiven Wandel. Inflationärer Content im Web und die abnehmenDatenjournalismus-Neofoniede Zahlungsbereitschaft der Leser macht den Verlagen zu schaffen. Die Umsätze sinken. In Folge werden Redaktionen häufig massiv verkleinert. Als ein möglicher Ausweg aus dem Teufelskreis wird in jüngster Zeit verstärkt “Data Driven Journalismus” diskutiert und von führenden Verlagshäusern bereits erfolgreich praktiziert. Der “Use Case” dahinter ist einfach: Verlage sitzen auf umfangreichen redaktionellen Inhalten und Daten. Mit Hilfe von Big Data werden die Inhalte strukturiert und analysiert. Der Redakteur stellt die Fragen auf seinem “Big Data Dashboard” und produziert im Ergebnis ansprechende, interaktive und mehrwertschaffende Visualisierungen, wodurch das Verlangen der Leser nach “Live Experience” einerseits und “Mobile Experience” andererseits befriedigt wird. Der Leser erhält dadurch einen Mehrwert, für den er zu bezahlen bereit ist. Gleichzeitig können Redaktionen ihre Effizienz erheblich steigern.

Wie sollten sich Unternehmen in einem allerersten Schritt an das Thema Big Data heranwagen?

Der Use Case ist immer zuerst da, die genauen Anforderungen und die Ausgestaltung der Big Data Analyselösung ergeben sich erst im Laufe der Zeit. Das Neue an Big Data ist, dass mit der Lösung sehr kostengünstig und schnell gestartet werden kann und diese dann agil und explorativ an die Notwendigkeiten angepasst wird. Hier kommen die Stärken von Big Data Frameworks in Hinblick auf Skalierbarkeit der Speichervolumina und Rechengeschwindigkeit zum Tragen. Durch das agile Vorgehen ergeben sich im Laufe eines Big Data Projektes immer wieder Breakpoints, zu denen die Wirtschaftlichkeit der Lösung überprüft werden kann. Das schützt Entscheider vor dem Risiko großer Fehlinvestitionen. Gleichzeitig liegen an jedem Breakpoint neue Erkenntnisse vor, die bei der Definition von Zielen für die Gesamtlösung neue Impulse geben und so als Basis für die nächste Ausbaustufe dienen.

Ein weiterer Grund, dass die Lösung in den Hintergrund tritt, sind die exzellenten Cloud-Möglichkeiten von Big Data. Eine Lösung kann von einem passenden Dienstleister gemietet werden und so direkt am „Day 1“ eines Big Data Projektes verfügbar sein. Pay-as-you-Go SaaS-Lösungen ermöglichen so die Fokussierung auf den Use Case.

Big Data Anwendungsfälle reichen von

  1. effizienteren Unternehmensprozessen und
  2. strategischem Marketing über
  3. Verbesserung der Produkte/Services bis hin zur
  4. Identifizierung neuer Geschäftsmodelle.

Doch wie identifiziert man hier sinnvolle Use Cases?

Um die sinnvollen Use Cases zu identifizieren, sind vor allem zwei Abläufe zu untersuchen: Die Wertschöpfungskette meines Unternehmens und die Customer Journey meiner Kunden.

Bei der Analyse der Wertschöpfungskette stehen die Aspekte der Automatisierung und die Leistungen, bzw. Produkte des Unternehmens im Brennpunkt. Unter dem Big Data Gesichtspunkt sind daher die folgenden fünf Fragen zu untersuchen:

  • Wie sieht die Wertschöpfungskette meines Unternehmens aus?
  • An welchen Stellen der Wertschöpfungskette ersetze ich heute schon menschliche Intelligenz durch Maschinen bzw. an welchen Stellen kann ich das zukünftig tun?
  • An diesen Stellen: Welche Daten (unternehmensinterne und unternehmensexterne) liegen heute bereits vor, die eine Erkenntnis oder Entscheidungsfindung an diesen Punkten beeinflussen? Welche zusätzlichen Daten kann ich intern oder extern noch hinzufügen, um die Basis für Entscheidungsfindungen noch zu erweitern?
  • Welche zusätzlichen Algorithmen (z.B. Maschine Learning, Natural Language Processing oder Statistik) können den Erkenntnis & Entscheidungsprozess zusätzlich unterstützen?
  • Big Data heißt sehr oft Geschwindigkeitsgewinn bis hin zur Echtzeit. Wie beeinflusst diese Beschleunigung jeden einzelnen Schritt?

Die Customer Journey ist dabei ein zentraler Aspekt, denn immer wenn der Endkunde bessere Leistungen und Produkte erhält oder bessere Services genießt, steigert das direkt den Wert der angebotenen Waren und Services. Dabei hilft eine serviceorientierte Sichtweise, um neue Leistungen und Geschäftsfelder zu identifizieren, d.h. den Blick dafür, wie das Unternehmen zusätzliche Dienste für seine Kunden zur Verfügung stellen kann. Die Erstellung von detaillierten Nutzerprofilen wird dabei immer wichtiger, um ein personalisiertes Erlebnis zu schaffen und kaufwillige Nutzer zu identifizieren.

Ein zusätzlicher Blick über den Tellerrand hat aber noch nie geschadet. Hier hilft es, erfolgreiche neue Geschäftsmodelle anderer Anbieter zu analysieren und zu bewerten, in wie weit das bisherige Geschäft an die neuen Marktgegebenheiten angepasst werden muss.

Nach welchen Kriterien bewertet man, ob die identifizierten Use Cases erfolgversprechend sind?

Allgemein ist der zentrale Gesichtspunkt die leichte Zugänglichkeit der Daten. Komme ich an alle notwendigen Daten im Unternehmen leicht heran und wenn ja, wie bekomme ich sie in meinen Big Data Cluster? Welche Daten muss ich von Dritten zukaufen (z.B. Wetter, Nachrichten, Scoring-Daten) und was kostet das? Welche Daten erhebe ich bisher nicht, möchte ich aber zusätzlich noch erheben? Hier erlebt man in der Praxis oft unangenehme Überraschungen.

Danach erfolgt die Bewertung hinsichtlich Gesamtkosten (Lösung + Daten + Betrieb) und der Chancen hinsichtlich Mehr- und Zusatz-Umsatz. KPIs und Dashboards sind und bleiben dabei die zentralen Werkzeuge. In der Regel liefern alle Big Data Lösungen im Betrieb eine Vielzahl an neuen KPIs, mit denen sich der Erfolg einer Lösung sehr schnell bewerten lässt.

Welche Analysetools bieten einen einfachen Einstieg in Big Data Lösung?

Apache Hadoop ist eine ideale generische Basis und guter Einstieg in Big Data, mit der man nichts falsch macht. Gleichzeitig gilt es das Augenmerk auf eine dazu passende ETL (Extract Transform Load) Lösung zu legen, denn irgendwie müssen die Daten ja in die Big Data Lösung hinein. Unser Technologiepartner Talend beispielsweise bietet als einer der Big Data Marktführer einen schnellen und einfachen Einstieg auf Basis einer Cloud- oder Sandbox-Lösung. Insbesondere die (vorkonfigurierten) Sandbox-Lösungen sind hier gerade stark im Kommen. Gleichzeitig sollte man sich von Anfang an einen Big Data Experten ins Haus holen, der bei den ersten Schwimmversuchen hilft und bei der Analyse und Identifikation der vielversprechendsten Use Cases unterstützt. Das spart auf lange Sicht Zeit und Geld und minimiert das Investitionsrisiko. In unserer Aufzeichnung des Webinars „Machen Sie es richtig, in Echtzeit mit Apache SPARK, zeigen wir Ihnen anhand von Anwendungsszenarien, warum sich der Einstieg in SPARK lohnt.“

Veröffentlicht am 28. August 2014, aktualisiert am 14. Oktober 2020

Bildquelle: unsplash, NASA

Teilen auf

Holger Düwiger

Holger Düwiger ist ehemaliger CTO der Neofonie GmbH. Seit über 15 Jahren beschäftigt er sich mit technologiegetriebenen Innovationen. Sein Interesse gilt besonders innovativen Ansätzen und Konzepten, bei denen das Internet und Daten im Fokus stehen. Als CTO und Intermediär zwischen Business und Technologie, sorgte er dafür, dass Innovationen im Sinne des Businessnutzens anwendbar werden. Holger ist diplomierter Mathematiker der TU Berlin.

Managed Hosting mit mpex für maximale Sicherheit

Die Managed Hosting Lösungen unseres Partner mpex sorgen mit maximaler Sicherheit für beste Ergebnisse im Deployment und Betrieb von Neofonie und unser Kunden.

Core Web Vitals und deren Auswirkung auf die Webentwicklung

Mit der Einführung der Core Web Vitals Mitte Juni 2021 als zusätzliche Rankingfaktoren kommen auf die Webentwicklung neue Herausforderungen zu.

Geburtstagsverlosung bei ION ONE

ION ONE begeistert bereits seit einem Jahr seine Kunden. Feiern Sie das heutige Jubiläum mit und gewinnen Sie einen kostenfreien Workshop Ihrer Wahl.

Fussball_2021

Social Analytics zur UEFA EURO 2020

Wie wird über die spannendsten Ereignisse vor, während und nach den Spielen in den sozialen Netzwerken zur EURO 2020 gesprochen – eine Social Media Analyse von ontolux.

Sinnbild für Online Shopping

Warum eine goldstandard-basierte Evaluation?

Zur diesjährigen MICES trifft sich die E-Commerce-Suchgemeinschaft, um neueste Trends zu diskutieren. Mit dabei sind Cornelia Werk und Bertram Sändig von ontolux, die anhand von Kundenprojekten die Vorteile einer goldstandard-basierten Evaluation vorstellt.

amor_device_700

amor.de auf Shopware 6

Seit über 40 Jahren vertreibt Amor Echtschmuck und ist Europas Marktführer im mittleren Preissegment. Mit der Konzeption und Umsetzung des neuen Onlineshop hat der Schmuckhersteller Neofonie beauftragt.

DigitalHealthcare_Neofonie

Ausbau der Digitalisierung im Gesundheitswesen

Mit dem kürzlich beschlossenen Digitale-Versorgung-und-Pflege-Modernisierungsgesetz (DVPMG) verabschiedet der Bund bereits das dritte Gesetz, um die Digitalisierung im Gesundheitsmarkt voranzutreiben. Für die Vernetzung aller Beteiligten im Markt gestaltet Neofonie die Gesundheitstechnik von morgen aktiv mit und unterstützt Unternehmen, bei der Entwicklung von E-Health Lösungen.

Mit UX-Design die Customer Experience im Onlineshop beeinflussen

In der Videoreihe der media.net berlinbrandenburg zum Thema Customer Experience im E-Commerce, gibt Axel Hillebrand, UX Consultant von ION ONE, wertvolle Tipps, wie eine gute Usability und ein ausgefeiltes UX-Design Nutzer begeistert und so Ihre Conversion positiv beeinflusst.

Digitalen Wandel mit Managed IT-Services gestalten

Die stets an Komplexität gewinnenden Web- und E-Commerce-Projekte erfordern auf allen Ebenen ein Höchstmaß an Leistung, Sicherheit und Zuverlässigkeit. Bei diesen hohen Anforderungen wird Neofonie bereits seit 2004 durch das Berliner Hostingunternehmen mpex in allen Belangen des Betriebs unterstützt.

Digitales Recruiting – mit neuen Strategien gewappnet für die Zukunft

Celina Martin, HR-Managerin bei Neofonie Mobile war bei Digital Bash HR zu Gast und diskutierte mit HR-Experten zum Thema Digitales Recruiting in 2021 und gab Einblicke in HR-Strategien der Neofonie Mobile. Candidate Experience ist besonders wichtig im digitalen Wandel des Recruitings.

Container wird hochgehoben

Docker-Container als ideales Software-Transportmittel

Webprojekte werden immer komplexer und die Halbwertszeit der Technologien, die dabei zum Einsatz kommen, werden immer kürzer. Für die Softwareentwicklung ist die Containertechnologie von Docker ein ideales Transportmittel.

Corona-Reise-Check auf Shortlist für Deutschen Digital Award

In der Kategorie „Digital for Goods“ ist der Corona-Reise-Check des Wort & Bild Verlages für den Deutschen Digital Award 2021 nominiert. Der Bundesverband Digitale Wirtschaft e.V. hat in einer Shortlist die Vorauswahl getroffen.

Corona-Reise-Check-Preview

Neofonie entwickelt Corona Reise-Check App

Die Covid-19 Pandemie verursacht u.a. im Bereich Reisen große Verunsicherung. Die Corona-Reise-Check-App begegnet der Unsicherheit mit Transparenz.

EHealth_news

Neofonie weitet Fokus auf E-Health-Bereich aus

Als neues Verbandsmitglied der VerDiGes setzt die Berliner Digitalagentur Neofonie einen neuen unternehmerisch-strategischen Schwerpunkt im E-Health Umfeld und positioniert sich damit noch klarer als Full-Service Technologiedienstleister im Gesundheitsmarkt.

ION ONE: UX-Workshop für Food-Branche

Die UX-Agentur ION ONE unterstützt Unternehmen aus der Lebensmittelbranche mit einem kostenfreien UX-Workshop dabei, ihre Produkte authentisch und emotionalisierend zu inszenieren, um Nutzer zu begeistern und zum Kauf anzuregen.

Textmining_ontolux_NER

Neue Legal NER Komponente in TXTWerk

Mithilfe von Legal NER können juristische Textbausteine, beispielsweise Paragrafen, erkannt und automatisiert extrahiert werden. So lassen sich Texte in den Bereichen Steuern, Finanzen und Recht strukturieren und für die maschinelle Weiterverarbeitung aufbereiten.

Berliner Wirtschaft: Per Klick zum Onlinehändler

Die „Berliner Wirtschaft“ betrachtet die Berliner Agenturlandschaft unter dem Aspekt der gestiegene Nachfrage an E-Commerce Lösungen in der Corona-Krise. Thomas Kitlitschko, Geschäftsführer von Neofonie, liefert Einblicke.

ontolux Logo

Neofonie gründet KI-Agentur ontolux

Neofonie verkündet den Start einer neuen KI-Agentur, die sich den Themen Text Mining, Suche und Natural Language Processing verschrieben hat. Die langjährige Forschungs- und Projektkompetenz wird ab sofort in der eigenständigen Marke ontolux gebündelt.

wir-liefern-org Screen

wir-liefern.org erhält intelligente Suche

Neofonie unterstützt wir-liefern.org mit der kostenfreien Bereitstellung des Textanalyse Frameworks TXTWerk. Das Tool verbessert die Suche zur Auffindbarkeit lokaler Geschäfte.

WorldUsabilityDay_Newsbox

World Usability Day: Suche als echtes Erlebnis

Der World Usability Day vereint Design, Usability, IT und AI in einem Event und präsentiert am 12. November 2020 neueste Trends einem bundesweiten Publikum. Cornelia Werk von Neofonie stellt eine intelligente Suche als echtes Erlebnis vor.

Unser Newsletter „Neo Report“ vermittelt konkretes Praxiswissen, Trends und Know-how für Ihr digitales Business – quartalsweise und kompakt. Jetzt anmelden.