Wann Big Data im Forderungsmanagement sinnvoll ist

Wann Big Data im Forderungsmanagement sinnvoll ist

Ob Analyseverfahren für ein Unternehmen sinnvolle Ergebnisse bringen, kann nicht pauschal beantwortet werden. Wer sich aufmacht, den Datenschatz des eigenen Unternehmens zu heben, sollte aber vor dem ersten Spatenstich folgende Fragen mit einem Ja beantworten: Speist sich der Bestand aus einer Vielzahl heterogener Daten? Ist die Reaktionsgeschwindigkeit bei der derzeitigen Analyse zu gering? Besteht hoher Zeitdruck bei der Einführung neuer KPIs und Methoden? Und gibt es überhaupt eine grundsätzliche Bereitschaft, datengesteuerte Prozesse umzusetzen?

Auch wenn diese Kriterien erfüllt sind, ist für den konkreten Einzelfall zu prüfen, inwiefern es sinnvoll ist, sich mit neuen Methoden auf das unbekannte Terrain vorzuwagen. Deshalb sollte zu Beginn einer Big-Data-Analyse ein Pre-Test stehen. Dort entwickeln Datenspezialisten gemeinsam mit Fachleuten aus dem Unternehmen Ziele und mögliche Fragen. Auf dieser Basis wird dann die Qualität und Eignung der Datenstrukturen anhand ausgewählter Datensätze des Unternehmens getestet und die Ergebnisse explorativ ausgewertet und diskutiert. Kommen die Beteiligten hier zu einem positiven Fazit, wird die Analyse ausgeweitet. Die Erfahrungen von Neofonie bei Big-Data-Analysen haben gezeigt, dass gerade die explorative Zusammenarbeit von Analysten auf Unternehmensseite mit den externen Informatikern unabdingbare Voraussetzung ist, um die Analyseergebnisse bewerten und sinnvolle Rückschlüsse für das Business ziehen zu können.

Im Erfolgsfall liegen nach der Implementierung eines Big-Data-Systems quantifizierte Daten für eine KPI-Steuerung vor. Beispielsweise weiß das Unternehmen dann nicht nur, welche Prozessschritte im Call Center im konkreten Fall am erfolgversprechendsten sind, sondern auch, wie hoch die Wahrscheinlichkeit ist, dass ein einzelner Prozessschritt – etwa ein zusätzlicher Anruf beim Kunden – zur Zahlung führt.

Mit welchen konkreten Anwendungsfällen können Unternehmen die Potenziale durch Big Data ausschöpfen?

Wie immer, wenn eine disruptive Technologie wie Big Data auf den Markt kommt, gibt es die „Early Adopter“ und die „Late Mover“. So ein einheitliches Bild wie vor zwei Jahren (als viele noch nichts von Big Data gehört hatten oder die ersten Schritte starteten) lässt sich heute nicht mehr zeichnen. Im Markt existieren eine ganze Reihe von unterschiedlichen Big Data Reifegraden. Unternehmen, die auf Basis von Big Data völlig neue Geschäftsmodelle, Produkte und Services entwerfen, bis hin zu Unternehmen, die gerade erst anfangen, eine grundsätzliche Potenzialabschätzung zu entwickeln. Big Data ist in aller Munde und fast jeder will „irgendwie“ mitmischen. Unternehmen, die heute noch orientierungslos sind, werden im Zeitalter der Data-Economy auf mittel- bis langfristige Sicht verdrängt werden.

Ziel von Big Data ist das Aufdecken von neuen Potenzialen und das Heben von vorhandenen „Daten-Schätzen“ und das oft in neuen Kontexten. Wie massiv und erfolgreich Big Data das bestehende Geschäft von Unternehmen digital transformieren kann, zeigen drei Beispiele:

Onlineshops stellen im Mittel 30% Umsatzwachstum durch auf Big Data basierende Recommendations fest (ein klassisches Big Data & Maschine Learning Thema); Banken bewerten heute die Risiken von Wertpapier-Portfolios in Echtzeit durch semantische Text-Analyse von Nachrichtenströmen und nutzen Social Media Monitoring für Scoring Verfahren; Verlage wie die New York Times nutzen Datenjournalismus, um Lesern “Live Experience” zu bieten und gleichzeitig neue Umsatzquellen zu erschliessen.

Wie stellen Unternehmen überhaupt fest, dass sich die intelligente und automatisierte Nutzung der eigenen Daten für sie lohnt?

Um eine Potenzialanalyse durchführen zu können, ist grundsätzliche die Kenntnis über die unternehmensspezifischen „Datenschätze“ und die Formulierung der „richtigen Fragen“ bzw. Anwendungsfälle nötig. Die explorative und flexible Methodik von Big Data ist bestens geeignet, um Anwendungsfälle schnell und kostengünstig zu bestätigen, anzupassen oder zu verwerfen – unabhängig der Branche oder Unternehmensgröße. Die Anwendungsfälle können dabei relativ einfach oder eben komplex ausfallen. Nutze ich vorhandene Daten oder neue Daten? Optimiere ich das bestehende Business oder baue ich neue Geschäftsmodelle auf? Der vermutlich einfachste Einstieg in die Welt der agilen Datenanalyse beginnt mit der Frage, wie mit den vorhandenen Daten das bestehende Business optimiert werden kann.

Ein aktuelles Beispiel aus der Praxis: Die gesamte Verlagsbranche steht vor einem massiven Wandel. Inflationärer Content im Web und die abnehmenDatenjournalismus-Neofoniede Zahlungsbereitschaft der Leser macht den Verlagen zu schaffen. Die Umsätze sinken. In Folge werden Redaktionen häufig massiv verkleinert. Als ein möglicher Ausweg aus dem Teufelskreis wird in jüngster Zeit verstärkt “Data Driven Journalismus” diskutiert und von führenden Verlagshäusern bereits erfolgreich praktiziert. Der “Use Case” dahinter ist einfach: Verlage sitzen auf umfangreichen redaktionellen Inhalten und Daten. Mit Hilfe von Big Data werden die Inhalte strukturiert und analysiert. Der Redakteur stellt die Fragen auf seinem “Big Data Dashboard” und produziert im Ergebnis ansprechende, interaktive und mehrwertschaffende Visualisierungen, wodurch das Verlangen der Leser nach “Live Experience” einerseits und “Mobile Experience” andererseits befriedigt wird. Der Leser erhält dadurch einen Mehrwert, für den er zu bezahlen bereit ist. Gleichzeitig können Redaktionen ihre Effizienz erheblich steigern.

Wie sollten sich Unternehmen in einem allerersten Schritt an das Thema Big Data heranwagen?

Der Use Case ist immer zuerst da, die genauen Anforderungen und die Ausgestaltung der Big Data Analyselösung ergeben sich erst im Laufe der Zeit. Das Neue an Big Data ist, dass mit der Lösung sehr kostengünstig und schnell gestartet werden kann und diese dann agil und explorativ an die Notwendigkeiten angepasst wird. Hier kommen die Stärken von Big Data Frameworks in Hinblick auf Skalierbarkeit der Speichervolumina und Rechengeschwindigkeit zum Tragen. Durch das agile Vorgehen ergeben sich im Laufe eines Big Data Projektes immer wieder Breakpoints, zu denen die Wirtschaftlichkeit der Lösung überprüft werden kann. Das schützt Entscheider vor dem Risiko großer Fehlinvestitionen. Gleichzeitig liegen an jedem Breakpoint neue Erkenntnisse vor, die bei der Definition von Zielen für die Gesamtlösung neue Impulse geben und so als Basis für die nächste Ausbaustufe dienen.

Ein weiterer Grund, dass die Lösung in den Hintergrund tritt, sind die exzellenten Cloud-Möglichkeiten von Big Data. Eine Lösung kann von einem passenden Dienstleister gemietet werden und so direkt am „Day 1“ eines Big Data Projektes verfügbar sein. Pay-as-you-Go SaaS-Lösungen ermöglichen so die Fokussierung auf den Use Case.

Big Data Anwendungsfälle reichen von

  1. effizienteren Unternehmensprozessen und
  2. strategischem Marketing über
  3. Verbesserung der Produkte/Services bis hin zur
  4. Identifizierung neuer Geschäftsmodelle.

Doch wie identifiziert man hier sinnvolle Use Cases?

Um die sinnvollen Use Cases zu identifizieren, sind vor allem zwei Abläufe zu untersuchen: Die Wertschöpfungskette meines Unternehmens und die Customer Journey meiner Kunden.

Bei der Analyse der Wertschöpfungskette stehen die Aspekte der Automatisierung und die Leistungen, bzw. Produkte des Unternehmens im Brennpunkt. Unter dem Big Data Gesichtspunkt sind daher die folgenden fünf Fragen zu untersuchen:

  • Wie sieht die Wertschöpfungskette meines Unternehmens aus?
  • An welchen Stellen der Wertschöpfungskette ersetze ich heute schon menschliche Intelligenz durch Maschinen bzw. an welchen Stellen kann ich das zukünftig tun?
  • An diesen Stellen: Welche Daten (unternehmensinterne und unternehmensexterne) liegen heute bereits vor, die eine Erkenntnis oder Entscheidungsfindung an diesen Punkten beeinflussen? Welche zusätzlichen Daten kann ich intern oder extern noch hinzufügen, um die Basis für Entscheidungsfindungen noch zu erweitern?
  • Welche zusätzlichen Algorithmen (z.B. Maschine Learning, Natural Language Processing oder Statistik) können den Erkenntnis & Entscheidungsprozess zusätzlich unterstützen?
  • Big Data heißt sehr oft Geschwindigkeitsgewinn bis hin zur Echtzeit. Wie beeinflusst diese Beschleunigung jeden einzelnen Schritt?

Die Customer Journey ist dabei ein zentraler Aspekt, denn immer wenn der Endkunde bessere Leistungen und Produkte erhält oder bessere Services genießt, steigert das direkt den Wert der angebotenen Waren und Services. Dabei hilft eine serviceorientierte Sichtweise, um neue Leistungen und Geschäftsfelder zu identifizieren, d.h. den Blick dafür, wie das Unternehmen zusätzliche Dienste für seine Kunden zur Verfügung stellen kann. Die Erstellung von detaillierten Nutzerprofilen wird dabei immer wichtiger, um ein personalisiertes Erlebnis zu schaffen und kaufwillige Nutzer zu identifizieren.

Ein zusätzlicher Blick über den Tellerrand hat aber noch nie geschadet. Hier hilft es, erfolgreiche neue Geschäftsmodelle anderer Anbieter zu analysieren und zu bewerten, in wie weit das bisherige Geschäft an die neuen Marktgegebenheiten angepasst werden muss.

Nach welchen Kriterien bewertet man, ob die identifizierten Use Cases erfolgversprechend sind?

Allgemein ist der zentrale Gesichtspunkt die leichte Zugänglichkeit der Daten. Komme ich an alle notwendigen Daten im Unternehmen leicht heran und wenn ja, wie bekomme ich sie in meinen Big Data Cluster? Welche Daten muss ich von Dritten zukaufen (z.B. Wetter, Nachrichten, Scoring-Daten) und was kostet das? Welche Daten erhebe ich bisher nicht, möchte ich aber zusätzlich noch erheben? Hier erlebt man in der Praxis oft unangenehme Überraschungen.

Danach erfolgt die Bewertung hinsichtlich Gesamtkosten (Lösung + Daten + Betrieb) und der Chancen hinsichtlich Mehr- und Zusatz-Umsatz. KPIs und Dashboards sind und bleiben dabei die zentralen Werkzeuge. In der Regel liefern alle Big Data Lösungen im Betrieb eine Vielzahl an neuen KPIs, mit denen sich der Erfolg einer Lösung sehr schnell bewerten lässt.

Welche Analysetools bieten einen einfachen Einstieg in Big Data Lösung?

Apache Hadoop ist eine ideale generische Basis und guter Einstieg in Big Data, mit der man nichts falsch macht. Gleichzeitig gilt es das Augenmerk auf eine dazu passende ETL (Extract Transform Load) Lösung zu legen, denn irgendwie müssen die Daten ja in die Big Data Lösung hinein. Unser Technologiepartner Talend beispielsweise bietet als einer der Big Data Marktführer einen schnellen und einfachen Einstieg auf Basis einer Cloud- oder Sandbox-Lösung. Insbesondere die (vorkonfigurierten) Sandbox-Lösungen sind hier gerade stark im Kommen. Gleichzeitig sollte man sich von Anfang an einen Big Data Experten ins Haus holen, der bei den ersten Schwimmversuchen hilft und bei der Analyse und Identifikation der vielversprechendsten Use Cases unterstützt. Das spart auf lange Sicht Zeit und Geld und minimiert das Investitionsrisiko. In unserer Aufzeichnung des Webinars „Machen Sie es richtig, in Echtzeit mit Apache SPARK, zeigen wir Ihnen anhand von Anwendungsszenarien, warum sich der Einstieg in SPARK lohnt.“

Veröffentlicht am 28. August 2014, aktualisiert am 14. Oktober 2020

Bildquelle: unsplash, NASA

Teilen auf

Holger Düwiger

Holger Düwiger ist ehemaliger CTO der Neofonie GmbH. Seit über 15 Jahren beschäftigt er sich mit technologiegetriebenen Innovationen. Sein Interesse gilt besonders innovativen Ansätzen und Konzepten, bei denen das Internet und Daten im Fokus stehen. Als CTO und Intermediär zwischen Business und Technologie, sorgte er dafür, dass Innovationen im Sinne des Businessnutzens anwendbar werden. Holger ist diplomierter Mathematiker der TU Berlin.

Mittelstandskonferenz

Neofonie auf der BMBF-Mittelstandskonferenz in Berlin

Auf der BMBF-Mittelstandskonferenz stellt Neofonie mit ihrer KI-Agentur ontolux die beiden Forschungsprojekte „Tech2Text“ und „AI4SCM“ vor.

Neofonie auf der GTM-Conference in Berlin

Jan-Tilmann Seipp von Neofonie stellt gemeinsam mit David Harbecke (DFKI) und Felix Köhler (inpro) Ergebnisse vom kollaborativen Forschungsprojekt „Text2Tech“ vor.

Newsbox_contenful_SAP

Content Commerce mit SAP und Contentful

Die Composable Content Platform von Contentful steht jetzt auch als App für die SAP Commerce Cloud zur Verfügung. Als Contentful und SAP Partner unterstützt Neofonie Unternehmen, beide Systeme bestmöglich zu nutzen.

newsbox-Axel-digitale_leute

Search UX auf dem Digitale Leute Summit

Der Digitale Leute Summit ist Deutschlands führende Konferenz rund um die digitale Produktentwicklung. Axel Hillebrand von Neofonie stellt das Thema Search UX vor.

Arzt mit einem Mobiltelefon in den Händen

Herausforderungen für Innovatoren im komplexen E-Health-Markt

Der E-Health-Markt bietet viele Möglichkeiten für digitale Medizinprodukte, ist jedoch anspruchsvoll. Welche Herausforderungen gibt es für Unternehmen?

Portrait von Poppe Poppe

Wandern zwischen den Welten – von den USA nach Berlin

Es ist der Traum vieler Deutscher in die USA auszuwandern. Poppe wanderte nach Deutschland aus und ging nach Berlin. Ein Interview über ganz persönliche Erfahrungen.

Neofonie erhält Deep Tech Award 2023

Neofonie erhält Deep Tech Award 2023 in der Kategorie IT-Security von der Berliner Senatsverwaltung für Wirtschaft, Energie und Betriebe. Bei dem eingereichten Projekt kommt TXTWerk zur Anwendung.

EHealth_news

Zertifizierung nach ISO 13485 – Gesundheit braucht Qualität

Neofonie ist zertifiziert nach ISO 13485. Erfahren Sie, was die Zertifizierung nach der Norm beinhaltet und welche Vorteile sie bringt.

ontolux bei der Berlin Buzzwords 2023

Bei der Berlin Buzzwords stellen Qi Wu, Bertram Sändig von ontolux am 19.06.23 in ihrem Vortrag domänenspezifische Ontologien in der IT-Sicherheitsbranche im Bereich ML vor.

Carolin Meyer Senior Projektmanagerin steht vor einer Wand mit Bemalung, modern mit Robotern, Linien usw.

Women in Tech – Projektmanagement in der IT

Frauen im IT-Projektmanagement sind selten. Carolin Meyer, Senior Projektmanagerin bei Neofonie, beschreibt ihren Weg in die IT-Branche und ihren Berufsalltag.

Thomas_Interview

Qualitätssicherung im Healthcare Markt

Was Qualitätssicherung im Healthcare Markt für die Softwareentwicklung bedeutet, erklärt Thomas Kitlitschko, CEO der Digitalagentur Neofonie.

Neofonie_25th_adjustments_Header

Neofonie feiert 25 Jahre

Neofonie hat sich mit der ersten deutschen Internetsuchmaschine hin zur führenden Digitalagentur entwickelt, wie das aktuelle Internetagenturranking des BVDW zeigt.

Cert_ISO13485_neofonie

Neofonie ist ISO 13485 zertifiziert

Zur Erfüllung der neuen europäischen Standards (Medical Device Regulation) hat die Neofonie Gruppe ihr Qualitätsmanagement nach ISO 13485 zertifiziert.

ontolux bei der Minds Mastering Machines 2023

Auf der M3 Konferenz stellt Bertram Sändig von ontolux am 11.05.23 in seinem Vortrag domänenspezifische Ontologien in der IT-Sicherheitsbranche im Bereich ML vor.

typo3-1200_650px-onblack

Neofonie ist TYPO3 Gold Member

Neofonie baut die Zusammenarbeit mit der TYPO3-Association aus und zertifiziert sich als Gold Member.

AI4SCM untersucht Supply Chain Risiken

Das AI4SCM Forschungsprojekt hat zum Ziel, Methoden für die Beobachtung und Erkennung von Supply-Chain Risiken zu entwickeln.

Portrait von Marvin Krüger bei Neofonie GmbH

Arbeiten mit chronischer Erkrankung

Menschen mit chronischen Krankheiten können leistungsfähig im Job sein, es braucht individuelle Lösungen. Wir sprachen zum Thema mit Marvin Krüger.

Schwarzes Mikrofon

Neofonie im Digital Insurance Podcast

Digital Insurance Podcast: Wie Versicherer die interne Informationsflut bewältigen und von einer ausgefeilte Intranetsuche profitieren.

ChatGPT im Realitätscheck

ChatGPT ist ein Meilenstein in der KI-Entwicklung. Doch wie können Unternehmen die Technologie einsetzen? ontolux geht der Frage nach.

Testkonzepte im Software Testing einfach erklärt

Software Testing unterstützt Firmen, qualitativ hochwertige Software auf den Markt zu bringen. Was ein Testkonzept braucht, verrät Khayrat Glende von Neofonie.

Unser Newsletter „Neo Report“ vermittelt konkretes Praxiswissen, Trends und Know-how für Ihr digitales Business – quartalsweise und kompakt. Jetzt anmelden.