Datenhandel Made in Germany

Wer kennt die Frage nicht, wenn man abends noch schnell durch den Supermarkt rauscht. ”PayBack-Karte?”
Die Deutschen sind Sparfüchse und lieben diese Karte. Ob man damit etwas spart, sei mal dahingestellt. Auf jeden Fall geht so an dieser und anderen Supermarktkassen täglich 4 Mio. Mal mit einem „Piep“ ein Tracking los, das Facebook richtig neidisch macht. Willkommen im Land der Rabattkarten (oder Loyalty-Karten, wenn man Denglisch lieber mag.)

Während die ganze Welt Herzrasen wegen Facebook -Daten kriegt, gehen die Datensammler in Deutschland ganz gemütlich und hochprofessionell seit 30 Jahren ihren Geschäften nach – deutlich länger als es Facebook gibt. Heute nutzen 31 Millionen Menschen allein den Dienst PayBack. Die PayBack-App gehört nach eigenen Angaben zu den Top 3 Shopping-Apps in Deutschland – zusammen mit Amazon und eBay. Die Konkurrenz von Anbieter „DeutschlandCard“ nutzen 20 Mio. Haushalte; an 10.000 Stellen können die Kunden hier im Austausch gegen ihre Daten Punkte sammeln.

Rabattkarten auf Holztisch

Die Plastikkarten sind ein überraschendes Beispiel wie Rechnerleistungsebene, Daten- und Anwendungsebene in digitalen Geschäftsmodellen zusammenwirken und in ihrer spezifischen Kombination als Businessmodel wertvoll werden. In diesem Artikel zeigen wir die Geschichte der Karten, die irgendwie auch eine Version der Digitalisierung sind, und wie sie ganz speziell in Deutschland stattfindet. Und, last but not least, zeigen wir eine schlichte Tatsache: dass der deutsche Datenmarkt seit 30 Jahren hochentwickelt ist, ohne dass wir bisher in den “totalitären Überwachungsstaat” abgeglitten sind. 

Am Anfang war die Bahncard

Rabattkarte klingt noch heute mehr nach Margarine und Bohnerwachs als nach datengetriebener Kundenbindung. Mitte der Achtziger, als unsere Geschichte beginnt, war “Rabattkarte” brutal uncool (Bis heute spricht man lieber von “Loyalty-Programmen”). Mit Rabatten sparen, das hatten irgendwie die Eltern der pulloverstrickenden Fundis irgendwann mal nach dem Krieg gemacht. In den Achtzigern war das echt durch. Doch Anfang der 90er-Jahre kam “Sparen” wieder ganz gut an in der vereinigungseeligen Kohl-Republik. Gemeinsam Bahn fahren für den Frieden – mit Abo. Also führte die Bahn zum 1. Oktober 1992 die Bahncard ein.

Damit gab sich die Deutsche Bahn selbst “den bedeutendsten Schub seit dem Zweiten Weltkrieg” – neben dem schnellen Intercityexpress. Und das liegt vor allem an den Deutschen, mit und ohne Strickpullover: Die sparen (oder optimieren) eben gern. Nicht nur auf der Schiene und mit selbstgestrickten Klamotten, sondern sogar in der Luft beim Fliegen. Ja, Innovation ist manchmal auch nur ein Synonym für “Gut kopiert”. Und so führte auch der zweite ehemalige Staatskonzern, die Lufthansa, ein Jahr später (1993, war da wohl der gleiche Berater im Haus?) ein Kartenmodell ein: Miles and More war geboren.

Bis heute, 27 Jahre später, sind die Bahncard und Miles and More zwei der wichtigsten Kundenbindungsprogramme Europas. Miles and More ist keine Karte für treue Lufthansa-Flieger, sondern ein Verbund von 28 Fluggesellschaften der Star Alliance und 270 weiteren Unternehmen weltweit. Die Bahncard ist…. weiter die Bahncard.

Die Karte

Es ist eine interessante Eigenart des deutschen Marktes, dass das Geschäft mit den Daten bei uns, quasi parallel zur kommerziellen Revolution des Internets entstand, aber zunächst nicht auf diesen Technologien basierte. Zu Beginn der Neunziger war das Szenario millionenfache persönliche Transaktionen mit den offenen Protokollen des Internets abzuwickeln, gar nicht abzudecken. Dazu legte die Browser Firma Netscape erst ab 1994 unter anderem mit der Cookie-Technologie die Grundlagen.

In Deutschland setzte die Industrie schon ab Anfang der Neunziger auf ein anderes Modell: das Einkaufsverhalten wurde mit der Nutzung einer persönlichen Karte direkt an der Kasse gemessen. Über Rabatte und besondere Behandlung wurde das Ziehen der Karte für den Kunden attraktiv. Das ist natürlich nicht das gleiche wie ein Cookie im Browser, bringt aber dieselben wichtigen Zutaten zusammen: eindeutige Personen(oder wenigstens Browser/Karten)zuordnung, Daten und Transaktion. Außerdem hat die Karte einen wichtigen Vorteil – sie funktioniert online zu offline, also an der Schnittstelle der wirklichen Welt und der digitalen. Die Techniken, die sich in der Folge mit der Datenverarbeitung im Hintergrund entwickelten, sind letztlich die gleichen wie im Netz, weil auch die Karte mit dem Chip schon den notwendigen Kern bot: die eindeutige ID und einen ordentliche Datenspeicher. In der Kombination mit diesem „Unique Identifier“ ist noch nicht mal massenweise Datenschrott (Big Data) notwendig, um sinnvolle Informationen zu finden. 

Die Triebkraft für die Innovation kam also aus dem Bestandsgeschäft des Handels. Die deutsche Industrielandschaft sorgte hier für eine kontinuierliche Innovation (ala Clayton Christensen), die schon seit Anfang der Neunziger Jahre und in den folgenden Jahrzehnten mit einer anderen Technologie zu ganz ähnlichen Ergebnissen gekommen ist, wie die parallele Entwicklung des Netzes.  So, Tschüss an die Ungeduldigen. Jetzt kommen die Details.

Die Technik

Anfang der Neunziger setzte sich die echte Chipkarte in verschiedenen Lebensbereichen durch. Bis dahin hatte die Karte einen simplen Magnetstreifen, der wenige Informationen speichern und gar keine verarbeiten konnte.

Anders als Magnetstreifenkarten, haben Chipkarten einen integrierten Schaltkreis und arbeiten mit einem eigenem Betriebssystem. (Ja, wirklich, das steckt alles in den Platikkarten in eurem Portemonnaie) Sie sind flexibel, weil sie auf unterschiedlichen Plattformen laufen und in bestehende Systeme integriert werden können. Außerdem haben sie mehr Speichervolumen, und sind dank kryptografischer Verfahren sehr sicher. Deshalb werden sie häufig als Sicherheitsschlüssel (Zugangskarte) eingesetzt und wir heben damit unser Geld ab, oder (kleiner Sprung, so 30 Jahre später) sie sind die Sim-Karten-Chips in den kleinen Supercomputern, die wir alle in unseren Tasche haben.

Dem Erfinder der Chipkarte Jürgen Dethloff, der schon 1968 mit seinem Partner Helmut Gröttrup das Patent angemeldet hatte, war das Potential, das wir erst heute jeden Tag sehen, schon 1994 sehr klar : „Die Chipkarte kann zu einem Teil unserer selbst werden“, orakelte er damals. Das hört sich für Skeptiker natürlich irgendwie bedrohlich an, wenn etwas Teil von mir wird, um das ich nicht gebeten habe. Was meinte Dethloff? Eben weil mit der Kartentechnologie, Unique Identifier und sicher verschlüsselter Datenspeicherplatz zusammen kamen, definiert sie die kleinste Einheit, die in einer datengetriebenes Welt notwendig ist, um sinnvolle Einsatzszenarien zu steuern. Ich und meine Daten eben. 

Mikroprozessorkarten können heute sowohl per Kontakt als auch kontaktlos Daten übertragen. Entweder werden sie mit einem Kartenlesegerät über direkten Kontakt ausgelesen, oder sie übertragen ihre Daten per Funk. Kontaktlose Chipkarten bezeichnet man als RFID-(Radio Frequency Identification)-Karten. Eine Unterkategorie der RFID Technologie sind die Übertragungsmöglichkeiten mittels NFC (Near Field Communication). NFC überträgt Daten von einer Karte nur über wenige Zentimeter.

Der Formfaktor 

Für den andauernden Erfolg der Karte an der Kasse war aber wahrscheinlich ebenso die Form (das Interface) entscheidend. Bezahlen mit dem Telefon an der Supermarktkasse ist nämlich gar nicht mal so toll, wie alle sagen. Ne’ Karte kann man grad noch rausziehen, scannen, fertig. Aber erst die Loyalty-App aufmachen, scannen, dann die Bezahlapp, ach ne die andere, aufmachen und bezahlen, dafür braucht man an einer deutschen Supermarktkasse bisher noch Nerven aus Stahl oder man gehört zur Generation Ist-mir-doch-egal-wie-mein-super-digitales-Leben-dich-nervt. Die Karte steckt direkt neben der EC-Karte und passt für diesen Einsatz und das Szenario richtig gut.

Loyalty ist so Neunziger 

Zurück in die Zeit als Modems noch rauschten und quiekten. Die beiden deutschen ehemaligen Staatskonzerne Bahn und Lufthansa hatten das Rabatt-Modell auf Karte auch nicht erfunden, sondern beim britischen Unternehmer Keith Mills entdeckt. Der hatte sein Programm “Air Miles” schon 1988 mit British Airways gestartet. Die beiden Programme sind aber bis heute wahrscheinlich die bekanntesten und oberflächlich betrachtet die Giganten am Markt. Aber wie beim Datengeschäft immer, findet das Wichtige dahinter statt.

Der Riese in der zweiten Reihe

Die Neunziger waren auch die großen Zeit des Outsourcings als Allheilmittel. Da machte Deutschland keine Ausnahmen. Und zunächst betrachtete keine Firma “Loyalty” als ihr Kerngeschäft. Also: raus damit. Spätestens seit 1995 ließ die Bahn ihr Bahncard-Geschäft und den Kundenservice durch das Bertelsmann-Tochterunternehmen Arvato im niedersächsischen Schortens abgewickeln. Einen spezialisierten Anbieter mit dem Kundenbindungsprogramm zu beauftragen, war damals ziemlich logisch, denn die Infrastruktur aus Karten, Rechenzentren, Software und Kundenbetreuern, war für ein Unternehmen allein sehr teuer und deshalb ein hohes Risiko. Da lag es nahe, ein anderes Unternehmen zu beauftragen, das dieselbe Dienstleistung für ganz verschiedene Kunden und  Kundenbindungsprogramme abwickeln konnte und deshalb die Investition wagen konnte. Und, logisch, auch das “Miles and More”-Programm der Lufthansa wickelten die Bertelsmänner von Arvato ab. Defacto hatte also Bertelsmann (das war mal die Buch-Club-Firma, wem das noch etwas sagt) das eigentliche Know-How, wie man Millionen von Karten druckt, die Daten organisiert, die Infrastruktur aus Lesegeräten und Leitungen betreibt, kurz wie man Kundenbindung auf Karte organisiert und mit den Daten daraus das Geschäft ankurbelt.

Mittendrin im Miles-and-More-Programm saß als Berater von “Roland Berger” (und jüngster Partner in deren Geschichte)  Alexander Rittweger. Den muss man nicht kennen, er wird aber gleich wichtig.  Rittweger wollte wie er später sagte: ”auf keinen Fall in einem Konzern Karriere machen” (Hä? Roland Berger? Alles ein Irrtum? Ich war jung?) Nein, nein, er wollte bloß lieber seinen eigenen Konzern. Rittweger hatte wahrscheinlich eine zentrale Erkenntnis: Wenn im Backoffice sowieso alles Arvato macht, warum dann nicht gleich eine gemeinsame Kundenkarte für verschiedenen Unternehmen, dann könnte man die Daten auch zusammenschmeißen? Innovation geht eben nicht nur mit Abgucken( wie bei Lufthansa und Bahn), sondern auch mit Naheliegendem (sustaining innovation – wer es googeln möchte – heisst das bei Clayton Christensen). Dafür brauchte man nur ein paar Schwergewichte auf seiner Seite. Rittweger überzeugte die Lufthansa und den Cash und Carry-Giganten Metro von einer Rabattkarte, die nicht nur für eine Firma allein galt, sondern ebenfalls für eine große Zahl verbündeter Teilnehmerfirmen und besonders den Handel mit einbezog. Das war die Idee von PayBack.

Wie funktionieren Loyalty-Karten?

Das war 1998. Das Internet setzte grad zu seinem ersten großen kommerziellen Ikarus-Höhenflug an. “Data Warehouses” wurden in jeder Firma hochgezogen und der Optimismus war groß, mit Daten den Markt umzukrempeln. (Kommt das irgend jemandem bekannt vor?) Über die neue Qualität seiner Karte und deren Effekt war Alexander Rittweger sich sehr bewußt. Es ging natürlich nicht nur um ein Rabattprogramm, das nach Margarine und Bohnerwachs roch:

„In der Kombination mit Mailings- und Verkaufsaktionen entsteht ein einzigartiges Kundenbindungssystem, das alle Seiten profitieren lässt: Konsumenten erhalten Punkte, die in Prämien oder Bargeld eingetauscht werden können. Der Handel schafft Anreize, um für wiederkehrende und neue Kunden attraktiv zu bleiben. Und letztlich kann Payback seine unmittelbar auf die Kundenwünsche abgestimmten Angebote verfeinern und den Partnern effiziente Services anbieten.”

Ein branchen- und medienübergreifendes Kundenbindungsprogramm, das Kundentreue durch Rabattpunkte beim Einkaufen belohnt, und einem Dritten auf Basis der Daten die Möglichkeit gibt “effiziente Services” anzubieten: entweder Werbung, oder B2B-Dienste entlang der Wertschöpfungskette. E voila: Ein Plattformgeschäft. Mit den Daten im Hintergrund häufte sich sehr genaues Wissen über Kundenverhalten an, das nun auch maschinell auswertbar war, weil es nicht mehr nur in den Köpfen erfahrener Kaufleute, sondern strukturiert (z.B personen- und ortsbezogen) auf Festplatten war. Die große Vision war also nicht das Punktesammeln, sondern der Weg, wie PayBack Kundenbindung maschinen-basiert entwickeln konnte, um damit die Geschäfte der teilnehmenden Firmen rund um deren Bedürfnisse nach Customer-Relationship-Management-Diensten (was für ein Wort-Ungetüm), oder Lieferketten- oder Sortimentsoptimierung und Produktentwicklung zu verbessern. Die Palette der B2B-Dienstleistungen, die rund um die Karte entstanden sind, ist bis heute tatsächlich immer länger geworden. Logischerweise, denn im Zentrum steht das profitable Datenabbild des Kunden und der Produkte, die er braucht. Wann kaufen wir, was, wo ein? Wieviel Geld gibt welche Haushaltsgröße aus? Welche Gegend in deiner Stadt entwickelt sich gut, welche gibt immer weniger aus? Die Möglichkeiten der Datenanalyse sind zum unverzichtbaren Planungsinstrument im Handel geworden. Payback war genau das:  Ein Plattformgeschäft auf Datenbasis “Made in Germany” mit direktem Draht zum Puls des Kunden: Lufthansa und Metro waren begeistert. 

Aber wir sind ja in Deutschland und nicht im Silicon Valley. Wenn so große Firmen wie Lufthansa und Metro plötzlich gemeinsame Sache machen wollen, ist das erstmal schwierig und es dauert. Man fragt sich, wie Rittweger dieses Kunststück überhaupt vollbrachte. Aber fast zwei Jahre nach dem Start, im März 2000, nahm PayBack dann tatsächlich seine Geschäfte auf. Ausgerechnet in dem Monat, als die erste Hoffnungswelle der Internetträume sich überschlug. Die Wertpapiernotierungen für Technologie-Titel fielen zum Börsenschluss am Freitag, dem 10. März 2000 nach einem Allzeithoch plötzlich ins Bodenlose. Boom. (also: bäng) Die erste Internet-Blase war geplatzt.

Der Knall nach dem Boom

Und PayBack? War und ist eben ein besonderes Gewächs (haben wir oben ja gesagt) und ein gutes Beispiel dafür, daß es sich lohnt, digitale Trends im eigenen Land genauer anzugucken, um eigene Schlüsse zu ziehen. Der Internetknall war PayBacks Startschuss, weil das Corporate-Investor-Modell weder unmittelbar auf die Marktliquidität für Technologiefirmen angewiesen war, noch technologisch auf dem Internet basierte. Das Geld kam aus der Industrie, es war kein typisches Irgendwas-mit-Internetz-Geschäft, das zu Beginn auch viel von der kreativen Phantasie der Unternehmer und Investoren lebt. Rabattkarten waren eine offensichtlich sinnvolle und wenig risikoreiche Ergänzung vieler stationärer Handelsmodelle, mit unmittelbaren Vorteilen durch eine bessere Datenlage: die etablierten Anbieter festigten ihr Geschäft.

Und die Kunden fanden’s gut. PayBack entwickelte sich zu einem erstaunlichen Erfolg. Im ersten Jahr gewann das Unternehmen in Kooperation mit Partnern wie real,-, Galeria Kaufhof, DEA (Tankstellen), dm Drogeriemarkt, AOL und Consors unglaubliche 8,3 Millionen Nutzer – eine Million direkt über das Internet. Der Umsatz lag bei rund 50 Mio. DM. Die Branche war baff.

Ein Problem war allerdings, dass das Modell von Payback (Geld für Punkte) streng genommen in Deutschland gar nicht mal so richtig legal war, denn wir hatten seit 1934 das Rabattgesetz, nach dem der Rabatt bei Barzahlung 3 % des Warenpreises nicht überschreiten durfte. Ok, beim Punktesammeln ist das wohl nur theoretisch möglich. Da aber die Deutschen mit diesem Gesetz ziemlich alleine waren, war dem Gesetzgeber schnell klar zu machen, dass im Rahmen des übernationalen Internethandels damit ziemliche Nachteile verbunden waren, wenn die anderen so ein Gesetz nicht hatten. Die Lösung? Das Rabattgesetz wurde im Juli 2001 abgeschafft.

„Die Abschaffung des Gesetzes wird unser Geschäft beflügeln. Wir erhalten dadurch viele zusätzliche Möglichkeiten, gemeinsam mit unseren Partnern erfolgreiche Verkaufsaktionen durchzuführen.“ sagte Rittweger damals. Payback war nach nur einem Jahr zum röhrenden Platzhirschen mutiert. 

Das zweite, größere Problem war Arvato. Arvato war bis dahin, wie gesagt, der eigentliche Kern der etablierten Rabatt- und Meilenprogramme von Lufthansa und Bahn, und hatte 1999 mit “webmiles” sogar vor PayBack einen eigenen Rabattservice für Partnerunternehmen als reinen Internetdienst gestartet, allerdings ohne Karte, also im Grunde ohne die eigentlich wegweisende online zu offline Messung im Portemonnaie. Das lief deutlich schlechter als beim Neuling.

PayBack greift an

2005 setzte PayBack zum eigentlichen Angriff auf Arvato an, aber dann kam alles anders. Die Lufthansa wechselte den Vorstand. Die Folge für PayBack: Lufthansa verkaufte die Mehrheit an der Loyalty Partner-Holding (PayBacks Mutter) (zum Preis eines Airbuses, na fast) für 120 Millionen Euro an den Finanzinvestor Palamon Capital. Rittweger hielt von da ab 20 Prozent der Unternehmensanteile, zehn Prozent lagen beim Management, neun Prozent blieben bei der Metro und acht Prozent bei Roland Berger. Aber mit 53 Prozent war Palamon Capital Partners der neue Herr/ Frau im Haus.

Im April 2006 übernahm PayBack dann mit neuem Vertrag als Generalunternehmer für die Deutsche Bahn die komplette CRM-Abwicklung für das Kundenbindungsprogramm Bahncard. Dazu gehörten die Implementierung und der Betrieb der CRM-Systemplattform und die Durchführung von Online- und Offline-Marketingaktionen. Ende 2006 betraf das rund 3,6 Millionen Bahnkunden. Loyalty Partner war für die gesamte Logistik rund um die Bahncard verantwortlich, steuert die involvierten Dienstleister, stellt den technischen Support und sorgt für das Reporting. Das restliche Bahncard-Geschäft verlor Arvato zum 1. März 2007. Offiziell holte die Bahn das Geschäft “auf Grund firmenpolitischer Überlegungen innerhalb der Bahn, um personellen Überkapazitäten von DB Dialog entgegenzuwirken” ins eigene Haus. 

Arvato musste handeln. Wenn sie weiter ein ernstzunehmender Partner bleiben wollten, musste sie ihre eigenen Loyalitäten überdenken. Sie machten das Geschäft im Hintergrund und konnten deshalb eigentlich nicht selber konkurrieren. Wenn aber jetzt selbst die ältesten Kunden den Zug wechselten, musste etwas passieren. Für einen so straff und erfolgreicher geführten Riesen wie Bertelsmann heißt eine Option bei so einem Angriff immer: Copy und Paste, oder Umarmen und Auslöschen. Das galt besonders im Rabattkartengeschäft. 

Umarmen und Auslöschen

Arvato übernahm die InfoscoreGruppe, einen „Full-Service-Anbieter für integriertes Daten-, Informations- und Forderungsmanagement“, für 141 Mio. €. (weniger blumig: den direkten Konkurrenten der Schufa, dem Synonym für Kreditwürdigkeit). Gleichzeitig brachte Arvato die DeutschlandCard an den Start, eine Loyalty-Card mit Multipartnerprogramm (das ist der Teil „Umarmen“ ). Schau an, schau an. Das war naheliegend, weil sie so eine Schwäche nutzen konnten, die das Loyalty-Geschäft mit vielen Partnern quasi strukturell mit sich bringt. (Das ist der Teil „Auslöschen“) 

Die offene Flanke von Loyaltyprogrammen

Das Partnerprogramm eines Loyalty-Kartenanbieters sind die Firmen, die gemeinsam den Kunden die Möglichkeit geben, Punkte zu sammeln. Je mehr Filialen, desto besser, weil der Kunde überall Punkte sammeln und einlösen kann. Da es für den Unternehmer nur mittelbar um die Punkte, sondern mindestens ebenso um die Daten geht, ist das ein sensibler Punkt. Warum? Jeder Partner eines Kartenanbieters kann im Verbund auch bestimmte Daten der anderen Partner sehen. Gerade dadurch ergibt sich ja auf Datenbasis ein vollständigeres Bild des Kunden, als wenn man selber eine Karte nur für die eigenen Kunden herausgibt. Ich weiß dann eben nicht nur, was mein Kunde in meinem Geschäft kauft, sondern auch, was mein Kunde in etlichen anderen Geschäften kauft. Das ist aus Datensicht der große Vorteil gegenüber Kundenkarten einer einzelnen Firma. Gleichzeitig ist das auch eine Einschränkung: Niemand möchte, dass die direkte Konkurrenz ebenfalls am gleichen Programm beteiligt ist, und alles sieht, was man selber richtig macht. Entweder dm oder Rossman. Beides geht nicht innerhalb einer Rabattkarte. Genau hier war PayBack angreifbar.

Also schob Bertelsmann mit der DeutschlandCard seine eigenen Rabattkarte in den Markt, um genau über diese Flanke mindestens die andere Hälfte des Marktes zu gewinnen. Die Kassen waren dafür gut gefüllt. 2006 war das bis dahin wirtschaftlich beste Jahr in der Geschichte des Konzerns.

In der Heimat der Datennutzung 

Für die Partnerfirmen der Kartenprogramme sind die Daten der Nutzer ein wesentlicher Aspekt für ihre Investition in ein Rabattprogramm. Dabei geht es natürlich nicht um Informationen zu einzelnen Menschen. Was Herr Mayer Mittwochs um 18.00 macht, ist den Firmen komplett egal, oder zumindest als Einzelinformation ist das nicht besonders wertvoll. Daten sind wertvoll, weil es jemanden gibt wie Herrn Mayer, auf den ich meine Geschäfte planen kann. Die Daten sind also im Bezug auf ihre Anwendung wertvoll. Nicht per se. Und es geht auch nicht um das Ausspionieren von Herrn Mayer, sondern um die Sicherheit, dass es jemanden gibt, der sich wie Herr Mayer verhalten würde.

Für diese Anwendung in der Geschäftsplanung bedarf es aber noch deutlich mehr Informationen als die bevorzugte Klopapiermarke. Für diese zusätzlichen Informationen gibt es einen Markt für personenbezogene und nicht-personenbezogene Daten. Auf diesem Markt tummeln sich Werbetreibende, E-Commerce-Akteure, stationärer Handel, Politik, Interessenverbänden, Hilfsorganisationen, Marktforscher, Dialogmarketingexperten und Bonitätsauskunfteien, Aggregatoren, Listbrokern, Datenhändlern.

Drei unterschiedliche Datenklassen

Personenbezogene Konsumentendaten, klassische Postadressen und Melderegister sind die Grundlage der Anbieter, die sich auf die Anreicherung der Daten spezialisiert haben. Die Daten über den Kartenscan werden mit Daten verschiedener anderer Quellen zusammenführt. Um zu verstehen, was dazu notwendig ist, müssen wir die verschiedenen Arten von Daten grob auseinander halten. In der Praxis überschneiden sich Bereiche und haben unterschiedliche Ziele. Aber für den Überblick spricht man von diesen drei Gruppen:

First-Party-Daten

First-Party-Daten sind Daten, die ein Unternehmen selber hat. Häufige Datenquelle für First-Party-Daten sind die Kundenmanagement- oder CRM-Systeme, die unter anderem soziodemografische Informationen, Adressdaten und transaktionsbezogene Daten eigener Kunden enthalten könnten. Auf Deutsch heißen diese Daten Stammdaten. 

Second-Party-Daten

Wenn First-Party-Daten oder Stammdaten von verschiedenen Partnern in einem Netzwerk gemeinsam genutzt werden, nennt man das Second-Party-Daten. 

Ein Beispiel für gemeinsame Nutzung personenbezogener Daten ist Miles & More. Hier bündeln 250 Airlines, Hotels, Kreditinstitute, Finanzen und Versicherungen die von Ihnen erhobenen personenbezogenen Daten. Laut Datenschutzbestimmungen von Miles & More akzeptiert der Nutzer die Verwendung der „Stamm- und Programmdaten und die [Auswertung der] bei Nutzung unserer Angebote […] erhobenen Analysedaten […], um [ihm] nur für [ihn] relevante und auf [seine] Interessen zugeschnittene, individualisierte Informationen zukommen zu lassen.“  

Third-Party-Daten

Von Drittanbietern zugekaufte personenbezogene Daten werden als Third-Party-Daten bezeichnet. Achtung, nun wird es wild: Third-Party-Daten werden am Markt bspw. von Adress- und Datenhändlern angeboten, die Daten aus zahlreichen externen Quellen und eigenen Erhebungen zusammenführen. Großen Adress- und Datenanbieter in Deutschland mit personenbezogenen Verbraucherdaten sind z.B. die Schufa Holding, Bertelsmann Printing Group, die Deutsche Post Adress und die SAZ Services AG.

Die SAZ Services AG Leistungen z.B. basieren nach deren Darstellung auf der Datenbank-Plattform smartBASE®, die alle Transaktionen und Beziehungen zwischen einem Unternehmen und seinen Kunden abbildet (360-Grad-Sicht) und bis zu 220 Einzelinformationen pro Adresse zeigt. SAZ ist besonders interessant, weil die Firma einerseits den meisten total unbekannt sein dürfte, andererseits offenbar aber viel genutzt wird. Auf der Referenzliste von SAZ stehen 257 Kunden, neben philantropischen Organisationen wie “Amnesty International”, auch kommerzielle Unternehmen wie PayBack, Infoscore (Arvato) und Axciom und damit gleich drei Konkurrenten am Second-Party-Datenmarkt. SAZ scheint also ziemlich unverzichtbar in diesem Metier.

Die Welt des Datenhandels

Acxiom, eine amerikanische Firma, beschreibt das Geschäft mit den Daten etwas genauer und gibt damit vermutlich auch einen ganz guten Überblick für die anderen Organisationen. 

Acxioms Daten und Dienste basieren auf einer Kombination von Adressen, für die explizite Einwilligungen der Haushalte vorliegen, Businessdatenbanken, einem umfassenden Gebäudeverzeichnis, Informationen zur Aktualisierung und Anreicherung von Datenbeständen, Instrumentarien und Expertisen für analytisches Customer Relationship Management (CRM) und Database-Management im Outsourcing. 

Du kannst umziehen, aber du kannst dich nicht verstecken

Viele der Daten im Bereich Geomarketing stammen aus amtlichen Quellen wie den statistischen Bundes- oder Landesämtern. Diese Daten werden über statistische Verfahren auf granulare Gebiete projiziert. Sie werden so quasi zum Rohstoff für die Planung und Bewertung von Standorten, Vertriebsgebieten, Produkten und Umsätzen. Planungsabteilungen könnten diese Informationen mit internen Kundendaten (Stammdaten oder First-Party-Daten) in Beziehungen setzen, um zum Beispiel ihre Standortplanung zu verbessern.

Wenn man Drittparteidaten hinzufügt, kennt man einen breiteren Kontext der Lebensumstände. Wo jemand ungefähr wohnt, wie die Mieten sich entwickeln und warum jemand vielleicht auch lieber wegzieht. Merkwürdigerweise taucht mit der Post nun der dritte ehemalige Staatskonzern in der Datenwelt auf. Sicher ist das Zufall. (Wohl kaum, ist aber eine anderen Diskussion) 

In Deutschland ziehen täglich rund 22.000 Menschen und Unternehmen um. Entsprechend schnell veralten Stammdaten. Mit dem Produkt “Postadress Move” kann man z.B. Umzugsadressen und Umzugsdaten u.a. aus dem Nachsendeverfahren der Deutschen Post nutzen, um die eigenen Stammdaten gegen die Umzugsdatenbank abzugleichen und aktuell zu halten. Bertelsmann hält eine 49%-Beteiligung an PostAdress. Über PostAdress können Kunden auch Gebäudedaten nutzen. Das sind z.B. Datencluster zu Ein- oder Mehrfamilienhäusern, Baujahre, die Höhe der Kaltmieten oder gewerbliche Gebäudenutzung bis hin zu der Versorgung mit Strom oder Gas und der Eignung von Gebäuden für die Installation von Solaranlagen. 

Die Deutsche Post Direkt GmbH unterhält außerdem eine Datenbank mit Gebäudeadressen. Für interne Analysezwecke der Kunden, zum Adressabgleich oder Aufbau eines Datenbanksystems gibt es hier “adressgenaue” Daten zu rund 20 Millionen “zustellrelevanten” Gebäuden in Deutschland. Ein Datensatz enthält eine Gebäude-ID, Angaben zu Postleitzahl, Ort, Ortsteil, Straßenname und Hausnummer. Mit einem Straßenverzeichnis auf Basis der Original-Postleitdaten der Deutschen Post stehen auch über 1,2 Millionen Straßennamen zur Verfügung. 

Um den geltenden Datenschutzregeln zu entsprechen, fasst die Deutsche Post Daten in Mikrozellen zusammen, die jeweils aus durchschnittlich 6,6 Haushalten bestehen. Eine Mikrozelle ist die kleinste Einheit, die die Anforderungen des Datenschutzes erfüllt. So werden Rückschlüsse auf einzelne Personen verhindert. 

Kleine Zusatzinfo, die irgendwie wichtig ist, die man aber auch überlesen kann.

Zu Acxioms Kunde zählte bis zu den Wahlmanipulationsvorwürfen gegen die Firma “Cambridge Analytica” auch Facebook, das seine eigenen Datenbestände unter anderem mit denen von Acxiom anreicherte, um Werbeanzeigen besser auf die Lebenssituation und Interessen seiner Nutzer zuzuschneiden. Wohlgemerkt, mit Daten, die Facebook selbst nicht aggregieren kann. Dies betrifft vor allem Details über das Offline-Verhalten seiner Nutzer, z.B. geografische Zuordnungen. Acxiom ist wiederum auch ein Kunden der SAZ Services AG, die wir oben kurz erwähnten. Im Netflix-Film über Cambridge Analytics kann man in einem Präsentationsdeck sehen, dass dort auch Acxiom aufgeführt ist. Im Zuge der Vorwürfe gegen Facebook, hat Facebook bekannt gegeben, die Zusammenarbeit mit Acxiom zu beenden.

 

Profile und Datenkombination

Die Wirkung der Datensicht entfaltet sich also bei der Kombination aller drei Datenklassen. Dominik Dommick, Geschäftsführer bei PayBack äußerte sich dazu im Gespräch mit Alexander Graf im Podcast “Kassenzone” so:

“Im Endeffekt geht es ja erstmal damit los, dass man ab einem bestimmten Punkt merkt, dass das Stichwort “Profil” wahrscheinlich das wichtigste ist. Also das heißt jemanden nicht über Kekse-Verteilung (gemeint sind anonyme Cookies, also Webtracking) ungefähr einschätzen zu können, und zu glauben, dass, weil ein anonymes Wesen auf den Automobilbereich irgendeiner Plattform geklickt hat, dass es dann ein Mann ist, was glaube ich nicht zwingend stimmt, sondern das man tatsächlich ein Profil anlegt. Und das haben ja die meisten Online-Händler”…. “der interessante Punkt, der über ein Loyalty-System als nächstes hinzukommt ist, dass dieses Profil eben nicht nur diesen Ausschnitt des Konsumverhaltens bei Händler X kennt. Je größer der Händler ist, desto besser ist natürlich so eine Information d.h. da hat Amazon natürlich mit der Breite des Angebots einen riesen Vorteil. Aber nichtsdestotrotz ist auch das nur der Ausschnitt dessen, was der Kunde eben bei Amazon tut. In dem Moment aber, wo ich das in der Breite verknüpfen kann, sehe ich aber Veränderungen in der Situation des Kunden viel, viel besser. Ich erkenne, ob jemand offensichtlich seinen Wohnort geändert hat, ich erkenne, ob er umgezogen ist, ich erkenne, ob er wahrscheinlich gerade dabei ist Familie zu gründen, ich erkenne, ob sich in seinem Konsumverhalten per se etwas ändert. Und an diesen Punkten ist die Profilanreicherung natürlich viel, viel besser. Was dann passiert, ist, das man in der Selektion, in der Zuordnung des Kunden zu bestimmten Angeboten, viel schärfer sagen kann, jemand ist wahrscheinlich ein guter Kunde für dieses Produkt, oder im Umkehrschluss auch nicht interessiert an X, Y, und Z.”

 

Bedarf treffen: Targeting

Die Kombination der Erst-, Zweit- und Drittparteidaten ergibt das „Targeting“, also die Zuordnung eines Kunden zu einem Angebot. Nach eigenen Angaben hat AZ Direct, ein Unternehmen, das Bertelsmann mittlerweile in der Sparte “Bertelsmann Printing Group” führt, “die größte crossmediale Reichweite Deutschlands” mit rund 68 Millionen Menschen, die über diesen Anbieter erreicht werden. Dazu gehören auch “45 Millionen überschneidungsfreie Mail-Adressen”.. “mit unserem einzigartigen Audience-Targeting-System AZ DIAS verbunden.” Das Audience-Targeting-System AZ DIAS ist eine Informationsdatenbank mit mehr als 41 Millionen Haushalten, 70 Millionen Personen und 21 Millionen Gebäuden und umfangreichen Merkmalsdaten. Über “AZ bridgePool” kann Arvato zusätzlich rund 31 Millionen unique Online-User mit AZ DIAS verbinden. Das Zuordnung funktioniert dann über mehr als 600 anonymisierte Merkmale zur Profilierung.

Ach, speaking of „Überwachungsstaat“: Die deutschen Firmen wie Arvato unterziehen die eigene Behandlung der Daten einer aufwendigen Prüfung, damit sie gewährleisten können, daß keine Datenschutzrechte verletzt werden. Die ist ein gutes Beispiel dafür, dass ein Unternehmen mit der gegenwärtigen Rechtslage in der EU offenbar sehr konkurrenzfähig im weltweiten Wettbewerb arbeiten kann. Also, Puls runterfahren. 

Marktgröße und Preise

Laut einer Studie, die Goldmedia für das Verbraucherschutzministerium 2015 erstellte, erzielten die zehn wichtigsten Adress- und Datenunternehmen im Jahr 2014 einen Gesamtumsatz von rund 450 Mio. Euro. Das Gesamt-Marktvolumen im Bereich des Adress- und Datenhandels in Deutschland wird in der Studie für 2014 mit rund 610 Mio. Euro angegeben. 

Ich glaube die Zahl ist je nachdem, was man berechnet, sehr viel höher. Arvato allein machte im Jahr 2015 nach dem Geschäftsbericht von Bertelsmann 2,2 Milliarden Umsatz, nur in Deutschland. American Express gab im Geschäftsbericht 2011 die zusätzlichen Lizenzeinkünfte durch die Akquisition von Loyalty Partner mit ungefähr 238 Mio. an. Außerdem fehlen ganz offensichtlich zentrale Datenlieferanten  in der Goldmedia-Studie: z.B. die SAZ Services AG. Wenn die besten Anbieter am Markt hier einkaufen gehen, dürfte auch hier einiges hängen bleiben.

Nach der Goldmedia-Studie gab es 2014 zehn Anbieter, mit einem gemeinsamen Marktanteil von rund 65 Prozent. Die Marktteilnehmer haben bis heute wenig geändert. Die wichtigsten Produkte der Auskunfteien im Bereich der Risikoinformation sind die Übermittlung von Bonitätsauskünften und Prognosewerten (z.B. ein Scoring durch Schufa oder Infoscore) Hier gibt es kaum Konkurrenz.

Für die Kunden ist die Nutzung von Daten natürlich nicht kostenlos. Die Preise für die Nutzung von Konsumentendaten lagen 2014 nach der Goldmedia-Studie in diesen Bereichen: 

0,065 – 0,24€ / Adresse: für einfache Haushaltsadressen

0,105 – 1,65€ / Adresse: für Adressen mit Selektionsmerkmalen

0,0075 – 0,01€ / Adresse: für E-Mail-Adressen

0,26 – 1,98€ Adresspflege pro Abgleich

0,005-0,40€ pro angereicherter Adresse bei Datenqualifizierung

0,002-0,01€ pro Kundendatensatz für Verknüpfung von Offline- und Online-Daten.

0,80-7,00€ für Bonitätsauskünfte inkl. Scoring (je nach Übermittlungsart und Abrufmenge) 0,40-0,99€ für automatisiertes Scoring in Echtzeit

Die Zahlen dürften ungefähr zeigen, was qualifizierte Daten heute in etwa wert sind. Wertvoll ist nicht das Wissen zu einer einzelnen Person, zu ihren persönlichen Werten und Überzeugungen. Wertvoll ist der Bezug zum jeweiligen Geschäft. Denn das Ziel ist es, gegen harte Konkurrenz den kaufwilligen Kunden für sich zu gewinnen. Alles andere sind allenfalls mögliche Szenarien (von Theoretikern), die in den letzten 30 Jahren nicht eingetreten sind.

Daten werden nicht verkauft

Häufig wird von Verfechtern einer Einschränkung der Datennutzung (mit gehobenem Zeigefinger und dunkler Stimme) unterstellt, die Datenhändler würde ihre Daten verkaufen. Das ist fast nie der Fall und mit dem „Verkauf“ etwas Unanständiges zu unterstellen, hilft einer ehrlichen Diskussion auch nicht. Wenn wir Thomas Mann vorgeworfen hätte, er habe seinen Roman “Die Buddenbrooks” verkauft, dann wird deutlich, dass ähnlich wie im Urheberrecht, man etwas gegen Geld weitergeben kann, ohne die Eigentumsrechte damit abzugeben. Der Vorwurf, jemand hätte Daten verkauft, trifft einerseit den Kern des Vorgangs nicht, andererseits macht er es einfach, zu behaupten, es würde unsachlich und falsch argumentiert. Man kann die Buddenbrooks kaufen, besitzen und nutzen, ohne das Thomas Mann seine Eigentumsrechte daran verliert. Sogar seine Erben profitieren noch von diesem Eigentumsrecht. Im Falle von Literatur finden die meisten Menschen das ganz in Ordnung. Im Falle der Datennutzung wird das Thema für viele kontrovers. Das könnte auch daran liegen, dass Daten im digitalen Raum zu einem guten Teil quasi nebenbei anfallen. Von den Unternehmen, die die Daten nutzen, werden sie konsequenterweise dann auch wie ein kostenloser Rohstoff verwendet. Dabei könnte es eigentlich selbstverständlich sein, dass wir als Urheber unserer Daten, auch an deren kommerzieller Verwertung beteiligt werden, wenn die Gesetze es erlauben und wenn wir das wollen. Die wenig differenzierte Diskussion hierzulande verhindert die Entwicklung wirtschaftlich interessanter, innovativer Lösungen, die von der Gemeinschaft akzeptiert sind. Aber, genug davon. 

Arvato gewinnt und verliert trotzdem

Schon 2007 betreute Arvato laut Geschäftsbericht mehr als 150 Millionen Endkunden in über 20 Sprachen, verwaltete die Lagerung und Distribution von mehr als 650 Millionen Packstücken, entwickelte und betrieb Anwendungen und IT-Systeme für Kunden, versendete mehr als zwei Milliarden Mailings und führten 200 Millionen (was für ein Alptraum) Telefongespräche.

Langfristig war aber das Rekordjahr 2006 für Arvato, ein Wendepunkt. Nicht etwa weil der Angriff durch den regionalen Konkurrenten PayBack gelang. 2006/7 war das Jahr zweier Revolutionen, die die Karten und das Rabattsystem grundlegend in Frage stellten. 2006/7

Mobil und die Wolke

Amazon startete am 14.März 2006 mit Amazon Web Services (AWS) den ersten Cloud-Computing-Dienst der Welt und machte unbegrenzte Rechnerkapazitäten und standardisierte Anwendungensentwicklung für jeden auf Knopfdruck verfügbar. Nur wenige Monate später stellte Apple mit dem Iphone einen neuen Rechner vor, der das Anwendungsszenario, das Computer bis dahin hatten, weit hinter sich ließ. „mobile“ und „Cloud“ schlichen sich in den deutschen Wortschatz und die Führungsetagen.

2006/7 eröffnete sich ein neues Paradigma für Computing und Computer, bzw. Ansätze, die schon seit langer Zeit diskutiert und versucht wurden, erreichten ihre kommerzielle Marktreife mit ungeahnten Konsequenzen. Hört sich nicht so flockig an wie “Revolution”, soll aber sagen, dass Wunder auch im digitalen Bereich selten sind. Microsofts Mantra: „A Computer on every desk“ war – für jeden sichtbar – obsolet geworden, sowohl für die Hardware, als auch den Bau von Applikationen, und die Verarbeitung der Daten, die Rechenleistung. “A computer”, ja, aber keineswegs nur aufm Schreibtisch. Diese beiden Entwicklungen stellten die Loyalty-Programme rund um die Chipkarten grundlegend in Frage, weil sie sowohl die Infrastruktur als auch das Interface neu definierten

Die technologisch nahezu unangreifbare Position im Kassenscanner an der Supermarktkasse war damit zumindest theoretisch in Frage gestellt, weil jetzt keine unkalkulierbar große Investition mehr notwendig war, um ein neues System mit Scannern und Kassen zu realisieren. Der Chip, der bisher das Funktionieren der Chipkarte sichergestellt hatte, sorgte nun auch im mobile Computer als Sim-Karte für die Identifikation und bekam außerdem einen Bildschirm, diverse Apps im Anwendungslayer und eine permanente Verbindung mit dem Internet für die Rechenleistung. Die Unique Identity auf der Karte war jetzt immer und überall mit dem weltweiten Netz verbunden. Jürgen Drothleff, der Erfinder der Karte, hatte Recht behalten. Die Karte wurde ein Teil von uns.

Mobil und die Kunden

Mobil und Cloud änderten die Spielregeln. Aber obwohl man sich einfach vorstellen kann, dass das Telefon als mobiler Rechner mit verschiedene Applikationen viele Funktionen übernehmen kann, stellt sich für den Handel sehr viel konkreter die Frage, WIE das wohl passieren könnte. Das richtige Timing ist viel entscheidender für den Erfolg, als die “revolutionäre Idee”, oder die bahnbrechende Innovation. Die entscheidende Frage war eher, wie lange es dauern würde, dass sich das neue Interface für den Einkauf durchsetzte. Eins war sicher: gerade die eher gemütlichen Deutschen, nutzen als Kunden nicht plötzlich einfach eine App, weil es so toll ist, wenn sie darin keinen handfesten Vorteil (Geld, Ansehen, Zeit?) erkennen. Kurzer Zwischenstand nach zehn Jahren Entwicklung: Selbst der typische Onlineeinkauf funktionierte bis vor zwei Jahren noch immer zu mehr als der Hälfte über den Desktop. Das Timing ist in der Praxis also bei weitem entscheidender für den Erfolg als die Vision.

Der Untergang lässt auf sich warten

Was die Untergangsapologeten bisher überrascht, (und die Realitätsverweigerer gemütlich bleiben lässt):Der deutsche Handel hält sich zäh. Auch 2018 lag der Anteil des Offline-Handels am Gesamtmarkt immer noch bei 95,3% gemessen am Umsatz. Zwar verlieren die Einkaufszentren ordentlich an den Onlinehandel. Die Folge des technologischen Paradigmenwechsel ist im groben Raster keine exponentielle Kurve, sondern ein stetiger Verlust.

Das die Welt der innerstädtischen Einzelhändler noch nicht ganz verschwunden ist, heißt aber nicht, dass sich die Welt in Wirklichkeit gar nicht verändert hat.

Mobil und die Unternehmen

Die Partnerunternehmen der Loyalty-Programme mussten sich überlegen, ob die Datenhoheit nicht strategisch ein so wichtiges Gut geworden war, dass sie im Unternehmen tief integriert werden musste. Einerseits weil die Daten die Interfaces, die in Zukunft den Umsatz erwirtschaften mussten, direkt steuern würden. Andererseits weil große Verbundsystem, die das Datenhandling für viele gemeinsam erledigen, naturgemäß weniger flexibel waren. Die großen monolythische Systeme wie SAP, Oracle etc. waren für schnelle technologiegetriebene Entwicklungszyklen nie konzipiert. Doch genau solche Zyklen wurden für den Handel jetzt essentiell, weil die Frage eben nicht mehr war, ob die Kunden anders einkaufen würden, sondern wie und wann. Diese Antwort ließ sich nicht im vorhinein geben. Von niemandem. Weshalb ein langfristig auf einen erdachten Endzustand hin geplantes System (wie eine Oracle-SAP-Microsoft-Variante) zunehmend mehr falsch als richtig lag. Die Lernkurve, diese Realität anzuerkennen, zog sich für alle Beteiligten allerdings etwas.

PayBack bleibt eine Karte

Zwischen 2006 und 2010 wurde im Hause PayBack klar, dass die eigene Position im Grund sehr schlecht zu verteidigen war. Die Technologie würde auf absehbare Zeit veralten und war teuer. Andere konnten das Modell mittlerweile im Netz nachbauen. Die Karte war dem neuen Device langfristig weit unterlegen. Man musste sich im Grunde neu erfinden. Erklärtes Ziel war allerdings die Internationalisierung des Geschäfts.

Aus Sicht des Investors Palamon war einen Internationalisierung aber offenbar kein Selbstzweck. Die Investition musste sich auf eine bestimmte Zeit rentieren. 2010 war klar, dass eine eigene Internationalisierung trotz großer Anstrengungen bei PayBack nicht stattfinden würde, und Palamon Capital verkaufte seine Anteile für rund 500 Mio. Euro an den American Express-Konzern. 400 Mio. in 5 Jahren ist nicht schlecht für 120 Mio. Investment. PayBack wurde zu einem weiteren Lieferanten von Daten in der schon jetzt nicht ganz kleinen Kartenwelt des Kreditkartenanbieters. Und die Kombination von Rabatt- und Kreditkarte wies einen Weg in die Zukunft, der heute fast ein Standard ist, weil damit beide Schritte im Bezahlvorgang vereint sind. 

Arvato dominierte weiter das B2B-Geschäft

Arvato hatte gewonnen. Sichtbares Zeichen des Erfolgs von Arvato war die Zusammenarbeit mit dem Metro-Unternehmen “Real”. Metro war als Mitbegründer von PayBack jetzt mit der wichtigen Infrastrukturfragen bei der Konkurrenz gelandet. Für den  „Real“-Online-Shop lieferte Arvato E-Commerce-Services von der Gestaltung des E-Shops auf Basis von SAP hybris, über Kundenservice, Logistik und Transport bis hin zu Order-, Risiko- und Debitorenmanagement einschließlich der gesamten Zahlungsabwicklung. Ab 2012 organisierte Arvato auch das Zusammenführen der digitalen Plattformen des stationären Handels und des Onlineshops. Real und Arvato verlängerten 2014 sogar noch einmal die Verträge bis 2017. 

Der Wandel zieht an

Die großen Partner der Loyaltyprogramme erkannten aber in dieser Zeit, dass es für sie grundlegend war, die neuen Technologien selber zu beherrschen. Vor allem wurde es wirtschaftlich attraktiv wesentliche Technologien auf Cloud-Systemen selbst zu entwickeln, anstatt monolitische (teure) Alleskönner wie SAP oder Oracle zu kaufen und auf die eigenen Bedürfnisse anzupassen. Die Konsequenz: 2014 trennte sich die Lufthansa mit 5 Jahren Vorlauf vom Dienstleister Arvato, damit war “Miles and More” futsch. Die Nordwestzeitung berichtete:

Der Kommunikationsdienstleister Arvato(Gütersloh) verliert mit dem Lufthansa-Treueprogramm „Miles & More“ einen wichtigen Kunden. Wie die Bertelsmann-Tochter am Mittwoch auf Anfrage dieser Zeitung mitteilte, will die Tourismus-Gesellschaft ab Januar 2019 die Zusammenarbeit mit Arvato CRM Solutions beenden und das Kundengeschäft entweder selbst übernehmen oder anderweitig vergeben. Nach Arvato-Angaben sind von der Entscheidung auch mehr als 90 Mitarbeiter am Standort Roffhausen (Schortens) betroffen. Insgesamt beschäftigt Arvato an dem Standort rund 1000 Mitarbeiter.

Lufthansa ging mit dem Geschäft schließlich zu Bosch Service Solutions, einem Anbieter für Business Process Outsourcing, der bei der Optimierung in den Bereichen Customer Experience, Mobility, Monitoring, Business Services und Shared Services aktiv ist, aber wohl eher Technologie-Partner als Full-Service-Anbieter ist. 

Und jetzt?

Die Lernkurve unseres Beispiels Metro-Gruppe ging stetig weiter. 2016, als der auslaufende Vertrag mit Arvato absehbar war, kauft Real den Marktplatzbetreiber „Hitmeister“ und setzt ab 2017 auf die dort selbst entwickelte Technologie aus dem eigenen Haus. Die Real-Marktplatz-Plattform wird intern als großer Erfolg gewertet. So erfolgreich, dass die Konzernmutter Metro jetzt mit dem Metro-Marktplatz eine eigene Ausgründung im Plattformmarkt ins Rennen schickt – gemacht und aufgebaut auf den Erfahrungen aus dem real-Vorgehen: Ausgründung, eigene Technologie, Know-How im eigenen Haus. Wer ernsthaft in der digitalen Welt mitspielen will, hat offenbar dazu kaum eine Alternative, wenn die Interfaces unmittelbar Geschäft machen müssen. Und das ist im Wesentlichen die Folge des Jahres 2006/7. 

Mit der Metro konzentriert sich heute damit – nach der Lufthansa – auch das zweite Gründungsmitglieder der PayBack-Karte auf die Schlüsselkompetenzen im eigenen Unternehmen, um konkurrenzfähig zu bleiben. Die beiden Loyalty-Konkurrenten agieren natürlich weiter erfolgreich am Markt. Wandel geht langsam, Revolutionen sind selten. 

So stehen die etablierten Loyaltyanbieter vor nicht ganz einfachen Zeiten. Aber, wie wir hoffentlich an der Geschichte der kleinen Karten zeigen konnten, die Handelsunternehmen hierzulande sind schon lange im Geschäft und dabei kreativ und erfolgreich, auch in einer digital-getriebenen Wirtschaft. Heute hat z.B. Arvato 70.000 Mitarbeiter in mehr als 40 Ländern, die für Geschäftskunden Lösungen für unterschiedlichste Geschäftsprozesse entlang integrierter Dienstleistungsketten abwickeln. Eine Krise sieht anders aus. Bertelsmann hat 2019 den Angriff auf den afrikanischen Markt gestartet, mit einer Kooperation mit der marokkanischen Saham-Gruppe. 

Für viele deutsche Handelskonzerne war die Rabattkarte mit der Infrastruktur dahinter die Eintrittskarte in die Welt der Daten. Was man 1995 noch für einen Nebenschauplatz halten konnte, ist heute über Datenhaltung, Datenanalyse und Lieferkettenintegration zu einer unternehmerischen Kernkompetenz gewachsen. Der Rohstoff Kundendaten wird aber nicht auf Dauer so günstig bleiben, entweder durch reglementierende Einschränkungen aus einer unvermindert starken Datenschutzsicht, oder durch die wirkliche Beteiligung der Datengeber an der Wertschöpfung mit ihren Daten.

(Disclaimer, damit keiner auf falsche Gedanken kommt und um Missverständnissen vorzubeugen: Wir schreiben unsere Texte aus privatem Interesse in unserer Freizeit und nutzen ausschließlich öffentlich zugängliche Informationen. Schön, dass wir das mal klarstellen konnten, und jetzt los; weitererzählen, wenn ihr Spaß hattet.)

Moravec’sches Paradox: Verlierst du deinen Job?

Es gibt kein größeres Hype-Thema als künstliche Intelligenz. Wenn man in den letzten 4 Jahren nicht durchgängig geschlafen oder Netflix durchgespielt hat, wird man mindestens zweitausend Mal einem Artikel zu AI, Machine Learning oder Deep Learning begegnet sein. Kontextualisiert werden diese Themen oft mit der Frage: “Verlieren Sie bald Ihren Job?” Und die allgemeine Antwort lautet, besonders für einfachere Berufe, oft: “Ja”.

Doch ein Forschungsergebnis aus den Achtzigerjahren zeigt: So einfach ist das alles nicht. Und am Ende könnte genau eine Gruppe einen sicheren Arbeitsplatz haben – Menschen mit “einfachen” Berufen.

Photo by Franck V. on Unsplash

68 Jahre für einen Friseurtermin

Intelligent sind die Facebook-Algorithmen, unsere Autos und die NSA. Microsoft ist auch intelligent, genauso wie Amazon‘s Kaufvorschläge und dieser Computer, der jemanden in „Go“ geschlagen hat. Und was ist intelligent, wenn nicht Google! Deren Sprachassistent kann jetzt sogar telefonisch Termine im Friseursalon vereinbaren.

Doch künstliche Intelligenz ist keineswegs ein hippes Trendthema der letzten Jahre. Je nachdem wo man nachliest wird der Beginn der Forschung einem sechswöchigen Workshop der Rockefeller-Stiftung im Jahr 1954 (ultra-mysteriös) oder eben Alan Turing und seinem weltbekannten Turing-Test um 1950 zugeschrieben. Mehr als 60 Jahre Forschung also, bis ein Computer eigenständig beim Friseur anrufen kann -Wow!

Was AI kann und was nicht

Wenn man die Ironie einmal beiseite lässt, findet man tatsächlich eine Vielzahl von Errungenschaft künstlicher Intelligenz, die dann doch etwas höher ansetzen, als die Terminvereinbarung per Telefon: 2017 hat ein Algorithmus beispielsweise einen Planeten in einem 2500 Lichtjahre entfernten Sonnensystem entdeckt. Im gleichen Jahr hat Google eine künstliche Intelligenz entwickelt, die künstliche Intelligenzen programmieren kann. Und natürlich sind da noch Bob und Alice, Facebook Chatbots, die sich erst gegenseitig belogen und dann ihre eigene Sprache erfanden.

Wenn man die Gesamtheit aller von einer künstlichen Intelligenz bewältigten Probleme zusammenfassend beschreiben müsste, könnte das in etwa so aussehen: “Ui, dafür hätte ich als Mensch echt lange gebraucht.” Und der Grund dafür ist das Moravecsche Paradox.

Maschine macht, was Mensch nicht kann

Moravecs Paradox wurde in den Achtzigerjahren von Hans P. Moravec definiert (überraschend, nicht wahr). Einem Mann aus Österreich, der im Alter von 10 Jahren seinen ersten eigenen Roboter konstruierte und zur Masterarbeit eine Art fremdgesteuerten Katzenroboter mit Schnurrhaaren einreichte.

Im Wesentlichen kann das Paradox so beschrieben werden:  Künstliche Intelligenz kann besonders solche Dinge schnell lernen und übernehmen, die Menschen sehr schwer fallen, wie z.B. abstrakte Muster erkennen oder mathematische Berechnungen durchführen.

Gleichzeitig würde es Maschinen sehr schwer fallen Dinge zu tun, die für ein Kleinkind selbstverständlich sind, wie einen anderen Menschen und seine Absichten zu erkennen, sich frei im Raum zu bewegen oder sich auf interessante Vorgänge in der näheren Umgebung zu konzentrieren.

Als Beleg gibt es hier ein Video, dass den laufenden Roboter “Atlas” von Boston Dynamic zeigt: https://www.youtube.com/watch?v=vjSohj-Iclc
Das ist das Non-Plus-Ultra der aktuellen Forschung zum Thema Motorik. Und schon wirkt der Friseurtermin wieder imposant.

Ich sehe was, was du nicht siehst

Als weiteren Beleg zu der These, dass AI keine für Menschen einfachen Dingen lernen kann, gibt es auf Wikipedia eine schöne Kategorisierung des aktuellen Fortschritts künstlicher Intelligenz. Während die Kategorien “Optimal” und “Super-Human” mit Spielen die abstraktes Denken erfordern gefüllt sind (Schach, Rubik’s Cube und offensichtlich Go. Ernsthaft, kennt ihr jemanden der Go spielt?) lesen sich die Einträge in der Kategorie “Sub-Human”, also “schlechter als Mensch” wie die To-Do-Liste eines Neugeborenen: Objekterkennung, Gesichtserkennung, Stimmerkennung, Laufen.

Die Begründung für dieses Paradox ist verblüffend wie einleuchtend: Wir unterschätzen die uns angeborenen Fähigkeiten massiv. Tatsächlich sind die oben genannten Skills nämlich keine einfache Aufgabe, sondern die Tatsache, dass wir diese fast von Geburt an beherrschen das Ergebnis von Jahrtausenden an Evolution und damit Optimierung. Oder wie Moravec selbst es beschreibt:

Wir alle sind wunderbare Olympioniken im Wahrnehmungs- und Bewegungsbereich, so gut, dass wir das Schwierige einfach aussehen lassen können. Abstraktes Denken ist jedoch ein neuer Trick, vielleicht weniger als 100.000 Jahre alt. Wir haben es noch nicht gemeistert. Es ist nicht alles so schwierig, es scheint nur so, wenn wir es tun.

Hans P. Moravec

“Nein, DU verlierst deinen Job”

Mit dem Wissen, dass es besonders die für Menschen einfach und selbstverständlich erscheinenden Prozesse sind, die Maschinen und ihre Entwickler vor große Herausforderungen stellen, ist es umso erstaunlicher, dass der allgemeine Konsens zur Zukunft der Arbeit eher dahin geht, dass besonders einfache Arbeiten früh ersetzt werden könnten.

Thomas Erwin von der Wirtschaftsprüfungsgesellschaft KPMG sagt in der hausinternen Talk-Sendung klardenker live beispielsweise: “Wenn ich genau beschreiben kann, was ich tue, um Geld zu verdienen, dann habe ich gute Chancen innerhalb der nächsten fünf bis zehn Jahre meinen Job zu verlieren.” (ab 33:00: https://videostream.kpmg.de/kpmg-klardenker-live-zukunft-der-arbeit) Auf der Website willrobotstakemyjob.com (ein grandioses Stück Internet) ist der Beruf “Koch” mit 96% Wahrscheinlichkeit vom Aussterben bedroht.

Ich halte es für wesentlich wahrscheinlicher, dass eine Software alle Unternehmens- und Branchendaten so akurat analysiert, dass Sie mir bessere Entscheidungsgrundlagen liefern kann, als ein Unternehmensberater, als dass eine Maschine bei meinem Lieblingsitaliener die Amatriciana-Sauce anrichtet. Oder dass der Roboter aus dem Boston Dynamics-Video bei uns die Briefe zustellt (obwohl das wirklich wirklich witzig aussehen würde).

Eine arbeitslose Welt

Letztlich glaube ich, dass die meisten Berufe früher oder später von Maschinen ausgeführt werden könnten. Die Frage ist nur: Wen trifft es zuerst? Und mit Moravecs Paradox im Hinterkopf, ist die Antwort darauf wohl eher nicht “Koch” oder “Gärtner”, sondern vielmehr “Data Analyst”, “Marketing Manager” oder “Unternehmensberater”.

Und dann bleibt natürlich noch eine finale Frage: Wie schlimm ist das eigentlich – eine Welt ohne Arbeit?

XING – das asoziale Netzwerk

XING ist 2018 der Liebling der Tech-Investoren. In diesem Text finden wir heraus, warum das User Interface mehr über den Zustand eines Business sagt, als der Börsenkurs und warum das ein Problem für XING ist.

Julieann Ragojo @ unsplash.com

Scrollen sie bitte rechts ran

Nichtsahnend lag ich vor einigen Wochen auf meiner Couch und installierte Updates auf meinem iPhone. Als mir im AppStore umfangreiche Neuerungen in der XING-App angekündigt wurden, konnte ich nicht widerstehen und öffnete die Anwendung (Ein großes Update hatte diese App wirklich nötig). Was mir dort begegnete ließ mich jedoch mit an Fassungslosigkeit grenzender Verwunderung zurück (kläglicher Click-Bait-Versuch à la Futuccino): Die App zeigte nicht mehr eine vertikale Timeline mit Informationen von und über meine Kontakte, sondern eine Art Karteikartensystem in drei Reihen übereinander: erste Reihe Kontakte, zweite Reihe News-Quellen, dritte Reihe HR-Geschichten. Statt wie bisher das an Facebook orientierte „Newsfeed“-Format zu nutzen und alles untereinander zu zeigen, hatte XING sich dazu entschieden, die Nutzer für neue Informationen seitlich scrollen zu lassen. XING nennt die horizontale Navigation „swipen“, was leider nicht stimmt. Ein Freund von einem Freund hat mir mal erzählt, dass man das bei Tinder auch machen muss. Aber in einem Business Netzwerk? Was erlaube XING?

Nachdem Marvin seine Fassungslosigkeit mühsam überwunden hatte und wieder sprechen konnte, haben wir uns daran gemacht, zu verstehen, warum ein so routinierter digitaler Player wie XING dort so grandios scheitern kann, wo er doch eigentlich seine große Stärke haben sollte?

Wer mit XING einmal im Marketing-Umfeld zu tun hatte, weiß, dass das Unternehmen sich eher schwer tut, die App zu monetarisieren und beispielsweise mit gesponserten Inhalten Geld zu verdienen. Bei XING Follower für eine sog. Business Page (das ist quasi das Pendant zu Unternehmensseiten auf anderen Netzwerken, jedoch vollkommen losgelöst vom Employer Branding-Profil. Logisch, oder?) zu gewinnen, ist eine Qual (Die Werbeanzeigen für diese Business Pages, haben keinen Like-Button für die Business Page. Logisch, oder?).

Im Service arbeitet ein blickdichter Dschungel aus Abteilungen an viel zu vielen Ecken vollkommen autark voneinander an einem Produkt, das maximal mittelmäßig ist. Wer in Schlangenlinien durch das digitale Universum kreuzt, muss sich nicht wundern. Polizeikontrolle! Bitte rechts ran scrollen! Wachtmeister Futuccino. Haben Sie getrunken?

Es war einmal… Von OpenBC zu XING

Im Jahr 2003 (ziemlich genau fünf Monate nach dem Launch von Linkedin – Die haben bestimmt nicht abgeguckt…) als Ein-Mann-Firma von Lars Hinrichs mit vier externen Programmierern gestartet, beschäftigte OpenBC drei Jahre später rund 50 Mitarbeiter in Hamburg. Damals zählte die „Social-Networking-Site“ nach eigenen Angaben bereits rund 1,5 Millionen Nutzer. 2005 sichert sich OpenBC 5,7 Millionen Euro Risikokapital.

2006 setzt die „Business-Networking-Community“ (das klingt ja schon viel besser als „Social Networking“) OpenBC dann zum internationalen Sprung an. Ein neuer Name sollte „kürzer, internationaler“ werden, so Hinrichs damals. XING war geboren.

(Exkurs: Wenn Sie XING bisher so gelesen haben, dass es sich auf „Ding“ reimt, haben wir etwas gemeinsam. Wahlweise hab ich auch schon Tsching gehört, also so eine Art Pseudo-Asiatische Interpretation, oder,  jetzt kommt’s: Cross-ing. Wie eine Kreuzung, wo man sich trifft, oder so. Mit diesem genialen Einfall ging vermutlich die Hälfte des Risikokapitals an eine Namensfindungsagentur).

Das Ziel der Umbenennung: die Eroberung internationaler Märkte.

Oh wie schön ist…. Paderborn.

Bis zum Oberdeck mit Ambitionen beladen ging es in internationale Gewässer. Was folgte, war… Gegenwind. Kaum hatten die Hamburger die Elbmündung verlassen, wurde es unangenehm – nichts klappte (Genug der Schiffsmetaphern). 2009 trat Gründer Hinrichs ab und der Medienriese Burda zahlte 48 Millionen Euro für das Netzwerk mit zahlenden Nutzern, aber ohne Perspektive.

Warum ohne Perspektive? Weil das Zauberwort für werbefinanzierte Netzwerke “Skalieren” ist, also so schnell wie möglich so viele Nutzer wie möglich zu gewinnen. Denn in einem digitalen Markt, der so stark umkämpft ist, gewinnt am Ende der, der die meisten Nutzer hat. Der Netzwerkeffekt führt auf Dauer zu einem Alles-oder-Nichts-Wettbewerb. Wenn XING die Internationalisierung nicht schaffte, war es eine Frage der Zeit, bis  Netzwerkgigant LinkedIn den direkten Kampf um die Marktanteile im deutschsprachigen Heimatmarkt aufnehmen würde. Der Ausgang war vermeintlich klar.

Im Dezember 2010 erwarb XING die amiando AG, eine Firma aus München, die sich als Europas führender Anbieter für online Eventmanagement und Ticketing positioniert sah. Das Mitgliederwachstum von XING ist damals nur im Heimatmarkt wirklich gut – Rückzug aus Spanien und der Türkei 2011. Konzentration auf Deutschland. Internationalisierung adé. Erzfeind LinkedIn gelingt die Internationalisierung. Sie lassen die 90-Mio-User-Marke hinter sich. Was blieb, war der spürbare Zwiespalt zwischen „großer weiter Welt“ und deutschsprachiger Berufsnetzwerk-Realität: XING blieb XING, der Name mit dem geheimen Sinn, den keiner kapiert. Es war auch klar, dass XING nicht gewinnen konnte, erst recht nicht, wenn es mit demselben Produkt antrat wie LinkedIn. XING musste handeln.

Re-Organisation aka Pivot

2013 übernahm Dr. Thomas Vollmöller die Führung. Der Ex-Finanzvorstand von Tchibo sollte den röhrenden Digi-Platzhirsch auf neuen Kurs bringen und nahm dafür seinen Weggefährten Timm Richter gleich mit. Bei Tchibo war Richter der Bereichsleiter Innovationen und Dienstleistungen, beide kannten sich aber wohl schon aus ihrer gemeinsamen Zeit beim Strategieberater McKinsey. Vollmöller machte Richter zum obersten Produktoffizier, CPO.

Im Geschäftsbericht 2013 wird ein neuer Kurs angekündigt. Wenn man dabei Jeff Bezos Ratschlag, Strategie auf Unveränderlichkeiten zu fußen, im Kopf hat, ist das schon interessant:

“Die sich verändernde Arbeitswelt, Fachkräftemangel, Digitalisierung, Transparenz und Wertewandel – all diese Begriffe prägen die öffentliche Diskussion in Deutschland. Niemand weiß dabei genau, was diese Veränderungen für das eigene Arbeitsleben bedeuten. Hier setzt die Vision von XING an: „For a better working life“. XING positioniert sich als Partner seiner Mitglieder und will einen wichtigen Beitrag dazu leisten, die Arbeitswelt seiner Mitglieder zum Besseren zu wandeln. Die Mission „Enable Professionals to grow“ betont, dass es uns darum geht, dem einzelnen Mitglied zu helfen, sich beruflich zu verwirklichen und die sich ihm bietenden Chancen zu ergreifen.”

Wow. Keiner weiß wohin, aber wir sind dabei. Im Startup-Jargon heißt ein radikaler Strategiewechsel pivot, vom Englischen Wort für Kehrtwende, Drehung. XING sollte sich von einer B2C-Werbe- und Abonnentenplattform (Endkundengeschäft) zu einer B2B-Recruiting Plattform (Geschäft von Unternehmen zu Unternehmen) wandeln. Schließlich haben HR-Abteilungen gleich mit mehreren Problemen zu kämpfen: Geburtenschwache Jahrgänge, kaum Fachkräfte, Digitalisierung des Bewerbungsablaufs. XING hatte die Leute, die das alles betraf: Die Bewerber.

Eigentlich sehr schlau, denn B2B-Märkte wandeln sich langsamer als Konsumentenmärkte und erfordern in Deutschland ganz sicher eine echte Verwurzelung im Heimatmarkt. Und: Recruiting passiert ganz selten weltweit, sondern eigentlich immer regional. Das kann XING also auf lange Sicht viel besser als LinkedIn. Theoretisch.

Das Problem: Auf dem Papier hört sich das super an. Im wirklichen Leben sind dafür aber glückliche Nutzer des Netzwerks notwendig. Und die bleiben nicht aus Mangel an Alternativen, sondern weil die App ein tolles Produkt ist. Auch ein B2B2C-Markt funktioniert nicht ohne Kunden. Ups.

Man muss sich einmal vor Augen führen was XING hier versucht. Sie müssen sich irgendwie anders positionieren, ohne ihre treuen, zahlenden Kunden zu vergraulen und trotzdem Differenzierung zu LinkedIn schaffen. Pivotieren geht vielleicht mit einer kleinen fokussierten Startup-Mannschaft. Aber mit einem zehn Jahre alten, börsennotierten Unternehmen ist das unglaublich schwierig, weil es die Grundwerte der Organisation verändern muss, gleichzeitig aber ein laufendes Business nicht vernachlässigen darf. Facebooks Kehrtwende zu Mobile ist eins der wenigen Beispiel, wo das von innen heraus geklappt hat, naja, plus Whatsapp-Kauf und Insta-Akquise. Amazon Telefon: gescheitert, Microsoft Telefon: gescheitert, Google Social Network: gescheitert.

Shopping statt “Dschäintsch”

XING entscheidet sich deshalb für die Veränderung von außen. Vollmöller ging auf eine wohldosierte Einkaufstour. Mit dem Kauf des deutschsprachigen Arbeitgeberbewertungsportals kununu im Jahr 2013 versuchte er die Position im Bereich Social Recruiting zu stärken und gleichzeitig keine deutschsprachige Konkurrenz aufkommen zu lassen.

Anfang 2015 übernahm XING zudem die Intelligence Competence Center AG und damit Jobbörse.com. Mit über 2,5 Mio. Anzeigen eine große Jobsuchmaschine im deutschsprachigen Raum. 2016 kam BuddyBroker mit ihrem Produkt eqipia dazu, 2017 wird das Bewerbermanagementsystem Prescreen und das Expatriat-Netzwerk (Expatriates = Menschen, die vorübergehend im Ausland arbeiten) InterNations Teil von XING.
Wandel und Marktsicherung per Einkauf. Kann das gut gehen?

Wenn Akquisitionen verdecken, dass das organische Wachstum und die technologische Entwicklung einer Firma nicht ausreicht, bleibt das Hauptproblem bestehen: Innovationsmangel. Außerdem stellt sich die prognostizierte Synergie (1+1=3) wirklich selten ein. Das Unternehmen wird auf dem Papier einfach größer.
Und hier endet unser kleiner Ausflug in die digitale Vergangenheit und die gegenwärtigen Probleme von XING beginnen.

“Kaufe und Integriere” – das Mantra der Post-Moderne

Klar kaufen alle digitalen Riesen laufend irgendwas dazu, aber ganz selten sind Akquisitionen der Haupttreiber für einen kompletten Umbau des Geschäftsmodells. Außerdem stellt sich immer die Frage, ob und wie eine Neuanschaffung integriert werden kann (Ihr kennt das vom neuen Sessel im Wohnzimmer). Bei digitalen Geschäften entsteht aber erst durch die Integration ein nachhaltiger Mehrwert (anders als beim Sessel). Gleichzeitig ist diese Integration auf vielen Ebenen schwer und scheitert häufig – Ein Teufelskreis.

Wie sollte XING sich wandeln, wenn sich die Treiber des Wandels (die Akquisitionen) nicht integrieren lassen?

Ein digitales Business besteht aus Technologie und Produktlogiken: Bei Zukäufen bedeutet eine wirkliche Integration, das viele technische und logische Details, die kaum zueinander passen, miteinander verbunden werden müssen. Entwickler verschiedener Teams nutzen vollkommen heterogene Ansätze und Technologien und ein jeweils vollkommen anderes Produktverständnis treibt die Entwicklung. Im Geschäftsbericht und in den Zahlen sehen Zukäufe vielleicht gut aus, auf technologischer Ebene braucht es eine Mannschaft aus fanatischen Technik-Genies, Zeit und eine charismatische Führung, das hinzukriegen. Alles drei ist per Definition knapp, nicht nur bei XING.

Hinten nicht, und vorne auch nicht

Und wir? Die Nutzer des Frontends der App? Die Zukäufe sollten eigentlich das Leistungsspektrum der App größer machen und damit den Nutzen und Wert für die XING-Mitglieder steigern. Man sollte also meinen, dass gerade die zahlenden Nutzer von XING begeistert waren mit all den neuen Möglichkeiten und Services. Toll.

Ist aber nicht so: Die Abonnentenbasis wächst im Verhältnis deutlich langsamer als die Gruppe der Nutzer. Immer weniger XING-Kunden zahlen für den Service.

XING verdient sein Geld hauptsächlich mit kostenpflichtigen Mitgliedschaften. Aber das Geschäft läuft nicht gut. 2013 machten die zahlenden Nutzer noch fast ein Siebtel aller Nutzer aus, 2017 aber nur noch ein Dreizehntel. XING verkündet also laufend irgendwelche Nutzerrekorde, aber die wirklich wichtige Gruppe wächst viel langsamer als die Nutzergruppe insgesamt.

Zahlende Nutzer sind eine tolle Vergleichsgruppe, weil sie eben nicht nur ihre Aufmerksamkeit mitbringen, sondern Geld. Gleichzeitig hat man einen klaren Fokus für die Entwicklung der App. Die Bedeutung dieser Gruppe ist enorm. Zwar haben die Zukäufe der letzten Jahre den Anteil am Gesamtumsatz zurückgehen lassen. Trotzdem kommt immer noch die Hälfte des Umsatzes über die Zahler.

Das ist umso besorgniserregender, wenn man sich klar macht, welchen Anteil diese zahlenden Nutzer am Gesamtumsatz haben und dass die App durch die Zukäufe ja gerade die Bedürfnisse dieser besten (zahlenden) Kunden treffen sollte.

Hier sieht man die Zwickmühle: Umbau in ein B2B-Business – da zahlen am Ende nicht die Nutzer. Ist also total in Ordnung, das weniger Leute Abos machen. Aber, auch wenn am Ende Recruiting-Abteilungen von Unternehmen die Zeche zahlen sollen, ohne zufriedene Nutzer gibt es nichts zu verkaufen. Am Ende verkauft XING weiterhin die Aufmerksamkeit der Nutzer.

Der Kontakt gibt dem Inhalt Bedeutung

In der weltweiten Meldungssoße namens Internet ist eine gute Selektion der Schlüssel zur Aufmerksamkeit des Nutzers. Entweder macht Google die Vorauswahl, wenn ich etwas in die Suchbox eintippe und dann auf den ersten Eintrag klicke, oder eben das soziale Netzwerk, indem es mir Inhalte zeigt, die meine Kontakte gut fanden, geteilt oder kommentiert haben. Probleme bekommt man nur, wenn niemand liked, teilt und kommentiert. Dann ist das Netzwerk nämlich nicht social, sondern „asozial“. Wie gut ist eigentlich das User Engagement bei XING.

Digitale Produkte messen ihren Erfolg häufig in MAUs (monthly active users) oder DAUs (daily active users). Nach der Phase mit exponentiellem Wachstum, wo es nur um den Zugewinn neuer Nutzer geht, ist nämlich entscheidend, dass die Nutzer die App auch verwenden. “Engagement” wird dann entscheidend, wenn sich die Kundenakquisition verlangsamt.

Im deutschen Markt ist das relativ schnell der Fall. XING hat mehr oder weniger seit Jahren schon alle profitablen User, die es im Markt gibt. Ein gesundes digitales Business müsste also mit einem ebenso gesundem Engagement angeben können. Macht XING aber nicht, oder kann XING eben nicht.  

Stattdessen sahen die Hamburger im letzten Geschäftsjahr die Notwendigkeit ihr Marketingbudget gleich um 50% aufzustocken – und werden damit zum Sucher der Reichweite, die sie ja eigentlich verkaufen wollen. Außerdem schlägt sich das Marketingbudget in einer anderen wichtigen Kennzahl nieder (die XING ebenfalls nicht veröffentlicht), den CAC, oder Customer Acquisition Costs. Was kostet ein neuer Nutzer die Firma? Wenn man für einen neuen Nutzer viel ausgeben muss, sinkt auf Dauer die Profitabilität, wenn nicht gleichzeitig der LTV (Lifetime Value) eines Kunden steigt, also das, was ich an einem Kunden, über den Zeitraum, den er meine Anwendung nutzt, verdiene (CAC zu LTV ratio). All das lässt sich in digitalen Produkten sehr gut messen und sollte im besten Fall die Produktinnovationszyklen direkt auslösen.

Ach ja, Produktinnovation. Zurück zum Interface.

Im Angesicht des Chaos

Engagement führt in sozialen Netzwerken zu Relevanz. Die Interaktion meiner Kontakte mit einem bestimmten Inhalt  (“Peter und vier anderen gefällt dieses Katzenvideo – schaue es dir an”) hilft mir schnell gute Inhalte schnell zu finden. Unabhängig davon, ob ich das Video jetzt wirklich gut finde (wahrscheinlich schon, klingt super).

XING entledigt sich im neuen Interface komplett von der Vorstellung, der Begriff “Netzwerk” könnte etwas mit interpersonellem Austausch zu tun haben. In der Reihe “Kontakte” wird mir eigentlich nur angezeigt welcher Kontakt jetzt mit welchen anderen Menschen ebenfalls Kontakt aufgenommen hat. Ab und zu teilt jemand einen kommentarlosen Link. Irrelevanter kann eine Information nicht sein.

In der zweiten Reihe werden Links von News-Quellen, die mir offensichtlich gefallen, mit Werbung verzweifelter Community-Manager in Gruppen, denen ich offensichtlich beigetreten bin, gemischt. In der letzten Reihe sieht man einfach nur Stellenanzeigen von minderer Qualität (ja, könnte an mir liegen, hab ich aber auch schon von vielen anderen gehört).

XING zeigt mir all das, ungefiltert und gleichberechtigt, denn die horizontale Anordnung suggeriert auch, dass die Informationen alle gleich wichtig sind. Anders als im horizontalen Newsfeed, wo oben immer das neueste oder relevanteste steht.

Durch die Änderung des mobilen User Interfaces ist die Irrelevanz des auf XING vorhandenen Contents noch offensichtlicher geworden: Jedes Mal, wenn ich erst 20 bis 30 fremde Gesichter nach links rausscrollen muss oder 10-15 Posts von irgendwelchen Gruppen, die nur dem Austausch von Werbung dienen, ignorieren muss, stelle ich fest: „Hier stimmt was nicht. Das ist doch alles Schrott.“

Ich kann keine relevante Informationen finden (und zugegebenermaßen war das vor dem Update schon schwierig genug). Entweder misst XING die Kennzahlen und kommt zu dem Ergebnis: du bist nicht wichtig. Oder sie messen nicht. Beides irgendwie doof…

XING Inside Out

XING präsentiert uns drei gleichberechtigte Unternehmensziele mit ihrem mobilen Interface: Nutzer (Kontakte), Themen (Newsquellen) und Bewerbungszeug (Karriere). Aber anstatt eine einzige organische Journey für die wesentlichen Dinge in eine einheitliche Oberfläche zu packen(und das für jeden einzelnen User) zerfällt das Interface in eine wenig elegante Dreiteilung. Das ist leider keine Geschmackssache, sondern zeigt, dass in Zeiten von Personalisierung und dynamischen, in Echtzeit datengetriebenen Interfaces die Technik von XING total veraltet ist. Die Gründe dafür haben wir oben schon besprochen: Wandel durch Akquisition, kaum technische Integration, keine organische Innovation.

Wer noch Zweifel hat, schaue sich einmal die Konzern- und Organisationsstruktur an: Voilá. Lauter kleine Königreiche.

Auch XING scheint nicht mehr so ganz überzeugt von der Neugestaltung der App. Vielleicht ist es etwas überinterpretiert, aber der Initiator des neuen Interfaces, Timm Richter, ist mittlerweile nicht mehr CPO. Er hat sich offenbar kurzfristig entschlossen ein Startup zu gründen. Sein Nachfolger, XING Produkt-Vorstand Dr. Patrick Alberts, versteht in der Zwischenzeit auf der XING-Investorenwebsite das Problem nicht: „All unsere Aktivitäten in der digitalen Produktentwicklung sind konsequent am Nutzen für unsere Kunden ausgerichtet.“
Na dann.

Zusammenfassung und Ausblick

Bisher konnte sich XING sich mit einem „gut-genug“-Produkt im Markt behaupten. Die Skalenvorteile im sprachlich begründeten, regionalen DACH-Markt gegenüber dem Angreifer Linkedin, machten es dem 500-Millionen-Nutzer-Giganten aus den USA (ach ja, plus Microsoft) schwer im wichtigsten europäischen Markt die Marktführerschaft zu erlangen.

Das wird sich vermutlich in diesem, oder im nächsten Jahr ändern. Mal sehen, ob die Nutzeroberfläche tatsächlich mehr über die Zukunft einer Firma sagt, als ihr Börsenkurs.