Rabattkarten und Datenhandel in Deutschland

Wer kennt die Frage nicht, wenn man abends noch schnell durch den Supermarkt rauscht. ”PayBack-Karte?”
Die Deutschen sind Sparfüchse und lieben diese Karte. Ob man damit etwas spart, sei mal dahingestellt. Auf jeden Fall geht so an dieser und anderen Supermarktkassen täglich 4 Mio. Mal mit einem „Piep“ ein Tracking los, das Facebook richtig neidisch macht. Willkommen im Land der Rabattkarten (oder Loyalty-Karten, wenn man Denglisch lieber mag.)

Während die ganze Welt Herzrasen wegen Facebook -Daten kriegt, gehen die Datensammler in Deutschland ganz gemütlich und hochprofessionell seit 30 Jahren ihren Geschäften nach – deutlich länger als es Facebook gibt. Heute nutzen 31 Millionen Menschen allein den Dienst PayBack. Die PayBack-App gehört nach eigenen Angaben zu den Top 3 Shopping-Apps in Deutschland – zusammen mit Amazon und eBay. Die Konkurrenz von Anbieter „DeutschlandCard“ nutzen 20 Mio. Haushalte; an 10.000 Stellen können die Kunden hier im Austausch gegen ihre Daten Punkte sammeln.

Rabattkarten auf Holztisch

Die Plastikkarten sind ein überraschendes Beispiel wie Rechnerleistungsebene, Daten- und Anwendungsebene in digitalen Geschäftsmodellen zusammenwirken und in ihrer spezifischen Kombination als Businessmodel wertvoll werden. In diesem Artikel zeigen wir die Geschichte der Karten, die irgendwie auch eine Version der Digitalisierung sind, und wie sie ganz speziell in Deutschland stattfindet. Und, last but not least, zeigen wir eine schlichte Tatsache: dass der deutsche Datenmarkt seit 30 Jahren hochentwickelt ist, ohne dass wir bisher in den “totalitären Überwachungsstaat” abgeglitten sind. 

Am Anfang war die Bahncard

Rabattkarte klingt noch heute mehr nach Margarine und Bohnerwachs als nach datengetriebener Kundenbindung. Mitte der Achtziger, als unsere Geschichte beginnt, war “Rabattkarte” brutal uncool (Bis heute spricht man lieber von “Loyalty-Programmen”). Mit Rabatten sparen, das hatten irgendwie die Eltern der pulloverstrickenden Fundis irgendwann mal nach dem Krieg gemacht. In den Achtzigern war das echt durch. Doch Anfang der 90er-Jahre kam “Sparen” wieder ganz gut an in der vereinigungseeligen Kohl-Republik. Gemeinsam Bahn fahren für den Frieden – mit Abo. Also führte die Bahn zum 1. Oktober 1992 die Bahncard ein.

Damit gab sich die Deutsche Bahn selbst “den bedeutendsten Schub seit dem Zweiten Weltkrieg” – neben dem schnellen Intercityexpress. Und das liegt vor allem an den Deutschen, mit und ohne Strickpullover: Die sparen (oder optimieren) eben gern. Nicht nur auf der Schiene und mit selbstgestrickten Klamotten, sondern sogar in der Luft beim Fliegen. Ja, Innovation ist manchmal auch nur ein Synonym für “Gut kopiert”. Und so führte auch der zweite ehemalige Staatskonzern, die Lufthansa, ein Jahr später (1993, war da wohl der gleiche Berater im Haus?) ein Kartenmodell ein: Miles and More war geboren.

Bis heute, 27 Jahre später, sind die Bahncard und Miles and More zwei der wichtigsten Kundenbindungsprogramme Europas. Miles and More ist keine Karte für treue Lufthansa-Flieger, sondern ein Verbund von 28 Fluggesellschaften der Star Alliance und 270 weiteren Unternehmen weltweit. Die Bahncard ist…. weiter die Bahncard.

Die Karte

Es ist eine interessante Eigenart des deutschen Marktes, dass das Geschäft mit den Daten bei uns, quasi parallel zur kommerziellen Revolution des Internets entstand, aber zunächst nicht auf diesen Technologien basierte. Zu Beginn der Neunziger war das Szenario millionenfache persönliche Transaktionen mit den offenen Protokollen des Internets abzuwickeln, gar nicht abzudecken. Dazu legte die Browser Firma Netscape erst ab 1994 unter anderem mit der Cookie-Technologie die Grundlagen.

In Deutschland setzte die Industrie schon ab Anfang der Neunziger auf ein anderes Modell: das Einkaufsverhalten wurde mit der Nutzung einer persönlichen Karte direkt an der Kasse gemessen. Über Rabatte und besondere Behandlung wurde das Ziehen der Karte für den Kunden attraktiv. Das ist natürlich nicht das gleiche wie ein Cookie im Browser, bringt aber dieselben wichtigen Zutaten zusammen: eindeutige Personen(oder wenigstens Browser/Karten)zuordnung, Daten und Transaktion. Außerdem hat die Karte einen wichtigen Vorteil – sie funktioniert online zu offline, also an der Schnittstelle der wirklichen Welt und der digitalen. Die Techniken, die sich in der Folge mit der Datenverarbeitung im Hintergrund entwickelten, sind letztlich die gleichen wie im Netz, weil auch die Karte mit dem Chip schon den notwendigen Kern bot: die eindeutige ID und einen ordentliche Datenspeicher. In der Kombination mit diesem „Unique Identifier“ ist noch nicht mal massenweise Datenschrott (Big Data) notwendig, um sinnvolle Informationen zu finden. 

Die Triebkraft für die Innovation kam also aus dem Bestandsgeschäft des Handels. Die deutsche Industrielandschaft sorgte hier für eine kontinuierliche Innovation (ala Clayton Christensen), die schon seit Anfang der Neunziger Jahre und in den folgenden Jahrzehnten mit einer anderen Technologie zu ganz ähnlichen Ergebnissen gekommen ist, wie die parallele Entwicklung des Netzes.  So, Tschüss an die Ungeduldigen. Jetzt kommen die Details.

Die Technik

Anfang der Neunziger setzte sich die echte Chipkarte in verschiedenen Lebensbereichen durch. Bis dahin hatte die Karte einen simplen Magnetstreifen, der wenige Informationen speichern und gar keine verarbeiten konnte.

Anders als Magnetstreifenkarten, haben Chipkarten einen integrierten Schaltkreis und arbeiten mit einem eigenem Betriebssystem. (Ja, wirklich, das steckt alles in den Platikkarten in eurem Portemonnaie) Sie sind flexibel, weil sie auf unterschiedlichen Plattformen laufen und in bestehende Systeme integriert werden können. Außerdem haben sie mehr Speichervolumen, und sind dank kryptografischer Verfahren sehr sicher. Deshalb werden sie häufig als Sicherheitsschlüssel (Zugangskarte) eingesetzt und wir heben damit unser Geld ab, oder (kleiner Sprung, so 30 Jahre später) sie sind die Sim-Karten-Chips in den kleinen Supercomputern, die wir alle in unseren Tasche haben.

Dem Erfinder der Chipkarte Jürgen Dethloff, der schon 1968 mit seinem Partner Helmut Gröttrup das Patent angemeldet hatte, war das Potential, das wir erst heute jeden Tag sehen, schon 1994 sehr klar : „Die Chipkarte kann zu einem Teil unserer selbst werden“, orakelte er damals. Das hört sich für Skeptiker natürlich irgendwie bedrohlich an, wenn etwas Teil von mir wird, um das ich nicht gebeten habe. Was meinte Dethloff? Eben weil mit der Kartentechnologie, Unique Identifier und sicher verschlüsselter Datenspeicherplatz zusammen kamen, definiert sie die kleinste Einheit, die in einer datengetriebenes Welt notwendig ist, um sinnvolle Einsatzszenarien zu steuern. Ich und meine Daten eben. 

Mikroprozessorkarten können heute sowohl per Kontakt als auch kontaktlos Daten übertragen. Entweder werden sie mit einem Kartenlesegerät über direkten Kontakt ausgelesen, oder sie übertragen ihre Daten per Funk. Kontaktlose Chipkarten bezeichnet man als RFID-(Radio Frequency Identification)-Karten. Eine Unterkategorie der RFID Technologie sind die Übertragungsmöglichkeiten mittels NFC (Near Field Communication). NFC überträgt Daten von einer Karte nur über wenige Zentimeter.

Der Formfaktor 

Für den andauernden Erfolg der Karte an der Kasse war aber wahrscheinlich ebenso die Form (das Interface) entscheidend. Bezahlen mit dem Telefon an der Supermarktkasse ist nämlich gar nicht mal so toll, wie alle sagen. Ne’ Karte kann man grad noch rausziehen, scannen, fertig. Aber erst die Loyalty-App aufmachen, scannen, dann die Bezahlapp, ach ne die andere, aufmachen und bezahlen, dafür braucht man an einer deutschen Supermarktkasse bisher noch Nerven aus Stahl oder man gehört zur Generation Ist-mir-doch-egal-wie-mein-super-digitales-Leben-dich-nervt. Die Karte steckt direkt neben der EC-Karte und passt für diesen Einsatz und das Szenario richtig gut.

Loyalty ist so Neunziger 

Zurück in die Zeit als Modems noch rauschten und quiekten. Die beiden deutschen ehemaligen Staatskonzerne Bahn und Lufthansa hatten das Rabatt-Modell auf Karte auch nicht erfunden, sondern beim britischen Unternehmer Keith Mills entdeckt. Der hatte sein Programm “Air Miles” schon 1988 mit British Airways gestartet. Die beiden Programme sind aber bis heute wahrscheinlich die bekanntesten und oberflächlich betrachtet die Giganten am Markt. Aber wie beim Datengeschäft immer, findet das Wichtige dahinter statt.

Der Riese in der zweiten Reihe

Die Neunziger waren auch die großen Zeit des Outsourcings als Allheilmittel. Da machte Deutschland keine Ausnahmen. Und zunächst betrachtete keine Firma “Loyalty” als ihr Kerngeschäft. Also: raus damit. Spätestens seit 1995 ließ die Bahn ihr Bahncard-Geschäft und den Kundenservice durch das Bertelsmann-Tochterunternehmen Arvato im niedersächsischen Schortens abgewickeln. Einen spezialisierten Anbieter mit dem Kundenbindungsprogramm zu beauftragen, war damals ziemlich logisch, denn die Infrastruktur aus Karten, Rechenzentren, Software und Kundenbetreuern, war für ein Unternehmen allein sehr teuer und deshalb ein hohes Risiko. Da lag es nahe, ein anderes Unternehmen zu beauftragen, das dieselbe Dienstleistung für ganz verschiedene Kunden und  Kundenbindungsprogramme abwickeln konnte und deshalb die Investition wagen konnte. Und, logisch, auch das “Miles and More”-Programm der Lufthansa wickelten die Bertelsmänner von Arvato ab. Defacto hatte also Bertelsmann (das war mal die Buch-Club-Firma, wem das noch etwas sagt) das eigentliche Know-How, wie man Millionen von Karten druckt, die Daten organisiert, die Infrastruktur aus Lesegeräten und Leitungen betreibt, kurz wie man Kundenbindung auf Karte organisiert und mit den Daten daraus das Geschäft ankurbelt.

Mittendrin im Miles-and-More-Programm saß als Berater von “Roland Berger” (und jüngster Partner in deren Geschichte)  Alexander Rittweger. Den muss man nicht kennen, er wird aber gleich wichtig.  Rittweger wollte wie er später sagte: ”auf keinen Fall in einem Konzern Karriere machen” (Hä? Roland Berger? Alles ein Irrtum? Ich war jung?) Nein, nein, er wollte bloß lieber seinen eigenen Konzern. Rittweger hatte wahrscheinlich eine zentrale Erkenntnis: Wenn im Backoffice sowieso alles Arvato macht, warum dann nicht gleich eine gemeinsame Kundenkarte für verschiedenen Unternehmen, dann könnte man die Daten auch zusammenschmeißen? Innovation geht eben nicht nur mit Abgucken( wie bei Lufthansa und Bahn), sondern auch mit Naheliegendem (sustaining innovation – wer es googeln möchte – heisst das bei Clayton Christensen). Dafür brauchte man nur ein paar Schwergewichte auf seiner Seite. Rittweger überzeugte die Lufthansa und den Cash und Carry-Giganten Metro von einer Rabattkarte, die nicht nur für eine Firma allein galt, sondern ebenfalls für eine große Zahl verbündeter Teilnehmerfirmen und besonders den Handel mit einbezog. Das war die Idee von PayBack.

Wie funktionieren Loyalty-Karten?

Das war 1998. Das Internet setzte grad zu seinem ersten großen kommerziellen Ikarus-Höhenflug an. “Data Warehouses” wurden in jeder Firma hochgezogen und der Optimismus war groß, mit Daten den Markt umzukrempeln. (Kommt das irgend jemandem bekannt vor?) Über die neue Qualität seiner Karte und deren Effekt war Alexander Rittweger sich sehr bewußt. Es ging natürlich nicht nur um ein Rabattprogramm, das nach Margarine und Bohnerwachs roch:

„In der Kombination mit Mailings- und Verkaufsaktionen entsteht ein einzigartiges Kundenbindungssystem, das alle Seiten profitieren lässt: Konsumenten erhalten Punkte, die in Prämien oder Bargeld eingetauscht werden können. Der Handel schafft Anreize, um für wiederkehrende und neue Kunden attraktiv zu bleiben. Und letztlich kann Payback seine unmittelbar auf die Kundenwünsche abgestimmten Angebote verfeinern und den Partnern effiziente Services anbieten.”

Ein branchen- und medienübergreifendes Kundenbindungsprogramm, das Kundentreue durch Rabattpunkte beim Einkaufen belohnt, und einem Dritten auf Basis der Daten die Möglichkeit gibt “effiziente Services” anzubieten: entweder Werbung, oder B2B-Dienste entlang der Wertschöpfungskette. E voila: Ein Plattformgeschäft. Mit den Daten im Hintergrund häufte sich sehr genaues Wissen über Kundenverhalten an, das nun auch maschinell auswertbar war, weil es nicht mehr nur in den Köpfen erfahrener Kaufleute, sondern strukturiert (z.B personen- und ortsbezogen) auf Festplatten war. Die große Vision war also nicht das Punktesammeln, sondern der Weg, wie PayBack Kundenbindung maschinen-basiert entwickeln konnte, um damit die Geschäfte der teilnehmenden Firmen rund um deren Bedürfnisse nach Customer-Relationship-Management-Diensten (was für ein Wort-Ungetüm), oder Lieferketten- oder Sortimentsoptimierung und Produktentwicklung zu verbessern. Die Palette der B2B-Dienstleistungen, die rund um die Karte entstanden sind, ist bis heute tatsächlich immer länger geworden. Logischerweise, denn im Zentrum steht das profitable Datenabbild des Kunden und der Produkte, die er braucht. Wann kaufen wir, was, wo ein? Wieviel Geld gibt welche Haushaltsgröße aus? Welche Gegend in deiner Stadt entwickelt sich gut, welche gibt immer weniger aus? Die Möglichkeiten der Datenanalyse sind zum unverzichtbaren Planungsinstrument im Handel geworden. Payback war genau das:  Ein Plattformgeschäft auf Datenbasis “Made in Germany” mit direktem Draht zum Puls des Kunden: Lufthansa und Metro waren begeistert. 

Aber wir sind ja in Deutschland und nicht im Silicon Valley. Wenn so große Firmen wie Lufthansa und Metro plötzlich gemeinsame Sache machen wollen, ist das erstmal schwierig und es dauert. Man fragt sich, wie Rittweger dieses Kunststück überhaupt vollbrachte. Aber fast zwei Jahre nach dem Start, im März 2000, nahm PayBack dann tatsächlich seine Geschäfte auf. Ausgerechnet in dem Monat, als die erste Hoffnungswelle der Internetträume sich überschlug. Die Wertpapiernotierungen für Technologie-Titel fielen zum Börsenschluss am Freitag, dem 10. März 2000 nach einem Allzeithoch plötzlich ins Bodenlose. Boom. (also: bäng) Die erste Internet-Blase war geplatzt.

Der Knall nach dem Boom

Und PayBack? War und ist eben ein besonderes Gewächs (haben wir oben ja gesagt) und ein gutes Beispiel dafür, daß es sich lohnt, digitale Trends im eigenen Land genauer anzugucken, um eigene Schlüsse zu ziehen. Der Internetknall war PayBacks Startschuss, weil das Corporate-Investor-Modell weder unmittelbar auf die Marktliquidität für Technologiefirmen angewiesen war, noch technologisch auf dem Internet basierte. Das Geld kam aus der Industrie, es war kein typisches Irgendwas-mit-Internetz-Geschäft, das zu Beginn auch viel von der kreativen Phantasie der Unternehmer und Investoren lebt. Rabattkarten waren eine offensichtlich sinnvolle und wenig risikoreiche Ergänzung vieler stationärer Handelsmodelle, mit unmittelbaren Vorteilen durch eine bessere Datenlage: die etablierten Anbieter festigten ihr Geschäft.

Und die Kunden fanden’s gut. PayBack entwickelte sich zu einem erstaunlichen Erfolg. Im ersten Jahr gewann das Unternehmen in Kooperation mit Partnern wie real,-, Galeria Kaufhof, DEA (Tankstellen), dm Drogeriemarkt, AOL und Consors unglaubliche 8,3 Millionen Nutzer – eine Million direkt über das Internet. Der Umsatz lag bei rund 50 Mio. DM. Die Branche war baff.

Ein Problem war allerdings, dass das Modell von Payback (Geld für Punkte) streng genommen in Deutschland gar nicht mal so richtig legal war, denn wir hatten seit 1934 das Rabattgesetz, nach dem der Rabatt bei Barzahlung 3 % des Warenpreises nicht überschreiten durfte. Ok, beim Punktesammeln ist das wohl nur theoretisch möglich. Da aber die Deutschen mit diesem Gesetz ziemlich alleine waren, war dem Gesetzgeber schnell klar zu machen, dass im Rahmen des übernationalen Internethandels damit ziemliche Nachteile verbunden waren, wenn die anderen so ein Gesetz nicht hatten. Die Lösung? Das Rabattgesetz wurde im Juli 2001 abgeschafft.

„Die Abschaffung des Gesetzes wird unser Geschäft beflügeln. Wir erhalten dadurch viele zusätzliche Möglichkeiten, gemeinsam mit unseren Partnern erfolgreiche Verkaufsaktionen durchzuführen.“ sagte Rittweger damals. Payback war nach nur einem Jahr zum röhrenden Platzhirschen mutiert. 

Das zweite, größere Problem war Arvato. Arvato war bis dahin, wie gesagt, der eigentliche Kern der etablierten Rabatt- und Meilenprogramme von Lufthansa und Bahn, und hatte 1999 mit “webmiles” sogar vor PayBack einen eigenen Rabattservice für Partnerunternehmen als reinen Internetdienst gestartet, allerdings ohne Karte, also im Grunde ohne die eigentlich wegweisende online zu offline Messung im Portemonnaie. Das lief deutlich schlechter als beim Neuling.

PayBack greift an

2005 setzte PayBack zum eigentlichen Angriff auf Arvato an, aber dann kam alles anders. Die Lufthansa wechselte den Vorstand. Die Folge für PayBack: Lufthansa verkaufte die Mehrheit an der Loyalty Partner-Holding (PayBacks Mutter) (zum Preis eines Airbuses, na fast) für 120 Millionen Euro an den Finanzinvestor Palamon Capital. Rittweger hielt von da ab 20 Prozent der Unternehmensanteile, zehn Prozent lagen beim Management, neun Prozent blieben bei der Metro und acht Prozent bei Roland Berger. Aber mit 53 Prozent war Palamon Capital Partners der neue Herr/ Frau im Haus.

Im April 2006 übernahm PayBack dann mit neuem Vertrag als Generalunternehmer für die Deutsche Bahn die komplette CRM-Abwicklung für das Kundenbindungsprogramm Bahncard. Dazu gehörten die Implementierung und der Betrieb der CRM-Systemplattform und die Durchführung von Online- und Offline-Marketingaktionen. Ende 2006 betraf das rund 3,6 Millionen Bahnkunden. Loyalty Partner war für die gesamte Logistik rund um die Bahncard verantwortlich, steuert die involvierten Dienstleister, stellt den technischen Support und sorgt für das Reporting. Das restliche Bahncard-Geschäft verlor Arvato zum 1. März 2007. Offiziell holte die Bahn das Geschäft “auf Grund firmenpolitischer Überlegungen innerhalb der Bahn, um personellen Überkapazitäten von DB Dialog entgegenzuwirken” ins eigene Haus. 

Arvato musste handeln. Wenn sie weiter ein ernstzunehmender Partner bleiben wollten, musste sie ihre eigenen Loyalitäten überdenken. Sie machten das Geschäft im Hintergrund und konnten deshalb eigentlich nicht selber konkurrieren. Wenn aber jetzt selbst die ältesten Kunden den Zug wechselten, musste etwas passieren. Für einen so straff und erfolgreicher geführten Riesen wie Bertelsmann heißt eine Option bei so einem Angriff immer: Copy und Paste, oder Umarmen und Auslöschen. Das galt besonders im Rabattkartengeschäft. 

Umarmen und Auslöschen

Arvato übernahm die InfoscoreGruppe, einen „Full-Service-Anbieter für integriertes Daten-, Informations- und Forderungsmanagement“, für 141 Mio. €. (weniger blumig: den direkten Konkurrenten der Schufa, dem Synonym für Kreditwürdigkeit). Gleichzeitig brachte Arvato die DeutschlandCard an den Start, eine Loyalty-Card mit Multipartnerprogramm (das ist der Teil „Umarmen“ ). Schau an, schau an. Das war naheliegend, weil sie so eine Schwäche nutzen konnten, die das Loyalty-Geschäft mit vielen Partnern quasi strukturell mit sich bringt. (Das ist der Teil „Auslöschen“) 

Die offene Flanke von Loyaltyprogrammen

Das Partnerprogramm eines Loyalty-Kartenanbieters sind die Firmen, die gemeinsam den Kunden die Möglichkeit geben, Punkte zu sammeln. Je mehr Filialen, desto besser, weil der Kunde überall Punkte sammeln und einlösen kann. Da es für den Unternehmer nur mittelbar um die Punkte, sondern mindestens ebenso um die Daten geht, ist das ein sensibler Punkt. Warum? Jeder Partner eines Kartenanbieters kann im Verbund auch bestimmte Daten der anderen Partner sehen. Gerade dadurch ergibt sich ja auf Datenbasis ein vollständigeres Bild des Kunden, als wenn man selber eine Karte nur für die eigenen Kunden herausgibt. Ich weiß dann eben nicht nur, was mein Kunde in meinem Geschäft kauft, sondern auch, was mein Kunde in etlichen anderen Geschäften kauft. Das ist aus Datensicht der große Vorteil gegenüber Kundenkarten einer einzelnen Firma. Gleichzeitig ist das auch eine Einschränkung: Niemand möchte, dass die direkte Konkurrenz ebenfalls am gleichen Programm beteiligt ist, und alles sieht, was man selber richtig macht. Entweder dm oder Rossman. Beides geht nicht innerhalb einer Rabattkarte. Genau hier war PayBack angreifbar.

Also schob Bertelsmann mit der DeutschlandCard seine eigenen Rabattkarte in den Markt, um genau über diese Flanke mindestens die andere Hälfte des Marktes zu gewinnen. Die Kassen waren dafür gut gefüllt. 2006 war das bis dahin wirtschaftlich beste Jahr in der Geschichte des Konzerns.

In der Heimat der Datennutzung 

Für die Partnerfirmen der Kartenprogramme sind die Daten der Nutzer ein wesentlicher Aspekt für ihre Investition in ein Rabattprogramm. Dabei geht es natürlich nicht um Informationen zu einzelnen Menschen. Was Herr Mayer Mittwochs um 18.00 macht, ist den Firmen komplett egal, oder zumindest als Einzelinformation ist das nicht besonders wertvoll. Daten sind wertvoll, weil es jemanden gibt wie Herrn Mayer, auf den ich meine Geschäfte planen kann. Die Daten sind also im Bezug auf ihre Anwendung wertvoll. Nicht per se. Und es geht auch nicht um das Ausspionieren von Herrn Mayer, sondern um die Sicherheit, dass es jemanden gibt, der sich wie Herr Mayer verhalten würde.

Für diese Anwendung in der Geschäftsplanung bedarf es aber noch deutlich mehr Informationen als die bevorzugte Klopapiermarke. Für diese zusätzlichen Informationen gibt es einen Markt für personenbezogene und nicht-personenbezogene Daten. Auf diesem Markt tummeln sich Werbetreibende, E-Commerce-Akteure, stationärer Handel, Politik, Interessenverbänden, Hilfsorganisationen, Marktforscher, Dialogmarketingexperten und Bonitätsauskunfteien, Aggregatoren, Listbrokern, Datenhändlern.

Drei unterschiedliche Datenklassen

Personenbezogene Konsumentendaten, klassische Postadressen und Melderegister sind die Grundlage der Anbieter, die sich auf die Anreicherung der Daten spezialisiert haben. Die Daten über den Kartenscan werden mit Daten verschiedener anderer Quellen zusammenführt. Um zu verstehen, was dazu notwendig ist, müssen wir die verschiedenen Arten von Daten grob auseinander halten. In der Praxis überschneiden sich Bereiche und haben unterschiedliche Ziele. Aber für den Überblick spricht man von diesen drei Gruppen:

First-Party-Daten

First-Party-Daten sind Daten, die ein Unternehmen selber hat. Häufige Datenquelle für First-Party-Daten sind die Kundenmanagement- oder CRM-Systeme, die unter anderem soziodemografische Informationen, Adressdaten und transaktionsbezogene Daten eigener Kunden enthalten könnten. Auf Deutsch heißen diese Daten Stammdaten. 

Second-Party-Daten

Wenn First-Party-Daten oder Stammdaten von verschiedenen Partnern in einem Netzwerk gemeinsam genutzt werden, nennt man das Second-Party-Daten. 

Ein Beispiel für gemeinsame Nutzung personenbezogener Daten ist Miles & More. Hier bündeln 250 Airlines, Hotels, Kreditinstitute, Finanzen und Versicherungen die von Ihnen erhobenen personenbezogenen Daten. Laut Datenschutzbestimmungen von Miles & More akzeptiert der Nutzer die Verwendung der „Stamm- und Programmdaten und die [Auswertung der] bei Nutzung unserer Angebote […] erhobenen Analysedaten […], um [ihm] nur für [ihn] relevante und auf [seine] Interessen zugeschnittene, individualisierte Informationen zukommen zu lassen.“  

Third-Party-Daten

Von Drittanbietern zugekaufte personenbezogene Daten werden als Third-Party-Daten bezeichnet. Achtung, nun wird es wild: Third-Party-Daten werden am Markt bspw. von Adress- und Datenhändlern angeboten, die Daten aus zahlreichen externen Quellen und eigenen Erhebungen zusammenführen. Großen Adress- und Datenanbieter in Deutschland mit personenbezogenen Verbraucherdaten sind z.B. die Schufa Holding, Bertelsmann Printing Group, die Deutsche Post Adress und die SAZ Services AG.

Die SAZ Services AG Leistungen z.B. basieren nach deren Darstellung auf der Datenbank-Plattform smartBASE®, die alle Transaktionen und Beziehungen zwischen einem Unternehmen und seinen Kunden abbildet (360-Grad-Sicht) und bis zu 220 Einzelinformationen pro Adresse zeigt. SAZ ist besonders interessant, weil die Firma einerseits den meisten total unbekannt sein dürfte, andererseits offenbar aber viel genutzt wird. Auf der Referenzliste von SAZ stehen 257 Kunden, neben philantropischen Organisationen wie “Amnesty International”, auch kommerzielle Unternehmen wie PayBack, Infoscore (Arvato) und Axciom und damit gleich drei Konkurrenten am Second-Party-Datenmarkt. SAZ scheint also ziemlich unverzichtbar in diesem Metier.

Die Welt des Datenhandels

Acxiom, eine amerikanische Firma, beschreibt das Geschäft mit den Daten etwas genauer und gibt damit vermutlich auch einen ganz guten Überblick für die anderen Organisationen. 

Acxioms Daten und Dienste basieren auf einer Kombination von Adressen, für die explizite Einwilligungen der Haushalte vorliegen, Businessdatenbanken, einem umfassenden Gebäudeverzeichnis, Informationen zur Aktualisierung und Anreicherung von Datenbeständen, Instrumentarien und Expertisen für analytisches Customer Relationship Management (CRM) und Database-Management im Outsourcing. 

Du kannst umziehen, aber du kannst dich nicht verstecken

Viele der Daten im Bereich Geomarketing stammen aus amtlichen Quellen wie den statistischen Bundes- oder Landesämtern. Diese Daten werden über statistische Verfahren auf granulare Gebiete projiziert. Sie werden so quasi zum Rohstoff für die Planung und Bewertung von Standorten, Vertriebsgebieten, Produkten und Umsätzen. Planungsabteilungen könnten diese Informationen mit internen Kundendaten (Stammdaten oder First-Party-Daten) in Beziehungen setzen, um zum Beispiel ihre Standortplanung zu verbessern.

Wenn man Drittparteidaten hinzufügt, kennt man einen breiteren Kontext der Lebensumstände. Wo jemand ungefähr wohnt, wie die Mieten sich entwickeln und warum jemand vielleicht auch lieber wegzieht. Merkwürdigerweise taucht mit der Post nun der dritte ehemalige Staatskonzern in der Datenwelt auf. Sicher ist das Zufall. (Wohl kaum, ist aber eine anderen Diskussion) 

In Deutschland ziehen täglich rund 22.000 Menschen und Unternehmen um. Entsprechend schnell veralten Stammdaten. Mit dem Produkt “Postadress Move” kann man z.B. Umzugsadressen und Umzugsdaten u.a. aus dem Nachsendeverfahren der Deutschen Post nutzen, um die eigenen Stammdaten gegen die Umzugsdatenbank abzugleichen und aktuell zu halten. Bertelsmann hält eine 49%-Beteiligung an PostAdress. Über PostAdress können Kunden auch Gebäudedaten nutzen. Das sind z.B. Datencluster zu Ein- oder Mehrfamilienhäusern, Baujahre, die Höhe der Kaltmieten oder gewerbliche Gebäudenutzung bis hin zu der Versorgung mit Strom oder Gas und der Eignung von Gebäuden für die Installation von Solaranlagen. 

Die Deutsche Post Direkt GmbH unterhält außerdem eine Datenbank mit Gebäudeadressen. Für interne Analysezwecke der Kunden, zum Adressabgleich oder Aufbau eines Datenbanksystems gibt es hier “adressgenaue” Daten zu rund 20 Millionen “zustellrelevanten” Gebäuden in Deutschland. Ein Datensatz enthält eine Gebäude-ID, Angaben zu Postleitzahl, Ort, Ortsteil, Straßenname und Hausnummer. Mit einem Straßenverzeichnis auf Basis der Original-Postleitdaten der Deutschen Post stehen auch über 1,2 Millionen Straßennamen zur Verfügung. 

Um den geltenden Datenschutzregeln zu entsprechen, fasst die Deutsche Post Daten in Mikrozellen zusammen, die jeweils aus durchschnittlich 6,6 Haushalten bestehen. Eine Mikrozelle ist die kleinste Einheit, die die Anforderungen des Datenschutzes erfüllt. So werden Rückschlüsse auf einzelne Personen verhindert. 

Kleine Zusatzinfo, die irgendwie wichtig ist, die man aber auch überlesen kann.

Zu Acxioms Kunde zählte bis zu den Wahlmanipulationsvorwürfen gegen die Firma “Cambridge Analytica” auch Facebook, das seine eigenen Datenbestände unter anderem mit denen von Acxiom anreicherte, um Werbeanzeigen besser auf die Lebenssituation und Interessen seiner Nutzer zuzuschneiden. Wohlgemerkt, mit Daten, die Facebook selbst nicht aggregieren kann. Dies betrifft vor allem Details über das Offline-Verhalten seiner Nutzer, z.B. geografische Zuordnungen. Acxiom ist wiederum auch ein Kunden der SAZ Services AG, die wir oben kurz erwähnten. Im Netflix-Film über Cambridge Analytics kann man in einem Präsentationsdeck sehen, dass dort auch Acxiom aufgeführt ist. Im Zuge der Vorwürfe gegen Facebook, hat Facebook bekannt gegeben, die Zusammenarbeit mit Acxiom zu beenden.

 

Profile und Datenkombination

Die Wirkung der Datensicht entfaltet sich also bei der Kombination aller drei Datenklassen. Dominik Dommick, Geschäftsführer bei PayBack äußerte sich dazu im Gespräch mit Alexander Graf im Podcast “Kassenzone” so:

“Im Endeffekt geht es ja erstmal damit los, dass man ab einem bestimmten Punkt merkt, dass das Stichwort “Profil” wahrscheinlich das wichtigste ist. Also das heißt jemanden nicht über Kekse-Verteilung (gemeint sind anonyme Cookies, also Webtracking) ungefähr einschätzen zu können, und zu glauben, dass, weil ein anonymes Wesen auf den Automobilbereich irgendeiner Plattform geklickt hat, dass es dann ein Mann ist, was glaube ich nicht zwingend stimmt, sondern das man tatsächlich ein Profil anlegt. Und das haben ja die meisten Online-Händler”…. “der interessante Punkt, der über ein Loyalty-System als nächstes hinzukommt ist, dass dieses Profil eben nicht nur diesen Ausschnitt des Konsumverhaltens bei Händler X kennt. Je größer der Händler ist, desto besser ist natürlich so eine Information d.h. da hat Amazon natürlich mit der Breite des Angebots einen riesen Vorteil. Aber nichtsdestotrotz ist auch das nur der Ausschnitt dessen, was der Kunde eben bei Amazon tut. In dem Moment aber, wo ich das in der Breite verknüpfen kann, sehe ich aber Veränderungen in der Situation des Kunden viel, viel besser. Ich erkenne, ob jemand offensichtlich seinen Wohnort geändert hat, ich erkenne, ob er umgezogen ist, ich erkenne, ob er wahrscheinlich gerade dabei ist Familie zu gründen, ich erkenne, ob sich in seinem Konsumverhalten per se etwas ändert. Und an diesen Punkten ist die Profilanreicherung natürlich viel, viel besser. Was dann passiert, ist, das man in der Selektion, in der Zuordnung des Kunden zu bestimmten Angeboten, viel schärfer sagen kann, jemand ist wahrscheinlich ein guter Kunde für dieses Produkt, oder im Umkehrschluss auch nicht interessiert an X, Y, und Z.”

 

Bedarf treffen: Targeting

Die Kombination der Erst-, Zweit- und Drittparteidaten ergibt das „Targeting“, also die Zuordnung eines Kunden zu einem Angebot. Nach eigenen Angaben hat AZ Direct, ein Unternehmen, das Bertelsmann mittlerweile in der Sparte “Bertelsmann Printing Group” führt, “die größte crossmediale Reichweite Deutschlands” mit rund 68 Millionen Menschen, die über diesen Anbieter erreicht werden. Dazu gehören auch “45 Millionen überschneidungsfreie Mail-Adressen”.. “mit unserem einzigartigen Audience-Targeting-System AZ DIAS verbunden.” Das Audience-Targeting-System AZ DIAS ist eine Informationsdatenbank mit mehr als 41 Millionen Haushalten, 70 Millionen Personen und 21 Millionen Gebäuden und umfangreichen Merkmalsdaten. Über “AZ bridgePool” kann Arvato zusätzlich rund 31 Millionen unique Online-User mit AZ DIAS verbinden. Das Zuordnung funktioniert dann über mehr als 600 anonymisierte Merkmale zur Profilierung.

Ach, speaking of „Überwachungsstaat“: Die deutschen Firmen wie Arvato unterziehen die eigene Behandlung der Daten einer aufwendigen Prüfung, damit sie gewährleisten können, daß keine Datenschutzrechte verletzt werden. Die ist ein gutes Beispiel dafür, dass ein Unternehmen mit der gegenwärtigen Rechtslage in der EU offenbar sehr konkurrenzfähig im weltweiten Wettbewerb arbeiten kann. Also, Puls runterfahren. 

Marktgröße und Preise

Laut einer Studie, die Goldmedia für das Verbraucherschutzministerium 2015 erstellte, erzielten die zehn wichtigsten Adress- und Datenunternehmen im Jahr 2014 einen Gesamtumsatz von rund 450 Mio. Euro. Das Gesamt-Marktvolumen im Bereich des Adress- und Datenhandels in Deutschland wird in der Studie für 2014 mit rund 610 Mio. Euro angegeben. 

Ich glaube die Zahl ist je nachdem, was man berechnet, sehr viel höher. Arvato allein machte im Jahr 2015 nach dem Geschäftsbericht von Bertelsmann 2,2 Milliarden Umsatz, nur in Deutschland. American Express gab im Geschäftsbericht 2011 die zusätzlichen Lizenzeinkünfte durch die Akquisition von Loyalty Partner mit ungefähr 238 Mio. an. Außerdem fehlen ganz offensichtlich zentrale Datenlieferanten  in der Goldmedia-Studie: z.B. die SAZ Services AG. Wenn die besten Anbieter am Markt hier einkaufen gehen, dürfte auch hier einiges hängen bleiben.

Nach der Goldmedia-Studie gab es 2014 zehn Anbieter, mit einem gemeinsamen Marktanteil von rund 65 Prozent. Die Marktteilnehmer haben bis heute wenig geändert. Die wichtigsten Produkte der Auskunfteien im Bereich der Risikoinformation sind die Übermittlung von Bonitätsauskünften und Prognosewerten (z.B. ein Scoring durch Schufa oder Infoscore) Hier gibt es kaum Konkurrenz.

Für die Kunden ist die Nutzung von Daten natürlich nicht kostenlos. Die Preise für die Nutzung von Konsumentendaten lagen 2014 nach der Goldmedia-Studie in diesen Bereichen: 

0,065 – 0,24€ / Adresse: für einfache Haushaltsadressen

0,105 – 1,65€ / Adresse: für Adressen mit Selektionsmerkmalen

0,0075 – 0,01€ / Adresse: für E-Mail-Adressen

0,26 – 1,98€ Adresspflege pro Abgleich

0,005-0,40€ pro angereicherter Adresse bei Datenqualifizierung

0,002-0,01€ pro Kundendatensatz für Verknüpfung von Offline- und Online-Daten.

0,80-7,00€ für Bonitätsauskünfte inkl. Scoring (je nach Übermittlungsart und Abrufmenge) 0,40-0,99€ für automatisiertes Scoring in Echtzeit

Die Zahlen dürften ungefähr zeigen, was qualifizierte Daten heute in etwa wert sind. Wertvoll ist nicht das Wissen zu einer einzelnen Person, zu ihren persönlichen Werten und Überzeugungen. Wertvoll ist der Bezug zum jeweiligen Geschäft. Denn das Ziel ist es, gegen harte Konkurrenz den kaufwilligen Kunden für sich zu gewinnen. Alles andere sind allenfalls mögliche Szenarien (von Theoretikern), die in den letzten 30 Jahren nicht eingetreten sind.

Daten werden nicht verkauft

Häufig wird von Verfechtern einer Einschränkung der Datennutzung (mit gehobenem Zeigefinger und dunkler Stimme) unterstellt, die Datenhändler würde ihre Daten verkaufen. Das ist fast nie der Fall und mit dem „Verkauf“ etwas Unanständiges zu unterstellen, hilft einer ehrlichen Diskussion auch nicht. Wenn wir Thomas Mann vorgeworfen hätte, er habe seinen Roman “Die Buddenbrooks” verkauft, dann wird deutlich, dass ähnlich wie im Urheberrecht, man etwas gegen Geld weitergeben kann, ohne die Eigentumsrechte damit abzugeben. Der Vorwurf, jemand hätte Daten verkauft, trifft einerseit den Kern des Vorgangs nicht, andererseits macht er es einfach, zu behaupten, es würde unsachlich und falsch argumentiert. Man kann die Buddenbrooks kaufen, besitzen und nutzen, ohne das Thomas Mann seine Eigentumsrechte daran verliert. Sogar seine Erben profitieren noch von diesem Eigentumsrecht. Im Falle von Literatur finden die meisten Menschen das ganz in Ordnung. Im Falle der Datennutzung wird das Thema für viele kontrovers. Das könnte auch daran liegen, dass Daten im digitalen Raum zu einem guten Teil quasi nebenbei anfallen. Von den Unternehmen, die die Daten nutzen, werden sie konsequenterweise dann auch wie ein kostenloser Rohstoff verwendet. Dabei könnte es eigentlich selbstverständlich sein, dass wir als Urheber unserer Daten, auch an deren kommerzieller Verwertung beteiligt werden, wenn die Gesetze es erlauben und wenn wir das wollen. Die wenig differenzierte Diskussion hierzulande verhindert die Entwicklung wirtschaftlich interessanter, innovativer Lösungen, die von der Gemeinschaft akzeptiert sind. Aber, genug davon. 

Arvato gewinnt und verliert trotzdem

Schon 2007 betreute Arvato laut Geschäftsbericht mehr als 150 Millionen Endkunden in über 20 Sprachen, verwaltete die Lagerung und Distribution von mehr als 650 Millionen Packstücken, entwickelte und betrieb Anwendungen und IT-Systeme für Kunden, versendete mehr als zwei Milliarden Mailings und führten 200 Millionen (was für ein Alptraum) Telefongespräche.

Langfristig war aber das Rekordjahr 2006 für Arvato, ein Wendepunkt. Nicht etwa weil der Angriff durch den regionalen Konkurrenten PayBack gelang. 2006/7 war das Jahr zweier Revolutionen, die die Karten und das Rabattsystem grundlegend in Frage stellten. 2006/7

Mobil und die Wolke

Amazon startete am 14.März 2006 mit Amazon Web Services (AWS) den ersten Cloud-Computing-Dienst der Welt und machte unbegrenzte Rechnerkapazitäten und standardisierte Anwendungensentwicklung für jeden auf Knopfdruck verfügbar. Nur wenige Monate später stellte Apple mit dem Iphone einen neuen Rechner vor, der das Anwendungsszenario, das Computer bis dahin hatten, weit hinter sich ließ. „mobile“ und „Cloud“ schlichen sich in den deutschen Wortschatz und die Führungsetagen.

2006/7 eröffnete sich ein neues Paradigma für Computing und Computer, bzw. Ansätze, die schon seit langer Zeit diskutiert und versucht wurden, erreichten ihre kommerzielle Marktreife mit ungeahnten Konsequenzen. Hört sich nicht so flockig an wie “Revolution”, soll aber sagen, dass Wunder auch im digitalen Bereich selten sind. Microsofts Mantra: „A Computer on every desk“ war – für jeden sichtbar – obsolet geworden, sowohl für die Hardware, als auch den Bau von Applikationen, und die Verarbeitung der Daten, die Rechenleistung. “A computer”, ja, aber keineswegs nur aufm Schreibtisch. Diese beiden Entwicklungen stellten die Loyalty-Programme rund um die Chipkarten grundlegend in Frage, weil sie sowohl die Infrastruktur als auch das Interface neu definierten

Die technologisch nahezu unangreifbare Position im Kassenscanner an der Supermarktkasse war damit zumindest theoretisch in Frage gestellt, weil jetzt keine unkalkulierbar große Investition mehr notwendig war, um ein neues System mit Scannern und Kassen zu realisieren. Der Chip, der bisher das Funktionieren der Chipkarte sichergestellt hatte, sorgte nun auch im mobile Computer als Sim-Karte für die Identifikation und bekam außerdem einen Bildschirm, diverse Apps im Anwendungslayer und eine permanente Verbindung mit dem Internet für die Rechenleistung. Die Unique Identity auf der Karte war jetzt immer und überall mit dem weltweiten Netz verbunden. Jürgen Drothleff, der Erfinder der Karte, hatte Recht behalten. Die Karte wurde ein Teil von uns.

Mobil und die Kunden

Mobil und Cloud änderten die Spielregeln. Aber obwohl man sich einfach vorstellen kann, dass das Telefon als mobiler Rechner mit verschiedene Applikationen viele Funktionen übernehmen kann, stellt sich für den Handel sehr viel konkreter die Frage, WIE das wohl passieren könnte. Das richtige Timing ist viel entscheidender für den Erfolg, als die “revolutionäre Idee”, oder die bahnbrechende Innovation. Die entscheidende Frage war eher, wie lange es dauern würde, dass sich das neue Interface für den Einkauf durchsetzte. Eins war sicher: gerade die eher gemütlichen Deutschen, nutzen als Kunden nicht plötzlich einfach eine App, weil es so toll ist, wenn sie darin keinen handfesten Vorteil (Geld, Ansehen, Zeit?) erkennen. Kurzer Zwischenstand nach zehn Jahren Entwicklung: Selbst der typische Onlineeinkauf funktionierte bis vor zwei Jahren noch immer zu mehr als der Hälfte über den Desktop. Das Timing ist in der Praxis also bei weitem entscheidender für den Erfolg als die Vision.

Der Untergang lässt auf sich warten

Was die Untergangsapologeten bisher überrascht, (und die Realitätsverweigerer gemütlich bleiben lässt):Der deutsche Handel hält sich zäh. Auch 2018 lag der Anteil des Offline-Handels am Gesamtmarkt immer noch bei 95,3% gemessen am Umsatz. Zwar verlieren die Einkaufszentren ordentlich an den Onlinehandel. Die Folge des technologischen Paradigmenwechsel ist im groben Raster keine exponentielle Kurve, sondern ein stetiger Verlust.

Das die Welt der innerstädtischen Einzelhändler noch nicht ganz verschwunden ist, heißt aber nicht, dass sich die Welt in Wirklichkeit gar nicht verändert hat.

Mobil und die Unternehmen

Die Partnerunternehmen der Loyalty-Programme mussten sich überlegen, ob die Datenhoheit nicht strategisch ein so wichtiges Gut geworden war, dass sie im Unternehmen tief integriert werden musste. Einerseits weil die Daten die Interfaces, die in Zukunft den Umsatz erwirtschaften mussten, direkt steuern würden. Andererseits weil große Verbundsystem, die das Datenhandling für viele gemeinsam erledigen, naturgemäß weniger flexibel waren. Die großen monolythische Systeme wie SAP, Oracle etc. waren für schnelle technologiegetriebene Entwicklungszyklen nie konzipiert. Doch genau solche Zyklen wurden für den Handel jetzt essentiell, weil die Frage eben nicht mehr war, ob die Kunden anders einkaufen würden, sondern wie und wann. Diese Antwort ließ sich nicht im vorhinein geben. Von niemandem. Weshalb ein langfristig auf einen erdachten Endzustand hin geplantes System (wie eine Oracle-SAP-Microsoft-Variante) zunehmend mehr falsch als richtig lag. Die Lernkurve, diese Realität anzuerkennen, zog sich für alle Beteiligten allerdings etwas.

PayBack bleibt eine Karte

Zwischen 2006 und 2010 wurde im Hause PayBack klar, dass die eigene Position im Grund sehr schlecht zu verteidigen war. Die Technologie würde auf absehbare Zeit veralten und war teuer. Andere konnten das Modell mittlerweile im Netz nachbauen. Die Karte war dem neuen Device langfristig weit unterlegen. Man musste sich im Grunde neu erfinden. Erklärtes Ziel war allerdings die Internationalisierung des Geschäfts.

Aus Sicht des Investors Palamon war einen Internationalisierung aber offenbar kein Selbstzweck. Die Investition musste sich auf eine bestimmte Zeit rentieren. 2010 war klar, dass eine eigene Internationalisierung trotz großer Anstrengungen bei PayBack nicht stattfinden würde, und Palamon Capital verkaufte seine Anteile für rund 500 Mio. Euro an den American Express-Konzern. 400 Mio. in 5 Jahren ist nicht schlecht für 120 Mio. Investment. PayBack wurde zu einem weiteren Lieferanten von Daten in der schon jetzt nicht ganz kleinen Kartenwelt des Kreditkartenanbieters. Und die Kombination von Rabatt- und Kreditkarte wies einen Weg in die Zukunft, der heute fast ein Standard ist, weil damit beide Schritte im Bezahlvorgang vereint sind. 

Arvato dominierte weiter das B2B-Geschäft

Arvato hatte gewonnen. Sichtbares Zeichen des Erfolgs von Arvato war die Zusammenarbeit mit dem Metro-Unternehmen “Real”. Metro war als Mitbegründer von PayBack jetzt mit der wichtigen Infrastrukturfragen bei der Konkurrenz gelandet. Für den  „Real“-Online-Shop lieferte Arvato E-Commerce-Services von der Gestaltung des E-Shops auf Basis von SAP hybris, über Kundenservice, Logistik und Transport bis hin zu Order-, Risiko- und Debitorenmanagement einschließlich der gesamten Zahlungsabwicklung. Ab 2012 organisierte Arvato auch das Zusammenführen der digitalen Plattformen des stationären Handels und des Onlineshops. Real und Arvato verlängerten 2014 sogar noch einmal die Verträge bis 2017. 

Der Wandel zieht an

Die großen Partner der Loyaltyprogramme erkannten aber in dieser Zeit, dass es für sie grundlegend war, die neuen Technologien selber zu beherrschen. Vor allem wurde es wirtschaftlich attraktiv wesentliche Technologien auf Cloud-Systemen selbst zu entwickeln, anstatt monolitische (teure) Alleskönner wie SAP oder Oracle zu kaufen und auf die eigenen Bedürfnisse anzupassen. Die Konsequenz: 2014 trennte sich die Lufthansa mit 5 Jahren Vorlauf vom Dienstleister Arvato, damit war “Miles and More” futsch. Die Nordwestzeitung berichtete:

Der Kommunikationsdienstleister Arvato(Gütersloh) verliert mit dem Lufthansa-Treueprogramm „Miles & More“ einen wichtigen Kunden. Wie die Bertelsmann-Tochter am Mittwoch auf Anfrage dieser Zeitung mitteilte, will die Tourismus-Gesellschaft ab Januar 2019 die Zusammenarbeit mit Arvato CRM Solutions beenden und das Kundengeschäft entweder selbst übernehmen oder anderweitig vergeben. Nach Arvato-Angaben sind von der Entscheidung auch mehr als 90 Mitarbeiter am Standort Roffhausen (Schortens) betroffen. Insgesamt beschäftigt Arvato an dem Standort rund 1000 Mitarbeiter.

Lufthansa ging mit dem Geschäft schließlich zu Bosch Service Solutions, einem Anbieter für Business Process Outsourcing, der bei der Optimierung in den Bereichen Customer Experience, Mobility, Monitoring, Business Services und Shared Services aktiv ist, aber wohl eher Technologie-Partner als Full-Service-Anbieter ist. 

Und jetzt?

Die Lernkurve unseres Beispiels Metro-Gruppe ging stetig weiter. 2016, als der auslaufende Vertrag mit Arvato absehbar war, kauft Real den Marktplatzbetreiber „Hitmeister“ und setzt ab 2017 auf die dort selbst entwickelte Technologie aus dem eigenen Haus. Die Real-Marktplatz-Plattform wird intern als großer Erfolg gewertet. So erfolgreich, dass die Konzernmutter Metro jetzt mit dem Metro-Marktplatz eine eigene Ausgründung im Plattformmarkt ins Rennen schickt – gemacht und aufgebaut auf den Erfahrungen aus dem real-Vorgehen: Ausgründung, eigene Technologie, Know-How im eigenen Haus. Wer ernsthaft in der digitalen Welt mitspielen will, hat offenbar dazu kaum eine Alternative, wenn die Interfaces unmittelbar Geschäft machen müssen. Und das ist im Wesentlichen die Folge des Jahres 2006/7. 

Mit der Metro konzentriert sich heute damit – nach der Lufthansa – auch das zweite Gründungsmitglieder der PayBack-Karte auf die Schlüsselkompetenzen im eigenen Unternehmen, um konkurrenzfähig zu bleiben. Die beiden Loyalty-Konkurrenten agieren natürlich weiter erfolgreich am Markt. Wandel geht langsam, Revolutionen sind selten. 

So stehen die etablierten Loyaltyanbieter vor nicht ganz einfachen Zeiten. Aber, wie wir hoffentlich an der Geschichte der kleinen Karten zeigen konnten, die Handelsunternehmen hierzulande sind schon lange im Geschäft und dabei kreativ und erfolgreich, auch in einer digital-getriebenen Wirtschaft. Heute hat z.B. Arvato 70.000 Mitarbeiter in mehr als 40 Ländern, die für Geschäftskunden Lösungen für unterschiedlichste Geschäftsprozesse entlang integrierter Dienstleistungsketten abwickeln. Eine Krise sieht anders aus. Bertelsmann hat 2019 den Angriff auf den afrikanischen Markt gestartet, mit einer Kooperation mit der marokkanischen Saham-Gruppe. 

Für viele deutsche Handelskonzerne war die Rabattkarte mit der Infrastruktur dahinter die Eintrittskarte in die Welt der Daten. Was man 1995 noch für einen Nebenschauplatz halten konnte, ist heute über Datenhaltung, Datenanalyse und Lieferkettenintegration zu einer unternehmerischen Kernkompetenz gewachsen. Der Rohstoff Kundendaten wird aber nicht auf Dauer so günstig bleiben, entweder durch reglementierende Einschränkungen aus einer unvermindert starken Datenschutzsicht, oder durch die wirkliche Beteiligung der Datengeber an der Wertschöpfung mit ihren Daten.

(Disclaimer, damit keiner auf falsche Gedanken kommt und um Missverständnissen vorzubeugen: Wir schreiben unsere Texte aus privatem Interesse in unserer Freizeit und nutzen ausschließlich öffentlich zugängliche Informationen. Schön, dass wir das mal klarstellen konnten, und jetzt los; weitererzählen, wenn ihr Spaß hattet.)

Moravec’sches Paradox: Verlierst du deinen Job?

Es gibt kein größeres Hype-Thema als künstliche Intelligenz. Wenn man in den letzten 4 Jahren nicht durchgängig geschlafen oder Netflix durchgespielt hat, wird man mindestens zweitausend Mal einem Artikel zu AI, Machine Learning oder Deep Learning begegnet sein. Kontextualisiert werden diese Themen oft mit der Frage: “Verlieren Sie bald Ihren Job?” Und die allgemeine Antwort lautet, besonders für einfachere Berufe, oft: “Ja”.

Doch ein Forschungsergebnis aus den Achtzigerjahren zeigt: So einfach ist das alles nicht. Und am Ende könnte genau eine Gruppe einen sicheren Arbeitsplatz haben – Menschen mit “einfachen” Berufen.

Photo by Franck V. on Unsplash

68 Jahre für einen Friseurtermin

Intelligent sind die Facebook-Algorithmen, unsere Autos und die NSA. Microsoft ist auch intelligent, genauso wie Amazon‘s Kaufvorschläge und dieser Computer, der jemanden in „Go“ geschlagen hat. Und was ist intelligent, wenn nicht Google! Deren Sprachassistent kann jetzt sogar telefonisch Termine im Friseursalon vereinbaren.

Doch künstliche Intelligenz ist keineswegs ein hippes Trendthema der letzten Jahre. Je nachdem wo man nachliest wird der Beginn der Forschung einem sechswöchigen Workshop der Rockefeller-Stiftung im Jahr 1954 (ultra-mysteriös) oder eben Alan Turing und seinem weltbekannten Turing-Test um 1950 zugeschrieben. Mehr als 60 Jahre Forschung also, bis ein Computer eigenständig beim Friseur anrufen kann -Wow!

Was AI kann und was nicht

Wenn man die Ironie einmal beiseite lässt, findet man tatsächlich eine Vielzahl von Errungenschaft künstlicher Intelligenz, die dann doch etwas höher ansetzen, als die Terminvereinbarung per Telefon: 2017 hat ein Algorithmus beispielsweise einen Planeten in einem 2500 Lichtjahre entfernten Sonnensystem entdeckt. Im gleichen Jahr hat Google eine künstliche Intelligenz entwickelt, die künstliche Intelligenzen programmieren kann. Und natürlich sind da noch Bob und Alice, Facebook Chatbots, die sich erst gegenseitig belogen und dann ihre eigene Sprache erfanden.

Wenn man die Gesamtheit aller von einer künstlichen Intelligenz bewältigten Probleme zusammenfassend beschreiben müsste, könnte das in etwa so aussehen: “Ui, dafür hätte ich als Mensch echt lange gebraucht.” Und der Grund dafür ist das Moravecsche Paradox.

Maschine macht, was Mensch nicht kann

Moravecs Paradox wurde in den Achtzigerjahren von Hans P. Moravec definiert (überraschend, nicht wahr). Einem Mann aus Österreich, der im Alter von 10 Jahren seinen ersten eigenen Roboter konstruierte und zur Masterarbeit eine Art fremdgesteuerten Katzenroboter mit Schnurrhaaren einreichte.

Im Wesentlichen kann das Paradox so beschrieben werden:  Künstliche Intelligenz kann besonders solche Dinge schnell lernen und übernehmen, die Menschen sehr schwer fallen, wie z.B. abstrakte Muster erkennen oder mathematische Berechnungen durchführen.

Gleichzeitig würde es Maschinen sehr schwer fallen Dinge zu tun, die für ein Kleinkind selbstverständlich sind, wie einen anderen Menschen und seine Absichten zu erkennen, sich frei im Raum zu bewegen oder sich auf interessante Vorgänge in der näheren Umgebung zu konzentrieren.

Als Beleg gibt es hier ein Video, dass den laufenden Roboter “Atlas” von Boston Dynamic zeigt: https://www.youtube.com/watch?v=vjSohj-Iclc
Das ist das Non-Plus-Ultra der aktuellen Forschung zum Thema Motorik. Und schon wirkt der Friseurtermin wieder imposant.

Ich sehe was, was du nicht siehst

Als weiteren Beleg zu der These, dass AI keine für Menschen einfachen Dingen lernen kann, gibt es auf Wikipedia eine schöne Kategorisierung des aktuellen Fortschritts künstlicher Intelligenz. Während die Kategorien “Optimal” und “Super-Human” mit Spielen die abstraktes Denken erfordern gefüllt sind (Schach, Rubik’s Cube und offensichtlich Go. Ernsthaft, kennt ihr jemanden der Go spielt?) lesen sich die Einträge in der Kategorie “Sub-Human”, also “schlechter als Mensch” wie die To-Do-Liste eines Neugeborenen: Objekterkennung, Gesichtserkennung, Stimmerkennung, Laufen.

Die Begründung für dieses Paradox ist verblüffend wie einleuchtend: Wir unterschätzen die uns angeborenen Fähigkeiten massiv. Tatsächlich sind die oben genannten Skills nämlich keine einfache Aufgabe, sondern die Tatsache, dass wir diese fast von Geburt an beherrschen das Ergebnis von Jahrtausenden an Evolution und damit Optimierung. Oder wie Moravec selbst es beschreibt:

Wir alle sind wunderbare Olympioniken im Wahrnehmungs- und Bewegungsbereich, so gut, dass wir das Schwierige einfach aussehen lassen können. Abstraktes Denken ist jedoch ein neuer Trick, vielleicht weniger als 100.000 Jahre alt. Wir haben es noch nicht gemeistert. Es ist nicht alles so schwierig, es scheint nur so, wenn wir es tun.

Hans P. Moravec

“Nein, DU verlierst deinen Job”

Mit dem Wissen, dass es besonders die für Menschen einfach und selbstverständlich erscheinenden Prozesse sind, die Maschinen und ihre Entwickler vor große Herausforderungen stellen, ist es umso erstaunlicher, dass der allgemeine Konsens zur Zukunft der Arbeit eher dahin geht, dass besonders einfache Arbeiten früh ersetzt werden könnten.

Thomas Erwin von der Wirtschaftsprüfungsgesellschaft KPMG sagt in der hausinternen Talk-Sendung klardenker live beispielsweise: “Wenn ich genau beschreiben kann, was ich tue, um Geld zu verdienen, dann habe ich gute Chancen innerhalb der nächsten fünf bis zehn Jahre meinen Job zu verlieren.” (ab 33:00: https://videostream.kpmg.de/kpmg-klardenker-live-zukunft-der-arbeit) Auf der Website willrobotstakemyjob.com (ein grandioses Stück Internet) ist der Beruf “Koch” mit 96% Wahrscheinlichkeit vom Aussterben bedroht.

Ich halte es für wesentlich wahrscheinlicher, dass eine Software alle Unternehmens- und Branchendaten so akurat analysiert, dass Sie mir bessere Entscheidungsgrundlagen liefern kann, als ein Unternehmensberater, als dass eine Maschine bei meinem Lieblingsitaliener die Amatriciana-Sauce anrichtet. Oder dass der Roboter aus dem Boston Dynamics-Video bei uns die Briefe zustellt (obwohl das wirklich wirklich witzig aussehen würde).

Eine arbeitslose Welt

Letztlich glaube ich, dass die meisten Berufe früher oder später von Maschinen ausgeführt werden könnten. Die Frage ist nur: Wen trifft es zuerst? Und mit Moravecs Paradox im Hinterkopf, ist die Antwort darauf wohl eher nicht “Koch” oder “Gärtner”, sondern vielmehr “Data Analyst”, “Marketing Manager” oder “Unternehmensberater”.

Und dann bleibt natürlich noch eine finale Frage: Wie schlimm ist das eigentlich – eine Welt ohne Arbeit?

Amazon Alexa: Ein Bericht aus der Küche

Amazon hat mich doch bekommen – natürlich. Als die Preise für Amazon Echos (so heißt das Gerät, in dem Alexa wohnt) für ein paar Tage drastisch reduziert wurden, blieb mir quasi keine andere Möglichkeit. Und da steht sie nun in der Küche, die weiße Röhre, die mich irgendwie immer an ein verkleidetes Auspuffrohr erinnert, und hört mir zu.

 

Alexas blauer Ring leuchtet

 

Wie es in den Wald hineinruft

Zunächst ein bisschen Echo-Kunde: Ich habe die Variante Amazon Echo Plus erstanden (früher hießen die Auspuffrohre nur Echo, jetzt aber Echo Plus, da das neue Standard-Echo jetzt kleiner ist, als das neue Echo Plus, ehemals Echo. Verstanden?). Diese hat, anders als der Echo Dot, einen integrierten Lautsprecher. Wenn man auf dem Echo Plus Musik abspielt klingt das also ganz ordentlich. Nicht so beim Echo Dot. Hier klingt es mehr, als hätte ich in MacGyver-Manier versucht einen Lautsprecher aus einer Cellophanfolie, einem Gummiring und einem Feuerzeug selbst zu basteln. Der Echo Dot sollte wirklich nur zur Spracherkennung benutzt werden und nicht zur Musikwiedergabe (Bitte auf keinen Fall zuhause ausprobieren!).

Ob Echo, Echo Plus, Echo Dot oder Echo Show (das letzte Gerät der Reihe, das auch einen Bildschirm und eine Kamera an Bord hat) spielt aber auch keine Rolle. Denn alle Geräte heißen Alexa.
Falsch: Alle Geräte sind Alexa. Spätestens wenn die unschuldige Stimme das erste Adventsgedicht vorliest, hat man auch keine andere Wahl mehr als dieses niedliche Auspuffrohr zu personifizieren.

 

Brauche ich Alexa?

Die Frage, die man sich unweigerlich vor jeder technischen Anschaffung stellt, ist: „Brauche ich das eigentlich?“. Und wenn wir ehrlich sind, ist die Antwort fast immer „Nein“. Wenn wir uns an der Maslowschen Bedürfnispyramide orientieren trifft wohl auf fast alle technischen Anschaffungen eher nicht zu, dass sie der Stillung der physiologischen Grundbedürfnisse (Essen, Schlafen) oder der Sicherheit dienen. Wer Alexa kauft, um seine sozialen Bedürfnisse (Stufe 3 der Pyramide) zu stillen, sollte vielleicht nächste Mal statt zu Media Markt zum Bingoabend oder gleich zum Psychologen gehen. Will sagen: Technische Geräte sind Luxusgüter, die wir nicht wirklich brauchen. Die Diskussion, ob man Alexa, ein iPhoneX, einen Kühlschrank mit Eiswürfelspender oder einen Quadrocopter wirklich braucht, ist meines Erachtens hinfällig. Der Mensch braucht sehr wenig von dem, was wir so in der Wohnung rumstehen haben.

 

Küchen-Alexa

Zur Vereinfachung unterscheide ich ab hier zwischen der Küchen-Alexa (Echo, das bei mir in der Küche steht) und der Wohnzimmer-Alexa (ihr kommt alleine drauf).

Die Küchen-Alexa ist wirklich hilfreich. Wenn ich morgens mein Müsli esse, lasse ich mir mein selbst zusammengestelltes Nachrichtenupdate vorlesen. Viele Nachrichtenportale erstellen eigens dafür 100-sekündige Snippets, die auch mindestens einmal am Tag aktualisiert werden.

Außerdem ersetzt die Küchen-Alexa quasi das Radio, da man über das Gerät alle digitalen Sender empfangen kann. Auch meine Spotify-Playlists kann ich über die Box abspielen.

Manchmal beantwortet Alexa auch mal schnell eine Frage zu der Einwohnerzahl von Eisenhüttenstadt, nach dem Wetter oder einem Fußballergebnis. Eher seltener wird eine der Alexa Apps benutzt (Die meistgenutzte App bei mir ist R2D2. Eine App, die immer nur piept wie der kleine Druide, egal was man fragt). Für Menschen, die nicht in einer Stadt wohnen und die Mülltonne vor das Haus stellen müssen, soll wohl auch die „Erinnerung-an-die-Müllabfuhr-App“ (oder so) sehr praktisch sein.

Das wirklich Nützliche an der Küchen-Alexa ist, dass man beim Kochen keine Timer mehr per Hand stellen muss (klingt albern, ist aber so). Ich kann parallel einen Ofen-, Nudel- und Tee-Timer stellen und brauche dafür nicht meinen Rührbesen aus der Sauce zu nehmen (Hihi, das klingt als würde ich regelmäßig aufwändig kochen).

Komplettiert wird das Leistungsspektrum von witzigen Fragen, die ich Alexa stelle nachdem der wöchentliche Alexa-Newsletter mit witzigen Fragen kam.

 

Wohnzimmer-Alexa

Die Wohnzimmer-Alexa führt ein größtenteils eher einsames Leben (Lacht nicht über mich, 3 Wochen mit dem Ding und das Gerät wird zu eurer Freundin, ich verspreche es euch). Sie hat, im Gegensatz zu Ihrer Schwester in der Küche, keinen nennenswerten Lautsprecher. Mit ihr macht Radio und Spotify hören dementsprechend nicht so viel Spaß (Euphemismus!).

Wohnzimmer-Alexas Hauptanfragen sind „Wie ist das Wetter draußen?“, wenn ich zu faul bin kurz aufzustehen und auf den Balkon zu gehen und „Stelle die Temperatur im Wohnzimmer auf 22 Grad“. Was? Das kann Alexa auch?
Ja, aber nur wenn ihr ein passendes Thermostat an eure Heizungen geschraubt habt. Ich habe zwei Thermostate, die nicht über WLAN, sondern über DECT direkt mit dem Router kommunizieren, installiert und Alexa quasi die Zugangsdaten zum Smart Home-Bereich meines Routers überlassen (Wenn man das so schreibt klingt das echt nicht so schlau). Auf jeden Fall kann ich jetzt die Temperatur im Wohnzimmer und in der Küche verändern ohne von der Couch aufzustehen (Make my life great again).

50% der Zeit, in der Alexa zuhört, wurde sie nicht von mir, sondern vom Fernseher aktiviert. Wenn in einer Serie jemand Alex heißt, ist das sehr verwirrend für sie. Manchmal fängt ihr blauer Kreis aber auch an zu Leuchten, wenn kein ähnliches Wort gesagt wurde oder, das ist schon gruselig, wenn niemand etwas gesagt hat.

 

Die Haken

Fangen wir mit dem Offensichtlichsten an: Wer sich einen Amazon Echo zulegt muss sich bewusst sein, dass technisch jedes Wort mitgehört wird. Amazon schwört, eine Übertragung des Gesagten ins Internet findet nur statt, nachdem Alexa aktiv angesprochen wurde. Gegenteiliges konnte bisher niemand beweisen. Glaube ich.

Ein weiteres Hindernis, das bei vielen den Spaß der Nutzung einschränken könnte ist: Man muss üben. Leider (oder glücklicherweise) versteht Alexa nicht jedes beliebige Kommando und findet nicht auf jede Frage eine Antwort. Aufgrund des Hypes, der um sprachbasierte Assistenzsysteme stattfindet, löst das bei Besuchern oft Enttäuschung aus („Was, das kann sie nicht? Was kann sie überhaupt?“). Letztlich ist das Echo auch nur ein Gerät und Alexa eben nur eine Software. Man würde schließlich auch nicht fragen: „Wie Fensterputzen? Kann das nicht dein iPhone machen?“

Teil der Eingewöhnungsphase ist auch, nicht „Alexa“ zu sagen, wenn man über Alexa redet, weil sie dann natürlich anspringt und eine Anfrage erwartet. Darum nennen wir Alexa jetzt Uschi, wenn wir heimlich über sie sprechen wollen (Dazu eine witzige Anekdote: Mir ist aufgefallen, dass in der Amazon-Werbung das „A“ in „Alexa“ komplett weggenuschelt wird, damit die Geräte nicht auf die Werbung anspringen).

Bevor man sich einen dieser schlauen Assistenten ins Haus stellt sollte man sich außerdem eines bewusst sein: Das ist erst der Anfang. So wie ich mir kurz nach dem Echo auch die Heizungsthermostate bestellt habe, könnte es mit etlichen weiterer Gadgets weitergehen. Letztens war ich kurz davor mein Wohnzimmer mit intelligenten Glühbirnen auszustatten. Davon kostet eine gerade mal läppische 30-45€ (wohlgemerkt eine Glühbirne, kein Set). Dafür kann man dann sagen: „Alexa, mach pinkes Licht im Wohnzimmer an“. Alles hat seinen Preis.

 

Alexa, komm zum Punkt

Alexa hat ihre Nische im Alltag gefunden. Besonders beim Frühstücken, beim Kochen und auf der Couch ist sie eine gute Begleiterin. Es bleibt zu hoffen, dass die „Skills“ genannten Apps in Zukunft noch besser werden und Alexa mit noch mehr Geräten kompatibel sein wird. Meine Teufel Raumfeld-Lautsprecher kann ich beispielsweise nicht über Alexa steuern. Dabei ist doch das der Traum: Eben nichts mehr selbst anfassen zu müssen, alles von der unsichtbaren Hand, welchen Namen sie dann auch immer trägt steuern zu lassen. Alexa kaufe dies, erinnere mich an das, mach Kaffee, mach Wäsche, mach mir gute Laune. Und spätestens, wenn Alexa zu einer echten Assistentin im echten Leben wird, werden wir auch die Datenschutzprobleme ignorieren können. Basta.

Und zum Schluss:

Wichtigster Satz für die Alexa-Nutzung: „Alexa, STOPP!“.
Bester Satz für die Alexa-Nutzung: „Alexa, frag R2D2 was der Sinn des Lebens ist!“