Rabattkarten und Datenhandel in Deutschland

Wer kennt die Frage nicht, wenn man abends noch schnell durch den Supermarkt rauscht. ”PayBack-Karte?”
Die Deutschen sind Sparfüchse und lieben diese Karte. Ob man damit etwas spart, sei mal dahingestellt. Auf jeden Fall geht so an dieser und anderen Supermarktkassen täglich 4 Mio. Mal mit einem „Piep“ ein Tracking los, das Facebook richtig neidisch macht. Willkommen im Land der Rabattkarten (oder Loyalty-Karten, wenn man Denglisch lieber mag.)

Während die ganze Welt Herzrasen wegen Facebook -Daten kriegt, gehen die Datensammler in Deutschland ganz gemütlich und hochprofessionell seit 30 Jahren ihren Geschäften nach – deutlich länger als es Facebook gibt. Heute nutzen 31 Millionen Menschen allein den Dienst PayBack. Die PayBack-App gehört nach eigenen Angaben zu den Top 3 Shopping-Apps in Deutschland – zusammen mit Amazon und eBay. Die Konkurrenz von Anbieter „DeutschlandCard“ nutzen 20 Mio. Haushalte; an 10.000 Stellen können die Kunden hier im Austausch gegen ihre Daten Punkte sammeln.

Rabattkarten auf Holztisch

Die Plastikkarten sind ein überraschendes Beispiel wie Rechnerleistungsebene, Daten- und Anwendungsebene in digitalen Geschäftsmodellen zusammenwirken und in ihrer spezifischen Kombination als Businessmodel wertvoll werden. In diesem Artikel zeigen wir die Geschichte der Karten, die irgendwie auch eine Version der Digitalisierung sind, und wie sie ganz speziell in Deutschland stattfindet. Und, last but not least, zeigen wir eine schlichte Tatsache: dass der deutsche Datenmarkt seit 30 Jahren hochentwickelt ist, ohne dass wir bisher in den “totalitären Überwachungsstaat” abgeglitten sind. 

Am Anfang war die Bahncard

Rabattkarte klingt noch heute mehr nach Margarine und Bohnerwachs als nach datengetriebener Kundenbindung. Mitte der Achtziger, als unsere Geschichte beginnt, war “Rabattkarte” brutal uncool (Bis heute spricht man lieber von “Loyalty-Programmen”). Mit Rabatten sparen, das hatten irgendwie die Eltern der pulloverstrickenden Fundis irgendwann mal nach dem Krieg gemacht. In den Achtzigern war das echt durch. Doch Anfang der 90er-Jahre kam “Sparen” wieder ganz gut an in der vereinigungseeligen Kohl-Republik. Gemeinsam Bahn fahren für den Frieden – mit Abo. Also führte die Bahn zum 1. Oktober 1992 die Bahncard ein.

Damit gab sich die Deutsche Bahn selbst “den bedeutendsten Schub seit dem Zweiten Weltkrieg” – neben dem schnellen Intercityexpress. Und das liegt vor allem an den Deutschen, mit und ohne Strickpullover: Die sparen (oder optimieren) eben gern. Nicht nur auf der Schiene und mit selbstgestrickten Klamotten, sondern sogar in der Luft beim Fliegen. Ja, Innovation ist manchmal auch nur ein Synonym für “Gut kopiert”. Und so führte auch der zweite ehemalige Staatskonzern, die Lufthansa, ein Jahr später (1993, war da wohl der gleiche Berater im Haus?) ein Kartenmodell ein: Miles and More war geboren.

Bis heute, 27 Jahre später, sind die Bahncard und Miles and More zwei der wichtigsten Kundenbindungsprogramme Europas. Miles and More ist keine Karte für treue Lufthansa-Flieger, sondern ein Verbund von 28 Fluggesellschaften der Star Alliance und 270 weiteren Unternehmen weltweit. Die Bahncard ist…. weiter die Bahncard.

Die Karte

Es ist eine interessante Eigenart des deutschen Marktes, dass das Geschäft mit den Daten bei uns, quasi parallel zur kommerziellen Revolution des Internets entstand, aber zunächst nicht auf diesen Technologien basierte. Zu Beginn der Neunziger war das Szenario millionenfache persönliche Transaktionen mit den offenen Protokollen des Internets abzuwickeln, gar nicht abzudecken. Dazu legte die Browser Firma Netscape erst ab 1994 unter anderem mit der Cookie-Technologie die Grundlagen.

In Deutschland setzte die Industrie schon ab Anfang der Neunziger auf ein anderes Modell: das Einkaufsverhalten wurde mit der Nutzung einer persönlichen Karte direkt an der Kasse gemessen. Über Rabatte und besondere Behandlung wurde das Ziehen der Karte für den Kunden attraktiv. Das ist natürlich nicht das gleiche wie ein Cookie im Browser, bringt aber dieselben wichtigen Zutaten zusammen: eindeutige Personen(oder wenigstens Browser/Karten)zuordnung, Daten und Transaktion. Außerdem hat die Karte einen wichtigen Vorteil – sie funktioniert online zu offline, also an der Schnittstelle der wirklichen Welt und der digitalen. Die Techniken, die sich in der Folge mit der Datenverarbeitung im Hintergrund entwickelten, sind letztlich die gleichen wie im Netz, weil auch die Karte mit dem Chip schon den notwendigen Kern bot: die eindeutige ID und einen ordentliche Datenspeicher. In der Kombination mit diesem „Unique Identifier“ ist noch nicht mal massenweise Datenschrott (Big Data) notwendig, um sinnvolle Informationen zu finden. 

Die Triebkraft für die Innovation kam also aus dem Bestandsgeschäft des Handels. Die deutsche Industrielandschaft sorgte hier für eine kontinuierliche Innovation (ala Clayton Christensen), die schon seit Anfang der Neunziger Jahre und in den folgenden Jahrzehnten mit einer anderen Technologie zu ganz ähnlichen Ergebnissen gekommen ist, wie die parallele Entwicklung des Netzes.  So, Tschüss an die Ungeduldigen. Jetzt kommen die Details.

Die Technik

Anfang der Neunziger setzte sich die echte Chipkarte in verschiedenen Lebensbereichen durch. Bis dahin hatte die Karte einen simplen Magnetstreifen, der wenige Informationen speichern und gar keine verarbeiten konnte.

Anders als Magnetstreifenkarten, haben Chipkarten einen integrierten Schaltkreis und arbeiten mit einem eigenem Betriebssystem. (Ja, wirklich, das steckt alles in den Platikkarten in eurem Portemonnaie) Sie sind flexibel, weil sie auf unterschiedlichen Plattformen laufen und in bestehende Systeme integriert werden können. Außerdem haben sie mehr Speichervolumen, und sind dank kryptografischer Verfahren sehr sicher. Deshalb werden sie häufig als Sicherheitsschlüssel (Zugangskarte) eingesetzt und wir heben damit unser Geld ab, oder (kleiner Sprung, so 30 Jahre später) sie sind die Sim-Karten-Chips in den kleinen Supercomputern, die wir alle in unseren Tasche haben.

Dem Erfinder der Chipkarte Jürgen Dethloff, der schon 1968 mit seinem Partner Helmut Gröttrup das Patent angemeldet hatte, war das Potential, das wir erst heute jeden Tag sehen, schon 1994 sehr klar : „Die Chipkarte kann zu einem Teil unserer selbst werden“, orakelte er damals. Das hört sich für Skeptiker natürlich irgendwie bedrohlich an, wenn etwas Teil von mir wird, um das ich nicht gebeten habe. Was meinte Dethloff? Eben weil mit der Kartentechnologie, Unique Identifier und sicher verschlüsselter Datenspeicherplatz zusammen kamen, definiert sie die kleinste Einheit, die in einer datengetriebenes Welt notwendig ist, um sinnvolle Einsatzszenarien zu steuern. Ich und meine Daten eben. 

Mikroprozessorkarten können heute sowohl per Kontakt als auch kontaktlos Daten übertragen. Entweder werden sie mit einem Kartenlesegerät über direkten Kontakt ausgelesen, oder sie übertragen ihre Daten per Funk. Kontaktlose Chipkarten bezeichnet man als RFID-(Radio Frequency Identification)-Karten. Eine Unterkategorie der RFID Technologie sind die Übertragungsmöglichkeiten mittels NFC (Near Field Communication). NFC überträgt Daten von einer Karte nur über wenige Zentimeter.

Der Formfaktor 

Für den andauernden Erfolg der Karte an der Kasse war aber wahrscheinlich ebenso die Form (das Interface) entscheidend. Bezahlen mit dem Telefon an der Supermarktkasse ist nämlich gar nicht mal so toll, wie alle sagen. Ne’ Karte kann man grad noch rausziehen, scannen, fertig. Aber erst die Loyalty-App aufmachen, scannen, dann die Bezahlapp, ach ne die andere, aufmachen und bezahlen, dafür braucht man an einer deutschen Supermarktkasse bisher noch Nerven aus Stahl oder man gehört zur Generation Ist-mir-doch-egal-wie-mein-super-digitales-Leben-dich-nervt. Die Karte steckt direkt neben der EC-Karte und passt für diesen Einsatz und das Szenario richtig gut.

Loyalty ist so Neunziger 

Zurück in die Zeit als Modems noch rauschten und quiekten. Die beiden deutschen ehemaligen Staatskonzerne Bahn und Lufthansa hatten das Rabatt-Modell auf Karte auch nicht erfunden, sondern beim britischen Unternehmer Keith Mills entdeckt. Der hatte sein Programm “Air Miles” schon 1988 mit British Airways gestartet. Die beiden Programme sind aber bis heute wahrscheinlich die bekanntesten und oberflächlich betrachtet die Giganten am Markt. Aber wie beim Datengeschäft immer, findet das Wichtige dahinter statt.

Der Riese in der zweiten Reihe

Die Neunziger waren auch die großen Zeit des Outsourcings als Allheilmittel. Da machte Deutschland keine Ausnahmen. Und zunächst betrachtete keine Firma “Loyalty” als ihr Kerngeschäft. Also: raus damit. Spätestens seit 1995 ließ die Bahn ihr Bahncard-Geschäft und den Kundenservice durch das Bertelsmann-Tochterunternehmen Arvato im niedersächsischen Schortens abgewickeln. Einen spezialisierten Anbieter mit dem Kundenbindungsprogramm zu beauftragen, war damals ziemlich logisch, denn die Infrastruktur aus Karten, Rechenzentren, Software und Kundenbetreuern, war für ein Unternehmen allein sehr teuer und deshalb ein hohes Risiko. Da lag es nahe, ein anderes Unternehmen zu beauftragen, das dieselbe Dienstleistung für ganz verschiedene Kunden und  Kundenbindungsprogramme abwickeln konnte und deshalb die Investition wagen konnte. Und, logisch, auch das “Miles and More”-Programm der Lufthansa wickelten die Bertelsmänner von Arvato ab. Defacto hatte also Bertelsmann (das war mal die Buch-Club-Firma, wem das noch etwas sagt) das eigentliche Know-How, wie man Millionen von Karten druckt, die Daten organisiert, die Infrastruktur aus Lesegeräten und Leitungen betreibt, kurz wie man Kundenbindung auf Karte organisiert und mit den Daten daraus das Geschäft ankurbelt.

Mittendrin im Miles-and-More-Programm saß als Berater von “Roland Berger” (und jüngster Partner in deren Geschichte)  Alexander Rittweger. Den muss man nicht kennen, er wird aber gleich wichtig.  Rittweger wollte wie er später sagte: ”auf keinen Fall in einem Konzern Karriere machen” (Hä? Roland Berger? Alles ein Irrtum? Ich war jung?) Nein, nein, er wollte bloß lieber seinen eigenen Konzern. Rittweger hatte wahrscheinlich eine zentrale Erkenntnis: Wenn im Backoffice sowieso alles Arvato macht, warum dann nicht gleich eine gemeinsame Kundenkarte für verschiedenen Unternehmen, dann könnte man die Daten auch zusammenschmeißen? Innovation geht eben nicht nur mit Abgucken( wie bei Lufthansa und Bahn), sondern auch mit Naheliegendem (sustaining innovation – wer es googeln möchte – heisst das bei Clayton Christensen). Dafür brauchte man nur ein paar Schwergewichte auf seiner Seite. Rittweger überzeugte die Lufthansa und den Cash und Carry-Giganten Metro von einer Rabattkarte, die nicht nur für eine Firma allein galt, sondern ebenfalls für eine große Zahl verbündeter Teilnehmerfirmen und besonders den Handel mit einbezog. Das war die Idee von PayBack.

Wie funktionieren Loyalty-Karten?

Das war 1998. Das Internet setzte grad zu seinem ersten großen kommerziellen Ikarus-Höhenflug an. “Data Warehouses” wurden in jeder Firma hochgezogen und der Optimismus war groß, mit Daten den Markt umzukrempeln. (Kommt das irgend jemandem bekannt vor?) Über die neue Qualität seiner Karte und deren Effekt war Alexander Rittweger sich sehr bewußt. Es ging natürlich nicht nur um ein Rabattprogramm, das nach Margarine und Bohnerwachs roch:

„In der Kombination mit Mailings- und Verkaufsaktionen entsteht ein einzigartiges Kundenbindungssystem, das alle Seiten profitieren lässt: Konsumenten erhalten Punkte, die in Prämien oder Bargeld eingetauscht werden können. Der Handel schafft Anreize, um für wiederkehrende und neue Kunden attraktiv zu bleiben. Und letztlich kann Payback seine unmittelbar auf die Kundenwünsche abgestimmten Angebote verfeinern und den Partnern effiziente Services anbieten.”

Ein branchen- und medienübergreifendes Kundenbindungsprogramm, das Kundentreue durch Rabattpunkte beim Einkaufen belohnt, und einem Dritten auf Basis der Daten die Möglichkeit gibt “effiziente Services” anzubieten: entweder Werbung, oder B2B-Dienste entlang der Wertschöpfungskette. E voila: Ein Plattformgeschäft. Mit den Daten im Hintergrund häufte sich sehr genaues Wissen über Kundenverhalten an, das nun auch maschinell auswertbar war, weil es nicht mehr nur in den Köpfen erfahrener Kaufleute, sondern strukturiert (z.B personen- und ortsbezogen) auf Festplatten war. Die große Vision war also nicht das Punktesammeln, sondern der Weg, wie PayBack Kundenbindung maschinen-basiert entwickeln konnte, um damit die Geschäfte der teilnehmenden Firmen rund um deren Bedürfnisse nach Customer-Relationship-Management-Diensten (was für ein Wort-Ungetüm), oder Lieferketten- oder Sortimentsoptimierung und Produktentwicklung zu verbessern. Die Palette der B2B-Dienstleistungen, die rund um die Karte entstanden sind, ist bis heute tatsächlich immer länger geworden. Logischerweise, denn im Zentrum steht das profitable Datenabbild des Kunden und der Produkte, die er braucht. Wann kaufen wir, was, wo ein? Wieviel Geld gibt welche Haushaltsgröße aus? Welche Gegend in deiner Stadt entwickelt sich gut, welche gibt immer weniger aus? Die Möglichkeiten der Datenanalyse sind zum unverzichtbaren Planungsinstrument im Handel geworden. Payback war genau das:  Ein Plattformgeschäft auf Datenbasis “Made in Germany” mit direktem Draht zum Puls des Kunden: Lufthansa und Metro waren begeistert. 

Aber wir sind ja in Deutschland und nicht im Silicon Valley. Wenn so große Firmen wie Lufthansa und Metro plötzlich gemeinsame Sache machen wollen, ist das erstmal schwierig und es dauert. Man fragt sich, wie Rittweger dieses Kunststück überhaupt vollbrachte. Aber fast zwei Jahre nach dem Start, im März 2000, nahm PayBack dann tatsächlich seine Geschäfte auf. Ausgerechnet in dem Monat, als die erste Hoffnungswelle der Internetträume sich überschlug. Die Wertpapiernotierungen für Technologie-Titel fielen zum Börsenschluss am Freitag, dem 10. März 2000 nach einem Allzeithoch plötzlich ins Bodenlose. Boom. (also: bäng) Die erste Internet-Blase war geplatzt.

Der Knall nach dem Boom

Und PayBack? War und ist eben ein besonderes Gewächs (haben wir oben ja gesagt) und ein gutes Beispiel dafür, daß es sich lohnt, digitale Trends im eigenen Land genauer anzugucken, um eigene Schlüsse zu ziehen. Der Internetknall war PayBacks Startschuss, weil das Corporate-Investor-Modell weder unmittelbar auf die Marktliquidität für Technologiefirmen angewiesen war, noch technologisch auf dem Internet basierte. Das Geld kam aus der Industrie, es war kein typisches Irgendwas-mit-Internetz-Geschäft, das zu Beginn auch viel von der kreativen Phantasie der Unternehmer und Investoren lebt. Rabattkarten waren eine offensichtlich sinnvolle und wenig risikoreiche Ergänzung vieler stationärer Handelsmodelle, mit unmittelbaren Vorteilen durch eine bessere Datenlage: die etablierten Anbieter festigten ihr Geschäft.

Und die Kunden fanden’s gut. PayBack entwickelte sich zu einem erstaunlichen Erfolg. Im ersten Jahr gewann das Unternehmen in Kooperation mit Partnern wie real,-, Galeria Kaufhof, DEA (Tankstellen), dm Drogeriemarkt, AOL und Consors unglaubliche 8,3 Millionen Nutzer – eine Million direkt über das Internet. Der Umsatz lag bei rund 50 Mio. DM. Die Branche war baff.

Ein Problem war allerdings, dass das Modell von Payback (Geld für Punkte) streng genommen in Deutschland gar nicht mal so richtig legal war, denn wir hatten seit 1934 das Rabattgesetz, nach dem der Rabatt bei Barzahlung 3 % des Warenpreises nicht überschreiten durfte. Ok, beim Punktesammeln ist das wohl nur theoretisch möglich. Da aber die Deutschen mit diesem Gesetz ziemlich alleine waren, war dem Gesetzgeber schnell klar zu machen, dass im Rahmen des übernationalen Internethandels damit ziemliche Nachteile verbunden waren, wenn die anderen so ein Gesetz nicht hatten. Die Lösung? Das Rabattgesetz wurde im Juli 2001 abgeschafft.

„Die Abschaffung des Gesetzes wird unser Geschäft beflügeln. Wir erhalten dadurch viele zusätzliche Möglichkeiten, gemeinsam mit unseren Partnern erfolgreiche Verkaufsaktionen durchzuführen.“ sagte Rittweger damals. Payback war nach nur einem Jahr zum röhrenden Platzhirschen mutiert. 

Das zweite, größere Problem war Arvato. Arvato war bis dahin, wie gesagt, der eigentliche Kern der etablierten Rabatt- und Meilenprogramme von Lufthansa und Bahn, und hatte 1999 mit “webmiles” sogar vor PayBack einen eigenen Rabattservice für Partnerunternehmen als reinen Internetdienst gestartet, allerdings ohne Karte, also im Grunde ohne die eigentlich wegweisende online zu offline Messung im Portemonnaie. Das lief deutlich schlechter als beim Neuling.

PayBack greift an

2005 setzte PayBack zum eigentlichen Angriff auf Arvato an, aber dann kam alles anders. Die Lufthansa wechselte den Vorstand. Die Folge für PayBack: Lufthansa verkaufte die Mehrheit an der Loyalty Partner-Holding (PayBacks Mutter) (zum Preis eines Airbuses, na fast) für 120 Millionen Euro an den Finanzinvestor Palamon Capital. Rittweger hielt von da ab 20 Prozent der Unternehmensanteile, zehn Prozent lagen beim Management, neun Prozent blieben bei der Metro und acht Prozent bei Roland Berger. Aber mit 53 Prozent war Palamon Capital Partners der neue Herr/ Frau im Haus.

Im April 2006 übernahm PayBack dann mit neuem Vertrag als Generalunternehmer für die Deutsche Bahn die komplette CRM-Abwicklung für das Kundenbindungsprogramm Bahncard. Dazu gehörten die Implementierung und der Betrieb der CRM-Systemplattform und die Durchführung von Online- und Offline-Marketingaktionen. Ende 2006 betraf das rund 3,6 Millionen Bahnkunden. Loyalty Partner war für die gesamte Logistik rund um die Bahncard verantwortlich, steuert die involvierten Dienstleister, stellt den technischen Support und sorgt für das Reporting. Das restliche Bahncard-Geschäft verlor Arvato zum 1. März 2007. Offiziell holte die Bahn das Geschäft “auf Grund firmenpolitischer Überlegungen innerhalb der Bahn, um personellen Überkapazitäten von DB Dialog entgegenzuwirken” ins eigene Haus. 

Arvato musste handeln. Wenn sie weiter ein ernstzunehmender Partner bleiben wollten, musste sie ihre eigenen Loyalitäten überdenken. Sie machten das Geschäft im Hintergrund und konnten deshalb eigentlich nicht selber konkurrieren. Wenn aber jetzt selbst die ältesten Kunden den Zug wechselten, musste etwas passieren. Für einen so straff und erfolgreicher geführten Riesen wie Bertelsmann heißt eine Option bei so einem Angriff immer: Copy und Paste, oder Umarmen und Auslöschen. Das galt besonders im Rabattkartengeschäft. 

Umarmen und Auslöschen

Arvato übernahm die InfoscoreGruppe, einen „Full-Service-Anbieter für integriertes Daten-, Informations- und Forderungsmanagement“, für 141 Mio. €. (weniger blumig: den direkten Konkurrenten der Schufa, dem Synonym für Kreditwürdigkeit). Gleichzeitig brachte Arvato die DeutschlandCard an den Start, eine Loyalty-Card mit Multipartnerprogramm (das ist der Teil „Umarmen“ ). Schau an, schau an. Das war naheliegend, weil sie so eine Schwäche nutzen konnten, die das Loyalty-Geschäft mit vielen Partnern quasi strukturell mit sich bringt. (Das ist der Teil „Auslöschen“) 

Die offene Flanke von Loyaltyprogrammen

Das Partnerprogramm eines Loyalty-Kartenanbieters sind die Firmen, die gemeinsam den Kunden die Möglichkeit geben, Punkte zu sammeln. Je mehr Filialen, desto besser, weil der Kunde überall Punkte sammeln und einlösen kann. Da es für den Unternehmer nur mittelbar um die Punkte, sondern mindestens ebenso um die Daten geht, ist das ein sensibler Punkt. Warum? Jeder Partner eines Kartenanbieters kann im Verbund auch bestimmte Daten der anderen Partner sehen. Gerade dadurch ergibt sich ja auf Datenbasis ein vollständigeres Bild des Kunden, als wenn man selber eine Karte nur für die eigenen Kunden herausgibt. Ich weiß dann eben nicht nur, was mein Kunde in meinem Geschäft kauft, sondern auch, was mein Kunde in etlichen anderen Geschäften kauft. Das ist aus Datensicht der große Vorteil gegenüber Kundenkarten einer einzelnen Firma. Gleichzeitig ist das auch eine Einschränkung: Niemand möchte, dass die direkte Konkurrenz ebenfalls am gleichen Programm beteiligt ist, und alles sieht, was man selber richtig macht. Entweder dm oder Rossman. Beides geht nicht innerhalb einer Rabattkarte. Genau hier war PayBack angreifbar.

Also schob Bertelsmann mit der DeutschlandCard seine eigenen Rabattkarte in den Markt, um genau über diese Flanke mindestens die andere Hälfte des Marktes zu gewinnen. Die Kassen waren dafür gut gefüllt. 2006 war das bis dahin wirtschaftlich beste Jahr in der Geschichte des Konzerns.

In der Heimat der Datennutzung 

Für die Partnerfirmen der Kartenprogramme sind die Daten der Nutzer ein wesentlicher Aspekt für ihre Investition in ein Rabattprogramm. Dabei geht es natürlich nicht um Informationen zu einzelnen Menschen. Was Herr Mayer Mittwochs um 18.00 macht, ist den Firmen komplett egal, oder zumindest als Einzelinformation ist das nicht besonders wertvoll. Daten sind wertvoll, weil es jemanden gibt wie Herrn Mayer, auf den ich meine Geschäfte planen kann. Die Daten sind also im Bezug auf ihre Anwendung wertvoll. Nicht per se. Und es geht auch nicht um das Ausspionieren von Herrn Mayer, sondern um die Sicherheit, dass es jemanden gibt, der sich wie Herr Mayer verhalten würde.

Für diese Anwendung in der Geschäftsplanung bedarf es aber noch deutlich mehr Informationen als die bevorzugte Klopapiermarke. Für diese zusätzlichen Informationen gibt es einen Markt für personenbezogene und nicht-personenbezogene Daten. Auf diesem Markt tummeln sich Werbetreibende, E-Commerce-Akteure, stationärer Handel, Politik, Interessenverbänden, Hilfsorganisationen, Marktforscher, Dialogmarketingexperten und Bonitätsauskunfteien, Aggregatoren, Listbrokern, Datenhändlern.

Drei unterschiedliche Datenklassen

Personenbezogene Konsumentendaten, klassische Postadressen und Melderegister sind die Grundlage der Anbieter, die sich auf die Anreicherung der Daten spezialisiert haben. Die Daten über den Kartenscan werden mit Daten verschiedener anderer Quellen zusammenführt. Um zu verstehen, was dazu notwendig ist, müssen wir die verschiedenen Arten von Daten grob auseinander halten. In der Praxis überschneiden sich Bereiche und haben unterschiedliche Ziele. Aber für den Überblick spricht man von diesen drei Gruppen:

First-Party-Daten

First-Party-Daten sind Daten, die ein Unternehmen selber hat. Häufige Datenquelle für First-Party-Daten sind die Kundenmanagement- oder CRM-Systeme, die unter anderem soziodemografische Informationen, Adressdaten und transaktionsbezogene Daten eigener Kunden enthalten könnten. Auf Deutsch heißen diese Daten Stammdaten. 

Second-Party-Daten

Wenn First-Party-Daten oder Stammdaten von verschiedenen Partnern in einem Netzwerk gemeinsam genutzt werden, nennt man das Second-Party-Daten. 

Ein Beispiel für gemeinsame Nutzung personenbezogener Daten ist Miles & More. Hier bündeln 250 Airlines, Hotels, Kreditinstitute, Finanzen und Versicherungen die von Ihnen erhobenen personenbezogenen Daten. Laut Datenschutzbestimmungen von Miles & More akzeptiert der Nutzer die Verwendung der „Stamm- und Programmdaten und die [Auswertung der] bei Nutzung unserer Angebote […] erhobenen Analysedaten […], um [ihm] nur für [ihn] relevante und auf [seine] Interessen zugeschnittene, individualisierte Informationen zukommen zu lassen.“  

Third-Party-Daten

Von Drittanbietern zugekaufte personenbezogene Daten werden als Third-Party-Daten bezeichnet. Achtung, nun wird es wild: Third-Party-Daten werden am Markt bspw. von Adress- und Datenhändlern angeboten, die Daten aus zahlreichen externen Quellen und eigenen Erhebungen zusammenführen. Großen Adress- und Datenanbieter in Deutschland mit personenbezogenen Verbraucherdaten sind z.B. die Schufa Holding, Bertelsmann Printing Group, die Deutsche Post Adress und die SAZ Services AG.

Die SAZ Services AG Leistungen z.B. basieren nach deren Darstellung auf der Datenbank-Plattform smartBASE®, die alle Transaktionen und Beziehungen zwischen einem Unternehmen und seinen Kunden abbildet (360-Grad-Sicht) und bis zu 220 Einzelinformationen pro Adresse zeigt. SAZ ist besonders interessant, weil die Firma einerseits den meisten total unbekannt sein dürfte, andererseits offenbar aber viel genutzt wird. Auf der Referenzliste von SAZ stehen 257 Kunden, neben philantropischen Organisationen wie “Amnesty International”, auch kommerzielle Unternehmen wie PayBack, Infoscore (Arvato) und Axciom und damit gleich drei Konkurrenten am Second-Party-Datenmarkt. SAZ scheint also ziemlich unverzichtbar in diesem Metier.

Die Welt des Datenhandels

Acxiom, eine amerikanische Firma, beschreibt das Geschäft mit den Daten etwas genauer und gibt damit vermutlich auch einen ganz guten Überblick für die anderen Organisationen. 

Acxioms Daten und Dienste basieren auf einer Kombination von Adressen, für die explizite Einwilligungen der Haushalte vorliegen, Businessdatenbanken, einem umfassenden Gebäudeverzeichnis, Informationen zur Aktualisierung und Anreicherung von Datenbeständen, Instrumentarien und Expertisen für analytisches Customer Relationship Management (CRM) und Database-Management im Outsourcing. 

Du kannst umziehen, aber du kannst dich nicht verstecken

Viele der Daten im Bereich Geomarketing stammen aus amtlichen Quellen wie den statistischen Bundes- oder Landesämtern. Diese Daten werden über statistische Verfahren auf granulare Gebiete projiziert. Sie werden so quasi zum Rohstoff für die Planung und Bewertung von Standorten, Vertriebsgebieten, Produkten und Umsätzen. Planungsabteilungen könnten diese Informationen mit internen Kundendaten (Stammdaten oder First-Party-Daten) in Beziehungen setzen, um zum Beispiel ihre Standortplanung zu verbessern.

Wenn man Drittparteidaten hinzufügt, kennt man einen breiteren Kontext der Lebensumstände. Wo jemand ungefähr wohnt, wie die Mieten sich entwickeln und warum jemand vielleicht auch lieber wegzieht. Merkwürdigerweise taucht mit der Post nun der dritte ehemalige Staatskonzern in der Datenwelt auf. Sicher ist das Zufall. (Wohl kaum, ist aber eine anderen Diskussion) 

In Deutschland ziehen täglich rund 22.000 Menschen und Unternehmen um. Entsprechend schnell veralten Stammdaten. Mit dem Produkt “Postadress Move” kann man z.B. Umzugsadressen und Umzugsdaten u.a. aus dem Nachsendeverfahren der Deutschen Post nutzen, um die eigenen Stammdaten gegen die Umzugsdatenbank abzugleichen und aktuell zu halten. Bertelsmann hält eine 49%-Beteiligung an PostAdress. Über PostAdress können Kunden auch Gebäudedaten nutzen. Das sind z.B. Datencluster zu Ein- oder Mehrfamilienhäusern, Baujahre, die Höhe der Kaltmieten oder gewerbliche Gebäudenutzung bis hin zu der Versorgung mit Strom oder Gas und der Eignung von Gebäuden für die Installation von Solaranlagen. 

Die Deutsche Post Direkt GmbH unterhält außerdem eine Datenbank mit Gebäudeadressen. Für interne Analysezwecke der Kunden, zum Adressabgleich oder Aufbau eines Datenbanksystems gibt es hier “adressgenaue” Daten zu rund 20 Millionen “zustellrelevanten” Gebäuden in Deutschland. Ein Datensatz enthält eine Gebäude-ID, Angaben zu Postleitzahl, Ort, Ortsteil, Straßenname und Hausnummer. Mit einem Straßenverzeichnis auf Basis der Original-Postleitdaten der Deutschen Post stehen auch über 1,2 Millionen Straßennamen zur Verfügung. 

Um den geltenden Datenschutzregeln zu entsprechen, fasst die Deutsche Post Daten in Mikrozellen zusammen, die jeweils aus durchschnittlich 6,6 Haushalten bestehen. Eine Mikrozelle ist die kleinste Einheit, die die Anforderungen des Datenschutzes erfüllt. So werden Rückschlüsse auf einzelne Personen verhindert. 

Kleine Zusatzinfo, die irgendwie wichtig ist, die man aber auch überlesen kann.

Zu Acxioms Kunde zählte bis zu den Wahlmanipulationsvorwürfen gegen die Firma “Cambridge Analytica” auch Facebook, das seine eigenen Datenbestände unter anderem mit denen von Acxiom anreicherte, um Werbeanzeigen besser auf die Lebenssituation und Interessen seiner Nutzer zuzuschneiden. Wohlgemerkt, mit Daten, die Facebook selbst nicht aggregieren kann. Dies betrifft vor allem Details über das Offline-Verhalten seiner Nutzer, z.B. geografische Zuordnungen. Acxiom ist wiederum auch ein Kunden der SAZ Services AG, die wir oben kurz erwähnten. Im Netflix-Film über Cambridge Analytics kann man in einem Präsentationsdeck sehen, dass dort auch Acxiom aufgeführt ist. Im Zuge der Vorwürfe gegen Facebook, hat Facebook bekannt gegeben, die Zusammenarbeit mit Acxiom zu beenden.

 

Profile und Datenkombination

Die Wirkung der Datensicht entfaltet sich also bei der Kombination aller drei Datenklassen. Dominik Dommick, Geschäftsführer bei PayBack äußerte sich dazu im Gespräch mit Alexander Graf im Podcast “Kassenzone” so:

“Im Endeffekt geht es ja erstmal damit los, dass man ab einem bestimmten Punkt merkt, dass das Stichwort “Profil” wahrscheinlich das wichtigste ist. Also das heißt jemanden nicht über Kekse-Verteilung (gemeint sind anonyme Cookies, also Webtracking) ungefähr einschätzen zu können, und zu glauben, dass, weil ein anonymes Wesen auf den Automobilbereich irgendeiner Plattform geklickt hat, dass es dann ein Mann ist, was glaube ich nicht zwingend stimmt, sondern das man tatsächlich ein Profil anlegt. Und das haben ja die meisten Online-Händler”…. “der interessante Punkt, der über ein Loyalty-System als nächstes hinzukommt ist, dass dieses Profil eben nicht nur diesen Ausschnitt des Konsumverhaltens bei Händler X kennt. Je größer der Händler ist, desto besser ist natürlich so eine Information d.h. da hat Amazon natürlich mit der Breite des Angebots einen riesen Vorteil. Aber nichtsdestotrotz ist auch das nur der Ausschnitt dessen, was der Kunde eben bei Amazon tut. In dem Moment aber, wo ich das in der Breite verknüpfen kann, sehe ich aber Veränderungen in der Situation des Kunden viel, viel besser. Ich erkenne, ob jemand offensichtlich seinen Wohnort geändert hat, ich erkenne, ob er umgezogen ist, ich erkenne, ob er wahrscheinlich gerade dabei ist Familie zu gründen, ich erkenne, ob sich in seinem Konsumverhalten per se etwas ändert. Und an diesen Punkten ist die Profilanreicherung natürlich viel, viel besser. Was dann passiert, ist, das man in der Selektion, in der Zuordnung des Kunden zu bestimmten Angeboten, viel schärfer sagen kann, jemand ist wahrscheinlich ein guter Kunde für dieses Produkt, oder im Umkehrschluss auch nicht interessiert an X, Y, und Z.”

 

Bedarf treffen: Targeting

Die Kombination der Erst-, Zweit- und Drittparteidaten ergibt das „Targeting“, also die Zuordnung eines Kunden zu einem Angebot. Nach eigenen Angaben hat AZ Direct, ein Unternehmen, das Bertelsmann mittlerweile in der Sparte “Bertelsmann Printing Group” führt, “die größte crossmediale Reichweite Deutschlands” mit rund 68 Millionen Menschen, die über diesen Anbieter erreicht werden. Dazu gehören auch “45 Millionen überschneidungsfreie Mail-Adressen”.. “mit unserem einzigartigen Audience-Targeting-System AZ DIAS verbunden.” Das Audience-Targeting-System AZ DIAS ist eine Informationsdatenbank mit mehr als 41 Millionen Haushalten, 70 Millionen Personen und 21 Millionen Gebäuden und umfangreichen Merkmalsdaten. Über “AZ bridgePool” kann Arvato zusätzlich rund 31 Millionen unique Online-User mit AZ DIAS verbinden. Das Zuordnung funktioniert dann über mehr als 600 anonymisierte Merkmale zur Profilierung.

Ach, speaking of „Überwachungsstaat“: Die deutschen Firmen wie Arvato unterziehen die eigene Behandlung der Daten einer aufwendigen Prüfung, damit sie gewährleisten können, daß keine Datenschutzrechte verletzt werden. Die ist ein gutes Beispiel dafür, dass ein Unternehmen mit der gegenwärtigen Rechtslage in der EU offenbar sehr konkurrenzfähig im weltweiten Wettbewerb arbeiten kann. Also, Puls runterfahren. 

Marktgröße und Preise

Laut einer Studie, die Goldmedia für das Verbraucherschutzministerium 2015 erstellte, erzielten die zehn wichtigsten Adress- und Datenunternehmen im Jahr 2014 einen Gesamtumsatz von rund 450 Mio. Euro. Das Gesamt-Marktvolumen im Bereich des Adress- und Datenhandels in Deutschland wird in der Studie für 2014 mit rund 610 Mio. Euro angegeben. 

Ich glaube die Zahl ist je nachdem, was man berechnet, sehr viel höher. Arvato allein machte im Jahr 2015 nach dem Geschäftsbericht von Bertelsmann 2,2 Milliarden Umsatz, nur in Deutschland. American Express gab im Geschäftsbericht 2011 die zusätzlichen Lizenzeinkünfte durch die Akquisition von Loyalty Partner mit ungefähr 238 Mio. an. Außerdem fehlen ganz offensichtlich zentrale Datenlieferanten  in der Goldmedia-Studie: z.B. die SAZ Services AG. Wenn die besten Anbieter am Markt hier einkaufen gehen, dürfte auch hier einiges hängen bleiben.

Nach der Goldmedia-Studie gab es 2014 zehn Anbieter, mit einem gemeinsamen Marktanteil von rund 65 Prozent. Die Marktteilnehmer haben bis heute wenig geändert. Die wichtigsten Produkte der Auskunfteien im Bereich der Risikoinformation sind die Übermittlung von Bonitätsauskünften und Prognosewerten (z.B. ein Scoring durch Schufa oder Infoscore) Hier gibt es kaum Konkurrenz.

Für die Kunden ist die Nutzung von Daten natürlich nicht kostenlos. Die Preise für die Nutzung von Konsumentendaten lagen 2014 nach der Goldmedia-Studie in diesen Bereichen: 

0,065 – 0,24€ / Adresse: für einfache Haushaltsadressen

0,105 – 1,65€ / Adresse: für Adressen mit Selektionsmerkmalen

0,0075 – 0,01€ / Adresse: für E-Mail-Adressen

0,26 – 1,98€ Adresspflege pro Abgleich

0,005-0,40€ pro angereicherter Adresse bei Datenqualifizierung

0,002-0,01€ pro Kundendatensatz für Verknüpfung von Offline- und Online-Daten.

0,80-7,00€ für Bonitätsauskünfte inkl. Scoring (je nach Übermittlungsart und Abrufmenge) 0,40-0,99€ für automatisiertes Scoring in Echtzeit

Die Zahlen dürften ungefähr zeigen, was qualifizierte Daten heute in etwa wert sind. Wertvoll ist nicht das Wissen zu einer einzelnen Person, zu ihren persönlichen Werten und Überzeugungen. Wertvoll ist der Bezug zum jeweiligen Geschäft. Denn das Ziel ist es, gegen harte Konkurrenz den kaufwilligen Kunden für sich zu gewinnen. Alles andere sind allenfalls mögliche Szenarien (von Theoretikern), die in den letzten 30 Jahren nicht eingetreten sind.

Daten werden nicht verkauft

Häufig wird von Verfechtern einer Einschränkung der Datennutzung (mit gehobenem Zeigefinger und dunkler Stimme) unterstellt, die Datenhändler würde ihre Daten verkaufen. Das ist fast nie der Fall und mit dem „Verkauf“ etwas Unanständiges zu unterstellen, hilft einer ehrlichen Diskussion auch nicht. Wenn wir Thomas Mann vorgeworfen hätte, er habe seinen Roman “Die Buddenbrooks” verkauft, dann wird deutlich, dass ähnlich wie im Urheberrecht, man etwas gegen Geld weitergeben kann, ohne die Eigentumsrechte damit abzugeben. Der Vorwurf, jemand hätte Daten verkauft, trifft einerseit den Kern des Vorgangs nicht, andererseits macht er es einfach, zu behaupten, es würde unsachlich und falsch argumentiert. Man kann die Buddenbrooks kaufen, besitzen und nutzen, ohne das Thomas Mann seine Eigentumsrechte daran verliert. Sogar seine Erben profitieren noch von diesem Eigentumsrecht. Im Falle von Literatur finden die meisten Menschen das ganz in Ordnung. Im Falle der Datennutzung wird das Thema für viele kontrovers. Das könnte auch daran liegen, dass Daten im digitalen Raum zu einem guten Teil quasi nebenbei anfallen. Von den Unternehmen, die die Daten nutzen, werden sie konsequenterweise dann auch wie ein kostenloser Rohstoff verwendet. Dabei könnte es eigentlich selbstverständlich sein, dass wir als Urheber unserer Daten, auch an deren kommerzieller Verwertung beteiligt werden, wenn die Gesetze es erlauben und wenn wir das wollen. Die wenig differenzierte Diskussion hierzulande verhindert die Entwicklung wirtschaftlich interessanter, innovativer Lösungen, die von der Gemeinschaft akzeptiert sind. Aber, genug davon. 

Arvato gewinnt und verliert trotzdem

Schon 2007 betreute Arvato laut Geschäftsbericht mehr als 150 Millionen Endkunden in über 20 Sprachen, verwaltete die Lagerung und Distribution von mehr als 650 Millionen Packstücken, entwickelte und betrieb Anwendungen und IT-Systeme für Kunden, versendete mehr als zwei Milliarden Mailings und führten 200 Millionen (was für ein Alptraum) Telefongespräche.

Langfristig war aber das Rekordjahr 2006 für Arvato, ein Wendepunkt. Nicht etwa weil der Angriff durch den regionalen Konkurrenten PayBack gelang. 2006/7 war das Jahr zweier Revolutionen, die die Karten und das Rabattsystem grundlegend in Frage stellten. 2006/7

Mobil und die Wolke

Amazon startete am 14.März 2006 mit Amazon Web Services (AWS) den ersten Cloud-Computing-Dienst der Welt und machte unbegrenzte Rechnerkapazitäten und standardisierte Anwendungensentwicklung für jeden auf Knopfdruck verfügbar. Nur wenige Monate später stellte Apple mit dem Iphone einen neuen Rechner vor, der das Anwendungsszenario, das Computer bis dahin hatten, weit hinter sich ließ. „mobile“ und „Cloud“ schlichen sich in den deutschen Wortschatz und die Führungsetagen.

2006/7 eröffnete sich ein neues Paradigma für Computing und Computer, bzw. Ansätze, die schon seit langer Zeit diskutiert und versucht wurden, erreichten ihre kommerzielle Marktreife mit ungeahnten Konsequenzen. Hört sich nicht so flockig an wie “Revolution”, soll aber sagen, dass Wunder auch im digitalen Bereich selten sind. Microsofts Mantra: „A Computer on every desk“ war – für jeden sichtbar – obsolet geworden, sowohl für die Hardware, als auch den Bau von Applikationen, und die Verarbeitung der Daten, die Rechenleistung. “A computer”, ja, aber keineswegs nur aufm Schreibtisch. Diese beiden Entwicklungen stellten die Loyalty-Programme rund um die Chipkarten grundlegend in Frage, weil sie sowohl die Infrastruktur als auch das Interface neu definierten

Die technologisch nahezu unangreifbare Position im Kassenscanner an der Supermarktkasse war damit zumindest theoretisch in Frage gestellt, weil jetzt keine unkalkulierbar große Investition mehr notwendig war, um ein neues System mit Scannern und Kassen zu realisieren. Der Chip, der bisher das Funktionieren der Chipkarte sichergestellt hatte, sorgte nun auch im mobile Computer als Sim-Karte für die Identifikation und bekam außerdem einen Bildschirm, diverse Apps im Anwendungslayer und eine permanente Verbindung mit dem Internet für die Rechenleistung. Die Unique Identity auf der Karte war jetzt immer und überall mit dem weltweiten Netz verbunden. Jürgen Drothleff, der Erfinder der Karte, hatte Recht behalten. Die Karte wurde ein Teil von uns.

Mobil und die Kunden

Mobil und Cloud änderten die Spielregeln. Aber obwohl man sich einfach vorstellen kann, dass das Telefon als mobiler Rechner mit verschiedene Applikationen viele Funktionen übernehmen kann, stellt sich für den Handel sehr viel konkreter die Frage, WIE das wohl passieren könnte. Das richtige Timing ist viel entscheidender für den Erfolg, als die “revolutionäre Idee”, oder die bahnbrechende Innovation. Die entscheidende Frage war eher, wie lange es dauern würde, dass sich das neue Interface für den Einkauf durchsetzte. Eins war sicher: gerade die eher gemütlichen Deutschen, nutzen als Kunden nicht plötzlich einfach eine App, weil es so toll ist, wenn sie darin keinen handfesten Vorteil (Geld, Ansehen, Zeit?) erkennen. Kurzer Zwischenstand nach zehn Jahren Entwicklung: Selbst der typische Onlineeinkauf funktionierte bis vor zwei Jahren noch immer zu mehr als der Hälfte über den Desktop. Das Timing ist in der Praxis also bei weitem entscheidender für den Erfolg als die Vision.

Der Untergang lässt auf sich warten

Was die Untergangsapologeten bisher überrascht, (und die Realitätsverweigerer gemütlich bleiben lässt):Der deutsche Handel hält sich zäh. Auch 2018 lag der Anteil des Offline-Handels am Gesamtmarkt immer noch bei 95,3% gemessen am Umsatz. Zwar verlieren die Einkaufszentren ordentlich an den Onlinehandel. Die Folge des technologischen Paradigmenwechsel ist im groben Raster keine exponentielle Kurve, sondern ein stetiger Verlust.

Das die Welt der innerstädtischen Einzelhändler noch nicht ganz verschwunden ist, heißt aber nicht, dass sich die Welt in Wirklichkeit gar nicht verändert hat.

Mobil und die Unternehmen

Die Partnerunternehmen der Loyalty-Programme mussten sich überlegen, ob die Datenhoheit nicht strategisch ein so wichtiges Gut geworden war, dass sie im Unternehmen tief integriert werden musste. Einerseits weil die Daten die Interfaces, die in Zukunft den Umsatz erwirtschaften mussten, direkt steuern würden. Andererseits weil große Verbundsystem, die das Datenhandling für viele gemeinsam erledigen, naturgemäß weniger flexibel waren. Die großen monolythische Systeme wie SAP, Oracle etc. waren für schnelle technologiegetriebene Entwicklungszyklen nie konzipiert. Doch genau solche Zyklen wurden für den Handel jetzt essentiell, weil die Frage eben nicht mehr war, ob die Kunden anders einkaufen würden, sondern wie und wann. Diese Antwort ließ sich nicht im vorhinein geben. Von niemandem. Weshalb ein langfristig auf einen erdachten Endzustand hin geplantes System (wie eine Oracle-SAP-Microsoft-Variante) zunehmend mehr falsch als richtig lag. Die Lernkurve, diese Realität anzuerkennen, zog sich für alle Beteiligten allerdings etwas.

PayBack bleibt eine Karte

Zwischen 2006 und 2010 wurde im Hause PayBack klar, dass die eigene Position im Grund sehr schlecht zu verteidigen war. Die Technologie würde auf absehbare Zeit veralten und war teuer. Andere konnten das Modell mittlerweile im Netz nachbauen. Die Karte war dem neuen Device langfristig weit unterlegen. Man musste sich im Grunde neu erfinden. Erklärtes Ziel war allerdings die Internationalisierung des Geschäfts.

Aus Sicht des Investors Palamon war einen Internationalisierung aber offenbar kein Selbstzweck. Die Investition musste sich auf eine bestimmte Zeit rentieren. 2010 war klar, dass eine eigene Internationalisierung trotz großer Anstrengungen bei PayBack nicht stattfinden würde, und Palamon Capital verkaufte seine Anteile für rund 500 Mio. Euro an den American Express-Konzern. 400 Mio. in 5 Jahren ist nicht schlecht für 120 Mio. Investment. PayBack wurde zu einem weiteren Lieferanten von Daten in der schon jetzt nicht ganz kleinen Kartenwelt des Kreditkartenanbieters. Und die Kombination von Rabatt- und Kreditkarte wies einen Weg in die Zukunft, der heute fast ein Standard ist, weil damit beide Schritte im Bezahlvorgang vereint sind. 

Arvato dominierte weiter das B2B-Geschäft

Arvato hatte gewonnen. Sichtbares Zeichen des Erfolgs von Arvato war die Zusammenarbeit mit dem Metro-Unternehmen “Real”. Metro war als Mitbegründer von PayBack jetzt mit der wichtigen Infrastrukturfragen bei der Konkurrenz gelandet. Für den  „Real“-Online-Shop lieferte Arvato E-Commerce-Services von der Gestaltung des E-Shops auf Basis von SAP hybris, über Kundenservice, Logistik und Transport bis hin zu Order-, Risiko- und Debitorenmanagement einschließlich der gesamten Zahlungsabwicklung. Ab 2012 organisierte Arvato auch das Zusammenführen der digitalen Plattformen des stationären Handels und des Onlineshops. Real und Arvato verlängerten 2014 sogar noch einmal die Verträge bis 2017. 

Der Wandel zieht an

Die großen Partner der Loyaltyprogramme erkannten aber in dieser Zeit, dass es für sie grundlegend war, die neuen Technologien selber zu beherrschen. Vor allem wurde es wirtschaftlich attraktiv wesentliche Technologien auf Cloud-Systemen selbst zu entwickeln, anstatt monolitische (teure) Alleskönner wie SAP oder Oracle zu kaufen und auf die eigenen Bedürfnisse anzupassen. Die Konsequenz: 2014 trennte sich die Lufthansa mit 5 Jahren Vorlauf vom Dienstleister Arvato, damit war “Miles and More” futsch. Die Nordwestzeitung berichtete:

Der Kommunikationsdienstleister Arvato(Gütersloh) verliert mit dem Lufthansa-Treueprogramm „Miles & More“ einen wichtigen Kunden. Wie die Bertelsmann-Tochter am Mittwoch auf Anfrage dieser Zeitung mitteilte, will die Tourismus-Gesellschaft ab Januar 2019 die Zusammenarbeit mit Arvato CRM Solutions beenden und das Kundengeschäft entweder selbst übernehmen oder anderweitig vergeben. Nach Arvato-Angaben sind von der Entscheidung auch mehr als 90 Mitarbeiter am Standort Roffhausen (Schortens) betroffen. Insgesamt beschäftigt Arvato an dem Standort rund 1000 Mitarbeiter.

Lufthansa ging mit dem Geschäft schließlich zu Bosch Service Solutions, einem Anbieter für Business Process Outsourcing, der bei der Optimierung in den Bereichen Customer Experience, Mobility, Monitoring, Business Services und Shared Services aktiv ist, aber wohl eher Technologie-Partner als Full-Service-Anbieter ist. 

Und jetzt?

Die Lernkurve unseres Beispiels Metro-Gruppe ging stetig weiter. 2016, als der auslaufende Vertrag mit Arvato absehbar war, kauft Real den Marktplatzbetreiber „Hitmeister“ und setzt ab 2017 auf die dort selbst entwickelte Technologie aus dem eigenen Haus. Die Real-Marktplatz-Plattform wird intern als großer Erfolg gewertet. So erfolgreich, dass die Konzernmutter Metro jetzt mit dem Metro-Marktplatz eine eigene Ausgründung im Plattformmarkt ins Rennen schickt – gemacht und aufgebaut auf den Erfahrungen aus dem real-Vorgehen: Ausgründung, eigene Technologie, Know-How im eigenen Haus. Wer ernsthaft in der digitalen Welt mitspielen will, hat offenbar dazu kaum eine Alternative, wenn die Interfaces unmittelbar Geschäft machen müssen. Und das ist im Wesentlichen die Folge des Jahres 2006/7. 

Mit der Metro konzentriert sich heute damit – nach der Lufthansa – auch das zweite Gründungsmitglieder der PayBack-Karte auf die Schlüsselkompetenzen im eigenen Unternehmen, um konkurrenzfähig zu bleiben. Die beiden Loyalty-Konkurrenten agieren natürlich weiter erfolgreich am Markt. Wandel geht langsam, Revolutionen sind selten. 

So stehen die etablierten Loyaltyanbieter vor nicht ganz einfachen Zeiten. Aber, wie wir hoffentlich an der Geschichte der kleinen Karten zeigen konnten, die Handelsunternehmen hierzulande sind schon lange im Geschäft und dabei kreativ und erfolgreich, auch in einer digital-getriebenen Wirtschaft. Heute hat z.B. Arvato 70.000 Mitarbeiter in mehr als 40 Ländern, die für Geschäftskunden Lösungen für unterschiedlichste Geschäftsprozesse entlang integrierter Dienstleistungsketten abwickeln. Eine Krise sieht anders aus. Bertelsmann hat 2019 den Angriff auf den afrikanischen Markt gestartet, mit einer Kooperation mit der marokkanischen Saham-Gruppe. 

Für viele deutsche Handelskonzerne war die Rabattkarte mit der Infrastruktur dahinter die Eintrittskarte in die Welt der Daten. Was man 1995 noch für einen Nebenschauplatz halten konnte, ist heute über Datenhaltung, Datenanalyse und Lieferkettenintegration zu einer unternehmerischen Kernkompetenz gewachsen. Der Rohstoff Kundendaten wird aber nicht auf Dauer so günstig bleiben, entweder durch reglementierende Einschränkungen aus einer unvermindert starken Datenschutzsicht, oder durch die wirkliche Beteiligung der Datengeber an der Wertschöpfung mit ihren Daten.

(Disclaimer, damit keiner auf falsche Gedanken kommt und um Missverständnissen vorzubeugen: Wir schreiben unsere Texte aus privatem Interesse in unserer Freizeit und nutzen ausschließlich öffentlich zugängliche Informationen. Schön, dass wir das mal klarstellen konnten, und jetzt los; weitererzählen, wenn ihr Spaß hattet.)

E-Mail forever

Warum E-Mail-Marketing der wichtigste Online-Kanal ist

In unserer schönen bunten Digital-Welt gibt es kaum etwas, das sich mit größerer Zuverlässigkeit ändert, als unsere App-Nutzung. Seit Anbeginn des Smartphones (klingt, als wäre es ein halbes Jahrhundert her, sind aber de facto nur 10 Jahre) haben wir tausende Apps und Services genutzt – viele davon sind längst vergessen, alle haben sich in ihrer Funktionsweise grundlegend verändert.

Alle Apps? Nein! Ein von unbeugsamen Nutzern bevölkerter Dienst hört nicht auf, dem Eindringling Widerstand zu leisten: Die E-Mail.

Denn allen Wachstums-Stories von WhatsApp, Snapchat, Instagram und was immer TikTok ist zum Trotz ist die E-Mail nicht tot zu kriegen. Und das E-Mail-Marketing deshalb unverzichtbar.

Geöffneter, stark gefüllter Briefkasten.
Photo by Samuel Zeller on Unsplash

Die immergrüne E-Mail-Wiese

Wie wenig sich dieser Kanal verändert hat, wird schnell klar, wenn man sich die Endung seiner E-Mail-Adresse ansieht (Bitte alle die Hand heben, die noch eine T-Online-, GMX– oder Hotmail-Adresse haben). Mein E-Mail-Konto ist der erste Login, den ich im Internet hatte. Und die Chancen stehen gut, dass ich ihn auch für immer behalten werde. Über welchen anderen Dienst kann man das schon sagen?

Und auch die Zahlen sprechen für sich: 98 Prozent der Befragten einer Umfrage des Bundesverbands digitale Wirtschaft gaben an, dass sie E-Mails nutzen (Mysteriös: Wer sind diese zwei anderen Prozent?) Branchenprimus Gmail hat nach schätzungsweise mehr als 1,5 Milliarden Nutzer, in jedem Fall aber mehr als 1 Milliarde Downloads bei Google Play. Das ist ein Fünftel der Menschheit.

Das sich diese Zahlen in Zukunft ändern, ist unwahrscheinlich. Eine E-Mail-Adresse ist für das Leben im Internet quasi unverzichtbar: Für jeden Login braucht man eine E-Mail-Adresse. Und wenn man keine E-Mail-Adresse braucht, sondern sich mit Facebook, Amazon oder von mir aus auch TikTok anmelden kann, braucht man sie spätestens für die Anmeldung bei diesen Diensten. Die E-Mail-Adresse ist der eine Unique Identifier, der digitale Personalausweis, ohne den im digitalen Leben nichts funktioniert.

E-Mail ist Trumpf

Wenn fast alle Menschen E-Mails nutzen, sind quasi auch fast alle Menschen mit einer E-Mail erreichbar. Die potenzielle Zielgruppe auf diesem Medium ist gigantisch, kein anderes Medium kann hier ansatzweise mithalten: 73 Prozent der Menschen nutzen immerhin soziale Netzwerke. Andere große Medien wie Fernsehen, Radio und Zeitungen, liegen noch darunter. Die Marschrichtung für Marketeers scheint klar: E-Mail ist ein Must-Have, wenn man nicht von vorneherein auf 26% der Gesamtbevölkerung als Zielgruppe verzichten will.

Und trotzdem ist das E-Mail-Marketing in der Wichtigkeit bei Unternehmen oft hinter Social Media, SEO, SEA und sogar Display Advertising aufgehängt. Die Frage ist: Warum bloß?

Denn auch die marketing-seitigen Aspekte geben eine klare Empfehlung: Bei guten E-Mail-Marketing-Kampagnen kann man mit einer Klickrate (Click-Through-Rate / CTR) von 3-5 Prozent rechnen, oft deutlich höher. Von diesen Ergebnissen kann man bei Paid-Advertising-Kampagnen auf Facebook, LinkedIn oder Google Ads meist nur träumen (Von Anzeigen in Magazinen oder Fernsehwerbung fange ich gar nicht erst an).

Zudem muss man die Klicks auf diesen Drittportalen natürlich erkaufen – jeder Interaktion mit einer Instagram Ad, folgt auch eine Interaktion mit dem Marketing-Budget. Eine E-Mail zu versenden, einmal abgesehen von ggf. anfallenden Lizenzgebühren für das E-Mail-Tool, ist kostenlos.

Know your customer 2.0

Und zu guter Letzt ist da noch das feine Detail der Kundenbeziehung. Wenn mein digitales Marketing hauptsächlich aus Werbeanzeigen bei Suchmaschinen, sozialen Netzwerken und Kartendiensten besteht, gebe ich auch die komplette Kontrolle meiner Kundenbeziehung an die Bösen (GAFA: Google, Apple, Facebook, Amazon) ab. Und begebe mich dadurch in eine absolute Abhängigkeit zu diesen Diensten.

Wenn dann einer dieser Internet-Monopolisten entscheidet meinen Zugang zu deren Gütern (und ja, dass sind wir Nutzer) zu beschränken, bleibt mir meistens nur eine Möglichkeit: Blöd aus der Wäsche gucken.
Den Fehler ihre Kundenbeziehung gegen Reichweite zu tauschen, haben übrigens schon viele Unternehmen gemacht. Medienkonzerne können ein sehr langes Lied davon singen.

Gut E-Mail will Weile haben

Die Gründe für die, gemessen an den Vorteilen und der Wichtigkeit, relativen Vernachlässigung von E-Mail-Marketing in vielen Unternehmen sind vielfältig.

Oft werden überhöhte Erwartungen an diesen Kanal gestellt. Erwartungen, die durch die schnellen Erfolge bei Werbung in Reichweitendiensten wie Google und Facebook noch weiter steigen: “Bei Facebook kann ich mit einer 200€-Werbeanzeige 40.000 Impressions erreichen. Mit unseren E-Mails erreichen wir gerade einmal 500 Leute.”

Das ist ein valides Argument – sich eine relevante E-Mail-Empfängerliste aufzubauen braucht Zeit und Zeit kostet immer Geld. Gerade wenn ein Unternehmen nicht im eCommerce aktiv ist und somit bereits viele Möglichkeiten zum Aufbau einer Empfängerliste “mitgeliefert” bekommt, muss man sich diese Customer Base hart erarbeiten. Die relevantere Frage ist aber: “Wie oft möchte ich diese 200€ für eine Facebook-Kampagne ausgeben? Lohnt sich das langfristig?”


Ein weiteres Problem, das am gleichen Beispiel gezeigt werden kann, ist die Beobachtung falscher KPIs. Wer Marketing-Erfolg in Masse definiert, wird einen schweren Einstieg ins E-Mail-Marketing haben. Wenn man langfristige, ergebnisorientierte Kennzahlen, wie Cost per Lead (CPL) oder Customer Lifetime Value (LTV) nach Kanälen betrachtet, schneidet “E-Mail” häufig am besten ab. Wenn man aber das E-Mail-Marketing mit kurzfristigen Kennzahlen bemisst, wird man zum einen schlechtere Ergebnisse erhalten, zum anderen wird man aber auch der langfristigen Auslegung dieser Marketing-Richtung nicht gerecht.

Die Spitze des Eisbergs

Doch einer der Hauptgründe für das oft unterentwickelte E-Mail-Marketing vieler Unternehmen dürfte folgender sein: Das Ganze ist viel schwieriger und komplexer, als man denkt.

Denn die E-Mail, die am Ende die Nutzer oder Kunden erreicht, ist nur die Spitze des Eisbergs. Was steht denn in dieser E-Mail, wenn man nicht wie Adidas oder Karstadt einfach Produkte aus dem Online-Store rabattieren und in eine E-Mail stecken kann? Und viel wichtiger: Wo führt mich der Inhalt dieser E-Mail hin?

Wenn wir also über E-Mail-Marketing reden, reden wir automatisch auch über Content Marketing in all seinen Facetten: Blogs, Videos, Landing Pages, CRM, Lead Nurturing und Sales-Prozesse. Gutes E-Mail-Marketing ist eine Schnittstelle zwischen den verschiedenen Tools und Stationen des Content oder Inbound Marketings und hilft dabei potenzielle oder bestehende Kunden auf die Customer Journey zu schicken.

Die wichtigste Ressource

Letztlich braucht man für gutes E-Mail-Marketing vor allem eines: Das richtige Personal. Denn nur dieses ist in der Lage Lösungen für die komplexen Probleme und Fragestellungen zu finden.

Wie schaffen wir es, dass eine E-Mail auf hunderten Endgeräten und verschiedensten E-Mail-Programmen optimal (oder zumindest lesbar) angezeigt wird?
Wie segmentieren wir unsere Nutzer im CRM?
Was brauchen wir für Content für welchen Teil der Customer Journey?
Wie führe ich multivariate Tests durch?
Wohin führt uns der Lead Funnel?
Wie können wir den Inhalt unserer E-Mail personalisieren?
Wie messen wir die Ergebnisse unserer Kampagnen?
Und wer schreibt eigentlich die Texte?

Je nach Umfang und Unternehmensgröße wird so aus dem E-Mail-Marketing ein oder zwei Vollzeitjobs. Und das ist auch der Grund, warum viele Unternehmen das Thema lieber stiefmütterlich behandeln.

Wenn man es jedoch geschafft hat ein bestehendes E-Mail-Marketing zu etablieren, wird man auch bei den Themen SEO und Social Media automatisch Fortschritte verzeichnen können, da diese direkt vom erstellen Content profitieren. Andersherum funktioniert das leider nicht.

tl;dr

E-Mail-Marketing ist der wichtigste und erfolgreichste Online-Marketing-Kanal. Durch die eigene Nutzerdatenbank bleibt die Herrschaft über die Kundenbeziehung im Unternehmen, außerdem sind E-Mails kostengünstig und effektiv. Doch die eigentliche E-Mail ist nur die Spitze des Eisbergs: E-Mail-Marketing sitzt auf einem Berg aus Customer Relationship Management, Content-Strategie und Lead Nurturing. Und um das gut zu bewerkstelligen, braucht man das richtige Personal und das Commitment des Unternehmens.

PS: Und der Vollständigkeit halber könnt ihr euch hier für unseren Futuccino-Newsletter anmelden. Dieser erscheint höchst unregelmäßig und garantiert seltener, als ihr ihn erwartet:

* beschreibt Pflichtfelder.
Die Angabe des Namens und der Anrede sind freiwillig. Sie werden ausschließlich zur Personalisierung des Newsletters genutzt. Du hast in jedem Newsletter die Möglichkeit den Service abzubestellen. Hier findest du die Datenschutzhinweise

Warum der Spiegel die Digitalisierung nicht schafft

Der SPIEGEL ist eine Ikone des deutschen Journalismus. Kaum ein anderer Verlag produzierte jahrzehntelang so guten Journalismus. Und deshalb lohnt sich gerade hier der Blick auf den Wandel der letzten 10 Jahre und warum das Magazin zwischen „Innovators Dilemma“ und falscher Produktausrichtung gerade am digitalen Wandel scheitert. Und nein, dies wird kein weiterer wohlfeiler Abgesang auf den gedruckten Journalismus.

  1. Digitale Produkte
  2. “DER SPIEGEL”: The Innovator’s Dilemma
  3. Zeitungsgeschäft im digitalen Raum
  4. Das Produkt-Problem
  5. Journalismus, Verlage und Marketing

1. Digitale Produkte

Die Triebkraft hinter dem ominösen Wandel, den wir Digitalisierung nennen, ist der Verlust von Friktion. Diese Reibung im Produktionsprozess (oder besser gesagt in der ganzen Wertschöpfungskette) sorgte über Jahrzehnte und Jahrhunderte dafür, dass Produkte durch Herstellungs-, Lager- oder Produktionsprozesse nur langsam durch den Wirtschaftskreislauf zirkulieren konnten. Die Verlagerung der Wirtschaft in den digitalen Raum macht manche Prozesse schneller und manche überflüssig. Insgesamt läuft der gesamte Produktionsprozess reibungsloser, also friktionsfreier ab. Während manche Branchen nur Teile ihrer Wertschöpfungskette digitalisieren (müssen), wandern für andere Branchen nach und nach sämtliche Bestandteile der Leistungserbringung in das digitale Neuland ab.

Komplett digitalisierte Produkte zu konzipieren und zu erstellen ist schon für junge, sehr fokussierte Unternehmen sehr schwierig und mit hohen Entwicklungskosten verbunden. Etablierte Unternehmen haben, besonders wenn sie bisher im Markt erfolgreich waren, oft das Problem, dass sich durch die festeren Strukturen und auch der wachsenden Verantwortung eine gewisse digitale Schwerfälligkeit einstellt. Oft werden versuche unternommen die bekannten Produkte kostengünstig in einen digitalen Rahmen zu gießen. Und oft scheitern sie an diesem Versuch.

Im Internet gelten andere Spielregeln, als in in der Realwirtschaft. Ein digitaler Markt  funktioniert nach dem “Winner takes it all”-Prinzip: Durch die fehlende Friktion reicht schon ein kleiner Produktvorteil, um auf der Gewinnerseite zu stehen. Ein Beispiel: In Ihrer Straße befinden sich zwei Dönerläden. Döner A schmeckt nur minimal besser, als Döner B. Trotzdem würden Sie vermutlich zu Döner A gehen. Außer Ihnen, sehen das aber alle anderen Kunden auch so und gehen ebenfalls zu Döner A, sodass die Dönerschlange manchmal sehr lang ist und sie manchmal gar keinen Döner mehr bekommen. Spätestens dann wechseln Sie zu Döner B, schließlich ist dieser nur minimal schlechter.
Im Internet passiert das nicht, weil Döner A hier in Millisekunden nachproduziert werden kann und es keine Schlangen gibt. Alle wollen Döner A, alle kriegen Döner A. Winner takes it all.

Hat man aber einmal ein Produkt mit einer Nachfrage entwickelt (heute sagt man: “Ein Produkt, das der Kunde liebt”), ist dieses also unendlich reproduzier- und lieferbar. Aus ökonomischer Sicht ist das für Anbieter und Kunden ein traumhaftes Geschäftsmodell, das im Falle von Facebook und Google zu digitalen Monopolen geführt hat, die beim Nutzer sehr beliebt sind. Für die Lieferanten von professionell erstellten Inhalten, einer weiteren Partei im Bunde, entwickelt sich diese Monopol-Allianz von Nutzern und Verteilern allerdings eher zum Alptraum. Beispiel: Journalismus.

Der Spiegel am Kiosk im Bahnhof Zoo
Es gibt immer noch reichlich gedruckten Journalismus. Der Spiegel in der Kioskauslage am Bahnhof Zoo.

Ein gutes Gegenbeispiel für einen reibungsfreien Prozess ist die Herstellung einer Zeitung: Texte werden von Menschen recherchiert und geschrieben, Fotos geschossen, Texte gesetzt, Anzeigen verwaltet, gedruckt, gepresst und ausgeliefert. Friktion ist hier Tagesgeschäft. Aus Sicht der Zeitungsverlage stellt sich zunehmend die Frage, ob sich in dieser neuen, friktionslosen Welt überhaupt noch Masseninhalte für Geld an den Mann oder die Frau bringen lassen. Wie vereinbar sind friktionsfreier Raum und friktionsbelastetes Geschäftsmodell? Die Antwort ist aus meiner Sicht klar: es ist schwer,  aber mit wirklich durchdachten strategischen Entscheidungen möglich. Und es geht nicht, ohne dass man sein altes Modell nach den neuen digitalen Regeln ausrichtet und entschlossen umbaut.

2. “DER SPIEGEL”: The Innovator’s Dilemma

Dem SPIEGEL  beispielsweise scheint ein entsprechend visionäres Konzept zu fehlen. Vielleicht gerade weil der SPIEGEL eine Ikone des deutschen Nachkriegsjournalismus ist. Kaum ein anderer Verlag stand jahrzehntelang so für guten Journalismus. Und deshalb lohnt sich gerade hier der Blick auf den Wandel der letzten 10 Jahre und warum auch dieser Journalismus gerade am digitalen Wandel scheitert. Und nein, dies wird kein weiterer wohlfeiler Abgesang auf den gedruckten Journalismus. Er ist keineswegs tot, Verlegen ist nur kein so gutes Geschäft mehr wie vorher. Es wird Zeit, dass die, die den Journalismus mit Herz betreiben, erkennen, dass seine Existenz nicht an einem Produkt hängt und seine Existenzberechtigung mehr ist, als satte Gewinne mit gedrucktem Papier (Das ist schwierig, wenn man bedenkt, dass das menschliche Gehirn schon tagelang verwirrt ist, wenn man in der Küche den Mülleimer an eine andere Stelle stellt).

Was der SPIEGEL-Gruppe dabei im Weg steht, ist das Selbstverständnis des zeitungsdruckenden Verlagshauses. Wie sehr diese Werte im Unternehmen verankert sind, zeigt ein kurzer Blick in die Selbstdarstellung auf der SPIEGEL-Website (gekürzt):

„Der SPIEGEL wird wöchentlich in einer Auflage von circa 900.000 Exemplaren von Mohn Media in Gütersloh und Stark Druck in Pforzheim hergestellt. Um pünktlich und möglichst schnell am Kiosk und bei den Lesern zu sein, wird die gesamte Auflage in etwa 20 Stunden gedruckt und zu Heften verarbeitet. Das bedeutet: Pro Minute werden mehr als 750 Hefte gedruckt. Für die Herstellung des SPIEGEL wird ein leichtgewichtiges, gestrichenes Papier von 54 g/qm verwendet; für eine durchschnittliche Ausgabe werden knapp 280 Tonnen Papier benötigt. Die Qualität stellt ein Optimum an Helligkeit, Färbung und Opazität unter Berücksichtigung ökologischer Anforderungen dar. Der Umschlag des SPIEGEL wird auf einem höhergewichtigen, 115 g/qm schweren Papier gedruckt.“

280.000 Kilo Papier in Hochgeschwindigkeit bedruckt; gespannte Leser erwarten ihre Ausgabe … am Kiosk? (Heißen die nicht mittlerweile Späti und verkaufen Bier?) Und das ganze dauert, was? 20 Stunden?

Vollkommen zuhause in der Welt des Drucks und seiner industriellen Blüte wirkt die Schilderung der nüchternen Unternehmensseite wie ein Ausflug in die späten Sechzigerjahre. Man fühlt in diesen beiden Absätzen den ganzen Stolz und das Drama des schwindenden Journalismus alter Prägung. Es ist nicht zuletzt diese kulturelle Verwurzelung, die es für den SPIEGEL so unmöglich macht, im neuen Paradigma anzukommen. Wenn man sich dann noch die Zahlen anguckt, steht man vor einem Innovator’s Dillemma in seiner reinsten Form.

Auf den ersten Blick waren die Geschäftsergebnisse des SPIEGEL 2017 gar nicht schlecht: Der Gewinn kletterte auf rund 30 Millionen Euro, gegenüber 2016 mit rund 26 Mio. und nur 6 Mio im Jahr davor. Verantwortlich ist ein unbequemer Sanierungskurs. Die Anzeigen-Disposition ging zum SPIEGEL-Mitgesellschafter Gruner + Jahr, rund 150 Kollegen mussten gehen. Das Ziel des Umbaus: die Kosten sollen ab 2018 jährlich um 15 Millionen Euro sinken. Das die Kosten so drastisch reduziert werden müssen hat zwei Gründe: Es werden weniger Magazine verkauft und das Zubrot beim Anzeigenverkauf wird kleiner. Die sinkenden Einnahmen stellen den Verlag vor das Problem, dass neuer Gewinn nicht durch Wachstum auf der Produktseite, sondern durch Einsparungen auf der Produktionsseite entstehen muss. Das ist bei einem Produkt wie einem Auto vielleicht noch durch Innovationen machbar, bei einer Dienstleistung, die hauptsächlich in den schlauen Köpfen der Mitarbeiter entsteht, heißt Schrumpfen, Schrumpfhirn; das Produkt wird schlechter. Die Abwärtsspiral beginnt sich zu drehen.

2016 verkaufte der Konzern wöchentlich noch durchschnittlich 783 575 Magazine (IVW). Im 4. Quartal 2017 sank die Zahl auf 730.990 Exemplare. Auch der Anzeigenverkauf geht schlecht: 2017 verkaufte der SPIEGEL 8,2 Prozent weniger klassische Printanzeigen als im Vorjahr. Das Minus ist dramatisch, weil das gedruckte Magazin, in dem diese Anzeigen erscheinen, für zwei Drittel des Gesamtumsatzes der SPIEGEL-Gruppe sorgt. Der Anteil von Anzeigen- und Vertriebserlösen am Gesamtumsatz von 269 Millionen bewegte sich 2016 bei rund 68 Prozent.

Es gibt also keinen Zweifel daran, dass das gedruckte SPIEGEL-Magazin nachwievor das Herz des Konzerns ist. Ohne diese Einnahmen kann der Konzern nicht überleben. Doch mit der kulturellen und ökonomischen Übermacht dieser Sparte sind die Chancen einer digitalen Ausrichtung gleichzeitig bedeutend geringer: The Innovator’s Dilemma. Verschärfend kommt hinzu, dass der SPIEGEL in der Mehrheit quasi-demokratisch an privilegierte Angestellte verteilt ist. Tragen diese eine Restrukturierung nicht mit, bewegt sich nichts.

3. Zeitungsgeschäft im digitalen Raum

Die Journalismus-Verlage hatten bis zum mobilen Internet den Wettbewerbsvorteil auf ihrer Seite: Die brancheneigene Friktion in Form von Druckereien und bedrucktem Papier als Inhalts- und Werbeträger. Eine Zeitung zu drucken war teuer und der Platz auf dem Papier beschränkt, also wertvoll. Mit diesem limitierenden Faktor ließ sich etwa 150 Jahre lang ein gutes Geschäft machen, solange genügend Leser interessiert waren. Die Zeitungsverleger kontrollierten mit den Druckereien zudem den entscheidenden Punkt in der Wertschöpfungskette.

Nur für die Perspektive: Eine mit Werbung bedruckte Seite im SPIEGEL kostet heute etwa 77.000 Euro – die Herstellung dieser Seite dürfte sich im Cent-Bereich bewegen. Dieser Vorteil verkehrte sich in einen Nachteil, als die Aufmerksamkeit der Leser in den digitalen Raum abwanderte und dieser Raum überall und jederzeit verfügbar wurde. Hier konnte man eine ähnliche Wertschöpfung (und die besteht ja eigentlich nur aus dem Drucken einer Seite) mit einem ähnlichen Produkt nahezu ohne Kosten anbieten. Die Unternehmen (und mit ihnen die Anzeigen) folgten natürlich der Aufmerksamkeit, denn ihr Interesse galt ja nicht dem Produkt (also dem Druckwerk), sondern den Lesern und ihrer Aufmerksamkeit.

Die Verlage waren ebenso schnell mit ihrem gewohnten Produkt im digitalen Raum präsent. Sie nutzen die neuen Möglichkeiten fleißig und teilweise auch wirtschaftlich erfolgreich, froh über einen zusätzlichen Absatzkanal. Der Erlös beschränkte sich allerdings nunmehr ausschließlich auf das frühere Zubrot, das Werbegeld. Und die Nutzer-Aufmerksamkeit wurde und wird als Teil ihres beliebten Service von den Monopolisten (Facebook, Google usw.) verwaltet. Das Problem war und ist, dass die Verlage nicht erkannten, dass mit dem Verlust der Friktion ihr Geschäftsmodell im digitalen Umfeld nicht mehr nachhaltig ist. Der Kanal war nämlich gar keiner. Die Bedingungen hatten sich grundlegend verändert.

Im Netz entscheidet die Nachfrage

Denn Anzeigenplatz ist im Netz theoretisch unbegrenzt vorhanden und damit im Umkehrschluss also sehr wenig wert. Anzeigen, beispielsweise bei Google, werden per automatischer Auktion verkauft. In der Regel ist man bei Google und anderen Anbietern mit wenigen Euro dabei, häufig sind es nur Cent-Beträge. Da diese Anbieter von Anzeigenflächen wiederum aber praktisch keine Kosten zur Erstellung ihrer Inhalte haben, ist das trotzdem hoch profitabel. Schon das allein war schlecht für das Geschäftsmodell der Zeitungen, denn dort arbeiten ja Menschen für den Verkauf von Anzeigen und an der Produktion der Inhalte.

Gleichzeitig sind auch Inhalte im Netz quasi unbegrenzt vorhanden. Das mag für jedes einzelne Thema schwanken, aber insgesamt ist der Normalzustand “Überfluss”. Deshalb ist der Service von Google so beliebt. Finden ist seit 20 Jahren das zentrale Problem, nicht anbieten.

Mit Facebook kam zudem eine Variante des Internets hinzu, die persönliche Beziehungen digitalisierte und den Übergang vom anonymen zum persönlichen Netz möglich machte. Nun ließ sich der Überfluss an Inhalten nach persönlichen Interessen direkt ausliefern, für jeden Menschen personalisiert.

Rückblickend liegt es auf der Hand, dass sich in diesem Wandel auch die Inhalte radikal veränderten. Eben nicht Massenmedien, sondern persönliche, oder soziale Medien. Facebook und Google sind so erfolgreich, weil sie die Qualität der Auswahl für jeden einzelnen garantieren, aber nicht die Inhalte selber. Im Zustand des Überflusses gewinnt nicht unbedingt, wer das beste Angebot macht, sondern, wer die Nachfrage am genauesten und bequemsten bedient.

Im Internet ist Anbieter jeder, der etwas anbieten möchte. Der limitierende Faktor “gedrucktes Exemplar” und die damit verbundene Wertsteigerung eines beliebigen Stücks Inhalt allein durch die Verknappung des Angebots ist nicht mehr gegeben (schließlich lesen Sie dieses Essay auch vollkommen kostenlos und das nur, weil ich mich heute dazu entschieden haben ein Anbieter zu sein). Was im digitalen Raum wirklich zählt, ist die Vermittlung der Nachfrage.

Für ein Unternehmen, dass Journalismus produziert, ist die Erkenntnis zentral, dass die Leute Magazine oder Zeitungen nicht nur kaufen, weil da so tolle Sachen drin stehen oder standen. Weder die Form noch der Inhalt waren der USP, sondern die Kontrolle des Angebots. Es ist tragisch, dass das Selbstverständnis vieler Journalisten immer noch darauf aufbaut, es seien vor allem ihre Texte, die die Nachfrage erzeugen. Mit der Erkenntnis, dass die Artikel nicht so wichtig sind, verändert sich der Weg wie man als Erzeuger von gedruckten Inhalten zur Kontrolle der Kundenbeziehung in der digitalen Welt kommt.

4. Das Produkt-Problem

Man kann den Zeitungsverlagen im Allgemeinen und dem SPIEGEL im Speziellen nicht vorwerfen es nicht versucht zu haben. Der SPIEGEL hat mit “SPIEGEL daily”, “SPIEGEL plus” und Bento gleich drei verschiedene Formate entworfen, die ihren Journalismus auch in der digitalen Welt monetarisieren können.

Der Pro-Klick-Bezahldienst LaterPay (das ist der Dienstleister, der das “SPIEGEL plus”-Format monetarisiert) wirbt auf seiner Seite mit dem Erfolg des SPIEGEL beim Absatz einzelner Artikel:

„SPIEGEL Online has sold more than 3 million articles with LaterPay since the introduction of it’s paid content offering SPIEGEL Plus.“

Ein Artikel kostet dort 0,39 Cent. Die zusätzliche rund eine Million Euro trägt allerdings wenig zum Unternehmensergebnis bei. Vor allem aber sollte die Zahl nicht darüber hinweg täuschen, dass Einmal-Artikel keinen nachhaltigen Unternehmenserfolg sichern, denn Einmal-Leser sind keine attraktive Kundengruppe für ein Unternehmen, das Journalismus produzieren möchte.

Der SPIEGEL hat hohe Fixkosten in Form von Büros und Personalkosten und eine unsichere Rohstofflage in Form von Nachrichten – Wegwerf-Artikel zum Niedrigpreis sollte man anders produzieren. Wenn der SPIEGEL mehr Einmal-Umsatz über seine Produkte machen möchte, sollte er einfach direkt über Facebook verkaufen. Doch dann würde die Kundenbeziehung noch weniger bei SPIEGEL und noch mehr bei Facebook liegen. Der SPIEGEL braucht zur Produktion seines „Original-SPIEGEL-Journalismus“ regelmäßige, berechenbare Erlöse, keine Einmal-Erlöse.

Stefan Plöchinger, früher Chef bei sueddeutsche.de soll es nun richten. Er soll sich als Leiter Produktentwicklung vor allem um die Paid-Content-Strategie kümmern und so die Erlöse steigern. Man sieht also, dass die strategischen Implikationen nicht angekommen sind. Es kann für den SPIEGEL nicht um Paid-Content gehen, es geht um Paid-Journalismus. Der SPIEGEL gewinnt nicht über seine Produkte, sondern über die Kundenbeziehung, die es den Journalisten ermöglicht, hochwertige Inhalte zu produzieren. Die Kunden kaufen nicht in erste Linie bedrucktes Papier oder HTML-Code im Browser, sondern den speziellen Blickwinkel, die besondere Art, die Themenauswahl, die Attitüde, kurz den Journalismus des SPIEGELs. Mit anderen Worten: Der Kunde bezahlt die Produktion des Journalismus, nicht das einzelne Produkt. Diese Unterscheidung ist aus meiner Sicht wesentlich, um erfolgreich agieren zu können.

Der SPIEGEL hat sich stattdessen für einen sehr konträren Ansatz entschieden. Ein Produkt, dass mit dem Journalismus des SPIEGELs nicht sehr viel gemein hat: Bento.
Bento ist nach eigenem Selbstverständnis ein Medium für junge Leute:

“bento ist das junge Angebot von SPIEGEL ONLINE. bento zeigt, was 18- bis 30-Jährige wirklich interessiert, was uns betrifft und wie wir dazu stehen. Weil es News überall und zu viel gibt, wählen wir aus, was wichtig für uns ist.”

Das klingt in der Theorie vielleicht ganz nett. In der Praxis ist Bento ein Portal, das mit Clickbaits arbeitet, um so noch mehr unwichtige News, die Bento ja eigentlich selektieren wollte, zu produzieren und ins Internet zu schmeißen und so Platz für Anzeigen und gekaufte Artikel zu erschaffen. Wenn ich heute auf die Bento-Startseite schaue, erwarten mich dort Artikel wie “Ein Passagier hört nicht auf zu furzen – sein Flugzeug muss notlanden” und “Bald gibt es vegetarische Hotdogs bei IKEA” (beides kein Scherz). Vom Qualitätsjournalismus des SPIEGEL-Magazins ist hier nichts mehr zu spüren, die Marke SPIEGEL wird konsequent weiter verwässert – und das ist ein durchgehendes Phänomen.

Der SPIEGEL hatte bereits 1994 “SPIEGEL ONLINE” gegründet, diesen neuen Unternehmensteil aber ausgegliedert. Bis heute sind die Redaktionen von “SPON” und dem SPIEGEL-Magazin hierarchisch und auch räumlich getrennt, ebenso wie die Bento-Redaktion. Von vornherein war also klar, dass die Online-Angebote nichts mit dem eigentlichen Produkt zu tun haben sollen und dürfen.

Für die Nutzer spielt das aber keine Rolle. Sie bekommen mit, dass der SPIEGEL zuerst mit SPIEGEL ONLINE und jetzt mit Bento seine Inhalte immer weiter verwässert, die Recherchen immer oberflächlicher werden. In diese Marktsituation (Verwässerung der Dachmarke, Etablierung von oberflächlichen Content-Portalen) hinein einen Bezahldienst wie SPIEGEL plus oder SPIEGEL daily etablieren zu wollen, ist ein strategischer Fehler. Das Signal, das dabei gesendet wird ist nicht “Wenn ihr mehr guten SPIEGEL-Journalismus wollt, dann müsst ihr den SPIEGEL abonnieren”, sondern “Wenn ihr endlich mal vernünftigen Content wollt, dann müsst ihr die guten Artikel für 40 Cent das Stück kaufen”.

Trotzdem setzt man beim SPIEGEL bisher unbeirrt auf neue Produkte zur Lösung des Umsatzschwunds. Ich habe 21 Angebote gefunden, die irgendeine Kombination mit dem Wort SPIEGEL sind, Bento also nicht mitgerechnet. Fast alle sind Text. Viele Produkteinführungen missglückten: Das Best-Ager-Magazin SPIEGEL Classic wurde nach einer Ausgabe eingestellt. SPIEGEL-Fernsehen ging gar nicht erst an den Start, weil der Markttests fehlschlug. Und auch der Erfolg der Tageszeitung SPIEGEL Daily ist bisher offenbar begrenzt. Solche Fehlschläge sind die logische Konsequenz der falschen produkt- und inhaltzentrierten Strategie. Man wundert sich, warum der SPIEGEL meint, es besser zu wissen als die Giganten Amazon und Netflix. Bei Amazon kauft man erst das billige Abo und zahlt dann für Filetstücke trotzdem extra. Netflix schließt Einzelkäufe gleich ganz aus.

Konzentration auf die wichtigen Kunden

Statt weiter auf Reichweite zu spielen, müsste der SPIEGEL sich sehr stringent auf seine treuen Kunden ausrichten und durch die Schärfung des journalistischen Profils und der technischen Möglichkeiten das eigene Werteversprechen für diesen Kreis schärfen: Persönlicher werden, nicht billiger. Weniger Produkte, nicht mehr. Mit allen technologischen Möglichkeiten vereinfachen, um Bequemlichkeit für den Kunden zu schaffen.

Der Anteil der Abonnements an der verkauften Auflage liegt bei 49,8 Prozent, also rund 370.000 treue Kunden. Die digitale Auflage des SPIEGEL ist mit rund 56.000 Exemplaren schon jetzt die höchste eines Magazins in Deutschland, aber hat sicher noch viel Luft nach oben. Und mit SPIEGEL ONLINE gibt es genügend Kontakte zu potentiellen neuen Abonnenten. Ein guter Ausgangspunkt für einen neuen strategischen Ansatz, wäre es, sich endlich der Tatsache zu  stellen, dass das Online-Anzeigen-Geschäft an die Monopolisten verloren gegangen ist. Das macht den Weg frei, jedem neuen Abonnenten deutlich zu machen, was er oder sie eigentlich kauft. Dafür werden die Kernnutzer auch bereit sein zu zahlen. Denn diese Grundbedingung hat sich im Netz in den letzten Jahren gewaltig geändert: Niemand erwartet mehr, dass alles kostenlos ist.

5. Journalismus, Verlage und Marketing

Obwohl die Komponenten Berichterstattung, Verlage und Marketing im gedruckten Journalismus eng miteinander verbunden waren, zeigt sich, dass sie im digitalen Rahmen vielleicht deutlich weniger Synergien haben als bisher. Das bringt für das Marketing ganz eigene Möglichkeiten mit sich. Den Journalismus befreit es von Reichweiten-Argumenten und eröffnet den Weg zu geschlossenen Systemen.

Die Idee eines Massenmediums im klassischen Sinn ist obsolet. Jeder kann jedem alles sagen. Öffentlich. Das ist ebenso erschreckend, wie real. Die journalistische Form der letzten 60 Jahre konnte nur unter den Bedingungen der Friktion ein gewinnbringendes Geschäft sein. Das gleiche Geschäft mit ähnlichen (wenn auch geschrumpften) Strukturen unter digitalen Bedingungen betreiben zu wollen, kann nicht erfolgreich sein. Am “Innovators Dilemma” sind nach Stefan Aust alle Chefredakteure des SPIEGEL gescheitert. Hatte Aust noch erfolgreich andere Mediengattungen in die Marke integriert, mit dem Ziel einen Medienkonzern zu formen, scheiterten nach ihm alle Versuche, das Unternehmen im neuen Paradigma wettbewerbsfähig zu machen an der falschen strategischen Ausrichtung.

Aber: Die bisher gewohnte Herstellung und Verteilung journalistischer Arbeit ist nicht identisch mit dem Journalismus überhaupt. Sie war nur eine mögliche Form davon. Neue technische Möglichkeiten erfordern und erlauben eine neue, zeitgemäße Form –  eine neue Organisation. Menschen haben auch in der mehr und mehr digitalen Gesellschaft, großes Interesse an Themen und Entscheidungen, die sie persönlich oder als Gruppe betreffen. Dort wo sie leben, in der Sprache, die sie sprechen.

Denn bei aller Beunruhigung über einen technologisch forcierten Wandel, den wir nicht bestimmen oder aufhalten können oder sollten: Die digitale Welt bietet genau die technologischen Möglichkeiten, die für einen neuen Journalismus notwendig sind. Erst wenn eine Strategie diese neuen Möglichkeiten grundlegend in die eigenen Überlegungen einbezieht, wird sie dauerhaft Erfolge bringen.

Über Gedanken und Feedback freuen wir uns natürlich besonders von allen, die es geschafft haben, bis hier zu lesen. Gern als Mail oder in den Kommentaren.

Enthüllung: Den Artikel haben Marvin und Florian zusammen geschrieben. Florian hat vor 15 Jahren mal für ein Unternehmen der Spiegel-Gruppe gearbeitet.