Facebooks neuer Newsfeed: Es wird nicht leichter

Der erste Eintrag auf meiner Facebook-Pinnwand datiert auf den 22. Juni 2006. Ein gewisser Phil schreibt dort: „Guten Tag! Can’t wait till you get here“. Elfeinhalb Jahre ist das jetzt her. Und wenn ich an diese schöne Facebook-Zeit zurückdenke, werde ich sogar ein bisschen sentimental.

Da ich schon so lange Facebook-Nutzer bin, nehme ich mir kurz das Recht heraus in „Opa-erzählt-vom-Krieg“-Manier ein bisschen durch die digitale Vergangenheit zu streifen. Im Vergleich zum deutschen Durchschnitts-User bin ich schließlich wirklich der Rentner unter den Facebook-Nutzern. Der Grund dafür ist simpel: 2006 hatte ich einen Austauschschüler aus den USA bei mir zu Gast. Damals war Facebook noch ein „Invite-Only“-Studentennetzwerk, darum wurde ich kurzerhand in irgendeine High-School in Arkansas eingeschrieben und durfte mit von der Partie sein. Daraus resultieren auch die ersten zwanzig Einträge in meiner Pinnwand: Diese sind ausnahmslos von jungen Amerikanern, die ich nicht kenne, die mir aber sagen, was ich für ein großartiger Mensch sei, weil ich  a) Jack Johnson höre, b) Sex and the City gucke oder c) Deutscher bin und Bier trinke.

Daumen hoch

Erstaunlich dabei ist, und das ist der ultimative Beweis dafür wie lange ich schon Facebook nutze, dass keiner dieser Posts von damals geliked wurde. Warum? Weil der Like-Button erst Anfang 2009 erfunden wurde! Das war eine wirklich schöne Phase des Internets. Man hatte das Gefühl sich mit anderen Menschen verbinden zu können, echte Interaktionen über tausende Kilometer hinweg.

Seit dieser Zeit, und wahrscheinlich auch maßgeblich durch den besagten Like-Button, hat sich Facebook sehr verändert. Während man sich früher noch gegenseitig an die Pinnwand geschrieben oder jemanden angestupst hat, sieht der Durchschnitt an zwischenmenschlicher Interaktion auf Facebook heute eher so aus: „XY hat dich in einem Kommentar verlinkt  > Like > The End.“

Dafür wird man an jeder Ecke mit Videos von Unternehmen und Humor-Seiten erstickt, die einen eigentlich nicht interessieren. Und wenn man die App schließt fühlt man sich leer und dumm.

Back to the roots

So weit, so bekannt. Das Neue ist: Mark Zuckerberg sieht das offensichtlich auch so. Und deshalb hat Facebook Anfang des Jahres verkündet, dass es den Newsfeed wieder werthaltiger machen möchte. Werthaltig im Sinne zwischenmenschlicher Interaktion. Im Statement schreibt Facebook außerdem, dass dies ebenfalls bedeute, dass weniger öffentliche Inhalte und Videos von Unternehmen im Newsfeed landen werden. Einfach so.

Nur eine Woche später folgt die zweite große Anpassung. Zukünftig sollen nicht nur weniger Unternehmensposts im Newsfeed angezeigt werden, auch sollen vor allem Meldungen erscheinen, die die Community als vertrauenswürdig und informativ einschätzt. Die Vertrauenswürdigkeit ist anbieterbezogen und wird wohl durch so eine Art Testgruppe von Nutzern realisiert, also ein bisschen wie die Quotenberechnung im Fernsehprogramm (Ein schöner Film über die Quotenberechnung im Fernsehen und die Tücken dieses Systems ist übrigens „Free Rainer“ mit Moritz Bleibtreu).

Das Kapital in Aufruhr

Die direkte Folge dieser Ankündigung ist: Alle, die Geld mit Facebook verdienen, machen sich in die Hose. Der Aktienkurs von Facebook ist innerhalb dieser Woche von rund 187 auf 176 US-Dollar gefallen. Große Nachrichtenportale bangen um ihre Existenz, also ihre Reichweite. Ein schönes Beispiel dafür ist dieser Eintrag des Merkur, der verzweifelt versucht irgendwie im Newsfeed seiner Facebook-Freunde zu bleiben (Zitat: „Mit nur drei Klicks verhindern Sie, dass Berichte, Videos und Reportagen von Merkur.de verschwinden.“ Ein bisschen peinlich ist das schon.)

Viele Verlage zeichnen sich digital vor allem dadurch aus, dass sie weichgespülte Nachrichten und kurze Videos ohne echten Mehrwert ins Internet pusten und dadurch eine Art Dauerbeschallung der Community produzieren. Wenn der neue Maßstab von Facebooks Newsfeed als wirklich „informativ und vertrauenswürdig“ ist, scheint die Angst nicht mehr so unberechtigt. Noch viel realer wird die Angst, wenn man der Statistik von parse.ly Glauben schenkt und annimmt, dass Nutzer 40% aller Inhalte im Internet über Facebook aufrufen.

Und am größten dürfte die Angst bei jenen sein, die sich fast komplett abhängig von Facebook-Klicks und den Funktionalitäten des sozialen Netzwerkes gemacht haben (Ben Thompson beschreibt das wunderbar anhand des Beispiels der Facebook Instant Articles in seinem Blog Stratechery und vergleicht die Situation der der Medienhäuser mit der von Lando Calrissian und seiner Abmachung mit Darth Vader in Star Wars: Wenn Vader will, ändert er einfach den Deal. Und niemand kann etwas dagegen tun. 5-Sekunden-Video dazu hier.)

„Richtigen Content? Das haben wir noch nie gemacht!“

Doch nicht nur Medienhäuser könnten von Marc Zuckerbergs kleinen Anpassungen betroffen sein. Auch Facebook-Profile von Unternehmen werden auf der roten Liste stehen. Und zwar besonders dann, wenn sich das Unternehmen auf Facebook besonders dadurch repräsentiert Posts, GIFs und Videos anderer Kanäle im Netz zu teilen. Da in Zukunft weniger Videos und weniger Unternehmensinhalte im News Feed erscheinen sollen, werden vor allem solche Inhalte häufiger angezeigt, die echte Reaktionen hervorrufen – also Kommentare zum Thema und das Teilen des Beitrags mit seinen Freunden. Wenn man sich die Corporate Posts der meisten Unternehmen anschaut, erscheint das für das Gros der Inhalte eher unwahrscheinlich. Wenn Facebook Ernst macht, müssen viele Unternehmen vielleicht erstmals über eine echte Social-Media- und Content-Strategie nachdenken, um überhaupt noch Reichweite im Netzwerk zu erzielen. Eine schlechte Nachricht für alle, die Social Media als buntes, flippiges Beiwerk gesehen haben, das schon irgendwie funktioniert. Und eine gute Nachricht für alle Unternehmen, die ihre Firmenmission in eine digitale Kommunikationsstrategie gegossen haben und bereits Artikel und Videos produzieren, die einen Mehrwert für ihre Zielgruppe erschaffen. Es sind zu wenige.

Viele werden sich fragen müssen: „Wie macht man das überhaupt, relevanten und informativen Content erstellen? Das haben wir ja noch nie gemacht.“

Fest steht, dass Facebook mittelfristig einen Weg finden musste, um seine Kunden (und das sind letztlich die Nutzer der Plattform und nicht die Unternehmen, die das Geld hineinpumpen) glücklicher zu machen. Denn auch wenn alle Statistiken von steigenden Nutzerzahlen sprechen –  mein subjektives Empfinden war zuletzt: Facebook nervt. Facebook macht dumm. Facebook ist Werbung. Und bevor Facebook zulassen wird Nutzer und damit seine gesamte Aggregationsmacht auf Spiel zu setzen, verbannt es eben jene unliebsamen Inhalte kurzerhand aus dem Sortiment. Gutes Management.

Silberstreif

Und nachdem wir jetzt so schön schwarzgemalt haben, hier noch ein möglicher Ausweg: Employee Advocacy. Klingt komisch, bedeutet aber nichts anderes, als die Einbindung aller Mitarbeiterinnen und Mitarbeiter in die Reichweitengenerierung – und zwar über deren private Social-Media-Accounts. Tools wie Smarp oder Trapit bieten dabei eine Art Bibliothek mit Unternehmensinhalten, die durch das Kollegium unkompliziert in ihre persönlichen (Facebook-)Kanäle geteilt werden können. Und so vielleicht Marks Content-Polizei ein Schnippchen schlagen.

Amazon Alexa: Ein Bericht aus der Küche

Amazon hat mich doch bekommen – natürlich. Als die Preise für Amazon Echos (so heißt das Gerät, in dem Alexa wohnt) für ein paar Tage drastisch reduziert wurden, blieb mir quasi keine andere Möglichkeit. Und da steht sie nun in der Küche, die weiße Röhre, die mich irgendwie immer an ein verkleidetes Auspuffrohr erinnert, und hört mir zu.

 

Alexas blauer Ring leuchtet

 

Wie es in den Wald hineinruft

Zunächst ein bisschen Echo-Kunde: Ich habe die Variante Amazon Echo Plus erstanden (früher hießen die Auspuffrohre nur Echo, jetzt aber Echo Plus, da das neue Standard-Echo jetzt kleiner ist, als das neue Echo Plus, ehemals Echo. Verstanden?). Diese hat, anders als der Echo Dot, einen integrierten Lautsprecher. Wenn man auf dem Echo Plus Musik abspielt klingt das also ganz ordentlich. Nicht so beim Echo Dot. Hier klingt es mehr, als hätte ich in MacGyver-Manier versucht einen Lautsprecher aus einer Cellophanfolie, einem Gummiring und einem Feuerzeug selbst zu basteln. Der Echo Dot sollte wirklich nur zur Spracherkennung benutzt werden und nicht zur Musikwiedergabe (Bitte auf keinen Fall zuhause ausprobieren!).

Ob Echo, Echo Plus, Echo Dot oder Echo Show (das letzte Gerät der Reihe, das auch einen Bildschirm und eine Kamera an Bord hat) spielt aber auch keine Rolle. Denn alle Geräte heißen Alexa.
Falsch: Alle Geräte sind Alexa. Spätestens wenn die unschuldige Stimme das erste Adventsgedicht vorliest, hat man auch keine andere Wahl mehr als dieses niedliche Auspuffrohr zu personifizieren.

 

Brauche ich Alexa?

Die Frage, die man sich unweigerlich vor jeder technischen Anschaffung stellt, ist: „Brauche ich das eigentlich?“. Und wenn wir ehrlich sind, ist die Antwort fast immer „Nein“. Wenn wir uns an der Maslowschen Bedürfnispyramide orientieren trifft wohl auf fast alle technischen Anschaffungen eher nicht zu, dass sie der Stillung der physiologischen Grundbedürfnisse (Essen, Schlafen) oder der Sicherheit dienen. Wer Alexa kauft, um seine sozialen Bedürfnisse (Stufe 3 der Pyramide) zu stillen, sollte vielleicht nächste Mal statt zu Media Markt zum Bingoabend oder gleich zum Psychologen gehen. Will sagen: Technische Geräte sind Luxusgüter, die wir nicht wirklich brauchen. Die Diskussion, ob man Alexa, ein iPhoneX, einen Kühlschrank mit Eiswürfelspender oder einen Quadrocopter wirklich braucht, ist meines Erachtens hinfällig. Der Mensch braucht sehr wenig von dem, was wir so in der Wohnung rumstehen haben.

 

Küchen-Alexa

Zur Vereinfachung unterscheide ich ab hier zwischen der Küchen-Alexa (Echo, das bei mir in der Küche steht) und der Wohnzimmer-Alexa (ihr kommt alleine drauf).

Die Küchen-Alexa ist wirklich hilfreich. Wenn ich morgens mein Müsli esse, lasse ich mir mein selbst zusammengestelltes Nachrichtenupdate vorlesen. Viele Nachrichtenportale erstellen eigens dafür 100-sekündige Snippets, die auch mindestens einmal am Tag aktualisiert werden.

Außerdem ersetzt die Küchen-Alexa quasi das Radio, da man über das Gerät alle digitalen Sender empfangen kann. Auch meine Spotify-Playlists kann ich über die Box abspielen.

Manchmal beantwortet Alexa auch mal schnell eine Frage zu der Einwohnerzahl von Eisenhüttenstadt, nach dem Wetter oder einem Fußballergebnis. Eher seltener wird eine der Alexa Apps benutzt (Die meistgenutzte App bei mir ist R2D2. Eine App, die immer nur piept wie der kleine Druide, egal was man fragt). Für Menschen, die nicht in einer Stadt wohnen und die Mülltonne vor das Haus stellen müssen, soll wohl auch die „Erinnerung-an-die-Müllabfuhr-App“ (oder so) sehr praktisch sein.

Das wirklich Nützliche an der Küchen-Alexa ist, dass man beim Kochen keine Timer mehr per Hand stellen muss (klingt albern, ist aber so). Ich kann parallel einen Ofen-, Nudel- und Tee-Timer stellen und brauche dafür nicht meinen Rührbesen aus der Sauce zu nehmen (Hihi, das klingt als würde ich regelmäßig aufwändig kochen).

Komplettiert wird das Leistungsspektrum von witzigen Fragen, die ich Alexa stelle nachdem der wöchentliche Alexa-Newsletter mit witzigen Fragen kam.

 

Wohnzimmer-Alexa

Die Wohnzimmer-Alexa führt ein größtenteils eher einsames Leben (Lacht nicht über mich, 3 Wochen mit dem Ding und das Gerät wird zu eurer Freundin, ich verspreche es euch). Sie hat, im Gegensatz zu Ihrer Schwester in der Küche, keinen nennenswerten Lautsprecher. Mit ihr macht Radio und Spotify hören dementsprechend nicht so viel Spaß (Euphemismus!).

Wohnzimmer-Alexas Hauptanfragen sind „Wie ist das Wetter draußen?“, wenn ich zu faul bin kurz aufzustehen und auf den Balkon zu gehen und „Stelle die Temperatur im Wohnzimmer auf 22 Grad“. Was? Das kann Alexa auch?
Ja, aber nur wenn ihr ein passendes Thermostat an eure Heizungen geschraubt habt. Ich habe zwei Thermostate, die nicht über WLAN, sondern über DECT direkt mit dem Router kommunizieren, installiert und Alexa quasi die Zugangsdaten zum Smart Home-Bereich meines Routers überlassen (Wenn man das so schreibt klingt das echt nicht so schlau). Auf jeden Fall kann ich jetzt die Temperatur im Wohnzimmer und in der Küche verändern ohne von der Couch aufzustehen (Make my life great again).

50% der Zeit, in der Alexa zuhört, wurde sie nicht von mir, sondern vom Fernseher aktiviert. Wenn in einer Serie jemand Alex heißt, ist das sehr verwirrend für sie. Manchmal fängt ihr blauer Kreis aber auch an zu Leuchten, wenn kein ähnliches Wort gesagt wurde oder, das ist schon gruselig, wenn niemand etwas gesagt hat.

 

Die Haken

Fangen wir mit dem Offensichtlichsten an: Wer sich einen Amazon Echo zulegt muss sich bewusst sein, dass technisch jedes Wort mitgehört wird. Amazon schwört, eine Übertragung des Gesagten ins Internet findet nur statt, nachdem Alexa aktiv angesprochen wurde. Gegenteiliges konnte bisher niemand beweisen. Glaube ich.

Ein weiteres Hindernis, das bei vielen den Spaß der Nutzung einschränken könnte ist: Man muss üben. Leider (oder glücklicherweise) versteht Alexa nicht jedes beliebige Kommando und findet nicht auf jede Frage eine Antwort. Aufgrund des Hypes, der um sprachbasierte Assistenzsysteme stattfindet, löst das bei Besuchern oft Enttäuschung aus („Was, das kann sie nicht? Was kann sie überhaupt?“). Letztlich ist das Echo auch nur ein Gerät und Alexa eben nur eine Software. Man würde schließlich auch nicht fragen: „Wie Fensterputzen? Kann das nicht dein iPhone machen?“

Teil der Eingewöhnungsphase ist auch, nicht „Alexa“ zu sagen, wenn man über Alexa redet, weil sie dann natürlich anspringt und eine Anfrage erwartet. Darum nennen wir Alexa jetzt Uschi, wenn wir heimlich über sie sprechen wollen (Dazu eine witzige Anekdote: Mir ist aufgefallen, dass in der Amazon-Werbung das „A“ in „Alexa“ komplett weggenuschelt wird, damit die Geräte nicht auf die Werbung anspringen).

Bevor man sich einen dieser schlauen Assistenten ins Haus stellt sollte man sich außerdem eines bewusst sein: Das ist erst der Anfang. So wie ich mir kurz nach dem Echo auch die Heizungsthermostate bestellt habe, könnte es mit etlichen weiterer Gadgets weitergehen. Letztens war ich kurz davor mein Wohnzimmer mit intelligenten Glühbirnen auszustatten. Davon kostet eine gerade mal läppische 30-45€ (wohlgemerkt eine Glühbirne, kein Set). Dafür kann man dann sagen: „Alexa, mach pinkes Licht im Wohnzimmer an“. Alles hat seinen Preis.

 

Alexa, komm zum Punkt

Alexa hat ihre Nische im Alltag gefunden. Besonders beim Frühstücken, beim Kochen und auf der Couch ist sie eine gute Begleiterin. Es bleibt zu hoffen, dass die „Skills“ genannten Apps in Zukunft noch besser werden und Alexa mit noch mehr Geräten kompatibel sein wird. Meine Teufel Raumfeld-Lautsprecher kann ich beispielsweise nicht über Alexa steuern. Dabei ist doch das der Traum: Eben nichts mehr selbst anfassen zu müssen, alles von der unsichtbaren Hand, welchen Namen sie dann auch immer trägt steuern zu lassen. Alexa kaufe dies, erinnere mich an das, mach Kaffee, mach Wäsche, mach mir gute Laune. Und spätestens, wenn Alexa zu einer echten Assistentin im echten Leben wird, werden wir auch die Datenschutzprobleme ignorieren können. Basta.

Und zum Schluss:

Wichtigster Satz für die Alexa-Nutzung: „Alexa, STOPP!“.
Bester Satz für die Alexa-Nutzung: „Alexa, frag R2D2 was der Sinn des Lebens ist!“

Biodigitale Revolution: Halb Mensch, halb Festplatte

 

Amazon-Chef Jeff Bezos auf der Code Conference 2016: “Humans are unbelievably data efficient … unbelievably energy efficient … Humans are doing something fundamentally different from the current way that we do machine learning and machine intelligence.”

Bezos muss es wissen, denn er kennt die Probleme, die Maschinen in unserer Welt aktuell haben, ziemlich genau. Einsen und Nullen in der richtigen Reihenfolgen können heute in Maschinen erstaunliche Sachen machen, aber die Verarbeitungs- und Energieeffizienz sind, verglichen mit dem Menschen, eher schlecht.  Aber wie speichert der Mensch eigentlich Informationen? Was macht ihn so “verarbeitungseffizient”?

Photo by h heyerlein on Unsplash

Am Anfang steht bei allen Lebewesen die Desoxyribonukleinsäure (kurz DNS; englisch DNA), ein Molekül, wie ein Gartenschlauch, nur viel kleiner und irgendwie auch anders. Das Gartenschlauch-Molekül ist Träger der Erbinformation, also unseres gesamten Bauplans. Und auch wenn es sich manchmal anders anfühlt, das sind wirklich viele Daten.

Statt in Einsen und Nullen wie beim Rechner, speichert die DNA Erbinformationen in vier Basen: Thymin (T), Adenin (A), Cytosin (C) und Guanin (G). Die Lage dieser Basen zueinander im DNA-Molekül legt fest, wer wir sind. (Bei mir soll angeblich nur ein “G” zu Ryan Gosling fehlen).

Zeig her deine Basen

Genomentschlüsselung, also das Aufdröseln (merken, Fachwort)  und Aufschreiben unserer gesamten chemischen Erbinformationen in digitaler Form, heißt heute Sequenzierung. Sie hat seit dem Jahr 2003 eine beispiellose Entwicklung hingelegt. Die Kosten für eine komplette Sequenzierung („Hallo, einmal DNA-Sequenzierung, bitte“) sind um den Faktor 300.000 gesunken. Zum Vergleich: Das wäre so, als würde eine 35-Quadratmeter-Eigentumswohnung in Berlin Mitte jetzt auf einmal so viel kosten, wie ein Bier mit Schraubverschluss bei Lidl.

Das Erfassen unser ganz persönlichen 3 Milliarden-Basenpaare ist also in kürzester Zeit unglaublich billig und für viele Menschen erschwinglich geworden .Damit ist diese unglaublich energieeffiziente und verarbeitungseffiziente Festplatte (unsere DNA) nicht mehr nur chemisch, sondern auch digital verfügbar.

Grundlagen: DNA ist Open Source

Das „Humane Genome Project“ publizierte im Jahr 2001 zum ersten Mal die persönliche Basen-Sequenz eines Menschen (zeitgleich mit der US-amerikanischen Firma Celera Genomics). Doch nicht nur das: Die zu 90% vollständige Sequenz aller drei Milliarden Basenpaare des menschlichen Genoms wurde parallel dazu auch frei zugänglich im Internet veröffentlicht. Der erste Mensch war somit mit all seinen Bestandteilen als Open Source verfügbar (und wir machen uns Sorgen übers Datensammeln bei Facebook und Google). Damit begann sozusagen die Digitalisierung des menschlichen Erbguts.

Bevor unsere DNA aber leichter zu beschaffen war als ein Satz neuer Wohnungsschlüssel, mussten zunächst einige biotechnologische Wunder und Revolutionen vollbracht werden (Manche Leute machen halt statt Netflix lieber solche Sachen): 2001 beispielsweise kostete diese eine oben genannte DNA-Sequenzierung 2,7 Milliarden US-Dollar und der öffentlich finanzierte internationale Forschungsverbund hatte daran seit 1990 gearbeitet. Nettoarbeitszeit also 11 Jahre. Der Meilenstein schien damals ein Endpunkt zu sein, frei nach dem Motto: “Erster!” Doch die Bedeutung als Endpunkt war weit geringer, als die Bedeutung als Startpunkt.

Fünf Jahre später – 2006 – kostete die Entzifferung des Erbguts noch eine Million US-Dollar, 2008 war sie für 100.000 US-Dollar zu haben und 2014 fielen die Kosten für eine Analyse des menschlichen Genoms zum Beispiel bei der Firma Illumina  auf 1000 Dollar. Dauer der Sequenzierung? Etwa 26 Stunden.

Eine FASTQ-Datei der 3 Milliarden Basenpaare aus einem Sequenzer von Ilumina ist ungefähr 200 Gigabyte schwer (Hey, ich passe noch nicht auf mein iPhone!). Moderne Sequenzierungstechnik kann Hunderte von Millionen von DNA-Strängen gleichzeitig verarbeiten, also lesen und in digitale Informationen schreiben. Die Bedeutung dieser Entwicklung wird klar, wenn man bedenkt, dass die DNA quasi unser Betriebssystem ist. Große Datenbanken, die diese Informationen speichern, sind frei zugänglich, um Forschung zu ermöglichen. Wir sind Open Source.

“Habe ich da kostenlos gehört?”

Die Entwicklungsgeschwindigkeit des Sequenzierens stellt seit 2008 sogar Moore’s Gesetz in den Schatten. Heute werden Preise um die 100 Dollar diskutiert und bestimmt gibt’s irgendwo Mengenrabatt für die ganze Familie oder eine Groupon-Aktion mit Same-Day-Delivery. Die Sequenzierung unserer DNA wird also aller Voraussicht nach in den nächsten Jahren nahezu kostenlos werden.

Und wenn etwas so gut wie kostenlos und zudem noch wahnsinnig “verarbeitungseffizient” ist, können doch die Konzerne gar nicht so weit weg sein: Durch die millionenfache Aufdröselung unserer DNA bekam die Menschheit langsam ein Bild von der exakten Funktionsweise eben dieser. Heute ist man sogar über das pure Manipulieren schon lange hinaus. Inzwischen wird unsere DNA von Maschinen ausgelesen, gespeichert, bearbeitet oder eben auch geschrieben. Damit wird die Biotechnologie unmittelbar Gegenstand der Digitalisierung im industriellen Sinn. Massendatenanalyse, maschinelles Lernen und künstliche Intelligenz werden in Zukunft direkt mit den Daten arbeiten, die uns zu Menschen machen. Die Weichen für die biodigitale Revolution werden in diesen Monaten gestellt.

DNA-Betriebssystem ohne Software ist wie iPhone ohne Apps

Open Source, (der Ansatz etwas kostenlos zur Verfügung zu stellen, was intuitiv zu wertvoll dafür erscheint) hat schon einmal im Bereich der proprietären Software für einen unglaublichen Innovationsschub gesorgt. Will Zeng von Rigetti Computing, die sich auf das Programmieren von Software für einen Quantencomputer spezialisiert haben, sagt dazu: „It is important that all these tools are open source. Such a model was not available at the dawn of digital computing, but its power to speed innovation, as with Linux in the early days of the web, is essential for the quantum-programming community to grow quickly.“

Doch die Entwicklung von Software für neue Systeme, egal ob iPad, Quantencomputer oder DNA, erfordert nicht nur ein Betriebssystem. Wir müssen die Funktionalitäten verstehen, die dieses System hat. Und wir brauchen eine Sprache, in der wir diese Funktionalitäten ansprechen können (wie den Home-Button beim iPad, nur das jetzt halt um menschliche DNA geht. Logisch, oder?)

Diese Sprache wurde seit Anfang der 90er Jahren entwickelt. 2012 formulierten gleich mehrere Forscher, wie Jennifer Doudna, Emanuelle Charpentier und Virginijus Siksnys, die Lösung: CRISPR/Cas9. Das ist ein Verfahren, das es möglich macht die DNA an frei wählbaren Punkten sehr genau zu verändern. Bei TED erklärt Jennifer selbst sehr schön, wie es geht.

Einer von den Dreien kriegt bestimmt mal den Nobelpreis.

Die Entdeckung des CRISPR-Cas9-Enzym-Mechanismus, machte es möglich, Zellen und Organismen aus allen Lebensbereichen sehr genau zu modifizieren (ja, Genmanipulation, das böse Wort), also digital geplante Änderungen chemisch umzusetzen. Virginijus Siksnys ließ sein Verfahren von DuPont 2015 patentieren. Emanuelle Charpentier leitet heute die Abteilung für Regulation in der Infektionsbiologie am Max-Planck-Institut für Infektionsbiologie in Berlin.

“Crispr-Cas9 is like software for the DNA”, sagt Jennifer Doudna, die als Professorin in Berkley arbeitet.

Mit CRISPR-Cas9 gibt es jetzt also eine Sprache zum Codieren neuer Informationen in einer DNA. Das Problem: keiner weiß, was unser DNA uns eigentlich sagen will. Die Funktionalitäten unseres Betriebssystems sind ziemlich unbekannt. Deshalb ist die Welt der DNA-Sequenzierung und Bearbeitung aktuell auch nicht im Bereich Biologie ganz weit vorn, sondern im Bereich der digitalen Technologien. Die ersten Anwendungen versuchen, Funktionalitäten aus der digitalen Welt in einer DNA abzulegen. Also statt bestehende DNA zu bearbeiten und zu modifizieren, einfach eine leere DNA mit Einsen und Nullen und der Hilfe unserer vier Basen zu beschreiben. Wie einen USB-Stick. Und das funktioniert.

Ihr Mensch wird formatiert. Bitte haben Sie einen Moment Geduld.

Die meisten Daten werden heute klassischerweise magnetisch oder auf optische Medien gespeichert. Die dichteste Form der Lagerung, die heute im Handel erhältlich ist, liegt bei etwa 10 GB / mm3. Die Speicherung von Zettabytes von Daten würde so, trotz weiterer Verbesserungen, noch immer Millionen von Einheiten benötigen. Das kosten einfach enorm viel Platz und Datencenter sind defacto riesengroße Hallen voll mit Servern.

Und Daten sind ja quasi das Erdöl der Digitalisierung – wir werden Massen davon benötigen, um künstliche Intelligenzen, neuronale Netze usw. aufbauen zu können. Sie sind der Treiber der Digitalisierung schlechthin. Da darf man sich schon die Frage stellen: “Wo lassen wir das ganze Zeug?”

Bei der Google Cloud-Next-Konferenz in San Francisco im März 2017 ließ das Unternehmen wissen, dass es in den vergangenen drei Jahren fast 30 Milliarden Dollar für Rechenzentren ausgegeben hat. Zum Vergleich: Das ist pro Jahr mehr als doppelt soviel, wie in Deutschland von allen Pharma-Firmen zusammen für Pharmaforschung ausgegeben wird. Die wenden nach eigenen Angaben pro Jahr rund 5,4 Milliarden Euro für Forschung und Entwicklung in Deutschland auf (Stand 2015). Das beides viel miteinander zu tun hat, wird nun deutlich. Eine Speicherlösung, die billiger und kleiner ist, weniger Energie verbraucht und haltbarer ist, hätte ein gewaltiges Marktpotential.

Heutige Speichersysteme sind nämlich nicht nur groß und ineffizient, sondern auch nicht haltbar genug. Rotierende Scheiben sind für eine Nutzung zwischen 3 und 5 Jahren ausgelegt, Magnetbänder für ca. 10 bis 30 Jahre. Langzeitarchivierungen erfordern außerdem Aktualisierungen, um beschädigte Daten, fehlerhafte Einheiten und Technologie zu ersetzen.

Und hier kommt wieder die DNA ins Spiel: Synthetische DNA-Sequenzen könnte ein Medium für die digitale Datenspeicherung sein. DNA ist extrem dicht beschreibbar und hat eine theoretische Speicherdichte über 1 EB / mm3 (EB = Exabyte), also mehr als achtmal so viel, wie aktuelle Speichertechnologien, die Lagerung kostet wenig Energie und die Halbwertszeit liegt bei über 500 Jahren in rauen Umgebungen. Das klingt vielversprechend (Oder nach “Matrix”, je nachdem wie man es sieht).

Außerdem hat  DNA-basierte Speicherung auch den Vorteil der ewigen Relevanz: solange es DNA-basiertes Leben gibt (hoffentlich noch ein paar Jahre), gibt es gute Gründe DNA zu lesen – und zu manipulieren.

Kaspersky meldet 6 Angriffe auf Ihr Genom

Im Labor ist die Speicherung von Informationen in DNA-Material bereits gelungen. Die Washington University und Microsoft Research haben mit ihrem Projekt gezeigt, warum sich die schnelle Entwicklung der Informationstechnologie auch auf unser genetisches Material erstrecken wird: “DNA-based storage has the potential to be the ultimate archival storage solution: it is extremely dense and durable.”

Biotechologie und Digitalisierung wachsen schnell zusammen –  Damit gelten auch ganz ähnliche Bedrohungsszenarien. Denn für alle Schritten des Prozesses werden Computer benötigt (Alarm!).

Forscher an der Universität Washington, haben deshalb einen Computervirus in eine DNA geschrieben und so einen DNA-Sequenzer gekapert (Klarer Fall von “Weil sie es können”). Sie wollten zeigen, welche neuen Sicherheitsrisiken in der Interaktion zwischen biomolekularen Informationen und den Computersystemen, die sie analysieren, möglich sind. Tadayoshi Kohno, Professor für Informatik an der University of Washington leitete das Projekt: „Wenn ein Gegner die Kontrolle über die Daten hat, die ein Computer verarbeitet, kann er auch den Computer übernehmen. Wenn man sich die Sicherheit von informationsverarbeitenden, biologischen Systemen ansieht, muss man nicht nur Netzwerkverbindung, USB-Laufwerk und den Benutzer an der Tastatur bedenken, sondern auch die Informationen selber, die in der DNA gespeichert sind, die die Systeme sequenzieren.“

Um die Malware zu machen, übersetzte das Team also einen einfachen Computerbefehl in eine kurze Strecke von 176 DNA-Buchstaben (A, G, C und T – ihr erinnert euch). Nachdem sie sich reichlich Kopien der manipulierten DNA von einem Labor für $ 89 hatten machen lassen, fütterten sie die Stränge in eine Sequenziermaschine (Stellt ihr euch das auch so witzig vor?). Der Sequenzierer laß die Genbuchstaben und speicherte sie als Binärziffern 0 und 1. Das Ergebnis war ein Stück Angriffssoftware.

Fazit: Viva la biodigitale Revolution!

Das klappt natürlich nur im Labor und mit viel gutem Zureden. DNA-basiertes Hacking gibt es in der wirklichen Welt noch nicht (und entsprechend qualifiziertes Personal muss man auch erstmal finden).

Aber auch ohne Hacker: die Verwendung von DNA für die Handhabung von Computer-Informationen wird langsam Realität, sagt auch Seth Shipman, ein Mitglied des Harvard-Teams, das vor kurzem ein Video in einer DNA-Probe codierte: „Wofür wir dieses System verwendet wollen, ist nicht um am Ende Informationen hinein zu schreiben, die wir bereits haben, sondern um einen Weg zu haben, um mit diesen Zellen loszugehen und Informationen zu sammeln, zu denen wir bisher keinen Zugang haben“, sagt Shipman. „Wenn wir mit ihnen Daten sammeln könnten und diese Daten in ihrem Genom speichern könnten, dann hätten wir Zugang zu völlig neuen Arten von Informationen.“

Die Schnittstelle zwischen molekularer Biologie und digitaler Datenverarbeitung ist offen, nun wird sie auch genutzt werden. (Denkt noch jemand an die Büchse der Pandora?).

Versprochen werden Anwendungen in der personalisierten Medizin, also zum Beispiel bei Erbkrankheiten. Nichts davon gibt es bisher und ich glaube die Entwicklung dieser All-in-One-Gen-Lösungen wird lange dauern. Die Fortschritte von DNA als massentauglichem Informationsspeicher in Hybridsystemen könnten uns dagegen schon bald überraschen, wenn Jeff Bezos das Geld nicht ausgeht.

Und dann gibt es auch für Katastrophenforscher neue Szenarien – zum Beispiel Viren, die in jeden Menschen ein komplettes Helene Fischer-Album hinein-sequenzieren.

Redaktion: Florian Tennstedt / Lektorat: Marvin Hintze