iPhone X: Was ist eine Neural Engine?

Frau nutzt VR-Brille

Am 12.09. hat Apple in Cupertino die neue Generation von iPhones vorgestellt. Während das iPhone 8 und das iPhone 8 plus turnusgemäß eine Überarbeitung des Vorgängermodells sind, kommt das iPhone X (gesprochen „iPhone Zehn“) mit einigen Neuerungen daher. Unter anderem mit an Bord: Der selbstentwickelte A11 Bionic Chip mit eingebauter Neural Engine. Alles klar, oder?

Neural Engine – klingt komisch, ist aber so

In der Produktpräsentation wird das neue Herz des iPhone X eigentlich eher nebenbei erwähnt. Die wahren Neuerungen, so scheint es, sind nicht der neue Prozessor, sondern, dass man sein iPhone jetzt mit seinem Gesicht entsperren kann (also nicht wie im Winter, wenn man Handschuhe trägt und versucht das Gerät mit der Nase zu entsperren, sondern mit der Frontkamera). Später sehen wir noch hochrangige Apple-Entwickler, die sich durch die neue Gesichtserkennung-Software in sich in Echtzeit bewegende Scheißhaufen verwandeln und sich blödsinnige „Animojis“ hin und her senden. Und auch die Spieler-Gemeinde darf sich freuen: Statt wie bisher auf einem programmierten Spielfeld (soooo 2016), kann man sich jetzt dank der neuen Augmented Reality-Funktionen direkt auf dem Küchentisch mit Robotern beschießen und das, ohne das Mutti Angst um ihr Porzellan haben muss.

Das soll also die Power der Neural Engine sein? Das ist die Neuerung, die eine „Revolution“ des Smartphones auf den Weg bringen soll und die Art und Weise verändert, wie wir Digitales erleben?

Ohne irgendeine Ahnung von Chips, Prozessoren (gibt es einen Unterschied?), FLOPS oder Ähnlichem zu haben, habe ich versucht herauszufinden, was diese Neural Engine eigentlich ist. Zusammengefasst hört sich das so an: Die Neural Engine ist ein Zusammenspiel aus zwei Prozessorkernen, die es auf 600 Milliarden Rechenoperationen pro Sekunde bringen sollen. Durch diese Geschwindigkeit ist es nun möglich Berechnungen, die vorher nur von größeren Maschinen durchgeführt werden konnten und deshalb in die Cloud ausgelagert wurden, direkt auf dem iPhone auszuführen. Und weil sich „echt schneller Rechenkern“ nicht so cool anhört, nennt man es eben Neural Engine.

Das iPhone wird nicht die Weltherrschaft übernehmen

Das klingt doch für den Laien erstmal ziemlich gut, letztlich sollte man die Kirche aber im Dorf lassen. Die Neural Engine im iPhone X arbeitet mit 0,6 Teraflops. Festinstallierte Supercomputer wie der Sunway Tauhu Light arbeiten heute allerdings schon mit 125 Petaflops oder mehr, was in etwa 238 Milliardoquadrotrillionen iPhone Xs entspricht (oder so). Das neue iPhone wird also nicht von jetzt auf gleich die Kontrolle über die Welt oder die Wohnung übernehmen und auch nicht über Nacht die Haustiere versklaven. Aber es kann andere spannende Dinge.

Ein Feature, das meiner Meinung nach in der Präsentation etwas zu kurz gekommen ist waren die Live-Statistiken zu einem Baseball-Spiel. Die aktuellen Spieldaten wurden mithilfe von Augmented Reality direkt über den Köpfen der realen Spieler eingeblendet. Wie weit sind wir mit dieser Technik noch davon entfernt, Live-„Stats“ über unsere Mitmenschen in der Bahn zu erfahren? Wahrscheinlich nur noch eine Hemmschwelle entfernt. Mit dieser Neural Engine in jeder Handfläche wirken Versuche, wie die Gesichtserkennung von Passanten am Bahnhof Berlin Südkreuz geradezu antiquiert.

Keine Cloud ist das neue Cloud

Doch aller Überwachungsstaat-Paranoia zum Trotz hat Apple mit der eingebauten Neural Engine auch den Weg dafür freigemacht, dass die Nutzer in Zukunft vielleicht nicht mehr alle ihre Daten in die Cloud übertragen müssen, um von künstlicher Intelligenz zu profitieren. Wenn man die Prozessoren im iPhone X z.B. für die Benutzung von Siri nutzen könnte, würden sich viele bestimmt bereitwilliger mit Apples Chatbot unterhalten. Andererseits leben diese System natürlich vor allem davon, dass sie mit der größtmöglichen Menge an Daten gefüttert werden, damit die Deep-Learning-Algorithmen richtig ins Schwitzen kommen können. Man wird sehen müssen, inwieweit diese oder andere Prozesse in Zukunft tatsächlich auf dem iPhone stattfinden können.

Die Neural Engine bringt also Künstliche Intelligenz, Deep- und Machine-Learning und all die anderen Dinge, die wir nicht auseinanderhalten können, in unsere Hosentasche. Letztlich wird es wieder einmal an den Entwicklern liegen, wie schnell sich damit wirklich spannende Dinge anstellen lassen (vielleicht noch spannender als sprechende Scheißhaufen). Wie gut das am Ende aussehen kann, zeigt folgendes Beispiel: IKEA arbeitet schon mit Hochdruck an einer Augmented-Reality-App für die Wohnungseinrichtung. Damit kann man sich dann schonn einmal seine zukünftige Couch in sein tatsächliches Wohnzimmer stellen und sich die passenden Küchenschränke zur Arbeitsplatte aussuchen. Nur aufbauen, dafür gibt es leider noch keine Engines – noch.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.