Die Haustür erkennt anhand biometrischer Daten den Bewohner und öffnet sich. Das Licht im Flur leuchtet auf, an der Wand gegenüber der Garderobe erscheint ein Bild der Tochter. Sie hat zuvor eine längere Videonachricht aus Japan hinterlassen, die nun automatisch abgespielt wird. Ein leichtes Streichen über die Tapete, Musik setzt ein. „Alexa, wie spät ist es in Japan?“ Amazons Sprachassistent „Echo“ antwortet sofort: „Vier Uhr morgens, zu früh für einen Rückruf.“ Also erst einmal Wasser einlassen und in der Badewanne die Zeitung von heute und morgen lesen. Alles auf einem DIN-A4-großen Display, das biegsam, rollbar und natürlich auch wasserfest ist. Die seifigen Finger sind dabei kein Problem. Umblättern, Wegklicken, Zoomen funktioniert einfach mit Gestensteuerung.

Klingt zu schön, um wahr zu sein? Stimmt – heute noch. Aber schon in wenigen Jahren wird dieses kleine Szenario die Realität sein. Das Interface von morgen ist intuitiv zu bedienen, verschmilzt mit unserem Alltag und erscheint als guter, extrem hilfreicher Freund und nicht wie ein Stück kalte Technik. Und es wird immer mehr zu einem Teil von uns selbst.

Kleine Gesten, große Wirkung

Schon jetzt arbeitet Googles Abteilung Advanced Technology and Projects (ATAP) in dem Projekt Soli an einer Gestensteuerung, die den Möglichkeiten von Tom Cruise in „Minority Report“ in nichts nachsteht. Ein winziger, in fast alles implementierbarer Chip nimmt über Radar kleinste Bewegungen der Hand auf und wandelt sie in Steuerungsbefehle um. Ein Streichen des Zeigefingers über den Daumen, die Musik wird lauter. Ein Tippen in die Luft nach rechts, das nächste Lied ertönt. Eingebaut werden könnte „Soli“ zum Beispiel in smarte Uhren, bei denen das kleine Touchpad sowohl Programmierer als auch Anwender vor Herausforderungen stellt.

Wo früher Tastatur und Maus notwendig waren und heute noch zumindest ein Touchpad gebraucht wird, soll also künftig die Hand ausreichen. Und wahrscheinlich müssen wir bald nicht mal mehr die bewegen, wenn die Entwicklung der Sprachsteuerung weiter voranschreitet. Anstatt unsere Geräte zu bedienen, können wir uns dann mit ihnen unterhalten, ihnen Anweisungen geben und Fragen stellen. Im Kleinen geht das jetzt schon mit Apples „Siri“, Microsofts „Cortana“, Amazons „Alexa“ oder „Ok Google“. Noch sind die Geräte oft mit Dialekten, nuschelnden Anwendern und Hintergrundgeräuschen überfordert, doch schon bald könnten wir uns mit ihnen unterhalten wie Iron Man mit der von ihm geschaffenen künstlichen Intelligenz „Jarvis“.

Interfaces werden unsichtbar

Ein Interface ist die Schnittstelle zwischen Technik und Mensch. Bisher waren Interfaces oft starr, kalt und groß mit störenden Kabeln und häufig mit einer Hemmschwelle vor der ersten Benutzung verbunden. Noch dazu wurden sie von Jahr zu Jahr größer; man denke nur an Fernsehbildschirme, die schon die halbe Wand einnehmen und Smartphones, die in keine Hosentasche mehr passen. Künftig könnten Interfaces dagegen ganz klein sein, wie die smarten Uhren am Handgelenk, oder sogar weich, warm und fließend – in unsere Kleidung eingewebt. Im Projekt Jacquard hat Googles ATAP-Team Garne entwickelt, die bei Berührung Signale weitergeben. Ein Streichen über den Ärmel des Jacketts und der gerade eingehende Anruf wird angenommen, die nächste Folie der Präsentation aufgerufen oder der Fernseher ausgeschaltet.

Intelligente Fasern können aber noch viel mehr als uns das Leben zu erleichtern: Sie könnten es uns auch retten. In Autositze eingearbeitet, messen sie vom Fahrer unbemerkt Puls, Herzfrequenz und Muskeltätigkeit. Wird der Fahrer müde oder droht gar ein Herzinfarkt, reagiert das Auto. Ähnlich funktioniert eine Leiterplatte des Fraunhofer-Instituts, die in einen Babybody eingenäht wird und Eltern vor dem plötzlichen Kindstod warnen kann.

Ab auf das Holodeck

Zugegeben, die faszinierendste Technik der nahen Zukunft verschmilzt nicht ganz so elegant mit ihrer Umgebung. Die Hologramm-Brille ist groß und klobig und sieht ein wenig so aus, als hätte man sich ein Fernglas um den Kopf geschnallt. Aber was sie leistet, ist enorm. Da wird das Holodeck aus „Star Trek“ im eigenen Wohnzimmer oder am Arbeitsplatz zur Realität. Ob man nun 3D-Figuren im Raum schweben lässt, Grafiken beliebig auf Wände projiziert und gemeinsam mit kilometerweit entfernt sitzenden Kollegen analysiert oder gleich mit einer Raumsonde den Mars erkunden möchte, alles erscheint möglich.

Die Fiktionen aus „Star Trek“, „Minority Report“ und „Iron Man“ sind also schon real oder werden es bald sein. Und was ist mit „Zurück in die Zukunft“? Vor wenigen Tagen, am 21. Oktober 2015, kam Marty McFly aus der Vergangenheit zu uns gereist. Doch leider haben ihn weder fliegende Autos noch Hoverboards erwartet. Lexus hat zwar ein Hoverboard entwickelt und in einem Werbespot auch schon eingesetzt. Das Board schwebt allerdings nur über magnetischem Untergrund und das auch nur für ungefähr 15 Minuten. Und fliegende Autos sind selbstverständlich in der Entwicklung, mit Serienreife ist aber frühestens in acht bis zwölf Jahren zu rechnen. Vielleicht kommt Marty dann noch mal wieder? Bis dahin dürfte auch sein Paar Nike MAG mit Power Laces ausgetreten sein und ausgetauscht werden müssen. Das kann er sich nämlich höchstwahrscheinlich tatsächlich im kommenden Jahr kaufen. Nike hat den selbstschnürenden Schuh für 2016 angekündigt.

Ansprechpartner

Marco Fischer

Fon: 0611.2 38 50 10

Email:
...bei XING