„Neue“ Interaction Methoden?

Da ist mir vorhin beim Kommentieren von gnubuntu was aufgefallen.

In diesem Blog wird auf die Ansichtssache vom Standard hingewiesen. Diese beschäftigt sich in 11 Bildern mit den neuen Gnome 3.0 MockUps und eventuellen „so-könnte-es-mal-aussehen“. Auf Bild 8 ist mir dann aufgefallen, dass es dort scheinbar auch eine Kommandozeile geben soll, die ähnlich (oder sogar gleich) wie enso von humanized funktionieren soll. Dabei werden Befehle in einer ausblendbaren Commandline eingegeben: „google interaction design“ und der Rechner startet den Browser, geht auf „google.com“, gibt „interaction design“ im Suchfeld ein und setzt die Suche ab.

Laut den Erfindern ist dies ein erster Schritt zur Sprachsteuerung – das kann ich mir wirklich gut vorstellen, dass dies klappt. Leider ist enso derzeit nur für Windows erhältlich, aber ich hab das mal mit einem Freund ausprobiert. Wenn ich mir nun dazu die neuen Features von Gnome vorstelle und eventuell die Workspaces, die mit compiz fusion super einfach zu wechseln und zu bedienen sind, dann schaut das Ganze schon nach einer neuen „Interaction Experience“ aus.

Hm… denken wir mal weiter: das Bedienungskonzept vom iPhone oder das des „Surface“ (auch wenns von Microsoft ist) dazukombinieren und tara!: dann sind solche Projektionsflächen und deren Ganzkörper-bedienung wie schon in „Enthüllung“ (nur ohne Datenhandschuh) oder „Minority Report“ möglich. Und da sprechen wir nicht von Prototypen, von denen auch bereits einige Videos im Netz kursieren, sondern von tatsächlichen Desktop Funktionen, die in ein bis zwei Jahren für Linux oder andere Betriebssysteme zur Verfügung stehen werden.

Ich freu mich drauf 🙂

Hinterlasse einen Kommentar

Diese Seite verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden..