08
Feb 12

Prototyp: Neue Gesten für E-Books und Tablets

Ich bin ja immer skeptisch, wenn es darum geht, E-Books auf dem Display in der Bedienung so aussehen und “sich so anfühlen” zu lassen, wie ein Buch in der Realität. Man kennt das von sogenannten PDF-Readern. Kunden lieben die Dinger, das Prinzip ist simpel: Man nimmt ein normales PDF und lässt es auf dem Bildschirm so aussehen, als würden dessen Seiten umgeblättert. Das Ganze lässt sich dann meist per Pfeilklick und per Drag-and-drop navigieren. Das war’s – macht mit der Maus auch so gar keinen Spaß und ist völlig sinnfrei. Zudem sind die Inhalte ohnehin dann nur schwer lesbar, weil zu klein, das ewige Blättern nervt. Kurz, Pagepeel- und Blättereffekte machen auf einem normalen Display mit Mousebedienung einfach keinen Sinn. Für diese Ausgabegeräte gibt es bereits sinnvolle Lese- und Navigationsgewohnheiten.

Durchaus interessant können gewohnte Gesten und Haptiken aber auf einem Gerät sein, das man aufgrund seiner Größe, seines Formfaktors und seines Interfaces annähernd wie ein Buch handhaben kann. Die Rede ist von Tablets. Das südkoreanische KAIST Institute of Information Technology Convergence hat jetzt einen Software-Prototypen vorgestellt, der die gängigen Gesten beim Handling eines Buches auf das Touchdisplay eines Tablets überträgt. Man erkennt schon im Video, dass das einfach und intuitiv funktioniert. Da wünsch ich mir doch, dass das bald mal jemand einsetzt. Schaut’s euch an.

YouTube Preview Image

21
Sep 11

The Mill präsentiert Cases auf eigenem Touchscreensystem

Die Bewegtbildschmiede The Mill präsentiert ihre Cases auf einem komplett inhouse hergestellten Touchdisplay inklusive beeindruckendem Interface. Das Making of liefern sie gleich mit. Sehr interessant.

YouTube Preview Image

14
Sep 11

Windows 8 mit Touch-Interface Metro

Kleines Hands-on-Video zur neuen Windows 8 Oberfläche.

YouTube Preview Image

23
Nov 10

Die Zeit optimiert ihren Onlineauftritt für iPad und Tablet-PC

YouTube Preview Image

26
Mai 10

Tischplatten zu Interfaces

Light Blue Optics hat auf der diesjährigen CES in Las Vegas Light Touch vorgestellt, ein kleines und handliches Projektionsinterface, das jede beliebige Oberfläche in eine Multi-Touch fähige Schnittstelle verwandelt.

Die Fingergesten werden durch einen Laser realisiert, der dicht über der Oberfläche einen Infrarotfächer aufspannt. Dessen Unterbrechung wird von einer Kamera aufgenommen, ausgewertet und in eine Aktion, etwa einen Klick oder Doppelklick, umgewandelt.

Das Gerät wirkt noch etwas unhandlich und Light Blue Optics sieht dessen Anwendung zum Teil nach wie vor in einer stationären Anwendung. Dennoch, noch etwas kleiner und die Technik findet sich in jedem Handy.

YouTube Preview Image YouTube Preview Image

04
Dez 09

Adobes Ansichten zu Multi-Touch

Interessante Einblicke in die Entwicklungsarbeit des Adobe Experience Design Teams. Besonders schön finde ich das Multi-Touch Interface, das etwa ab Minute 3:51 zu sehen ist und mit Flex erstellt wurde. Durch vier Finger der linken Hand wird Farb- und Opazitätswert ständig neu eingestellt, während die Finger der rechten Hand die Farbe auf dem Display aufbringen und den Druck kontrolliert. Ich kann mir sehr gut vorstellen, dass nach einiger Einarbeitungszeit die Einstellungen sehr intuitiv und schnell vorgenommen werden können. Dies ermöglicht eine sehr künstlerische und impulsive Herangehensweise an Gestaltung. Exakte Farbwerte lassen sich hingegen vermutlich eher schwer nachvollziehen. Schöne Idee und mit Sicherheit bedenkenswert, wenn es um Multi-Touch in professionellen Anwendungen geht.

YouTube Preview Image

via


15
Nov 09

Interaktion und Multi-Touch in der Augmented Reality

YouTube Preview Image

Möglich macht’s die Touch Erweiterung zur SSTT Library (SSTT = Simplified Spatial Target Tracker) von Technotecture, aka Hartmut Seichter:


20
Okt 09

Die Maus bekommt ein sensibles Fell

pic_magicmousehero

Hat es jemand mitbekommen? Während die neuen iMac Modelle im Rampenlicht stehen, hat Apple heute – ganz nebenbei und eher im Stillen – eines der ältesten und bewährtesten Eingabegeräte des digitalen Zeitalters entscheidend reformiert. Bisher wurde lediglich an Stromzufuhr und Datenübertragung (vom Kabel zu Bluetooth), Abtastung (Rad, Kugel und schließlich Laser) oder Größe und Gewicht der Computermaus gearbeitet. Jetzt erhält das Device, das seit Jahrzehnten um kaum ein wesentlicheres Interaktionsmerkmal ergänzt wurde, als um die ein oder andere Taste oder ein Scrollrad, mit der “Magic Mouse” eine Multi-Touch Oberfläche – eigentlich eine kleine Revolution.

Mit ihr sind Multi-Touch Gesten zur Bedienung des Rechners möglich, Scrollrad und jegliche Tasten werden obsolet. Die Oberfläche erlaubt Klicken, Scrollen, Vor- und Zurückschalten sowie in Verbindung mit der CTRL-Taste auch das Zoomen. Apple nutzt dafür zu einem großen Teil die gleichen Gesten, wie sie auch schon von den Multi-Touchpads der MacBook Pros bekannt sind. Wer dies nicht möchte, kann alle Multi-Touch Fähigkeiten abschalten und die Maus in ihrer klassischen Funktion nutzen.

Bereits vor einigen Wochen zeigte Microsoft lediglich Prototypen diverser Multi-Touch-Mäuse. Mit dem heutigen Verkaufsstart der Magic Mouse, die zudem jedem neuen iMac beiliegt, hat Apple jedoch die Nase vorn. Der Hersteller aus Cupertino erfindet durch die Verbindung von Maus und Touchpad genau genommen ein neues Eingabegerät, denn sollte sich die Multi-Touch Maus durchsetzen, ist zu erwarten, dass sich mit ihr auch neue Interaktionsmuster entwickeln. Dies gab es bei der Maus zuletzt durch die Einführung des Scrollrades 1995. Danach musste der Scrollbalken nicht mehr mühsam mit dem Mauszeiger bedient werden, ein Dreh am Rad genügte.

Doch die Magic Mouse erfüllt noch eine weitere Funktion. Nebenbei überbrückt Appel mit ihr geschickt die Zeit, bis Hard- und Software alternativer Interfaces für Desktoprechner, wie das 10/GUI, massentauglich und erschwinglich werden. Handelte es sich nicht um ein Laptop mit Touchpad, musste bisher auf Multi-Touch Gesten verzichtet werden. Erst kürzlich stellte Wacom allerdings mit dem bereits erhältlichen Bamboo Pen & Touch und dem Bamboo Touch Grafiktabletts vor, die Multi-Touch Gesten der Finger erkennen.

In der Kombination von Stift und Multi-Touchpad könnte indes die Zukunft liegen. Verbinden sie doch die beiden Welten der professionell-produktiven und der rein steuernden Interaktion. So wäre die gesamte Bedienung des Betriebssystemes und gängige Tätigkeiten, wie das Surfen, sehr intuitiv und ohne zu Hilfenahme eines Gerätes möglich, das man festhalten oder in die Hand nehmen muss. Arbeiten, die Präzision und Feingefühl erfordern, wie etwa die grafische Bearbeitung von Bildern, würden mit dem Stift durchgeführt.

Übrigens, im vergangenen Jahr feierte die Maus ihren 40. Geburtstag


15
Okt 09

10/GUI erfindet die Interaktion (beinahe) neu

Einer meiner Studenten wies mich dieser Tage auf das folgende Video hin. Leider kam ich erst heute dazu, es mir anzusehen.

10/GUI ist ein in der Tat höchst interessanter, grundlegend neu durchdachter Ansatz der Interaktion. Urheber Clayton Miller analysiert zunächst die grundsätzlichen Bedingungen und Probleme derzeitiger Interfaces und deren Eingabegeräte. So kann man eine Maus zwar in der Regel entspannt bedienen, sie lässt die Interaktion aber nur in einem singulären Punkt zu. In Zeiten des Multi-Touch Hypes inakzeptabel. Auf der anderen Seite sind Multi-Touch Systeme insofern für den längeren professionellen Einsatz ungeeignet, als dass sie unzumutbare Belastungen der Arme (bei vertikalem Screen) und des Nackens (bei horizontalem Screen) nach sich ziehen. Zudem wird auf Multi-Touch Screens der Inhalt in der Regel durch die bedienenden Hände verdeckt.

Die Lösung ist dabei genauso simpel wie unspektakulär: ein vergrößertes Multi-Touchpad (horizontal), das sich mit zehn Fingern bedienen lässt, kombiniert mit einem gewöhnlichen Screen (vertikal). Beides ermöglicht eine entspannte Arbeitshaltung sowie die Bedienung per Multi-Touch.

Nun ist die Hardware nicht unbedingt das Highlight des Konzeptes. Vielmehr überdenkt Miller mit seinem Software Prototypen “Con10uum” die gesamte Benutzeroberfäche und deren bekanntes Bedienkonzept mit Fenstern und Mauszeiger neu. Alle zehn Finger werden in ihrer Position durch Kreise auf dem Screen markiert. Dies ermöglicht die Bedienung auf dem Touchpad, ohne den Blick vom Bildschirm abwenden zu müssen. Gleichzeitig verzichtet Con10uum auf die bekannte Fenster Metapher und reiht die Inhalte in einer Kette auf nur einer Ebene nebeneinander. Dies nimmt die Komplexität aus der Bedienung in mehreren Dimensionen.

Und schließlich etabliert Clayton Miller eine logische und relativ leicht erlernbare Kombination von Fingergesten. Damit werden Scrollen, Schieben, Zoomen und Sortieren der Inhalte, sowie das Starten von Applikationen mit allen zehn Fingern sehr intuitiv möglich.

Ich wäre sehr gespannt darauf, wie schnell man die Gesten erlernt, denn letztlich zeigt sich die wahre Bedienbarkeit eines neuen Konzeptes immer erst in seiner praktischen Anwendung. Derzeit handelt es sich jedoch noch um einen Versuchsträger, wie Clayton Miller über Twitter erläutert. So zeigt er etwa nicht, wie in Con10uum Texteingaben realisiert werden – ein wesentliches Element des Interface Designs – aber auch hier sind Prototypen zu erwarten.

Überzeugt bin ich allerdings davon, dass es genau diese grundlegend und radikal anderen Konzepte – und seien sie noch so klein – sind, die die Interfaceentwicklung weiterbringen. Multi-Touch für sich genommen ist eine inhaltsleere Technologie, die bisher nur in Teilen und auf bestimmten Endgeräten wie dem iPhone Sinn macht. Erst der ganzheitliche Blick auf Hard- und Software, die produktive Anwendung und Übertragung der Möglichkeiten und Chancen der Technologie auf die Probleme der aktuellen und bekannten Schnittstellen bringt den entscheidenden und vor allem nachhaltigen Fortschritt.


29
Sep 09

Randnotiz: Microsoft patentiert die virtuelle Tastatur

pic_ms_virt_tastatur_patent

Microsoft lässt in einem aktuellen Patentantrag eine virtuelle Touchscreen Tastatur schützen. Sie folgt auf einem Multi-Touch Display den Bewegungen von Hand und Fingern und beseitigt damit das Problem, dass Touchscreen Tastaturen ob der fehlenden Haptik nur schwer blind zu bedienen sind.

Um dies zu ermöglichen, wird die Auflagefläche der Hände als Referenzpunkt in Beziehung zum Abstand zu den Fingerspitzen gesetzt und gewährleistet so immer die richtige Distanz. Die Tastatur kann auch geteilt dargestellt werden (Siehe Bild oben). Für ihren Aufruf soll es genügen, die Hände über das Multi-Touch Display zu bewegen.

Lange hat es gedauert. Damit wird erstmals das schon 2006 von Jeff Han gezeigte virtuelle Keyboard weiter entwickelt und patentrechtlich erfasst. Gerade da Onscreen-Tastaturen aus oben genannten Gründen derzeit noch die Achillesferse von Touchscreen Interfaces darstellen, könnte hier ein entscheidender Fortschritt gelingen.