Multitouch-Entwicklung mit GestureWorks

[toc]Der vorliegende Artikel ist der zweite Bericht aus der Einführungs-Serie für Multitouch-Entwicklungsumgebungen und stellt die kommerzielle Software GestureWorks vor. Mit diesem Framework können Adobe Flash Applikationen mit Multitouch-Unterstützung erstellt werden, wobei eine breite Palette von Multitouch-Hardware unterstützt wird. Das Spektrum an unterstützten Gesten ist enorm, was sich u.a. auch in der von GestureWorks eingeführten Gesture Markup Language widerspiegelt. Im Folgenden wird eine kurze Einführung in die Plattform gegeben, einige vorgefertigte Beispiele gezeigt sowie ein kleine Anwendung selbst implementiert.

Einführung

  • Framework zur Erstellung von Multitouch-Anwendungen mit Adobe Flash
  • Unterstützung aller Adobe Flash-Komponenten
  • Verwendung der Adobe Flash Rendering Engine
  • Implementierung basiert auf Adobe ActionScript
  • Anbindung beliebiger Hardware mit Windows 7 oder dem TUIO-Protokoll
  • Über 100 verfügbare Gesten, assoziiert mit der Gesture Markup Language

Demo

Um vor der Vorstellung der technischen Details einen ersten Eindruck zu schaffen, demonstriert das folgende Beispielvideo die Funktionalität einer Applikation mit Flickr und Google Maps Integration:

Historie

Das Framework wird seit 2008 von dem US-Unternehmen Ideum Inc. entwickelt und steht derzeit in der Version 3.1 zur Verfügung. Es werden zwei Versionen vertrieben. Zum einen als Standard-Version für $149, welche auf fünf Gesten beschränkt ist und in jeder Anwendung ein Logo enthält, und die unbeschränkte Professional-Version für $349. Außerdem wird eine Demo-Version bereitgestellt, bei der jede Anwendung auf 30 Minuten Laufzeit eingeschränkt ist. Die Version 2 des Frameworks ist als über das Projekt Open Exhibits als Open-Source verfügbar.

Komponenten und Aufbau

Die nachfolgende Tabelle gibt einen Überblick über die technischen Eigenschaften sowie bereitgestellten Gesten und Komponenten des Frameworks:

Eigenschaft Ausprägung bei GestureWorks
Programmiersprache
  • Adobe Flash
  • Adobe Flex
Rendering
  • Adobe Flash Rendering Engine (Geräteabhängig)
Hardware-Anbindung
  • Unterstützt jede Hardware, auf der Windows 7 ausgeführt oder welche mit dem TUIO-Protokoll genutzt werden kann
Multitouch-Gesten
  • Über 100 vorhandene Gesten, assoziiert mit der GestureML, einer Markup-Sprache für Multitouch-Gesten
    • Drag
    • Rotate
    • Anchor Rotate
    • Scale
    • Anchor Scale
    • Tap
    • Anchor Tap
    • Double Tap
    • Anchor Double Tap
    • Triple Tap
    • Tap and Hold
    • Flick
    • Anchor Flick
    • Scroll
    • Split
    • Gesture Draw
  • Vorhandene Gesten können erweitert werden
Bereitgestellte Komponenten
  • Verwendung aller in Adobe Flash verfügbaren Komponenten möglich
  • Keine zusätzliche Bereitstellung von vorgefertigten Objekten
  • Unterstützung aller Formate, welche durch Adobe Flash verwendet werden können
    • Bilder und Grafiken
    • Audio
    • Video

Installation

Bevor die Installation starten kann, muss zunächst auf der Homepage eine Version gekauft werden. Alternativ steht auf der gleichen Seite auch eine Evaluationsversion zur Verfügung.

  1. Die Adobe Air Laufzeitumgebung herunterladen und installieren
  2. Die heruntergeladene Setup-Datei für GestureWorks ausführen
  3. Den Installationsschritten folgen
  4. Zum Ende der Installation die Lizenznummer eingeben und bestätigen
  5. Nach der Installation öffnet sich der Windows Explorer und zeigt den Installationsordner. In diesem sind die Programm-Bibliotheken enthalten, die benötigt werden, um Multitouch-fähige Anwendungen mit Adobe Flash zu kompilieren. Es ist keine ausführbare Anwendung enthalten!

[nggtags gallery=GestureWorks+Installation]

Einrichtung von Adobe Flash

Um Anwendungen auf Basis von Adobe Flash und GestureWorks entwickeln zu können, wird die Entwicklungsumgebung Adobe Flash Professional CS5+ benötigt. Im Folgenden wird erklärt, wie diese Anwendung eingerichtet werden muss, damit Applikationen mit GestureWorks erstellt werden können.

  1. Dieses vorbereitete Template herunterladen und entpacken. Es enthält die Ordnerstruktur, welche für jedes neue Projekt benötigt wird.
  2. Anlegen eines neuen Adobe AIR Projekts unter „Datei“ -> „Neu“ (Adobe AIR Projekt auswählen)
  3. Abspeichern des Projekts unter beliebigem Namen in dem Template-Ordner
  4. Neue Adobe ActionScript Klasse anlegen unter „Datei“ -> „Neu“ (ActionScript 3.0 auswählen)
  5. Die neue Klasse im „src“-Ordner abspeichern unter dem Name „Main“
  6. ActionScript Einstellungen festlegen unter „Datei“ -> „ActionScript Einstellungen
    1. Als Klassenname „Main“ angeben
    2. Neuen Quellpfad „.\src“ erstellen
    3. Bibliothekspfade hinzufügen. Alle GestureWorks-Projekte müssen mit den Bibliotheken „GestureWorksCML.swc“ und „GestureWorksGML.swc“ verknüpft werden. Diese Dateien befinden sich im „lib“-Ordner im Verzeichnis von GestureWorks und müssen mit dem Icon „SWC-Datei hinzufügen“ je als neue Bibliothek eingefügt und aus dem GestureWorks-Ordner (C:\Users\“Name“\GestureWorks3\lib) ausgewählt werden.
  7. Veröffentlichungseinstellungen festlegen unter „Datei“ -> „Einstellungen für Veröffentlichungen“
    1. Der Pfad für die Ausgabedatei (.swf) ist „.\bin\Main.swf“
  8. Nun kann der eigentliche Inhalt der Applikation implementiert werden. Dazu wird mit „Klassendefinition bearbeiten“ von „Main“ eine neue Klasse für ActionScript erstellt.

[nggtags gallery=GestureWorks+Flasheinrichtung]

Mitgelieferte Beispiele

Die Beispielanwendungen für GestureWorks sind nicht in der Installation enthalten, sondern als Tutorial und Download auf der Webseite verfügbar. Die Applikationen sind allesamt einfach gehalten und lassen sich mit der Anleitung auf der Webseite einfach nachvollziehen. Für die weitere Betrachtung werden die Applikationen in zwei Kategorien eingeteilt. Zum einen die Beispiele, welche die grundlegenden Touch-Gesten demonstrieren, und zum anderen erweiterte Anwendungen. Letztere haben einen größeren Funktionsumfang und geben einen Einblick in die reale Entwicklung.

Die derzeit auf der Homepage befindlichen Beispiele sind für die Version 2 von GestureWorks ausgelegt.

Grundlegende Beispiele

Diese Beispielanwendungen dienen vor allem zum Erlernen der grundlegenden Touchgesten. Es werden jeweils nur wenige Geste mit einfachen Objekt kombiniert, um die Funktionalität zu erlernen.

[nggtags gallery=GestureWorks+Beispielanwendung+basic]

Erweiterte Beispiele

Anwendungen in dieser Kategorie sind für fortgeschrittene Entwickler geeignet und zeigen wie man gewöhnliche Flash-Inhalte wie beispielsweise Karten oder 3D-Objekte mit Multitouch-Gesten versehen kann.

[nggtags gallery=GestureWorks+Beispielanwendung+advanced]

Minimalimplementierung

Eine Anwendung mit GestureWorks zu implementieren ist sehr einfach. Es werden nur zwei Dateien und etwas Quellcode (Adobe ActionScript 3) benötigt. Wie bei den anderen Beispielanwendungen für Multitouch-Frameworks dieser Seite soll die Beispielanwendung Bilder darstellen und mit entsprechenden Gesten (Drag, Scale, Rotate) manipulieren können. Für die Applikation wird zunächst ein neues Flash-Projekt benötigt. Dieses muss, wie bereits oben gezeigt, konfiguriert und mit dem GestureWorks-Framework verknüpft werden. Das Minimal-Beispiel steht ebenfalls als fertiger Download zur Verfügung.

Den eigentlichen Quellcode beinhaltet die „Main.as“-Datei. Diese besteht, wie bei objektorientierten Programmiersprachen üblich aus verschiedenen Bestandteilen. Zunächst werden die Grundfunktionen per Import-Anweisung eingebunden. Im Anschluss wird die Klasse von „Application“ abgeleitet und die benötigten Methoden implementiert. Die Methode „initialize“ enthält den Hauptbestandteil der Anwendung. Im Folgenden der vollständige Code für das Minimal Beispiel:

package{
import com.gestureworks.core.GestureWorks;
import com.gestureworks.core.TouchSprite;
import flash.display.Bitmap;
import flash.display.BitmapData;
import flash.display.Loader;
import flash.events.Event;
import flash.net.URLRequest;

public class Main extends GestureWorks{
	private var loader:Loader;
	private var myDisplay:TouchSprite;

	public function Main():void{
		super();
		key = "KEY HIER EINFUEGEN";
	}

	override protected function gestureworksInit():void{
		trace("GestureWorks has initialized");

		myDisplay = new TouchSprite();
		loader = new Loader();
		myDisplay.x = (stage.stageWidth) / 2;
		myDisplay.y = (stage.stageHeight) / 2;
		myDisplay.scaleX = 0.2;
		myDisplay.scaleY = 0.2;

		myDisplay.gestureTouchInertia = true;
		myDisplay.gestureReleaseInertia = true;
		myDisplay.clusterEvents = true;
		myDisplay.gestureEvents = true;
		myDisplay.transformEvents = true;
		myDisplay.disableNativeTransform = false;

		var gList:Object = new Object;
		gList["pivot"] = true;
		gList["n-drag"] = true;
		gList["n-rotate"] = true;
		gList["n-scale"] = true;
		myDisplay.gestureList = gList;

		loader.contentLoaderInfo.addEventListener(Event.COMPLETE, loaderComplete);
		loader.load(new URLRequest("library/assets/pic.jpg"));

		myDisplay.addChild(loader);
		addChild(myDisplay);
	}

	private function loaderComplete(event:Event):void{
		loader.x = 0 - (loader.width / 2);
		loader.y = 0 - (loader.height / 2);
	}
}}

Out-of-Home Displays: Interaktive Großbildschirme im öffentlichen Raum

[toc]Out-of-Home Displays werden an unterschiedlichsten öffentlichen Orten immer häufiger für Produkt- und Unternehmenswerbung verwenden. Gleichzeitig steigt das Interesse an Gestensteuerung und anderen modernen Interaktionsmöglichkeiten mit Großbildschirmen durch den Erfolg von Spielekonsolen wie beispielsweise Microsoft Kinect stetig an. Vor diesem Hintergrund liefert der folgende Beitrag zunächst eine kurze Einführung in den Themenbereich „Out-of-Home Displays“ sowie die damit verbundenen Begriffe „Ubiquitous Computing“ und „Pervasive Advertising“. Anschließend werden mögliche Klassifikationskriterien zur Strukturierung  von Out-of-Home Displays erarbeitet und anhand von Beispielen vorgestellt. Am Ende des Artikels erfolgt ein kurzer Ausblick über Nutzungsparadigmen von Out-of-Home Displays, die sich auf die Verbesserung der Informationsversorgung innerhalb von Unternehmen übertragen lassen.

httpvh://www.youtube.com/watch?v=a6cNdhOKwi0

Motivation

Interaktive Großbildschirme und andere Display-Technologien sind mittlerweile allgegenwärtig und werden ständig weiterentwickelt [ref]STALDER, URSULA & BOENIGK, MICHAEL (2009): Out-of-Home-Displays: Digitale Markenkommunikation im öffentlichen Raum. Medien Journal – Zeitschrift für Kommunikationskultur, 1/2009 (33), S. 33-51.[/ref]. Geeignete Nutzungskonzepte mit informationellem Mehrwert für die unternehmensinterne Zusammenarbeit fehlen jedoch, obwohl sich die bereits erfolgreich angewendeten Methoden im Bereich Pervasive Advertising z.T. durchaus auf den Unternehmenskontext übertragen werden könnten. Um dies in einem ersten Schritt zu ermöglichen, werden im vorliegenden Artikel verschiedene Konzepte von Out-of-Home Displays vorgestellt und klassifiziert.

Begriffsdefinitionen

Um für die spätere Beschreibung verschiedener Anwendungen eine ausreichende Begriffsbasis zu schaffen, werden im folgenden Kapitel zunächst die Begriffe „Out-of-Home-Displays“ sowie die damit verbundenen Wissenschaftsbereiche  „Ubiquitous Computing“ und „Pervasive Advertising“ kurz vorgestellt.

Out-of-Home Displays

Der Begriff “Out-of-Home-Displays”, resp. “Out-of-Home-Media” stellt eine Erweiterung und Weiterentwicklung des vor allem im angelsächsischen Raums verbreiteten Begriffs der “Outdoor Media” dar.(Stalder, Ursula)[ref]STALDER, URSULA (2008): Out-of-Home-Displays: Kommunikation im Spannungsfeld von narrativem, medialem und öffentlichen Raum. URL: http://blog.hslu.ch/outofhomedisplays/out-of-home-displays/, zuletzt abgerufen am: 09.10.2011.[/ref]

Out-of-Home-Displays bezeichnen damit alle digitalen Kommunikationsträger, die außerhalb des eigenen Hauses verwendet werden. Sie beruhen auf gemeinsamen technischen Grundlagen und haben gemeinsame medienspezifische Eigenschaften, z.B. Technologie, Informationsgehalt oder Eingabemöglichkeiten, die unterschiedlich genutzt werden. Es existieren unterschiedliche Anwendungsformen für Out-of-Home Displays. Die meisten Anwendungsgebiete sind vergleichbar mit konventionellen Werbe-, Unterhaltungs- und Informationssystemen, wobei sich vier Bereiche herauskristallisieren:

  • Out-of Home-Medien: Infoterminals, Kiosksysteme, etc.
  • Bild-Medien: TV, Videoclips, Film, Podcasts, etc.
  • Display-Medien: TV, PC, Web, MP3-Player, etc.
  • Netzwerk-Medien: Websites, Management-Informationssystemen, etc.

Diese unterschiedlichen Anwendungsgebiete lassen eine Kategorisierung nach verschiedenen konkreten Ausprägungen zu. Ihr Kontext als eigenständige Mediengruppe im medialen, sozialen und räumlichen Umfeld sind dabei die maßgebende Eigenschaft [ref]STALDER, URSULA (2008): Out-of-Home-Displays: Kommunikation im Spannungsfeld von narrativem, medialem und öffentlichen Raum. URL: http://blog.hslu.ch/outofhomedisplays/out-of-home-displays/, zuletzt abgerufen am: 09.10.2011.[/ref].

Ubiquitous Computing

Der Begriff des „Ubiquitous Computing“[ref]Gelegentlich auch als „Pervasive Computing“ bezeichnet.[/ref] beschreibt die allgegenwärtige Informationsverarbeitung, die Datenzugriffsmöglichkeit und die Vernetzung des Alltages mit „intelligenten“ Maschinen und Geräten. Interaktivität, Automatisierung und Ubiquität sind die Eigenschaften, die für dieses Prinzip stehen und im Rahmen von E-Commerce-Szenarien und webbasierten Geschäftsprozessen nutzbar gemacht werden können [ref]MATTERN, FRIEDEMANN (2007): Pervasive Computing. asut Bulletin, /2007 (4), S. 33ff.[/ref]. Das scheinbare Verschwinden der Technologie ist die mitunter wichtigste Eigenschaft:

The most profound technologies are those that disappear. They weave themselves into the fabric of everyday life until they are indistinguishable from it.(Weiser, Mark)[ref] WEISER, MARK (2002): Pervasive Computing. Scientific American, /2002.[/ref]

Für dessen Verwirklichung werden drei Teilen benötigt: günstige und leistungsstarke Computer, Software für ubiquitäre Anwendungen und ein Netzwerk, das alles miteinander verbindet. Anhand dieser aufgezählten Punkte fügt sich Pervasive Computing „unsichtbar“ in die Umwelt ein und verändert das Leben der Gesellschaft [ref] WEISER, MARK (2002): Pervasive Computing. Scientific American, 2002.[/ref]. Neue Technologien wie Sensoren, Netzwerke, Verarbeitungs- und Speichereinheiten ermöglichen die drei Kernprinzipen: Automation, Interactivity und Ubiquity [ref]MÜLLER, JÖRG; ALT, FLORIAN & MICHELIS, DANIEL (2011): Pervasive Advertising. 1. Aufl., . Springer London.[/ref].

Pervasive Advertising

Pervasive Advertising ist eine Zusammenführung der Fachrichtungen Pervasive Computing und Advertising. Advertising beschäftigt sich mit jeglicher Entwicklung von Werbung, um bei potentiellen Kunden Informationen zu vermitteln, Emotionen zu wecken und Reaktionen auszulösen. Neue Erkenntnisse aus der Marktforschung[ref]FLORACK, ARND (2009): Marktforschung – Einführung in die Psychologie der Werbung. URL: http://www.werbepsychologie-online.de/html/marktforschung.html, zuletzt abgerufen am: 10.10.2011.[/ref] argumentieren für das Einbinden von neuen effektiveren und insbesondere ubiquitären Technologien in die Werbung. Aus der Verbindung der beiden Fachrichtungen Advertising und Pervasive (Ubiquitous) Computing geht Pervasive Advertising hervor. Daraus ergibt sich die Möglichkeit, die bestehende Art der Werbung zu verändern. Besonders Personalisierung und das Kreieren eines positiven Verkaufserlebnisses stehen im Vordergrund.

„Pervasive advertising is the use of pervasive computing technologies for advertising purposes.”(Müller et al.)[ref]MÜLLER, JÖRG; ALT, FLORIAN & MICHELIS, DANIEL (2011): Pervasive Advertising. 1. Aufl., . Springer London.[/ref]

Durch die Verbindung mit Ubiquitous Computing bietet Pervasive Advertising im Vergleich zu traditionellen Werbemitteln, wie Plakatwänden oder Litfaßsäulen, fortgeschrittene Darstellungsmöglichkeiten. Pervasive Advertising beschäftigt sich u.a. mit:

  • Symmetric Communication: Das Abgeben der Bestimmungsrechte der Werbemittelbetreiber in die Hände der Nutzer; der Kunde erhält bei der Auswahl der Werbung ein Eintscheidungsrecht.[ref]WAART, PETER VAN & MULDER, INGRID (2009): Meaningful advertising: Pervasive Advertis-ing in the Experience Economy. In: Workshop Pervasive Advertising. Lübeck.[/ref]
  • The Long Tail: Auch Kleinanbietern ist es möglich, durch geringen Einsatz eine effektive und individualisierte Werbekampagne zu starten.[ref]ANDERSON, CHRIS (2006): The Long Tail: Why the Future of Business is Selling Less of More. Hyperion.[/ref]
  • Experiences: Neugier und das Interesse von Personen an neuen, unbekannten Systemen; Die visuellen Eindrücke, das Gefühlte und das daraus Reflektierte sind die drei Ebenen, die Pervasive Advertising anspricht.[ref]NORMAN, DONALD (2003): Emotional Design, Why We Love (or Hate) Everyday Things. Basic Books.[/ref]
  • Personalization and Context Adaptivity: Speichern von Vorlieben und Verhalten von Zielgruppen oder -personen, um den Kontext, in dem eine Werbung steht, besser zu erfassen und für die Darstellung der Werbung berücksichtigen zu können.[ref]MÜLLER, JÖRG; ALT, FLORIAN & MICHELIS, DANIEL (2011): Pervasive Advertising. 1. Aufl., . Springer London.[/ref]
  • Audience Measurement: Messung von Reaktionen der Passanten oder Nutzer, um den Erfolg oder Misserfolg einer Werbekampagne in Zahlen und Daten noch exakter beschreiben zu können.[ref]SCHRAMMEL, JOHANN; MATTHEISS, ELKE; DÖBELT, SUSEN; PALETTA, LUCAS; TSCHELIGI, MANFRED & ALMER, ALEXANDER (2011): Attentional Behavior of Users on the Move Towards Pervasive Advertising Media. In: MÜLLER, JÖRG; ALT, FLORIAN & MICHELIS, DANIEL (Hrsg.): Pervasive Advertising. 1. Aufl., . Springer London, S. 287-309.[/ref]
  • Automated Persuasion: Überzeugungskraft von Pervasive Displays, die auf die allgegenwärtige, teilweise unterbewusste Wahrnehmung setzt, um das Verhalten von Passanten zu beeinflussen und Kunden anzulocken.[ref]REITBERGER, WOLFGANG; MESCHTSCHERJAKOV, ALEXANDER; MIRLACHER, THOMAS; TSCHELIGI, MANFRED; MÜLLER, JÖRG; ALT, FLORIAN & MICHELIS, DANIEL (2011): Ambient Persuasion in the Shopping Context . London: Springer London, S. 309-323.[/ref].

Beispiele für Out-of-Home Displays

In der folgenden Kategorisierung werden die verschiedene Beispiele für Out-of-Home Displays entsprechend ihrer Nutzung näher beschrieben und kurz voneinander abgegrenzt.

Produktmedien

Produktmedien zeichnen sich durch Bildschirme mit Information, Werbung und Unterhaltungsangeboten an belebten Plätzen aus.

Carrefour Live, Schweiz

Die Carrefour Market-Kette mit über 1000 Filialen nutzt ein neues Netzwerk von Bildschirmen, das neben Produktnachrichten auch lokale Werbung und allgemeine Unterhaltung bietet [ref]Stalder, Ursula (2011b): Out-of-Home-Displays: Carrefour Tests Local Advertising. URL: http://blog.hslu.ch/outofhomedisplays/2011/02/23/carrefour-tests-local-advertising-on-its-digital-signage-network/, zuletzt abgerufen am: 30.10.2011.[/ref].

[singlepic id=961 w=290 float=left mode=crop]

[singlepic id=962 w=290 float=left mode=crop]

BBC Launch Kampagne, New York

Während der BBC Launch Kampagne wurden dramatische Fotografien aus Nachrichtensendungen dargestellt, die das Interesse der amerikanischen Bevölkerung an internationalen Nachrichten stärken sollten. Die Rezipienten konnten mit ihrem Handy über wichtige Fragen abstimmen und haben damit unbewusst ein Stimmungsbild der Bevölkerung zu verschiedenen Themen erzeugt[ref]Stalder, Ursula (2008c): Out-of-Home-Displays: BBC World Launch Kampagne. URL: http://blog.hslu.ch/outofhomedisplays/2008/09/30/bbc-world-launch-kampagne-2006/, zuletzt abgerufen am: 01.10.2011.[/ref].

[singlepic id=959 w=290 h=160 float=left mode=crop]

[singlepic id=960 w=290 h=160 float=left mode=crop]

Architekturmedien

Architekturmedien werden als Markenrepräsentationen in verschiedenen Größenkategorien eingesetzt. Siesind zum einen ein mediales System zur Markeninszenierung (eingebettet in die Architektur), das im Außenbereich an Gebäudefronten oder kompletten Gebäude angebracht ist und zum anderen eine zukunftsträchtige architektonische Inszenierung einer Marke mit Hilfe moderner Technik und Design, um deren Ansehen zu steigern.

Uniqa Tower, Wien

Die Versicherungsgesellschaft Uniqa repräsentiert über die Fassade des Towers hinweg die Unternehmensphilosophie durch die abstrakten und gegenständlichen Motive[ref]Stalder, Ursula (2008m): Out-of-Home-Displays: Uniqa-Tower Wien. URL: http://blog.hslu.ch/outofhomedisplays/2008/09/21/wien-uniqa-tower/, zuletzt abgerufen am: 01.10.2011.[/ref]. Für die visuelle Gestaltung wurde die gesamte Gebäudeoberfläche von mehr als 7000m², bestehend aus einer zweischaligen Glasfassade, genutzt[ref]Whitaker, Tim (2006): LEDs Magazine – Barco covers Vienna building with LED blocks. URL: http://www.ledsmagazine.com/news/3/5/17/1, zuletzt abgerufen am: 09.11.2011.[/ref].

[singlepic id=973 w=290 float=left mode=crop]

[singlepic id=974 w=290 float=left mode=crop]

Swarovski Kristallwelten, Wattens

Die Firma Swarovski hat in Wattens, Österreich, eine Fantasiewelt geschaffen, die sich über 8500m² erstreckt und das Motto „The Art of Crystal Fiction“ trägt[ref]Stalder, Ursula (2009b): Out-of-Home-Displays: Swarovski Kristallwelten Wattens. URL: http://blog.hslu.ch/outofhomedisplays/2009/07/23/swarovski-kristallwelten-wattens/, zuletzt abgerufen am: 01.10.2011.[/ref].

[singlepic id=972 w=290 h=220 float=left mode=crop]

[singlepic id=971 w=290 h=220 float=left mode=crop]

Forschungsmedien

Forschungsmedien sind interaktive (beispielsweise gestengesteuerte) Displays, die heute meist noch nicht in öffentlichen Anwendungen genutzt werden, sondern sich in der Entwicklung befinden. Es handelt sich meist um Prototypen, die zur Erforschung und Verbesserung von Gestensteuerung, Fingererkennung, 3D-Koordinaten-Verfolgung oder Multi-User-Nutzbarkeit dienen[ref]DEEG, ALEX (2010): 3-D Gesture-Based Interaction System Unveiled. URL: http://idw-online.de/pages/de/news380200, zuletzt abgerufen am: 01.10.2011.[/ref]. Potential ist im Spiele-, Unternehmens-, E-Learning- und Simulationssektor vorhanden [ref]KLUCZNIOK, JAN (2010): Wissenschaft: Fraunhofer-Institut entwickelt 3D-Multitouch ohne Touch – NETZWELT. URL: http://www.netzwelt.de/news/83424-wissenschaft-fraunhofer-institut-entwickelt-3d-multitouch-ohne-touch.html, zuletzt abgerufen am: 01.10.2011.[/ref]. Die Steuerung erfolgt über Bewegung der Hände und Finger, welche über verschiedene Kamerasysteme eingefangen digitalisiert und umgesetzt werden.

Omnitouch

Das System besteht aus einer Kamera und einem Pico-Projektor, die zusammen überall einen Touchscreen erzeugen können[ref]Pluta, Werner (2011): Omnitouch: Die Welt ist ein Touchscreen. URL: http://www.golem.de/1110/87166.html, zuletzt abgerufen am: 19.10.2011.[/ref].

[singlepic id=967 w=290 h=200 float=left mode=crop]

[singlepic id=968 w=290 h=200 float=left mode=crop]

iPoint Presenter

Mit dem iPoint Presenter, einer Entwicklung des Fraunhofer Heinrich-Hertz-Instituts, sollt die Mensch-Computer Interaktion, wie sie aus dem Film „Minority Report“ bekannt ist, verwirklicht werden[ref]Quandel, Gudrun (2011c): Heinrich-Hertz-Institut – iPoint Presenter. URL: http://www.hhi.fraunhofer.de/de/abteilungen-am-hhi/interaktive-medien-human-factors/uebersicht/hand-interaction/exponate/ipoint-presenter/, zuletzt abgerufen am: 01.10.2011.[/ref]. Die Technologie ermöglicht es dem Nutzer, den Computer mittels einfacher Gesten auch ohne direkte Berührung zu bedienen[ref]Kötter, Yasmin (2008): PCs steuern wie im Film: Der iPoint Presenter (Video) – NETZWELT. URL: http://www.netzwelt.de/news/77305-pcs-steuern-film-ipoint-presenter-video.html, zuletzt abgerufen am: 10.11.2011.[/ref].

[singlepic id=963 w=290 h=220 float=left mode=crop]

[singlepic id=964 w=290 h=220 float=left mode=crop]

Kulturell-Informelle Medien

Als viertes Einsatzgebiet existieren kulturell-informelle Medien, die sich durch interaktive Informations- und Orientierungssysteme, sowie digitale künstlerische Gestaltungsmöglichkeiten im öffentlichen Raum abgrenzen lassen.

Spots Facade, Berlin

Die Spots Medienfassade in Berlin besteht aus 1800 Leuchtstoffröhren, die in einer Matrix angeordnet und individuell steuerbar sind. Das Gebäude am Potsdamer Platz ist elf Stockwerke hoch und wurde durch die Glasvorhangfassade zu einem riesigen, 1350m² großen Display[ref]Gruentuch, Armand & Almut, Ernst (2006): Convertible City – Projects – SPOTS Licht- und Medienfassade. URL: http://www.convertiblecity.de/projekte_projekt09_en.html, zuletzt abgerufen am: 01.10.2011.[/ref].

[singlepic id=969 w=290 float=left mode=crop]

[singlepic id=970 w=290 float=left mode=crop]

ibex Touchboard, Luzern

Seit dem 01. Januar 2010 ist in der Lobby des Hotels Continental in Luzern das Ibex Touchboard aufgestellt. Das Informations-Tool bietet den hauseigenen Gästen Informationen über das Wetter, aktuelle Nachrichten, lokale Veranstaltungen, Webcam-Übertragungen, z.B. vom Gipfel des nächsten Berges, Kino- und Restauranttipps und vieles mehr[ref]Stalder, Ursula (2010): Out-of-Home-Displays: iBex Touchboard. URL: http://blog.hslu.ch/outofhomedisplays/2010/01/13/das-ibex-touchboard-interaktiver-flachbildschirm-zum-beruhren/, zuletzt abgerufen am: 01.10.2011.[/ref].

[singlepic id=965 w=290 h=220  float=left mode=crop]

[singlepic id=966 w=290 h=220 float=left mode=crop]

Klassifizierung von Out-of-Home Displays

Die verschiedenen Out-of-Home Displays können nach den folgenden Vergleichskriterien klassifiziert werden. Diese Kriterien werden im Anschluss anhand eines Beispiels in einer Klassifizierungstabelle dargestellt.

Vergleichkriterien

  • Anzeigetechnologie: Dieses Kriterium gibt die genutzte Displaytechnologie an, basierend auf den Herstellerangaben oder weiterführender Literatur.
  • Größe: Als Größe wird bei Bildschirmen die Diagonale in Zoll oder die Maße in Quadratmeter angegeben.
  • Betrachtungs- /Benutzungsabstand: Je nach Funktion des Displays gibt es entweder nur einen Betrachtungs- oder aber zusätzlich einen Benutzungsabstand. Diese Abstände sind in vier Zonen eingeteilt: Eine persönliche Interaktions-, eine subtile Interaktions-, eine implizite Interaktions- und eine Außenzone[ref]Michelis, Daniel (2009): Interactive Displays: Perception, Awareness, and Interaction « Interactive Displays in Public Space. URL: http://magicalmirrors2006.wordpress.com/2008/07/02/interactive-displays-perception-awareness-and-interaction/, zuletzt abgerufen am: 18.10.2011.[/ref].
  • Multiuserfähigkeit: Multiuserfähigkeit beschreibt die Eigenschaft eines Displays, mit mehreren Benutzern gleichzeitig zu interagieren[ref]Dempski, Kelly & Harvey, Brandon (2006): Multi-User Display Walls : Lessons Learned. In: Conference on Human Factors in Computing Systems. Montreal, Kanada, S. 1-4.[/ref].
  • Nutzung: Die vorgestellten Modelle können entweder interaktiv sein oder zur reinen Darstellung verwendet werden.
  • Verwendungszweck: Die Verwendungszwecke beinhalten z.B. Werbung, Informationsversorgung, Aufmerksamkeitserregung oder Markenrepräsentation und sind eng mit der Zuordnung in die jeweilige Kategorie verbunden.
  • Informationsgehalt: Dieses Kriterium gibt das Verhältnis von reiner Werbung und Informationen an, z.B. Aktualität von Nachrichten.
  • Eingabe: Die Eingabe an Displays kann über fünf Kategorien erfolgen: optisch, haptisch, akustisch, über Peripheriegeräte und Umwelteinflüsse.
  • Ausgabe: Im Vergleich zur Eingabe existieren bei der Ausgabe des Displays an Rezipienten vier Kategorien: optisch, haptisch, akustisch und Peripheriegeräte.
  • Umgebung: Out-of-Home Displays finden sich quasi überall im öffentlichen Raum[ref]STALDER, URSULA & BOENIGK, MICHAEL (2009): Out-of-Home-Displays: Digitale Markenkommunikation im öffentlichen Raum. Medien Journal – Zeitschrift für Kommunikationskultur, 1/2009 (33), S. 33-51.[/ref]. Dieses Kriterium liefert daher eine Einschränkung der genaueren Umgebung, in der das System installiert wurde.
  • Kategorie: Die Out-of-Home Displays werden in die im vorherigen Abschnitt vorgestellten Kategorien zugeordnet.

Beispiel: Hauptbahnhof Zürich

Das e-advertising Unternehmen hat im 2. Untergeschoss des Bahnhofs den ersten interaktiven Ad Screen der Schweiz eingerichtet. Auf dem Display wird abwechselnd, im 30 min Takt, Werbung für Coca-Cola und den VW Golf GTI angezeigt. Durch eine neue Softwaretechnik, die von der Vanija GmbH bereitgestellt wurde, soll die Werbung realistischer werden [ref]Mettler, Bruno (2011): eAd lanciert interaktives eBoard im HB Zürich… | Vanija – Agentur für interaktive Erlebnisse. URL: http://www.vanija.ch/2009/06/ead-lanciert-interaktives-eboard-im-hb-zurich/, zuletzt abgerufen am: 30.10.2011.[/ref].

[singlepic id=952 w=600  float=center]

Kriterium Beschreibung
Anzeigetechnologie LCD
Größe 82″
Betrachtungs- /Benutzungsabstand implizite und subtile Interaktionszone
Multiuserfähigkeit Reaktion auf einen Benutzer, mehrere Betrachter
Nutzung Darstellung von Werbung, indirekte Interaktion möglich
Verwendungszweck Werbung
Informationsgehalt gering, nur Produktwerbung
Eingabe Optisch über Bewegungssensor
Ausgabe Optisch, Animation an Bewegung angepasst
Umgebung öffentlicher Raum (Bahnhofspassage)
Kategorie Ad Screen am Point of Transportation

Mehrwerte für Unternehmen

Aus den betrachteten Out-of-Home Displays können verschiedene potenzielle Mehrwerte beim Einsatz von Großbildschirmen zur Verbesserung der Informationsversorgung in Unternehmen abgeleitet werden:

  • User Attraction und die Nutzung von Mobile Devices wie im Beispiel der BBC Launch Kampagne: Dadurch wird die Attraktivität gesteigert und zur Interaktion mit einem eigenen Gerät, z.B. einem Smartphone angeregt.
  • Gestensteuerung als moderne Interaktionsmöglichkeit wie im Beispiel des iPoint Presenter: Durch diese moderne Form der Interaktion kann die Steuerung intuitiver gestaltet und für ein größeres Zielpublikum nutzbar gemacht werden.
  • Mehrbenutzerfähigkeit, bzw. die Mehrbetrachterfähigkeit, wodurch mehrere Personen gleichzeitig an einem Display arbeiten können: Das kollaborative Arbeiten kann effektiver und einfacher durchgeführt werden.
  • Die Informationsdarstellung auf einem Display: Aus dem Beispiel des iBex Touchboard können geeignete Visualisierungsarten abgeleitet werden, um die benötigten Informationen auf sinnvolle Weise darzustellen. Dadurch kann ein Informationsüberfluss verhindert werden.

Zusammenfassung

Out-of-Home Displays sind mittlerweile allgegenwärtig und werden ständig weiterentwickelt[ref]STALDER, URSULA & BOENIGK, MICHAEL (2009): Out-of-Home-Displays: Digitale Markenkommunikation im öffentlichen Raum. Medien Journal – Zeitschrift für Kommunikationskultur, 1/2009 (33), S. 33-51.[/ref]. Geeignete Nutzungskonzepte mit informationellem Mehrwert für Unternehmen fehlen jedoch. Neue Visualisierungs- und Interaktionsmöglichkeiten, z.B. Multi-Touch, Gestensteuerung oder synchron-mehrbenutzerfähige Darstellung finden aktuell fast ausschließlich Anwendung in der Werbe- und Unterhaltungsbranche.

Gestensteuerungsmöglichkeiten werden beispielsweise bereits durch verschiedene Systeme erfolgreich erforscht [ref]DEEG, ALEX (2010): 3-D Gesture-Based Interaction System Unveiled. URL: http://idw-online.de/pages/de/news380200, zuletzt abgerufen am: 01.10.2011.[/ref] [ref]KLUCZNIOK, JAN (2010): Wissenschaft: Fraunhofer-Institut entwickelt 3D-Multitouch ohne Touch – NETZWELT. URL: http://www.netzwelt.de/news/83424-wissenschaft-fraunhofer-institut-entwickelt-3d-multitouch-ohne-touch.html, zuletzt abgerufen am: 01.10.2011.[/ref] [ref]OBLONG INDUSTRIES (o. J.): Oblong industries, inc. URL: http://oblong.com/, zuletzt abgeru-fen am: 01.10.2011.[/ref] [ref]QUANDEL, GUDRUN (2011): Heinrich-Hertz-Institut – iPoint 3D. URL: http://www.hhi.fraunhofer.de/de/departments/interactive-media-human-factors/overview/hand-interaction/exhibit/ipoint3d0/, zuletzt abgerufen am: 01.10.2011.[/ref].
Schwerpunktmäßiger Nutzungskontext sind allerdings Unterhaltungssysteme [ref]HOLZBAUER, FLORIAN (2010): Move , Kinect, WiiMote, Bewegungssteuerung im Test. URL: http://www.chip.de/artikel/Move-Kinect-WiiMote-Bewegungssteuerung-im-Test_44432699.html, zuletzt abgerufen am: 01.10.2011.[/ref] , obwohl Gestensteuerung als zukunftsträchtiges Interaktionsverfahren gilt. Out-of-Home-Medien bieten darüber hinaus viele weitere Verwendungsmöglichkeiten[ref]HILDEBRAND, ALEX (2010): APG | Out of home | Deshalb «out of home». URL: http://www.apg.ch/de/out-of-home/darum/, zuletzt abgerufen am: 30.10.2011.[/ref]. Durch Übertragung der Konzepte können Unternehmen die vorhandenen Mehrwerte für sich nutzen, um die unternehmensweite Informationsversorgung  zu verbessern.

Diesbezügliche Ansätze finden sich u.a. hier auf der Plattform im Bereich CommunityMirrors – Interaktiven Großbildschirmen zur Verbesserung der peripheren Informationsversorgung im Unternehmenskontext.

Multitouch-Entwicklung mit MT4j

[toc]Dieser Artikel stellt den Auftakt einer Serie weiterer Berichte zu „ersten Schritten“ mit aktuell verfügbaren Multitouch-Entwicklungsumgebungen dar. Innerhalb dieser Serie liefert der vorliegene Bericht einen Überblick über die Entwicklung von Multitouch-Anwendungen mit Multitouch for Java (MT4j). Das Framework bietet umfangreiche Funktionalität für das Arbeiten mit Multitouch-Hardware und einfach adaptierbare Konzepte zur Entwicklung eigener Anwendungen. Im Folgenden wird nach einer kurzen Einführung die Einrichtung mit Eclipse erläutert, einige Beispielanwendungen vorgestellt sowie ein Minimal-Beispiel implementiert.

Einführung

  • Java-Framework zur Entwicklung von Multitouch-Anwendungen
  • Verwendung verschiedener Komponenten (Bilder, Videos, 3D-Objekte)
  • Anbindung unterschiedlicher Hardware und Protokolle
  • 10 vorhandene Multitouch-Gesten sowie Möglichkeit zur Erstellung von eigenen Gesten
  • Performante Darstellung durch OpenGL

Demo

Um vor der Vorstellung der technischen Details einen ersten Eindruck zu schaffen, demonstriert das folgende Beispielvideo die Funktionalität der mitgelieferten Kartenapplikation:

Historie

Das MT4j-Framework wird vom Fraunhofer-Institut für Arbeitswirtschaft und Organisation (IAO) entwickelt und basiert (wie der Name schon sagt) auf der weit verbreiteten objektorientierten Programmiersprache Java. Im Herbst 2009 wurde das Framework unter Open Source-Lizenz veröffentlicht und wird seitdem durch die OpenSource-Gemeinde weiterentwickelt. Die Multitouch-Plattform übernimmt alle benötigten Aufgaben, wie beispielsweise die Erkennung von Multitouch-Gesten, deren Umsetzung in Events sowie die erforderliche Grafikausgabe. Es bietet eine umfangreiche Bibliothek mit vorgefertigten Grafiken, Gesten und Schriften und ist sehr generisch implementiert, sodass eigene Gesten und Grafiken problemlos hinzugefügt werden können. Das Framework ist prinzipiell kompatibel zu allen Multitouch Geräten, da es die Inputs der Hardware abstrahiert.  Als Grundlage hierfür wird die Anbindung an verschiedene APIs (z.B. TUIO) bereitgestellt, welche die Eingaben des Touchscreens interpretieren. Die Darstellung erfolgt über die Grafikschnittstelle OpenGL, sodass die Anwendungen auf entsprechender Hardware sehr performant sind.

Komponenten und Aufbau

Die nachfolgende Tabelle gibt einen Überblick über die technischen Eigenschaften sowie bereitgestellten Gesten und Komponenten des Frameworks:

Eigenschaft Ausprägung bei MT4j
Programmiersprache
  • Java
Rendering
  • OpenGL
  • Software-Rendering
Hardware-Anbindung
  • Hardwareabstraktion und Input Abstraktion
  • Es können beliebige Eingabegeräte integriert werden
  • Native Unterstützung von Windows 7 Multitouch-Features
  • Unterstützung des TUIO-Protokolls
Multitouch-Gesten
  • Drag
  • Rotate
  • Scale
  • Tap
  • Double Tap
  • Tap and Hold
  • Arcball Rotate
  • Lasso Select
  • Flick
  • Gesture Draw
  • Eigene Gesten können definiert werden
Bereitgestellte Komponenten
  • Primitive Vektorgrafiken [ref]Vierecke, Ellipsen, Polygone, etc. .[/ref]
  • Schriften [ref]Standardschriftarten (True Type) und Vektor-basierte Schriftarten.[/ref]
  • Bilder [ref]Unterstützung gängiger Formate (.jpg, .png, .bmp).[/ref]
  • 3D-Objekte [ref].3ds und .obj Dateien mit Texturen.[/ref]
  • Videos [ref]Unterstützung gängiger Formate.[/ref]

Installation

Das MT4j Framework steht als quelloffener Download, derzeit in Version 0.95 zur Verfügung und ist bereits als ein Eclipse-Projekt strukturiert.

MT4j läuft derzeit nur mit der 32bit-Variante von Java. Soll ein 64bit System eingesetzt werden, muss trotzdem der 32bit JDK installiert werden. Unter Eclipse muss entsprechend die 32bit Variante von Java zum Ausführen der MT4j Anwendungen ausgewählt werden!

  1. Java Development Kit 32bit (gekennzeichnet als x86) herunterladen und installieren
  2. Die heruntergeladene ZIP-Datei entpacken (MT4j 0.95 full release)
  3. Im Paketexplorer von Eclipse mit Rechtsklick importieren wählen
  4. In dem Importfenster ein „bereits existierendes Projekt“ auswählen
  5. Den unter 2. entpackten Ordner auswählen und importieren

[nggtags gallery=MT4j+Installation]

Mitgelieferte Beispiele

Das MT4j-Paket enthält 19 einfache Beispielanwendungen. Diese sind unterteilt in die Pakete „basic“ und „advanced“ und sind im Ordner „examples“ zu finden. Die Basic Examples dienen zum Verstehen und Testen der grundlegenden Techniken in sehr einfach gehaltenen Applikationen. Die Advanced Examples demonstrieren die Leistungsfähigkeit des Frameworks, indem beispielsweise 3D Modelle verwendet werden. Jede Anwendung befindet sich in einem eigenen Paket. Es ist keine weitere Konfiguration erforderlich, da das Framework alle benötigte Komponenten automatisch sucht und auswählt. Zum Starten ist jeweils eine „Start…Example.java“ Datei hinterlegt, die als „Java Application“ in Eclipse ausgeführt werden kann. Nach dem Start öffnet sich ein neues Fenster innerhalb dessen die Multitouch-Interaktion möglich ist.

Basic-Anwendungen

[nggtags gallery=MT4j+Beispielanwendung+basic]

Advanced-Anwendungen

[nggtags gallery=MT4j+Beispielanwendung+advanced]

Minimalimplementierung

Eine Multitouch-Anwendung mit MT4j zu schreiben ist denkbar einfach, da sie nur zwei Klassen (Scene und MTApplication) benötigt. Die folgenden beiden Abschnitte geben einen Überblick über die Implementierung eine einfachen Applikation zur Bildmanipulation. Die Anwendung, die zum Selbsttest ebenfalls als Download verfügbar ist, ermöglicht es, ein Bild anzuzeigen und dieses mit Standard-Multitouch-Gesten zu manipulieren.

Scene

Eine „Scene als erste benötigte Bestandteil der Anwendung muss die abstrakte Klasse „AbstractScene“ erweitern. In dieser Klasse wird festgelegt, welche Komponenten angezeigt werden. Es gibt viele vorgefertigte Elemente, die insbesondere Standard-Multitouch-Gesten bereits beherrschen. Hierzu gehören beispielsweise Grafiken, Textfelder und Rahmen für verschiedene andere Objekte. Für unser Minimalbeispiel benötigen wir folgenden Code für die Scene-Klasse:

package MinimalExample;

import org.mt4j.MTApplication;
import org.mt4j.components.TransformSpace;
import org.mt4j.components.visibleComponents.widgets.MTImage;
import org.mt4j.input.gestureAction.InertiaDragAction;
import org.mt4j.input.inputProcessors.componentProcessors.dragProcessor.DragProcessor;
import org.mt4j.sceneManagement.AbstractScene;
import org.mt4j.util.math.Vector3D;

import processing.core.PImage;

public class PictureScene extends AbstractScene
{
  private String picturePath =  "MinimalExample" + MTApplication.separator + "data" + MTApplication.separator;

  public PictureScene (MTApplication mtApplication, String name)
  {
    super(mtApplication, name);

    MTApplication app = mtApplication;
    PImage img = app.loadImage(picturePath + "pic.jpg");
    MTImage image = new MTImage(img,app);
    image.setUseDirectGL(true);
    image.setPositionGlobal(new Vector3D(400,400,0));
    image.scale(0.2f, 0.2f, 0.2f, image.getCenterPointLocal(), TransformSpace.LOCAL);
    image.addGestureListener(DragProcessor.class, new InertiaDragAction());
    this.getCanvas().addChild(image);
  }

  @Override
  public void init() {}

  @Override
  public void shutDown() {}
}

Datei ist zu beachten, dass sich das entsprechende Bild im Paket „MinimalExample.data“ (gekennzeichnet als „picturePath“) befinden muss, damit es geladen werden kann!

MTApplication

Die „Application“-Klasse dient zum Starten der Anwendung und muss die abstrakte Klasse „MTApplication“ erweitern. Die vorher beschriebene Scene wird lediglich hinzugefügt. Anschließend wird die Anwendung mit dem Methodenaufruf „initialize()“ gestartet. Dazu sind lediglich die Folgenden Codezeilen erforderlich:

package MinimalExample;

import org.mt4j.MTApplication;

public class StartMinimalExample extends MTApplication
{
  private static final long serialVersionUID = 1L;

  public static void main(String args[])
  {
    initialize();
  }

  @Override
  public void startUp()
  {
    this.addScene(new PictureScene(this, "Picture scene"));
  }
}

Marktübersicht zu Outdoor-Touchscreen-Terminals

[toc]Der vorliegende Artikel widmet sich dem Vergleich aktueller Outdoor-Touchscreen-Terminals im Hinblick auf die verwendeten Hardware-Komponenten und liefert einen kompakten Marktüberblick inkl. Preisangaben zum Jahreswechsel 2011-2012. Der Markt für interaktive Anzeigesysteme ist klein und insbesondere für Outdoor-Geräte existieren nur wenige Hersteller. Der Artikel wende sich an Firmen, Gemeinden oder öffentlichen Einrichtungen und ermöglicht einen transparenten Überblick. Nachdem der Beitrag im Rahmen einer studentischen Arbeit entstanden ist, verfolgt er keinerlei kommerzielles Interesse.

Einführung

Outdoor-Touchscreen-Terminals werden im öffentlichen oder halböffentlichen Raum eingesetzt. Je nach Aufstellungsort können sich die Einsatzbereiche stark unterscheiden und umfassen beispielsweise:

  • Touristeninformation in Städten und Einkaufszentren
  • Buchungssystem auf Flüghäfen, Bahnhöfe, Hotels oder in Firmen
  • Internet- oder Surf-Terminals
  • reine interaktive Werbeflächen

httpvh://www.youtube.com/watch?v=ZUHV3FT2vvQ

Verglichene Terminals

Im Artikel Outdoor-Touchscreens: Hardware und Komplettsysteme wurden bereits Touchscreen-Produkte inkl. der jeweiligen Hersteller oberflächlich vorgestellt. Darauf basierend folgt in diesem Artikel zunächst eine Übersicht konkreter Produkte und aufbauend auf einigen kurz beschriebenen Vergleichskriterien[ref]Leider konnten die Produkte keinem einheilichen Live-Test unterzogen werden, weshalb sie ausschließlich auf Basis der verfügbaren Herstellerinformationen miteinander verglichen werden.[/ref] eine Gesamtübersicht, in der die unterschiedlichen Geräte einander gegenüber gestellt werden.

Kolembar – Hawk

[singlepic id=848 h=618 float=center]

Das „Hawk“ Terminal ist ein sehr individuell konfiguriertbares Terminal. Das Gehäuse entscheidet über In- bzw Outdoor-fähigkeit sowie die Größe des Displays. Alle weiteren Hardwarespezifikationen können frei gewählt werden.

Gehäuse Hawk Outdoorkiosk[ref]Terminal ist gegen Aufpreis mit Sonderlackierung oder Kundenspeziefischen Logos und Symbolen erhältlich.[/ref] 17″ 2.390,00 €
32″ 2.490,00 €
17″ Wandversion 2.190,00 €
PC-Einheit Dell Optiplex 380[ref]Besonderheiten:DVD – Laufwerk, 3 Jahr Dell Vor-Ort Service.[/ref] CPU Celeron 450, 2,4 GHz Dualcore 650,00 €
Grafikkarte k.A.[ref]vorhanden, aber keine genaue Angabe.[/ref]
RAM 2 GB
HDD 250 GB
Rechner mit Intel Atom CPU Intel Atom Prozessor 1,6 480,00 €
Grafikkarte k.A.
RAM 2 GB
HDD 160 GB SATA
Touchscreen Kapazitiv 17″ LCD TFT inkl. Schutzscheibe 890,00 €
17″ High Brightness 1.580,00 €
32″ LCD TFT Portrait 2480,00 €
Peripherie Tastatur Edelstahl Keyboard mit Trackball 450,00 €
Webcam k.A 120,00 €
Drucker Custom TG2460 60mm 390,00 €
VKP80 80mm 550,00 €
Swecoin 7030 112mm 690,00 €
Custom KPM210 210mm 1.190,00 €
WLAN n.V.[ref]Nicht auf der Preisliste enthalten, ggf auf Anfrage erhaltlich.[/ref]
3G – UMTS n.V.
Bluetooth n.V.
Barcode – Scanner CCD FS302 190,00 €
2D FCC2DA 390,00 €
Lautsprecher n.V.
UPS UPS, 500V A 160,00 €
Telefonhörer k.A 160,00 €

Weitere Informationen und Kontaktmöglichkeiten finden sie auf der Produktseite des Hawk beim Hersteller Kolembar.

SOLIDD – K8

[singlepic id=851 h=618 float=center]

Eine Besonderheit am „K8“ Terminal ist die im Preis enthaltene PC – Einheit zusammen mit der Umsetzung des Touchscreens und der Outdoor-Fähigkeit. Die Firma SOLIDD bietet hierzu ein Touchscreen Kit für verschiedene Displaygrößen und ein Outdoor-Kit an.

Gehäuse Infosäule K8[ref]Preise inkl. Outdoor-Kit: verstäktes Stahlkörper, Klimaregelung, verstäktes Stahlkörper, Klimaregelung, Korrosionsschutz, Spritzwasserschutz (949,00 €).[/ref] 22″ Landscape 3.548,00 €
32″ Portrait 4.148,00 €
42″ Portrait 4.548,00 €
PC-Einheit Intel® Pentium[ref]Besonderheit: DVD – Laufwerk, Im Basispreis enthalten.[/ref] CPU mind.Intel® Pentium-Dual Core Prozessor mind. 2GHz
Grafikkarte k.A.[ref]vorhanden, aber keine genaue Angabe.[/ref]
RAM 1024MB erweiterbar bis max. 2GB (2 Steckplätze)
HDD mind 160 GB
Touchscreen Touchscreen Kit[ref]infrarot, 32″, 5mm, sicherheitsglas, USB-Controller, verbaut in Modell K8.[/ref] 22″ 699,00 €
32″ 940,50 €
42″ 1.329.05 €
Peripherie Tastatur Internet Tastatur mit Trackball 329,00 €
Edelstahl Tastatur mit Trackball 699,00 €
RF Service Tastatur 870,00 €
Webcam k.A 197,00 €
Drucker n.V.[ref]Nicht auf der Preisliste enthalten, ggf auf Anfrage erhaltlich.[/ref]
WLAN n.V.
3G – UMTS n.V.
Bluetooth n.V.
Barcode – Scanner n.V.
Lautsprecher Multimedia-Stereo-Soundsystem 99,00 €
UPS n.V.
Telefonhörer n.V.

Weitere Informationen und Kontaktmöglichkeiten finden sie auf der Produktseite des K8 beim Hersteller SOLIDD.

friendlyway – grande 46

Diese Terminal wird von der Firma friendlyway nach aktuellen Informationen nicht mehr als Outdoor-Terminal produziert und zur Zeit als reines Indoorterminals vertrieben.

[singlepic id=1019 h=618 float=center]

Beim „grande 46“ ist zu beachten, dass es ausschließlich als doppelseitiges Terminal zu erwerben ist. Daher ist der Grundpreis der Basiseinheit und ebenso der Preis der verfügbaren Addons höher. Weiterhin benötigt es zwei PC-Einheiten, um die beiden Displays zu betreiben. Der Preis für das Upgrade auf Multitouch wird entsprechend pro Display (und damit i.d.R. zweimal) fällig.

Gehäuse grande 46[ref]nicht mehr als Outdoor Terminal produziert.[/ref] 46″ Portrait, Double Sided[ref]Terminal inklusive Touchscreens auf beiden Seiten.[/ref] 6.760,00 €
PC-Einheit Dell fast[ref]Besonderheit: Laufwerk8x DVD / RW.[/ref] CPU Core i5-2400 3,1 GHz 695,00 €
Grafikkarte Intel GMA X4500MHD
RAM 2 GB RAM DDR3 1333 MHz
HDD 250 GB HDD SATA III
Digital Engine von AOpen[ref]z.B DE45-Pro Besonderheit: DVD – Laufwerk.[/ref] CPU Intel Core 2 Duo, Celeron 995,00 €
Grafikkarte Intel GMA X4500MHD
RAM 200-pin DDRII SO-DIMM x 2, bis max 8 GB
HDD 1x 2.5″ HDD, k.A. zur Größe
Touchscreen Touchscreen 46″ LED Full HD 1920×1080 Pixel[ref]Aufpreis High Brightness 1500cd 1.190,00 €.[/ref]
Multitouch Infrarot Multitouch 1.290,00 €
Peripherie Tastatur n.V.[ref]Nicht auf der Preisliste enthalten, ggf auf Anfrage erhaltlich.[/ref]
Webcam 8 Mega Pixel, integrated autofocus 390,00 €
Drucker Custom Thermodrucker 80mm[ref]Auf der Preisliste aufgeführt, jedoch ohne Preis.[/ref]
WLAN System z.B. TP-Link High-Gain-USB-Adapter[ref]Auf der Preisliste aufgeführt, jedoch ohne Preis.[/ref]
3G – UMTS n.V.
Bluetooth n.V.
Barcode – Scanner n.V.
Lautsprecher 2 x 2” Full Range Speaker je. 7 Watt 210,00 €
UPS n.V.
Telefonhörer n.V.

Weitere Informationen und Kontaktmöglichkeiten finden sie auf der Produktseite des grade 46 beim Hersteller friendlyway.

BV-comOffice – iMotion

[singlepic id=873 h=618 float=center]

Das iMotion-Terminal gibt es in den größsten Display-Ausführungen von bis zu 70″. Dabei ist es möglich, die Displays auch in doppelseitiger Ausführung und (bis zur Größe von 65″) auch im Querformat einzubinden.

Gehäuse imotion, Single Sided[ref]Eine PC-Einheit im Preis enthalten, Preis inkl. Footstand (100,00 €), alternativ Footstand with 4 rubber wheels (300,00 €), Besonderheit: Anti – graffiti Protection (640,00 €).[/ref] 32″, Portrait 8.160,00 €
46″, Portrait/Landscape 12.700,00 €
55″, Portrait/Landscape 14.500,00 €
65″, Portrait/Landscape 17.000 €
70″, Portrait 29.600 €
imotion, Double Sided[ref]Eine PC-Einheit im Preis enthalten, Preis inkl. Footstand (100,00 €), alternativ Footstand with 4 rubber wheels (300,00 €), Besonderheit: Anti – graffiti Protection (640,00 €).[/ref] 46″, Portrait/Landscape 16.500,00 €
55″, Portrait/Landscape 17.700,00 €
65″, Portrait/Landscape 25.000,00 €
70″, Portrait 45.400,00 €
PC-Einheit Zusätzliche PC Einheit iBase Si-28M 1.060,00 €
iBase Si-28L 890,00 €
iBase Si-28 CPU AMD Athlon™ II X2/X4
Grafikkarte ATI Radeon™ E4690, 512MB GDDR3
RAM 2x DDR2 400/667/800 SO-DIMM, Max. 4GB
HDD 1x 2.5″ HDD, k.A. zur Größe
Touchscreen Touchscreen 32″[ref]Aufpreis High bright Panels 32″ 820,00 €.[/ref] 1.460,00 €
46″[ref]Aufpreis High bright Panels 46″ 1.800,00 €.[/ref] 1.650,00 €
55″[ref]Aufpreis High bright Panels 55″ 2.850,00 €.[/ref] 1.790,00 €
65″ 1.980,00 €
70″ 3.060,00 €
Peripherie Tastatur n.V.[ref]Nicht auf der Preisliste enthalten, ggf auf Anfrage erhaltlich.[/ref]
Webcam AV2815 (Full HD, Megapixel) 788,24 €
Logitech HD Pro WebCam C910, Full HD 120,00 €
Drucker n.V.
WLAN 2 Ip65 antennas, RB493 Router 500,00 €
3G – UMTS 3G Card, Adapter Card, 2 antennas 530,00 €
Bluetooth 7 connections 540,00 €
21 connections 870,00 €
Barcode – Scanner n.V.
Lautsprecher n.V.
UPS Eaton Evolution UPS 360,00 €
Telefonhörer n.V.

Weitere Informationen und Kontaktmöglichkeiten finden sie auf der Produktseite des imotion beim Hersteller BV-comOffice.

Vergleichskriterien

Neben den grundlegenden Komponenten eines Standard-Outdoor-Terminals wurde dabei insbesondere das Angebot an Peripherie betrachtet.

Basisgerät

Als Standard wurde neben der PC-Einheit ein mind. 32“ größes Single-Touch-Display ausgewählt. Die Bewertung des Basisgeräts basiert auf den im Preis enthaltenen Komponenten sowie den angebotenen Variationsmöglichkeiten.

PC- Einheit

Bei der PC-Einheit wurden die Komponenten der direkt miteinander verglichen. Die Bedürfnisse jeder Anwendung sind sehr unterschiedlich, doch die bisherigen Szenarien stellen keine sehr hohen Hardwareanforderungen. Daher werden von den Herstellern meist recht durchschnittliche Hardwarekomponenten verbaut. Single oder schwache Dual-Core-Prozessoren, Onboard-Grafikkarten, wenig RAM und Festplattenspeicher sind die Regel. Dies ist jedoch für die meisten Anwendungen vollkommen ausreichend.[ref]Falls die eigene Anwendung hohe Hardwareanforderungen an das System stellt, sollten vorab zusätzliche Informationen beim Hersteller eingeholt werden.[/ref]

Touchscreen

Das wichtigste Element der Terminals ist das Touchscreen-Display. Es verbindet Anzeige und Eingabe und ist daher die kritischste Komponente des Terminals. Die verwendeten Technologien sind sehr unterschiedlich und bringen entsprechend unterschiedliche Eigenschaften mit sich. [ref]Kapazitiv: sehr genau, ermöglicht Multitouch, muss mit bloßem Finger oder Eingabestift bedient werden. Resistiv: genau, sehr selten Multitouch, muss nicht mit bloßem Finger oder Eingabestift bedient werden. Infrarot: sehr genau, ermöglicht Multitouch, kann mit jeder Art Eingabeelement bedient werden. Weitere Informationen finden sich beispielsweise im englischen Wikipedia-Artikel „Touchscreen„.[/ref] Gegenüber der Entwicklung bei Smartphones und Tablets ist Multitouch bei Outdoor-Terminals noch nicht zum Standard geworden. Im Vergleich hat unterstützt keines der Geräte Multitouch-Gesten oder mehrere simulane Touch-Punkte.[ref]In der Bewertung wurde deshalb max. ein mittlerer Wert für alle Terminals vergeben.[/ref]

Peripherie

Da das Angebot an optionalen Erweiterungen sehr unterschiedlich ist und einige Firmen erst auf Anfrage bestimmte Geräte verbauen, beschränkt sich der Vergleich auf die Anzahl der angebotenen Komponenten.

Gesamtübersicht

Die folgende Gesamtübersicht zeigt die vorgestellten Vergleichskriterien der vier Terminals im direkten Vergleich.

Terminal.[ref]Die aufgeführten Informationen und  Preise in diesem Artikel sind auf dem Stand  Januar 2012 und dienen im Artikel als Übersicht. Für aktuellere Informationen und gültige Preis verweisen wir auf die Seiten der Hersteller.[/ref] Basisgerät[ref]Bewertung Basisgerät: Im Preis enthaltenen Komponenten.[/ref] PC- Einheit[ref]Bewertung PC Einheit: Direkte Vergleich der Komponenten.[/ref] Touchscreen[ref]Bewertung Touchscreen: Technologie.[/ref] Peripherie[ref]Bewertung Peripherie: Anzahl der angebotenen Komponenten (1-4,4-6,7+).[/ref] Summe
Kolembar – Hawk [mittel] [gut] [mittel] [gut] 5.570,00 €
Solidd – Infosäule K8 [gut] [schlecht] [mittel] [gut] 5.285,50 €
friendlyway – grande 46 [gut] [gut] [mittel] [schlecht] 8.150,00
BV-comOffice – imotion [gut] [mittel] [mittel] [mittel] 9.620,00

Zusammenfassung

Der vorliegende Artikel gibt eine grobe Markübersicht über Outdoor-Touchscreen-Terminals sowie deren Komponenten. Oftmals sind bei heutigen Lösungen nicht die Größe der Touchscreens oder die Leistungsstärke der PC Einheiten entscheidend,  sondern je nach Anwendung und Einsatzgebiet bestimmte Komponenten, die nicht jeder Hersteller anbietet. Im Vergleich ist beispielsweise Kolembar der einzige Hersteller, der einen Barcodescanner oder Telefonhörer anbietet. Gleiches gilt für BV-com Office für 3G bzw. UMTS und Bluetooth-Übertragung.

Ansonsten stechen Hersteller und Produkte primär durch Sonderfunktionen bzgl. der Bauweise des Geräts hervor: Beispiele sind

  • High Brightness Displays, die auch bei hoher Sonneneinstrahlung gut zu erkennen sind,
  • Sonderlackierungen, um mehr Aufmerksamkeit auf das Terminal zu lenken,
  • Schutzlackierungen gegen Graffitis oder
  • Rollen unter dem Gerät, um es bei Bedarf im halböffentlichen oder privaten Bereich flexibel einzusetzen.

Aufgrund der sonst sehr ähnlichen Eigenschaften bieten insbesondere diese Kriterien Potenzial für Differenzierungsstrategien, da sie für Kaufentscheidungen eine entscheidende Rolle spielen können. Die neuste Entwicklung zeigt jedoch auch ganz andere sekundäre Funktionen für Outdoor-Terminls. Das in diesem Artikel aufgeführte Terminal iMotionvon BV-comOffice gibt es beispielsweise in einer „HELP-Ausführung“, die einen Defibrilator beinhaltet, der im Notfall von jedem Passanten entnommen werden kann. Dabei setzt das Terminal einen Notruf ab und zeigt Videos von lebensrettenden Sofortmaßnahmen.

httpvh://www.youtube.com/watch?v=dyHzjokooc4

Danksagung

Besonderer Dank gilt den folgenden Ansprechpartnern der jeweiligen Firmen für die Bereitstellung der oben aufgeführten Daten und die Genehmigung der Veröffentlichung, ohne die der vorliegende Artikel nicht möglich gewesen wäre: Kolembar Industrietechnick: Dipl. Ing Hans Wilhelm, SOLIDD: Derek Owen, friendlyway: Florian Sommer, BV-comOffice: Jan Nätscher.

"Weitere Informationen und Kontaktmöglichkeiten finden sie auf der Produktseite des grade 46 beim Hersteller friendlyway."

Vergleich verschiedener Maus-Emulatoren für Microsoft Kinect

[toc] Mit dem Erscheinen von Microsoft Kinect als Zubehör für die Spielekonsole Xbox 360 im November 2010 wurde erstmal ein kostengünstiger Infrarot-Tiefensensor für eine breite Nutzerschaft verfügbar und schuf somit die Möglichkeit zur Entwicklung von Anwendungen, die durch eine gestenbasierte Nutzerinteraktion ohne zusätzliche Eingabegeräte das Potential zur Revolution der Gestaltung der Human-Computerrec Interaction versprechen. Daher entstand in kurzer Zeit eine Community, die die Anbindung an einen PC zunächst mit selbstentwickelten Treibern, einige Wochen später dann mit Treibern und Software Development Kit (SDK) von dem ebenfalls an der Entwicklung von Kinect beteiligten Unternehmen Primesense ermöglichte und erste Anwendungen mit vielfältigen Anwendungsgebieten veröffentlichte. Während Microsoft selbst diesen Trend zunächst nicht unterstützte, wurde dann im Mai 2011 ein offizielles „Kinect for Windows SDK“ veröffentlicht. Durch die unterschiedliche Dauer der Verfügbarkeit der verschiedenen Gerätetreiber und der darauf aufbauenden SDKs haben sich unterschiedliche Entwicklergemeinden gebildet. Daher gibt es derzeit mehrere verschiedene Anwendungen, die zur Steuerung eines Mauszeigers durch die Kinect-Hardware eingesetzt werden können. Jede dieser Anwendungen unterscheidet sich in der Art der Bedienung oder Funktionsumfang. In diesem Artikel werden einige der verfügbaren Anwendungen näher betrachtet und anhand der Kriterien Einsatzentfernungen, Genauigkeit der Zeigerpositionierung, Zuverlässigkeit der Auswahlgesten, Stabilität der Anwendung und Konfigurierbarkeit mit einander verglichen.

Kinect Maus-Emulatoren

Die Grundlage des Artikels bilden die Anwendungen FAAST, Kinemote und PCD auf der Basis des von Primesense veröffentlichten OpenNI SDK sowie Kinect Cursor Control auf Basis des Kinect for Windows SDK von Microsoft. Neben diesen frei verfügbaren Anwendungen zur Steuerung des Mauszeigers mit dem Kinect Tiefensensor wird nachfolgend auch eine kommerziell vertriebene Anwendung betrachtet. Dabei handelt es sich um um die Anwendung WIN&I, die von der Evoluce AG angeboten wird.

KinEmote

KinEmote[ref]Installationsanleitung und weitere Informationen zu KinEmote sind auf der Projekt-Website erhältlich unter http://www.kinemote.net/.[/ref] ist ein Framework, das verschiedene Anwendungen zur Nutzung der Microsoft Kinect bündelt. Es greift dazu auf das OpenNI Framework[ref]Weitere Informationen zu OpenNI finden sich unter http://openni.org/.[/ref] zurück, welches die Verwendung der verschiedenen von der Kinect gelieferten Sensordaten ermöglicht. OpenNI wurde von einer  Non-Profit-Organisation veröffentlicht, an der unter anderem auch Primesense mitwirkt. Primesense entwickelte zusammen mit Microsoft den Kinect-Sensor.

httpvh://www.youtube.com/watch?v=3y0JT0xR_a4

Neben Anwendungen zur Steuerung des Xbox Media Centers und der Medienserveranwendung Boxee mit Handgesten sowie der Emulation von bis zu acht zuvor konfigurierten Tastatureingaben durch das Bewegen der Hand nach oben, unten, links und rechts bei gestrecktem oder gebeugtem Arm kann KinEmote auch zur Steuerung des Mauszeigers genutzt werden. Dazu kommt eine Kombination von relativer und absoluter Positionierung des Zeigers zum Einsatz. Während viele Anwendungen zur Maussteuerung mittels Kinect ein imaginäres Rechteck im Raum aufspannen und die Position der Hand in diesem Rechteck auf eine absolute Position auf dem genutzten Display abbilden, wird bei der virtuellen KinEmote Maus die relative Bewegung der Hand zwischen Start- und Endpunkt der Handbewegung auf eine Bewegung des Mauszeigers übertragen. So kann der Nutzer mit einer schnellen kurzen Bewegung der Hand einen rasche Verschiebung des Zeigers über eine große Strecke realisieren aber auch durch eine langsame Bewegung der Hand über eine große Strecke eine präzise Verschiebung des Zeigers in einem kleinen Radius auf dem Display erreichen.

[singlepic id=838 w=618 float=]

Andere Anwendungen mit relativer Zeigerpositionierung nutzen häufig einen statischen Referenzpunkt mittig vor dem Körper und bilden z.B. eine Handbewegung nach rechts oben von der Körpermitte auf eine Zeigerbewegung nach rechts oben ab. Da KinEmote den Endpunkt der letzten Bewegung als neuen Referenzpunkt für die nächste Bewegung nutzt, lässt sich die Anwendung ähnlich bedienen, wie eine Anwendung mit absoluter Zeigerpositionierung, wodurch der Nutzer ein direkteres Feedback für die durchgeführte Handbewegung erhält, als bei einer relativen Positionierung mit statischem Referenzpunkt. Die Kombination von absoluter und relativer Positionierung erlaubt also eine schnelle aber dennoch präzise Verschiebung des Zeigers.

Der Benutzer beginnt die Interaktion durch eine Winkbewegung aus dem Handgelenk. Es können sowohl die linke als auch die rechte Hand zur Interaktion genutzt werden. Da die Anwendung in einem Abstand von einem bis vier Metern vor dem Sensor genutzt werden kann und sehr stabil läuft, ist KinEmote gut geeignet, um die Funktionen einer herkömlichen Computermaus zu emulieren. Ein Auswahl-Event wird durch das Vor- und Zurückführen der Hand ausgelöst, mit der auch der Zeiger positioniert wird. Da keine Parameter zur Konfiguration des Select-Events verfügbar sind, kommt es häufig vor, dass beim Versuch einen Klick auszuführen eine versehentliche Neupositionierung des Zeigers erfolgt. Außerdem wird gelegentlich kein Klick ausgelöst, obwohl der Nutzer dies beabsichtigt.

FAAST

Das Flexible Action and Articulated Skeleton Toolkit (FAAST)[ref]Installationsanleitung sowie weitere Informationen zur Anwendung von FAAST sind erhältlich unter http://projects.ict.usc.edu/mxr/faast/.[/ref] ist eine am Institute for Creative Technologies der University of Southern California entwickelte, auf dem OpenNI SDK basierende Anwendung, die es erlaubt verschiedene Gesten zu erfassen und damit mittels einer einfachen Syntax definierbare Maus- oder Tastatur-Events zu emulieren. Auf diese Weise können dann andere Anwendungen mit den zuvor konfigurierten Gesten bedient werden. Die Anwendung kann dazu zwischen der Fokussierung bei der Gestenerkennung auf den gesamten Körper, den Oberkörper, den Unterkörper oder die Hand unterscheiden. Je größer der fokussierte Bereich ist, desto mehr Gesten können erkannt werde. Allerdings sinkt damit auch die Präzision der Erkennung der ausgeführten Gesten.

httpvh://www.youtube.com/watch?v=Up-9xdXGIQY

Eine präzise Steuerung des Mauszeigers ist leider aktuell nur bei der Fokussierung auf die Hand möglich. Durch die Fokussierung auf die Hand können jedoch keine Gesten mit anderen Körperteilen erfolgen, weshalb es mit FAAST nicht möglich ist, gleichzeitig eine genau Positionierung und eine zuverlässige Auswahlgeste zu erreichen. Bei einem Fokus auf den Oberkörper kann dann beispielweise konfiguriert werden, dass der linke Arm leicht nach vorne geführt werden muss, um einen Klick auszulösen, während der rechte Arm zum Positionieren des Zeigers genutzt wird. Die Syntax zum konfigurieren der Geste-Event Belegungen hat folgende Form:

<Gestenbezeichnung> <Positionsveränderungzum Auslösen der Geste in Inch/Zoll> <Auszulösendes Event> <Konkretisierung des Events>

Dabei müssen die einzelnen für die Platzhalter in der Syntax eingetragenen Spezifizierungen genau ein Leerzeichen Abstand haben und Leerzeichen in den Spezifizierungen durch einen Unterstrich ersetzt werden. Ein Beispiel für eine Gesten-Event Konfiguration könnte folgendermaßen aussehen:

left_arm_forwards 5 mouse_click left_mouse_button

Damit wird bei einer Bewegung des linken Arms um fünf Zoll (also 12,7cm) nach vorn ein einzelner Klick mit der linken Maustaste ausgelöst. Eine detaillierte Auflistung aller verfügbaren Gesten und auslösbaren Events mit der dafür zu verwendenden Spezifizierung ist auf der Website zur Anwendung erhältlich.

[singlepic id=835 w=618 h= float=]

Neben den programmierbaren Geste-Event Kombinationen gibt es außerdem eine Reihe von Parametern, die zur Individualisierung des Interaktionsbereichs und zur Feinjustierung der Bewegungsglättung zur präziseren Zeigerpositionierung genutzt werden können. So können unter anderem der fokusierte Körperteil, die Stärke der Bewegungsglättung und die Art der Zeigerpositionierung gewählt werden. So erlaubt FAAST als einzige betrachtete Anwendung die individuelle Konfiguration des Bereichs, in dem die Bewegungen der Hand des Nutzers auf Bewegungen des Zeigers auf dem Bildschirm zur absoluten Positionierung übertragen werden. Insgesamt bietet FAAST die umfassendsten Konfigurations- und Individualisierungsoptionen.

[singlepic id=836 w=618 h= float=]

WIN & I

WIN&I[ref]Weitere Informationen zu WIN&I und anderen Produkten der Evoluce AG sind erhältlich unter http://www.evoluce.com/de/software/win-and-i_software-store.php.[/ref] ist eine von der Evoluce AG kommerziell vertrieben Anwendung zur Emulation der Maussteuerung mit dem Microsoft Kinect Sensor auf Basis des OpenNI SDK. Die Anwendung nutzt dieselbe Form der relativen Positionierung wie die Virtual Mouse des KinEmote Anwendungspaketes und erlaubt eine ebenso präzise Zeigerpositionierung. Jedoch wird bei WIN&I bei einer schnellen Handbewegung eine weitere Verschiebung des Zeigers vorgenommen als bei KinEmote, sodass die Steuerung des Zeigers insgesamt einen agileren Eindruck vermittelt und so ein direkteres Feedback liefert.

httpvh://www.youtube.com/watch?v=cGnSWXb8Hus

Außerdem erlaubt die Anwendung die Nutzung aller Mausfunktionen über die Implementierung eines Gestenmodus. Hält der Benutzer die Hand für eine gewisse Zeitspanne, die über einen Parameter grob anhand der Nutzererfahrung konfiguriert werden kann, still, so erscheint statt des Mauszeigers ein Und-Symbol. Ist der Gestenmodus auf diese Weise aktiviert worden, kann der Nutzer nun durch die Bewegung der Hand in eine Richtung einen Mouse-Event auslösen, ohne dabei den Zeiger zu verschieben. Nach der Aktivierung des Gestenmodus löst beispielsweise eine Bewegung
der Hand nach links einen Linksklick aus. Eine Bewegung der Hand nach rechts bewirkt
einen Rechtsklick. Eine Auswahl der Ziele durch Ausstrecken und Zurückziehen des Arms
ist dennoch möglich. Somit ist WIN&I die einzige getestete Anwendung, die ein präzises Positionieren des Zeigers und ein zuverlässiges Auswählen der Ziele zulässt. Zudem läuft die Anwendung sehr stabil und kann in einer Entfernung von einem bis vier genutzt werden.

[singlepic id=860 w=618 h= float=]

PCD

Palm Click and Drag (PCD)[ref]Detaillierte Informationen zu PCD finden sich unter http://www.kinemote.net/community/viewtopic.php?f=12&t=24.[/ref] ist eine auf OpenNI aufbauende Anwendung der Entwickler des KinEmote-Anwendungspakets. Anders als die virtuelle Maus des KinEmote-Paketes kann mit PCD eine präzise Platzierung des Zeigers über eine absolute Positionierung erfolgen. Startet der Benutzer die Interaktion durch eine Winkgeste, so wird ein im Vergleich zu anderen Anwendungen mit absoluter Zeigerpositionierung kleines imaginäres Rechteck um die Position der Hand gebildet. Da bei der absoluten Positionierung die Position der Hand im imaginären Rechteck auf die Position des Zeigers auf dem Display abgebildet wird, kann der Nutzer schnell die äußeren Positionen des Displays erreichen und dabei stets eine angenehme Körperhaltung beibehalten. Die gute aber nur teilweise konfigurierbare Bewegungsglättung erlaubt zudem eine präzise Positionierung im zentralen Displaybereich, die stets ohne ein Springen des Zeigers erfolgen kann.

httpvh://www.youtube.com/watch?v=9CT460xEr18

Den Namen „Palm Click and Drag“ trägt die Anwendung wegen ihrer verschiedenen Interaktionsmodi. Zur Unterscheidung der Modi bildet das Framework eine Umrandung der Hand. Im Modus „Palm“ kann der Zeiger bei geöffneter Hand und gespreizten Fingern positioniert werden. Dabei ist sowohl die horizontale, als auch die vertikale Ausdehnung der Umrandung der Hand maximal. Führt der Nutzer die Finger zusammen, gelangt er in den Modus „Click“, der eine Betätigung der linken Maustaste emuliert. Dazu erfasst die Anwendung die verringert horizontale Ausdehnung der Handumrandung bei weiterhin maximaler vertikaler Ausdehnung. Schließt der Nutzer nun zusätzlich die Hand und ballt sie somit zu einer Faust, gelangt er in den Modus „Drag“ und emuliert so ein Drag-Event (Halten der linken Maustaste), das beim Öffnen der Hand mit einem Drop-Event (Loslassen der linken Maustaste) beendet wird. Die horizontale und vertikale Ausdehnung der Handumrandung haben sich gegenüber dem „Palm“ Modus verringert. Auf diese Weise können alle Mausevents, die mit der linken Maustaste einer Rechtshändermaus ausgelöst werden, stattfinden. Ein Doppelklick erfolgt z.B. durch zweifaches schnelles Zusammenführen und Spreizen der Finger.

Die Anwendung bietet einige Konfigurationsmöglichkeiten, welche die Präzision der Interaktion mit der Anwendung sowie die emulierbaren Events beeinflussen. Mit dem Schieberegler „History amount for averaging (0-10)“ kann beispielsweise die Anzahl der für die Errechung der Handumrandung genutzten Positionsdaten der Hand zwischen null und zehn Frames variiert werden. Mit einem hohen Wert lässt sich zwar die Präzision der Zeigerpositionierung und dieZuverlässigkeit der Klickerkennung steigern, jedoch steigt dabei auch die benötigte Rechenleistung an. Mit dem Schieberegler „Averaging“ kann der Detailgrad der für die Errechnung der Handumrandung genutzten Positionsdaten variiert werden, um die benötigte Rechenleistung zu reduzieren, da Anfangs der Maximalwert eingestellt ist. Mit dem Regler „Open/Close Delta“ kann die nötige Verringerung der maximalen Ausdehnung der Handumrandung bis zum Auslösen der Click- und Drag-Events beeinflusst werden. Jedoch führt auch eine starke Verringerung dieses Wertes nicht zu einer zuverlässigeren Auslösung der Auswahlevents bei einer Entfernung von mehr als 2,50m. Zusätzlich kann die Positionierung des Zeigers und das Auslösen der Klick-Events aktiviert bzw. deaktiviert werden und eine emulierte Tastatureingabe beim Start der Interaktion durch die Winkgeste oder beim Beenden der Interaktion durch Entfernen der Hand aus dem imaginären Rechteck zur Positionierung eingestellt werden.

[singlepic id=839 w=618 h= float=]

Kinect Cursor Control

Kinect Cursor Control[ref]Installationsanleitung sowie weitere Informationen zu Kinect Cursor Control sind erhältlich unter http://kinectmouse.codeplex.com/[/ref] ist eine Anwendung zur Steuerung des Zeigers mittels Kinect und basiert auf dem „Kinect for Windows SDK“[ref]Hierbei handelt es sich um das „offizielle“ Microsoft SDK. Weitere Informationen sind unter http://research.microsoft.com/en-us/um/redmond/projects/kinectsdk/default.aspx erhältlich.[/ref] von Microsoft. Die Anwendung ermöglicht eine absolute Positionierung des Zeigers durch die Bewegung der rechten Hand im von der Anwendung angezeigten Bildausschnitt und eine entsprechende Abbildung der Position der Hand im Bildausschnitt auf die Position des Zeigers auf dem Display.

httpvh://www.youtube.com/watch?v=YelZEhvGBAk

Da jedoch das imaginäre Rechteck zur Positionierung zu groß gewählt ist, können nicht alle Stellen des Displays mit dem Cursor erreicht werden, sodass bei der Nutzung mit der rechten Hand ein Bereich auf der linken Seite des Displays nicht erreicht wird und bei der Nutzung mit der linken Hand ein Teil am rechten Rand des Displays. Außerdem muss der Arm häufig weit angehoben und weit über die Körpermitte bewegt werden, sodass die Schulter bei der Interaktion schnell ermüdet. Zusätzlich kann es bei der Positionierung der Hand direkt vor dem Körper zu einem starken Springen des Zeigers kommen, da dort die Position der Hand nicht klar erkannt werden kann. Andererseits beinhaltet die Anwendung einen zuverlässigen Mechanismus zum Auslösen eines Select-Events. Um einen Klick auszuführen, muss der Arm, der nicht zur Positionierung genutzt wird, gestreckt angehoben und kurz dort gehalten werden. So kann ein Klick ausgelöst werden, ohne versehentlich den Zeiger neu zu positionieren. Die zu starke Bewegungsglättung der Anwendung führt jedoch dazu, dass die Steuerung des Zeigers träge und indirekt wirkt, sodass eine Nutzung der Anwendung zur Steuerung eines Rechners nicht dauerhaft und ohne Einschränkungen möglich ist.

[singlepic id=837 w=618 h= float=]

Vergleichskriterien

Nachdem die einzelnen Anwendungen vorgestellt und beschrieben wurden, folgt an dieser Stelle eine Übersicht über  im Hinblick auf die für den Einsatz zur PC-Interaktion relevanten Kriterien. Dafür werden zunächst die verwendeten Vergleichskriterien Art der Zeigerpositionierung, Präzision der Zeigerpositionierung, Zuverlässigkeit der Auswahlgeste, maximale und minimale Einsatzentfernung sowie Stabilität der Anwendung erklärt, bevor anschließend eine tabellarische Einordnung der einzelnen Anwendungen anhand der genannten Kriterien erfolgt.

Art der Zeigerpositionierung

Zur Positionierung des Mauszeigers werden bei den betrachteten Anwendungen drei verschiedene Methoden genutzt. Die erste Methode, die absolute Positionierung, spannt ein imaginäres Rechteck im Raum auf und bildet die Position der Hand des Nutzers innerhalb des Rechtecks auf die entsprechende Position des Mauszeigers auf dem genutzten Display ab. Damit diese Methode auch bei unterschiedlichen Entfernungen des Nutzers zum Display funktioniert, muss das imaginäre Rechteck indirekt proportional zur Entfernung des Nutzers skaliert werden. Die zweite und dritte Methode zur Positionierung des Zeigers basieren auf einer relativen Handbewegung, also einer Bewegung der Hand relativ zu einem Bezugspunkt im Raum. Während eine Form der relativen Positionierung einen statischen Bezugspunkt wählt und somit beispielsweise ein Bezugspunkt in der Körpermitte und eine Bewegung der Hand auf die linke Körperseite immer eine Zeigerverschiebung nach links bewirkt, wird bei der anderen Form der relativen Positionierung der Bezugspunkt für die Bewegung ständig an der Stelle, an der die Handbewegung endet, neu gesetzt. Durch die gerade beschriebene adaptive relative Positionierung kann ein ähnliches Nutzungsgefühl wie bei der absoluten Positionierung erreicht werden und dennoch eine genauere Platzierung erfolgen.

Präzision der Zeigerpositionierung

Die Präzision, mit welcher der Zeiger über einem Objekt positioniert werden kann, ist abhängig von der Bewegungsglättung, die die zu Grunde liegende Anwendung nutzt, um die Sensordaten in eine Zeigerbewegung umzusetzen. Je nachdem, wie die dafür relevanten, häufig nicht beeinflussbaren Parameter in der jeweiligen Anwendung gesetzt wurden, kann der Zeiger ein sehr unruhiges Verhalten mit einem starken „Jitter“ (Flattern) zeigen. Außerdem kann es vorkommen, dass die Zeigerposition zu selten aktualisiert wird, sodass der Zeiger wie auf einem groben Raster entweder stillsteht oder einen Sprung von einem Rasterpunkt zum nächsten vollzieht ohne eine gleichmäßige, gut kontrollierbare Bewegung zu ermöglichen.

Zuverlässigkeit der Auswahl

Die Zuverlässigkeit mit der die Auswahl eines Ziels nach der Zeigerpositionierung ausgelöst werden kann, hängt wesentlich von der Geste ab, die von der Anwendung zum Auslösen des Mouseclick-Events genutzt wird. Während einige Anwendungen die Manipulation zur Positionierung völlig von der Geste zum Auswählen trennen, gehen bei anderen Anwendungen beide Interaktionen fließend ineinander über. Liegen die Gesten zum Positionieren und Auswählen nah beieinander[ref]Beispielsweise bei einer Zeigerverschiebung durch Bewegung der rechten Hand in einer Ebene und Auswahl durch Strecken und Zurückziehen des rechten Arms.[/ref], so wird die Auswahlgeste insbesondere bei einer kurzen Entfernung des Nutzers zum Kinect Sensor häufig als Neupositionierung erkannt, weshalb der Zeiger bei kleinen Zielen versehentlich aus dem Zielbereich bewegt wird. Daher kann eine zuverlässigere Auswahl erfolgen, wenn die Positionierung z.B. mit der rechten Hand und die Auswahl durch Anheben der linken Hand oder eine anderen Geste, welche die Position der rechten Hand nicht beeinflusst, erfolgen. Müssen Positionierung und Auswahl zwingend mit ein und derselben Hand erfolgen, hat sich das Halten der Hand an der zur Auswahl gewünschten Position für eine gewisse Zeitspanne zum „Einrasten“ des Zeigers an dieser Stelle statt einer zusätzlichen Auswahlgeste als zuverlässig erwiesen, da sich hierbei die Auswahlposition nicht versehentlich verändert. Ein weiterer Einflussfaktor für die Zuverlässigkeit der Auswahl ist die Sensibilität der Auswahlgeste. So kann je nach Anwendung bereits bei einer Andeutung der Auswahlgeste versehentlich ein Klick ausgelöst werden, wohingegen eine zu wenig sensible Auswahlgeste dazu führt, dass zu wenige oder gar keine Klicks ausgelöst werden. Beides führt beim Nutzer dazu, dass er die ausgelösten Interaktionen nicht nachvollziehen kann, da sie von ihm nicht beabsichtigt sind.

Maximale und minimale Einsatzentfernung

Der Abstand, mit dem ein Nutzer eine Anwendung zur Emulation der Maussteuerung verwenden kann, wird nicht durch die Sichtweite des Kinect Sensors, sondern durch die minimale und maximale Distanz der zuverlässigen Erkennung der Auswahlgeste bestimmt, die wiederum von dem Sichtfeld und der Auflösung des Infrarotkamerabildes abhängt. Zwar kann die Infrarotkamera des Kinect Sensors Tiefenwerte in einer Entfernungsspanne von einem halben bis sieben Metern liefern, jedoch muss der fokussierte Körperteil vollständig im Sichtfeld liegen, weshalb die Minimalentfernung bei Fokussierung auf die Hand zwischen einem halben und einem Meter, bei Fokussierung des gesamten Körpers jedoch bei mindestens eineinhalb Metern liegt. Da der Nutzer bei zunehmender Entfernung vom Sensor einen kleiner werdenden Teil des Sensorsichtfeldes einnimmt, kann es wegen der geringen Auflösung der Infrarotkamera von 640 x 480 Pixel dazu kommen, dass kleine Bewegungen nicht mehr erkannt und somit manche Auswahlgesten nicht wahrgenommen werden. Daher schwankt die maximale Nutzungsentfernung mit der genutzten Auswahlgeste z.T. sehr stark.[ref]Das Spreizen und Zusammenführen der Finger wird beispielsweise nur bis zu einer Entfernung von zweieinhalb Metern erkannt, während das Heben des Arms bei der Bewegungserkennung an einem stilisierten Skelett des Nutzers auch noch bis zu fünf Meter funktioniert.[/ref]

Stabilität der Anwendung

Eine Anwendung ist für die „stabil“, wenn sie während eines Evaluationsdurchlaufs mit einer Dauer zwischen 30 und 90 Minuten nicht unplanmäßig beendet wird. Einige Anwendungen stürzten während der Tests nach einer kurzen Zeitspanne ab, schlossen sich gelegentlich unvorhergesehen, wenn der Fokus des zur Steuerung genutzten Körperteils verloren wurde oder konnten nicht mehr genutzt werden, wenn eine Konfiguration der  bereitgestellten Optionen / Parameter vorgenommen wurde.

Zusammenfassung

Abschließend werden die oben vorgestellten Merkmale der betrachteten Maus-Emulatoren anhand eigener Beobachtungen im Hinblick auf die zuvor beschriebenen Eigenschaften in tabellarischer Form zusammengefasst. Die Beurteilung der Anwendungen erfolgte dazu durch eine einfachen Auswahlaufgabe, bei der der Nutzer den Cursor über einem Ziel platzieren und dieses anschließend auswählen musste. Diese Aufgabe wurde mit jeder Anwendung aus verschiedenen Entfernungen zum Kinect Sensor wiederholt, wobei die verschiedenen Frameworks wie folgt abschnitten:

Bewertungskriterium KinEmote FAAST WIN&I PCD Kinect Cursor Control
Art der Zeigerpositionierung adaptiv relativ absolut oder statisch relativ adaptiv relativ absolut absolut
Präzision der Zeigerpositionierung [gut] [mittel] [ref]Gut bei Fokus auf Hand, schlecht bei Fokus auf Oberkörper.[/ref] [gut] [mittel] [schlecht]
Zuverlässigkeit der Auswahl [schlecht] [ref]Unbeabsichtigtes Verschieben des Zeigers beim Strecken des Armes.[/ref] [gut] [ref]Sehr gut bei Fokus auf Oberkörper, nur durchschnittlich bei Fokus auf die Hand.[/ref] [mittel] [ref]Präzise Auswahl durch Gesten funktioniert nicht immer einwandfrei.[/ref] [mittel] [ref]Zuverlässig bei Klick, nicht zuverlässig bei Drag.[/ref] [mittel] [ref]Nicht steuernder Arm muss weit gehoben werden.[/ref]
Min. / max. Einsatzentfernung 1m – 4m 1m – 4m 0,75m – 4m 1m – 2,5m 1m – 3m
Stabilität der Anwendung [gut] [gut] [gut] [schlecht] [gut]

Howto – Touchscreen Komponenten mit JavaFX und Adobe Illustrator

In diesem Howto wird gezeigt wie Interaktionskomponenten für Touchscreen Systeme mit Adobe Illustrator erstellt werden können, um diese mittels JavaFX interaktiv in einer GUI einzubinden. Dies geschieht exemplarisch anhand des in einer Bachelorarbeit entwickelten GUI-Entwurfs für ein Fussgänger-Navigationssystems der UnibwM. „Howto – Touchscreen Komponenten mit JavaFX und Adobe Illustrator“ weiterlesen