In diesem Howto wird gezeigt wie Interaktionskomponenten für Touchscreen Systeme mit Adobe Illustrator erstellt werden können, um diese mittels JavaFX interaktiv in einer GUI einzubinden. Dies geschieht exemplarisch anhand des in einer Bachelorarbeit entwickelten GUI-Entwurfs für ein Fussgänger-Navigationssystems der UnibwM. „Howto – Touchscreen Komponenten mit JavaFX und Adobe Illustrator“ weiterlesen
Kategorie: Ubiquitäre Natural User Interfaces
Alternative Möglichkeiten zur Interaktion mit großen vertikalen Displays
[toc] Ein Großteil der Entwicklungen im Bereich der Natural User Interfaces basiert auf (Multi-)Touch Interfaces und der Steuerung durch Touchgesten. Da diese Form der natürlichen Benutzerschnittstellen beispielsweise bei sehr großen vertikalen Displays oder an für den Benuter nicht erreichbaren Displays nicht verwendet werden kann, besteht die Notwendigkeit, alternative natürliche Interaktionsmechanismen einzusetzen, die eine berührungslose Interaktion mit vertikalen Displays aus einer gewissen Entfernung ermöglichen. Um einen Überblick über bereits existierende Prototypen solcher über die Touchinteraktion hinausgehenden (Beyond Touch) Interaktionsmechnismen zu geben, werden nun einige dieser Prototypen vorgestellt.
Aus der Vielzahl der Prototypen von natürlichen Interaktionsmechanismen lassen sich einige gehäuft auftretende, grundlegende Bedienkonzepte identifizieren. So werden vermehrt Ansätze gewählt, bei denen es beispielsweise möglich ist auch aus einiger Entfernung durch Touchgesten in unteschiedlichen Ausprägungen zu interagieren. Andere Prototypen basieren auf mouseähnlichen tragbaren Eingabegeräten, die eine Bedienung auf intuitive und natürliche Weise anstreben. Andere Interaktionsmechanismen beruhen auf der Gestensteuerung und verzichten auf zusätzliche Eingabegeräte auf Nutzerseite. Des Weiteren wird hier auch ein sogenanntes Brain-Computer Interface vorgestellt, das eine Anwendungsnutzung allein durch Gehirnstrommessung ermöglicht. Zunächst werden nun einige Mechanismen beschrieben, die durch die Körperbewegungen des Nutzers gesteuert werden. Nach diesen gestenbasierten Interaktionsmechanismen werden die Remote-Touch Interaktionsmechanismen, die gerätevermittelten Interaktionsmechanismen und das Brain-Computer Interface vorgestellt.
Gestenbasierte Interaktionsmechanismen
Die natürlichste Form der HCI ist die Bedienung einer Nutzerschnittstelle ohne die bewusste Nutzung eines Interaktionsmechanismus zur Erreichung der Zielsetzung. Dies bedingt einen vollständigen Verzicht auf Eingabegeräte auf Nutzerseite und die Interaktion zwischen System und Nutzer auf Basis der dem Nutzer zur Verfügung stehenden Kommunikationsmittel. Ebenso wie die Interaktion zwischen Menschen kann der Nutzer dem System seine Absichten über die Bemühung von Mimik, Gestik und Sprache mitteilen. [ref]Dahm, Markus (2006): Grundlagen der Mensch-Computer-Interaktion. 1. Aufl., . München: Pearson Studium, S. 112.[/ref] Die Gesture Based Interfaces nutzen zur Interaktion zwischen Mensch und Computer nur die Gestik zur Eingabe auf Nutzerseite und visuelles oder akustisches Feedback durch den Computer.
Magic Window
Magic Window[ref]Lee, Johnny C. (2008a): Hacking the Nintendo Wii Remote. IEEE Pervasive Computing, 3/2008 (7). IEEE Computer Society, S. 39–45.[/ref] ist ein Interaktionsmechanismus, der es dem Nutzer erlaubt ohne die Zuhilfenahme von Eingabegeräten mit Bildmaterial zu interagieren. Dazu wird die Position des Kopfes des Nutzers verfolgt (Headtracking) indem die Position der an der Brille des Nutzers befestigten Infrarot-LED von der Infrarotkamera einer Wii-Remote erfasst wird. Da die Darstellung auf dem Display stets zum Nutzer ausgerichtet wird, entsteht für diesen ein der Effekt, dass er den dargestellten Inhalt wie durch ein Fenster betrachtet. Bewegt sich der Nutzer also nach links, kann er mehr von der rechten Seite des Bildes sehen. Bewegt er seinen Kopf nach unten, kann er mehr von der oberen Seite des Bildes sehen. Nähert er sich dem Display, kann er mehr vom gesamten Bild sehen usw. Diese Form der Interaktion ist sehr natürlich, da der Nutzer das Prinzip der Paralaxe, also der scheinbaren Änderung der Position eines Objektes, wenn der Beobachter seine eigene Position verschiebt, bereits aus der im Alltag gesammelten Erfahrung kennt. Um der Interaktion weitere Freiheitsgrade hinzuzufügen kann z.B. ein weiterer Wii-Remote Controller in die Interaktion eingebunden werden.
[nggtags gallery=MagicWindow]
SixthSense
SixthSense[ref]Mistry, Pranav & Maes, Pattie (2009): SixthSense: A Wearable Gestural Interface. In: Anjyo, Ken (Hrsg.): ACM SIGGRAPH ASIA 2009 Sketches. New York, USA: ACM Press, S. 11:1[/ref] ist ein Interaktionsmechanismus der in die Rubrik des Wearable Computing eingeordnet werden kann, da die Hardware wie Kleidung am Körper getragen wird. Diese Hardware besteht aus einem Projektor und einer Kamera, die vor der Brust getragen werden sowie farbigen Markern an Daumen und Zeigefinger beider Hände. Somit können Inhalte durch den Projektor auf jeder beliebigen Fläche dargestellt werden und durch Handgesten manipuliert werden, die von der Kamera aufgenommen werden. So kann der Nutzer beispielsweise jederzeit und nahezu überall seinen Kalender anzeigen lassen, um seine Termine zu verwalten, Skizzen oder Notizen machen, Kartenmaterial der Umgebung betrachten oder gestengesteuert Fotos machen.
[nggtags gallery=SixthSense]
Imaginary Interface
Imaginary Interface[ref]Gustafson, Sean; Bierwirth, Daniel & Baudisch, Patrick (2010): Imaginary Interfaces: Spatial Interaction with Empty Hands and without Visual Feedback. In: Perlin, Ken; Czerwinski, Mary & Miller, Rob (Hrsg.): Proceedings of the 23nd Annual ACM Symposium on User Interface Software and Technology. New York, USA: ACM Press, S. 3–12.[/ref] ist ebenfalls eine Wearable Computing Benutzerschnittstelle und nutzt eine Kamera zur Erfassung von Handgesten, verzichtete aber anders als SixthSense vollständig auf eine Darstellung von Inhalten und erlaubt daher eine sehr kompakte Bauweise, da kein Anzeigegerät erforderlich ist. Durch eine L-Geste mit der nichtdominanten Hand wird eine imaginäre Eingabefläche aufgespannt, auf der dann durch das Zusammenführen von Daumen und Zeigefinger gezeichnet oder geschrieben werden kann. So kann der Nutzer jederzeit Dokumente zu in seinem aktuellen Umfeld relevanten Themen erstellen. Diese auf einfachen Gesten basierende Form der Interaktion ist leicht erlernbar, jedoch sind komplexe Zeichnungen wegen des fehlenden visuellen Feedbacks schwierig zu realisieren.
[nggtags gallery=ImaginaryInterface]
Multitoe
Mit Multi Toe[ref]Kaefer, Konstantin; Kanitz, Dorian; Meusel, René; Fetzer, Caroline; Augsten, Thomas; Stoff, Thomas; Holz, Christian & Baudisch, Patrick (2010): “Multi-Toe” Interaction with a High-Resolution Multi-Touch Floor. Potsdam, Germany, S. 1-6.[/ref] kann der Benutzer eine Anwendung mit den Füßen steuern. Dazu erfolgt die Interaktion auf einem touchsensitiven Untergrund, der sich wiederum über einem Display befindet. Bei dieser Form der Touchinteraktion treten einige Besonderheiten auf. So hat der Nutzer nahezu dauerhaften Kontakt zur Interaktionsoberfläche. Außerdem ist die Kontakfläche um einiges größer als bei der Touchinteraktion mit Fingern, sodass ein Interaktionspunkt an der Sohle des Benutzers identifiziert werden muss, um eine präzise Bedienung zu gewährleisten. Allerdings bietet Multi Toe auch einige Vorteile gegenüber einer herkömlichen Touchinteraktion mit Fingern. So kann der Nutzer anhand des individuellen Profils seiner Schuhsohle identifiziert werden. Außerdem kann eine Gewichtsverlagerung des Nutzers erkannt werden, wodurch eine differenzierte Touchinterakion mit zusätzlichen Freiheitsgraden erfolgen kann.
[nggtags gallery=MultiToe]
Wii Gesture Interface
Wii Gesture Interface[ref]Lin, Jiaqing; Nishino, Hiroaki; Kagawa, Tsuneo & Utsumiya, Kouichi (2010): Free Hand Interface for Controlling Applications Based on Wii Remote IR Sensor. In: Spencer, Stephen N. (Hrsg.): Proceedings of the 9th ACM SIGGRAPH Conference on Virtual-Reality Continuum and its Applications in Industry VRCAI 2010. New York, USA: ACM Press, S. 139–142.[/ref] ist ein Interaktionsmechanismus zur Steuerung vertikaler Displays durch natürliche Handgesten. Eine Platine mit einer Vielzahl von Infrarot-LED leuchtet dazu den Raum vor dem Display aus. Die reflektierte Infrarotstrahlung wird dann von der Infrarotkamera eines Wii-Remote Controllers in ein Bild umgewandelt, dass es ermöglicht die Hand des Benutzers und ihre Bewegungen zu identifizieren. Somit können einfache Gesten, wie eine Bewegung der Hand von links nach rechts genutzt werden, um beispielsweise den nächsten Inhalt auszuwählen oder eine Berührungsgeste, um einen Inhalt auszuwählen. Um dann weitere Interaktionsmöglichkeiten zu schaffen und die Präzision der Interaktion zu steigern, kann zusätzlich noch ein weiterer Wii-Remote Controller eingebunden werden, dessen Tasten z.B. mit schwer durch Gesten darstellbaren Aktionen belegt werden können.
[nggtags gallery=Wii Gesture Interface]
Remote-Touch Interaktionsmechanismen
Diese Form der alternativen natürlichen Interaktionsmechanismen erfordert keine Präsenz des Nutzers an einem vertikalen oder horizontalen Touchscreen sondern verlagert die direkte Interaktion mit dem System auf das vom Benutzer verwendete Gerät. Zwar erfolgt die Interaktion mit dem verwendeten Interaktionsmechanismus wiederum durch intuitive Touchgesten, jedoch ist der Nutzer nun nicht mehr dazu gezwungen sich zur Interaktion in unmittelbarer Nähe des großen vertikalen Displays aufzuhalten. Auf diese Weise können mehr Nutzer und auch entfernt stehende Nutzer in die Interaktion einbezogen werden. Je nach visuellem Feedback des genutzten Interaktionsmechanismus kann auch eine uneingeschränkte Interaktion wie am großen vertikalen Touchscreen selbst erfolgen. Außerdem ist es mit Remote Touch Interfaces möglich auch Displays, die keine Touchscreen sind mittel touchbasierter Nutzerinteraktion zu steuern.
SecondLight
SecondLight[ref]Izadi, Shahram; Hodges, Steve; Taylor, Stuart; Rosenfeld, Dan; Villar, Nicolas; Butler, Alex & Westhues, Jonathan (2008): Going Beyond the Display: A Surface Technology with an Electronically Switchable Diffuser. In: Cousins, Steve & Beaudouin-Lafon, Michel (Hrsg.): Proceedings of the 21st Annual ACM Symposium on User Interface Software and Technology. New York, USA: ACM Press, S. 269–278.[/ref] ist ein von Microsoft auf Basis der Technologie des MS Surface entwickelter Ansatz, der die gleichzeitige Projektion zweier unterschiedlicher Bilder auf die Oberfläche eines horizontalen Displays ermöglicht. Während das eine Bild wie gewohnt auf der Darstellungsfläche des Gerätes angezeigt wird, wird das zweite Bild durch diese Darstellungsfläche hindurch projiziert und kann durch weniger lichtdurchlässige Materialien sichtbar gemacht werden. Dies ermöglicht auch eine Projektion auf in einer geringen Entfernung über dem Gerät befindliche Oberflächen. Zusätzlich können auf diesen entfernten Oberflächen auch Touchinteraktion erfolgen.
[nggtags gallery=SecondLight]
Touch Projector
Touch Projector[ref]Boring, Sebastian; Baur, Dominikus; Butz, Andreas; Gustafson, Sean & Baudisch, Patrick (2010): Touch Projector: Mobile Interaction Through Video. In: Henry, Nathalie & Tabard, Aurélien (Hrsg.): Proceedings of the 28th International Conference on Human Factors in Computing Systems. Atlanta, GA, USA: ACM Press, S. 2287–2296.[/ref] ist ein Interaktionsmechanismus, der es erlaubt Inhalte auf gewöhnlichen Displays mittels Touchgesten zu manipulieren. Zu diesem Zweck wird das Echtzeitbild der Kamera eines Smartphones genutzt. Die darauf sichtbaren Inhalte, die auf dem herkömmlichen Display dargestellt werden, können nun durch Touchgesten auf dem Display des Smartphones manipuliert werden. Anschließend wird die Veränderung auch auf die Darstellung auf dem herkömmlichen Display übertragen. Dabei werden alle Displays in der Umgebung und das Smartphone über eine Server synchronisiert, was auch das verschieben eines Inhalts von einem Display auf ein anderes ermöglicht. Durch diesen Mechanismus können auch für den Benutzer unzugängliche nicht touchfähige Displays via Touchgesten genutzt werden.
[nggtags gallery=TouchProjector]
Light Space
Auf den ertsen Blick unterscheidet sich Light Space[ref]Wilson, Andrew D. & Benko, Hrvoje (2010): Combining Multiple Depth Cameras and Projectors for Interactions On , Above , and Between Surfaces. In: Perlin, Ken; Czerwinski, Mary & Miller, Rob (Hrsg.): Proceedings of the 23nd Annual ACM Symposium on User Interface Software and Technology. New York, USA: ACM Press, S. 273–282.[/ref] nicht wesentlich von andern natürlichen Benutzerschnittstellen. Es bietet sowohl eine horizontale als auch eine vertikale projizierte Darstellungsfläche, auf denen die gewohnten Touchgesten zur Manipulation von Bildinhalten ausgeführt werden können. Die Innovation liegt bei Light Space zwischen den Darstellungsflächen, denn ein dritter Projektor sowie drei Kameras zur Entfernungsmessung erlauben eine Touchinteraktion auf gewöhnlichen Gegenständen aber auch eine Darstellungsübergreifende Interaktion mit den Inhalten. So kann ein Nutzer einen Inhalt auf der einen Darstelungsfläche berühren, danach die andere Darstellungsfläche berühren und so den Inhalt dorthin zu verschieben. Außerdem kann er einen Inhalt vom Rand der Darstellungsfläche auf seine Hand verschieben, wodurch der Inhalt im Sinne der Augmented Reality zu einem projizierten Ball wird, den der Nutzer auf seinem Arm umherrollen kann oder in die andere Hand bzw. auf einen Gegenstand legen kann. Berührt der Nutzer wiederum mit der Hand ohne Ball eine Darstellungsfläche, wird der durch den Ball repräsentierte Inhalt dorthin verschoben. Des Weiteren können durch die präzise Tiefenwahrnehmung der Anwendung Menüs im Raum platziert werden. Hält der Benutzer seine Hand über einen auf den Boden projizierten Menü Schriftzug, ändert sich die nun auf der Hand befindliche Darstellung je nach Höhe über dem Boden zu einem Menüpunkt, der dann durch das Entfernen der Hand ausgewählt werden kann.
[nggtags gallery=LightSpace]
Gerätevermittelte Interaktionsmechanismen
Zur Interaktion mit den Device Mediated Interfaces benötigt der Nutzer ein zusätzliches Eingabegerät, das er bei der Interaktion bei sich trägt oder in der Hand hält. Entgegen der indirekten Manipulation mit einer gewöhnlichen Maus, die nur über Sensoren zur Erfassung einer Positionsveränderung in einer zweidimensionalen Ebene verfügt und diese auf den Zeiger überträgt, können die für Device Mediated Interfaces genutzten Interaktionsmechanismen ihre Position im Raum oder relative Lageveränderungen durch zusätzliche optische, gyroskopische oder Beschleunigungssensoren ermitteln. So kann der Nutzer direkt mit Inhalten interagieren, denn wenn er mit dem Gerät auf einen Inhalt zeigt, zeigt auch der Cursor auf dieses Ziel. So wird die natürliche Interaktion des Nutzers über die Sensorik der genutzten Interaktionsmechanismen an den Computer übertragen und dort in entsprechende Manipulationen umgesetzt. Der Interaktionsmechanismus übernimmt sozusagen eine Mediatorrolle zwischen dem Nutzer und dem genutzten System, da er die natürlichen Interaktionen des Nutzers in vom System interpretierbare Manipulationen umwandelt. Außerdem bieten die Zusatztasten des jeweiligen Interaktionsmechanismus die Option Shortcuts für bestimmte Funktionen zu nutzen. Auf diese Weise muss der Nutzer keine komplexen Muster von Manipulationen nachbilden, um das System zu Steuern. Zur weiteren Steigerung der Effizienz der Interaktion sind Device Mediated Interfaces ergonomisch gestaltet, sodass der Nutzer gewissermaßen mit dem Gerät verschmilzt und das Gerät die natürliche Interaktion des Nutzers nicht beeinträchtigt.
Soap
Soap[ref]Baudisch, Patrick; Sinclair, Mike & Wilson, Andrew (2007): Soap: A Pointing and Gaming Device for the Living Room and Anywhere else. In: Heart, John C. (Hrsg.): ACM SIGGRAPH 2007 Emerging Technologies. New York, USA: ACM Press, S. 17–20.[/ref] ist ein Interaktionsmechanismus, der die Steuerung eines Zeigers zur Nutzung einer Anwendung auf großen vertikalen Wanddisplays ermöglicht. In einer flexiblen Kunststoffhülle befindet sich der optische Sensor einer Mouse sowie eine Taste auf der Rückseite der Platine, die durch die Kunsstoffhülle hindurch betätigt werden kann. Die Kunststoffhülle ist wiederum mit einem dehnbaren Stoffüberzug bespannt. Auf diese Weise kann eine Verschiebung der Stoffhülle durch den optischen Sensor registriert werden und so die Bewegung des Cursors gesteuert werden. Eine schnelle Verschiebung des Cursors hingegen ist in vertikale Richtung durch dauerhaftes fixieren des Gerätes durch Zusammendrücken von Daumen und Zeigefinger oder in horizontale Richtung durch Drehen des Gerätes um die Längsachse ähnlich einem nassen Stück Seife in der Handfläche möglich. Aufgrund dieser Seifenmetapher trägt der Mechanismus auch seinen Namen.
[nggtags gallery=Soap]
Brain-Computer Interface
Das Brain-Computer Interface[ref]McFarland, Dennis J. & Wolpaw, Jonathan R. (2011): Brain-Computer Interfaces for Communication and Control. Communications of the ACM, 5/2011 (54), S. 60-66.[/ref] ist eine Form der Mensch-Computer Interaktion, die auf der Messung von Gehirnströmen basiert. Da dies über an der Kopfhaut platzierte Elektroden geschieht, ist dieser Interaktionsmechanismus im Gegensatz zu den bisher vorgestellten Mechanismen auch für Menschen mit eingeschränkter Bewegungsfähigkeit geeignet. Die Anwendung von McFarland und Wolpaw erlaubt z.B. eine Texteingabe ohne die Nutzung zusätzlicher Eingabegeräte. Auf einem Display wird dazu eine Matrix von Buchstaben angezeigt, von denen jeweils abwechselnde Gruppen aufleuchten. Der Nutzer muss während der Blinksequenz eine Buchstaben mit den Augen fixieren. Da jeder Buchstabe eine individuelle Blinksequenz hat und das Aufleuchten des fixierten Buchstaben mittels EEG gemessen werden kann, ist der vom Nutzer ausgewählte Buchstabe eindeutig bestimmbar. So wird eine Texteingabe allein durch das Anschauen der Buchstabenmatrix möglich. Allerdings ist durch die Dauer der Blinksequenz keine schnelle Eingabe möglich und die für diesen Interaktionsmechanismus benötigte Hardware ist im Vergleich zu den meisten zuvor beschriebenen Prototypen sehr teuer.
[nggtags gallery=BCI]
Fazit
Fallende Preise durch die kommerzielle Massenfertigung von Sensortechnik wie der Wii-Remote oder der Microsoft Kinect aber auch sinkende Preise bei großen vertikalen Displays oder Projektoren haben dazu beigetragen, dass die Zahl neu entwickelter Interaktionsmechanismen zur Gestaltung der Schnittstelle zwischen Mensch und Computer zunimmt. Da gerade im Bereich der NUI bisher nur wenig Forschungsarbeit im Bezug auf die Standardisierung solcher Nutzerschnittstellen und die Eignung eines Interaktionsmechanismus für die Nutzung in einem bestimmten Anwendungsumfeld oder für eine bestimmt Aufgabe erfolgt ist, müssen zukünftige Arbeiten weitere Erkenntnisse über die Leistungsfähigkeit und Nutzerakzeptanz natürlicher Interaktionsmechnismen liefern. Außerdem haben alle der in diesem Artikel vorgeschlagenen Kategorien von natürlichen Interaktionsmechnismen ihre Vor- und Nachteile, sodass eventuell eine Kombination der Merkmale existierender natürlicher Benutzerschnittstellen oder die Entwicklung neuer Ansätze zur Gestaltung dieser Schnittstellen einen Interaktionsmechnismus hervorbringen, der das Potential hat, eine ähnlich hohe Verbreitung und Nutzerakzeptanz zu erreichen, wie es heute bei Maus und Tastatur für die GUI der Fall ist.
Touchscreen-basiertes Campus-Navigationssystem für die Universität der Bundeswehr München
[toc]Dieser Artikel beschreibt die wesentlichen Ergebnisse der Bachelorarbeit „Konzeption und Umsetzung eines Touchscreen-basierten Campus-Navigationssystems für die Universität der Bundeswehr München“ von Markus Schran. Ziel der Bachelorarbeit war die Konzeption und prototypische Umsetzung eines stationären Navigationssystems auf einem Outdoor-Kiosk-Terminal. Hierzu wurde zunächst zur Verfügung stehendes Kartenmaterial gesammelt und anwendungsspezifisch bewertet. Anschließend wurde der Besucherverkehr der Universität über mehrerer Tage protokolliert, bevor verschiedene Umsetzungsmöglichkeiten im Bezug auf Programmiersprache und Software Entwicklungstools gegeneinander abgewogen werden konnten. Das Ziel der praktischen Arbeit bestand darin, ein benutzerfreundliches und übersichtliches Programm für das touchscreen-basierte Terminal zu programmieren. Neben den Grundfunktionen des Programms befasste sich die Arbeit vor allem mit späteren Weiterentwicklungsmöglichkeiten. Nach einer kurzen Einführung in die grundlegende Problematik werden in diesem Artikel die wichtigsten Schritte der Arbeit sowie die erzeugten Artefakte vorgestellt.
„Touchscreen-basiertes Campus-Navigationssystem für die Universität der Bundeswehr München“ weiterlesen
Vergleich von Definitionen für Natural User Interfaces
Natürliche Benutzerschnittstellen (engl. „Natural User Interfaces“, kurz NUI) stellen nach der Ära der Kommandozeilenbedienung und der grafischen Benutzeroberflächen eine neue Generation der Mensch-Computer Interaktion (engl. „Human-Computer Interaction“, kurz HCI) dar
Die erste Generation der HCI waren Command-Line Interfaces (CLI). Auf einer monochromen Darstellungsfläche konnte der Benutzer durch eine vorgegebene Menge von Befehlen Manipulationen am System oder den Dateien, die das System enthält, vornehmen. Dabei erforderte diese Form der Interaktion eine strikte Einhaltung der Syntax eines Befehls, sodass der Nutzer nur mit dem Wissen über die verfügbaren Befehle und unter erhöhter Konzentration zur Einhaltung der syntaktischen Vorgaben Manipulationen vornehmen konnte. Die Eingabe erfolgte ausschließlich über eine Tastatur.
[singlepic id=568 w=320 h=240 float=none]
Die zweite Generation der Benutzerschnittstellen sind die heute weit verbreiteten grafischen Benutzerschnittstellen (GUI). Neben einer größeren Farbvielfalt sorgten besonders einge Metaphern in der Gestaltung der Darstellung dafür, dass die Bedienung eines Computers deutlich vereinfacht und somit für eine breitere Nutzergruppe zugänglich wurde. So haben die Desktopmetapher, welche die Oberfläche, auf der der Nutzer interagiert einem Schreibtisch nachempfindet und das WIMP-Prinzip, dass die Zusammensetzung der grafischen Komponenten in Fenster (engl. Windows), Symbole (engl. Icons), Menüs (engl. Menus) und Zeiger bzw. Zeigegeräte (engl. Pointer bzw. Pointing Device) einführte bis heute Bestand. Häufig werden Maus und Tastatur zur Interaktion genutzt.
[singlepic id=566 w=320 h=240 float=none]
Die dritte Generation der Benutzerschnittstelle, die erst seit wenigen Jahren unter diesem Begriff eine eigene Entwicklungsrichtung der Gestaltung der HCI darstellt, sind Natural User Interfaces (NUI). Die Gestaltung der Darstellung und der Interaktion solerfolgt hier auf natürliche und intuitive Weise, indem auf Fähigkeiten zurückgreifen wird, die ein Nutzer im Laufe seines Lebens erworben hat. Die Interaktionsmechnismen sind vielfältig und verfolgen unterschiedliche Ansätze, die von Touchscreens über eine Steuerung durch spezielle Zeigegeräte wie der WiiRemote bis hin zu einer Gestensteuerung mit dem gesamten Körper reichen.
[singlepic id=303 w=320 h=240 float=none]
Anders als bei den beiden schon seit mehreren Jahrzehnten etablierten Formen der HCI gibt es jedoch wegen der dynamischen Entwicklung im Forschungsfeld NUI innerhalb der vergangenen beiden Jahre noch keine einheitliche, allgemein anerkannte Definition. Nachfolgend werden einige Definitionen vorgestellt, deren enthaltene Ansichten beschrieben und miteineander verglichen werden, um das derzeitige vorherrschende Verständnis von NUI in Wissenschaft und Praxis aufzuzeigen.
Überblick über existierende Definition
Einige der bereits existirenden Definition beziehen sich auf unteschiedliche Konzepte und Theorien und gewichten gemeinsame Aspekte verschieden. Folgende Beispiele verdeutlichen diesen Sachverhalt:
Blake 2010:
A natural user interface is a user interface designed to reuse existing skills for interacting directly with content. [Blake 2010, S. 2][ref]Blake, Joshua (2010): The Natural User Interface Revolution. In: Natural User Interfaces in .Net, 1. Auflage, Greenwich, USA: Manning Publications.[/ref]
Diese Definition von Joshua Blake enthält folgende Aspekte:
- Ein NUI ist „designed“. Es bedarf also einer gezielten Gestaltung eines Interaktionmechnismus durch den Entwickler, sodass die Form der Interaktion sowohl für den Nutzer, als auch für den Inhalt und den Kontext geeignet ist.
- Ein NUI baut auf dem „reuse of existing skills“ auf. Es ermöglicht also die Wiederverwendung von Fähigkeiten, die der Nutzer im Laufe seines Lebens (z.B. bei der zwischenmenschlichen Kommunikation) erworben hat und die es ihm erlauben ein NUI ohne vorherige Anleitung zu nutzen.
- Ein NUI erlaubt „interacting directly with the content“. Der Nutzer muss also die Möglichkeit haben, Inhalte direkt durch sein Handeln zu manipulieren.
Bollhoefer et al. 2009:
Ein Natural User Interface (NUI) beschreibt ein Interface, welches unmittelbar durch einen oder mehrere Sinne des Benutzers bedient wird. [Bollhoefer et al. 2009, S.6][ref]Bollhoefer, Klaas Wilhelm; Meyer, Kerstin & Witzsche, Rosina (2009): White Paper Microsoft Surface und das Natural User Interface ( NUI ). , Berlin.[/ref]
Bei dieser Definition eines NUI stellen Bollhoefer et al. folgende Aspekte heraus:
- Die unmittelbare, direkte Interaktion und damit auch eine direkte Manipulation.
- Die Nutzung eines oder mehrerer Sinne des Benutzers.
Monson-Haefel 2010:
A Natural User Interface is a human-computer interface that models interactions between people and the natural environment. [Monson-Haefel 2010][ref]Monson-Haefel, Richard (2010): NUI Defined. URL: http://theclevermonkey.blogspot.com/2010/01/nui-defined.html. Letzter Abruf: 12.07.2011.[/ref]
Richard Monson-Haefel stellt also folgende Aspekte heraus:
- Ein NUI ist eine besondere Ausprägung von HCI.
- Ein NUI bildet die Interaktion eines Nutzers mit seiner natürlichen Umgebung (Wasser, Bäume, etc.), nicht jedoch mit seiner künstlichen Umgebung (Autos, Computer) ab.
Vergleich der Definitionen
Autor | Blake 2010 |
Bollhoefer et al. 2009 |
Monson-Haefel 2010 |
Gemeinsamkeiten | direkte Manipulation | ||
Unterschiede |
|
|
|
Aus der Tabelle geht hervor, dass lediglich die direkte Manipulation von Inhalten durch die Benutzerinteraktion als gemeinsames Merkmal aller drei Definitionen auftritt. Außerdem beantworten alle Definitionen die Frage, womit aus Sicht des Nutzers interagiert wird (Fähigkeiten, Sinne, natürliches Verhalten), gehen jedoch auf keine konkrete Ausprägung von dieser Interaktion, wie beispielsweise Multi-Touch Interfaces (z.B. MS Surface[ref] Weitere Informationen zum Microsoft Surface sind erhältlich unter http://www.microsoft.com/surface/en/us/default.aspx [/ref], Apple iPhone[ref]Weitere Informationen zum Apple iPhone sind erhältlich unter http://www.apple.com/de/iphone/[/ref], etc.), Gestensteuerung (MS Kinect[ref]Weitere Informationen zu Microsoft Kinect sind erhältlich unter http://www.xbox.com/de-DE/Kinect[/ref], etc.), gerätevermittelte Interaktion (Nintendo WiiRemote[ref]Weitere Informationen zur Nintendo WiiRemote sind erhältlich unter http://www.nintendo.de/NOE/de_DE/systems/technische_details_1072.html[/ref], Air Mouse Konzepte[ref]Ein Beispiel hierfür ist die Logitech MX Air[/ref], etc.) ein.
Fazit
Es existieren bereits einige Definitionen von „Natural User Interface“, die zum Teil Überschneidungen zeigen, zum Teil jedoch auch sehr unterschiedlich Ansätze verfolgen. Daher besteht im Rahmen des wissenschaftlichen Diskurses mit der Materie die Notwendigkeit, eine Definition abzuleiten, die sowohl die Aspekte bereits existierender Definitionen aufgreift, als auch für zukünftige Entwicklungen im Umfeld der NUI ihre Gültigkeit behält.
Potenziale und Nutzungskonzepte interaktiver Touchscreens
Die vorliegende Bachelorarbeit beschreibt eine durchgeführte Voruntersuchung zur Identifikation von Einflussfaktoren auf die Akzeptanz von interaktiven Touchscreens. Es werden in einer explorativen Studie positive und negative Einflussfaktoren eruiert und auf bestehende Einsatzszenarien von Touchscreens angewendet. Zusätzlich werden mithilfe dieser Faktoren fiktive Einsatzszenarien geschaffen. Ziel dieser Arbeit ist es, eine Grundlage für weitere, quantitative Untersuchungen zur Akzeptanz von Touchscreens zu schaffen.
[toc]
Dieser Artikel fasst die Ergebnisse einer Bachelorarbeit zur Identifikation von Einflussfaktoren auf die Akzeptanz von Touchscreen-Geräten zusammen. Innerhalb der Arbeit wurden in den vergangenen drei Monaten zunächst in einer explorativen Studie mit 27 Probanden positive und negative Einflussfaktoren in Bezug auf Kauf und Nutzung von Touchscreens eruiert. Anschließend wurden die gewonnenen Erkenntnisse mit bestehenden Einsatzszenarien von Touchscreens verglichen, um deren jeweiligen Bekanntheitsgrad zu beurteilen. Zusätzlich wurden mithilfe der von den Probanden angegebenen Nutzungsverhalten weitere Einsatzszenarien abgeleitet. Ziel der dargestellten Arbeit war es, durch die explorative Vorstudie eine Grundlage für spätere quantitative Untersuchungen zur Akzeptanz von Touchscreens zu schaffen.
Problemstellung & Zielsetzung
Die Verbreitung von berührungsempfindlichen Bildschirmen bzw. Touchscreens hat in den vergangenen Jahren stark zugenommen. Am deutlichsten wird dies im Bereich der Personal Devices, also kleinen Geräten wie Smartphones, Tablets und Ähnlichem. Die Verkaufszahlen steigen [ref]DUNSTHEIMER, MICHAEL (2011): Weltweite Smartphone Verkaufszahlen – Android „Nummer Eins“. URL: http://www.androidpit.de/de/android/blog/394061/Weltweite-Smartphone-Verkaufszahlen-Android-Nummer-Eins, Letzter Zugriff: 24.05.2011.[/ref] und die Auswahl an unterschiedlichen Geräten am Markt nimmt zu. Aufgrund fallender Display-Preise sind immer mehr Unternehmen im Besitz von Touchscreen-Geräten [ref]BEHREND, SIEGFRIED & ERDMANN, LORENZ (2004): Display-Märkte im Umbruch – Neuorientierungen für Umweltschutzstrategien, Werkstattbericht Nr. 63. , Berlin, S. 3-82.[/ref].
[singlepic id=497 w=618 float=center]
Trotz großem Funktionsumfang gibt es immer noch wenig Einsatzszenarien, in denen die Geräte sinnvoll zur Produktivitätssteigerung oder anderen Unternehmenszielen eingesetzt werden können [ref]OTT, FLORIAN; RICHTER, ALEXANDER & KOCH, MICHAEL (2009): Einsatz großer Wandbildschirme als Fenster in Kooperationssysteme. In: Wandke, Hartmut; Kain, Saskia & Struve, Doreen (Hrsg.): Proc Mensch und Computer 2009. Oldenbourg, S. 103-112.[/ref]. Insbesondere interaktive Wandbildschirme, die mit Touch-Technologie ausgestattet sind, sind davon betroffen.
Mithilfe einer explorativen Studie wurde deshalb in der vorliegenden Arbeit ermittelt, wie die Akzeptanz von Touchscreen-Geräten in der Praxis ausgeprägt ist. Nach einer kurzen Einführung in die Akzeptanztheorie wurden einige Einsatzbereiche aus der Literatur beschrieben und kategorisiert, in denen Touchscreens eingesetzt werden. Im empirischen Teil der Arbeit wurden in mehreren semistrukturierten Interviews Nutzungsgründe, Barrieren und Akzeptanzhemmer sowie akzeptanzsteigernde Einflussfaktoren ermittelt. Abgeleitet aus den gewonnenen Informationen wurden die zuvor genannten Einsatzszenarien beurteilt und wenn möglich sinnvollere Einsatzszenarien konstruiert. Anhand der gewonnenen qualitativen Daten schafft diese Arbeit eine Grundlage für vertiefende quantitative Untersuchungen.
Der Akzeptanzbegriff
Unter Akzeptanz versteht man die positive Annahmeentscheidung einer Innovation durch die Anwender [ref]SIMON, BERND (2001): Wissensmedien im Bildungssektor: Eine Akzeptanzuntersuchung an Hochschulen. Dissertation, Wirtschaftsuniversität Wien, Fachbereich Betriebswirtschaftslehre, S. 187.[/ref]. Die Gründe für die Akzeptanz einer Technologie sind somit ein wichtiges Indiz für ihren Erfolg. Die Akzeptanzforschung befasst sich mit dem Umgang des Nutzers mit Innovationen und verfolgt das Ziel, die Gründe für eine Annahme bzw. eine Ablehnung durch den Nutzer zu beleuchten. Dies dient u.a. dazu, Unternehmen bei der zielführenden Entwicklung und Einführung von technischen Innovationen zu unterstützen. Um eine Erfolgsprognose für der Entwicklung und Einführung einer Technologie geben zu können, bezieht sich die Akzeptanzforschung auf Ergebnisse früherer Akzeptanzstudien, was jedoch nicht immer zielführend ist, da häufig neue Faktoren außer Acht gelassen werden und sich die Akzeptanz anders entwickelt als vorhergesagt [ref]QUIRING, OLIVER (2006): Methodische Aspekte der Akzeptanzforschung bei interaktiven Medientechnologien. Münchner Beiträge zur Kommunikationswissenschaft Nr. 6/2006, S. 1.[/ref]. Anhand der Touchscreen-Technologie, an der seit 1971 gearbeitet wird [ref]BROWN, DEBI; STEINBACHER, CHERYL; TURPIN, TONYA; BUTLER, RHONDA & BALES, CHUCK (o. J.): History of Elo. ELO Touchsystems. URL: http://www.elotouch.com/AboutElo/History/default.asp, Letzter Zugriff: 06.05.2011.[/ref], wird deutlich, dass es unter Umständen viele Jahre dauern kann, bis eine Technologie akzeptiert wird. Mit den Einflussfaktoren auf eine späte Annahmeentscheidung beschäftigt sich das Forschungsfeld der Postadoption [ref]CHOU, SHIH-CHUN; STU, JAY & LIN, YUTING (2010): Determinants of E-book Readers Adoption and Continuation : A Comparison of Pre-Adoption and Post-Adoption Beliefs. 2010 5th International Conference on Computer Sciences and Convergence Information Technology (ICCIT), S. 853-856.[/ref].
Einsatzszenarien interaktiver Touchscreens
Um einige Möglichkeiten des Einsatzes zu nennen, die bisher in der Literatur behandelt wurden, wurden beispielhaft die folgenden Einsatzszenarien und zugehörige Prototypen aufgeführt und nach in der Literatur verwendeten Ansätzen wie Zweck, Aufstellungsort oder Nutzung kategorisiert:
Öffentliche virtuelle Pinnwand
Diese öffentlich platzierten Geräte dienen zur Förderung von sozialen Verbindungen und zur Informationsgewinnung durch Zusammenarbeit. Die „City Wall“ (s. Abbildung) kann beispielsweise zur Anzeige von Informationen und Fotos verwendet werden, die vom Benutzer über das Smartphone hochgeladen werden können.
[singlepic id=434 w=618 h= float=center]
„ice-breaker“ zur Gesprächsanregung an halböffentlichen Orten
Der Zweck dieses Einsatzszenarios ist die Förderung der Gemeinschaft, Anregung zur zwischenmenschlichen Interaktion und Stärkung der sozialen Verbindungen. Diese Geräte sind in der Regel an halböffentlichen Orten wie Messen, Konferenzen, Alumni-Treffen oder ähnlichen Veranstaltungen platziert. Ein virtuelles Jahrbuch wie das „USI Alumni Faces“ [ref]RUBEGNI, ELISA; MEMAROVIC, NEMANJA & LANGHEINRICH, MARC (2011): Talking to Strangers : Using Large Public Displays to Facilitate Social Interaction. In: Proceedings of the 14th International Conference on HumanComputer Interaction HCII11.[/ref] (s. Abbildung) zeigt Fotos der beteiligten Personen an und animiert zur ungezwungenen Interaktion.
[singlepic id=435 w=618 h= float=center]
Wandbildschirm zur Unterstützung von Zusammenarbeit eines Teams bei Projekten
Der Zweck liegt hier in der Unterstützung der Zusammenarbeit durch Verbesserung des Informationsmanagements. „AwareMedia“ [ref]BARDRAM, JAKOB E; HANSEN, THOMAS R & SOEGAARD, MADS (2006): AwareMedia: a shared interactive display supporting social, temporal, and spatial awareness in surgery. In: Hinds, Pamela J & Martin, David (Hrsg.): Proceedings of the 2006 20th anniversary conference on Computer supported cooperative work. ACM, S. 109-118.[/ref] (s. Abbildung) beispielsweise ist ein System, das die Koordination von Projekten und zwischen Mitarbeitern unterstützt. Als Prototyp eingesetzt in einem Krankenhaus half es, Raumbelegungen und Dienstpläne zu organisieren, Patientendaten zu verwalten und eine Kommunikationsplattform für die Mitarbeiter, Schwestern und Ärzte bereitzustellen.
[singlepic id=438 w=618 h= float=center]
Brainstorming an einem digitalen Whiteboard
Bei der zeitlich begrenzten Gruppen- oder auch Einzelarbeit an einem digitalen Whiteboard kommt es auf die Flexibilität des Systems an. (Klein-)Gruppenarbeit wird unterstützt durch Einblendung von Arbeitsmaterialien wie Bildern, Texten und der Möglichkeit zum Notieren, Malen oder Schreiben. Das „Flatland“ [ref]MYNATT, ELIZABETH D; IGARASHI, TAKEO; EDWARDS, W KEITH & LAMARCA, ANTHONY (1999): Flatland: new dimensions in office whiteboards. CHI 99 Proceedings of the SIGCHI conference on Human factors in computing systems, /1999. ACM, S. 346-353.[/ref] bietet zusätzlich zu den normalen Funktionen eines Whiteboards das Zoomen und einen sog. Time Slider, der den Stand des Geschriebenen aufzeichnet. So kann zu einer beliebigen Stelle des Fortschritts zurückgesprungen und erneut angesetzt werden.
[singlepic id=502 w=618 float=center]
Aktivitätsanzeige
Ein in Gemeinschaftsräumen platzierter Wandbildschirm bietet den Mitarbeitern und Besuchern einer Firma oder Abteilung Informationen über die Aktivität von Personen. Hier liegt der Fokus auf der „Awareness“ der Nutzer. Awareness beschreibt in diesem Zusammenhang die Erkenntnis über die Aktivitäten anderer, die einen Kontext für die eigene Aktivität darstellen.[ref]DOURISH, PAUL & BELLOTTI, VICTORIA (1992): Awareness and coordination in shared workspaces. Proceedings of the 1992 ACM conference on Computersupported cooperative work CSCW 92, November/1992 (3). ACM Press, S. 107-114.[/ref] Das „Idle Display“[ref]TYMAN, JAROSLAV & HUANG, ELAINE M. (2003): Intuitive visualizations for presence and recency information for ambient displays. CHI ’03 extended abstracts on Human factors in computer systems – CHI ’03, /2003. New York, New York, USA: ACM Press, S. 1002.[/ref] dient bspw. als Informationsanzeige über die Aktivität von Personen. Auf einem eingeblendeten Foto werden aktive Personen farbig dargestellt. Je inaktiver die Person wird, desto grauer wird die Anzeige des Bildes.
[singlepic id=437 w=618 h= float=center]
Interaktiver Multitouch-Tisch für Spiele, Musik und Unterhaltung
Die Prototypen in diesem, aus dem privaten Umfeld stammenden Einsatzszenario haben die Gemeinsamkeiten der horizontalen Touch-Oberfläche, sind allesamt Multitouch-fähig und haben den Zweck der Unterhaltung und des Entertainments. Das „Comino“[ref]LEITNER, J; KÖFFEL, CHRISTINA & HALLER, M (2009): Bridging the gap between real and virtual objects for tabletop games. International Journal of Virtual Reality, 3/2009 (7). IPI press, S. 1-5.[/ref] z.B. ist ein Tisch, auf dem mehrere Benutzer ein Spiel spielen können. Der Tisch interagiert ebenfalls mit Objekten, die auf ihm abgestellt oder abgelegt werden.
[singlepic id=436 w=618 h= float=center]
Explorative Analyse
Um zu erfahren, aus welchen Gründen Menschen Touchscreens kaufen und nutzen, wurde eine Befragung von unterschiedlichen Zielgruppen in Form eines semistrukturierten Interviews durchgeführt. Hierzu wurde ein Fragebogen mit qualitativen Fragen entworfen, auf die die Befragten ausführlich antworten konnten. Der Fragenkatalog enthält Fragen aus den folgenden Bereichen:
- Beweggründe für den Kauf
- Hinderungsgründe für den Kauf
- Wahrgenommener Aufwand
- Persönliche Einstellung zur Nutzung
- Soziale Einflüsse
- Berufliche Nutzung
- Private Nutzung
- Alternative Einsatzmöglichkeiten
- Fehlende Funktionalität
- Daten zur Person
Die gesammelten Fragen wurden nach der Befragung zusammengefasst und generalisiert sowie in eine sinnvolle geclusterte Struktur gebracht.
Ergebnisse der Studie
Für die Auswertung der Interviews wurden die Antworten transkribiert und die inhaltstragenden Aussagenteile in eine Kurzform gebracht. Anschließend wurde kategorienweise ausgewertet.
Probanden
Befragt wurden 27 Probanden, von denen 21 männlich sind. Mehr als die Hälfte (14) haben ein abgeschlossenes Hochschulstudium und drei weitere haben promoviert. 20 der befragten Personen sind angestellt, die restlichen sieben sind selbständig. Die Altersverteilung der Probanden reicht von 20 bis 54.
[nggtags Gallery=Probanden+Fragebogen+Touchscreen_Akzeptanz]
Geräte und Nutzungsdauer
Die befragten Nutzer von Touchscreens haben meist (18 Probanden) mehr als ein Touchscreen-Gerät in ihrem Besitz. In elf Fällen ist es die Kombination aus Apple iPhone und iPad. Die weiteren Geräte sind fünf Tablet-PCs, je vier Smartphones anderer Marken und iPod Touch, zwei Navigationsgeräte und ein Touch-Fernseher. Die bisherige Nutzungsdauer der Geräte ist ausgewogen zwischen jahrelanger Erfahrung und frisch gekauften Geräten. 14 der 25 Gerätenutzer gaben an, dass sie bereits mit allen Funktionen ihrer Geräte vertraut sind, zehn beantworteten die Frage aufgrund der vielen versteckten Funktionen mit Nein. Die meisten (9) Probanden waren in weniger als einer Stunde sicher im Umgang mit dem Gerät. Der Großteil der Probanden (15) hat diese Zeit ebenso lang erwartet. Sieben Probanden fanden die Zeit kürzer und drei länger als erwartet. Zwei der drei Probanden über 50 Jahren haben länger als eine Woche für die Eingewöhnung benötigt.
[nggtags Gallery=Geräte+Fragebogen+Touchscreen_Akzeptanz]
Nutzungsintensität
Bei der Nutzungsintensität wird zwischen Nutzungshäufigkeit und Nutzungsdauer unterschieden. Die absolute Mehrheit der Befragten (20 Probanden) gab an, die eigenen Touchscreen-Geräte täglich zu nutzen. Desweiteren gab es niemanden, der seine Geräte nicht mindestens einmal in der Woche nutzt. Die Nutzungsdauer am Tag ist unterschiedlich, liegt aber meistens (7 Probanden) bei einer bis zwei Stunden am Tag. Häufig sind sich insbesondere Smartphone-Nutzer nicht darüber bewusst, wie intensiv sie ihre Geräte tatsächlich nutzen. Die gewonnenen Informationen zur Nutzungsdauer lassen auf eine hohe Erfahrung der Probanden mit dem Gerät und eine hohe Nutzungsintensität schließen.
[nggtags Gallery=Nutzung+Fragebogen+Touchscreen_Akzeptanz]
Kaufgründe
Die Kaufgründe der Probanden sind sehr unterschiedlich. Es gab Probanden, die ihr Gerät kauften, um einen bestimmten Bedarf zu decken, wie bspw. die Nutzung im Studium (4 Nennungen). Es standen häufig Mobilität, Akkulaufzeit und der kurze Bootvorgang als Kaufgründe im Vordergrund. Es gab weiterhin einige intrinsisch motivierte Gründe wie Frustkauf und Neugier nach Innovationen (2 Nennungen) sowie sozial motivierte Gründe. Am häufigsten jedoch wurde die einfache und intuitive Bedienung (6 Nennungen) als ausschlaggebender Grund genannt.
[singlepic id=504 w=618 float=center]
Viele Probanden waren überrascht, als sie erfuhren, dass die Touchscreen-Technologie bereits Ende der 1960er Jahre erfunden wurde. Diese Tatsache ist häufig nicht bekannt. Teilweise herrscht sogar die Meinung, dass die Firma Apple die Technologie im Zuge von iPhone und iPad erfunden habe. Auf die Frage, warum die Probanden erst jetzt ein Touchscreen-Gerät gekauft haben, gab es ähnlich viele unterschiedliche Antworten wie auf die Frage nach den Kaufgründen.
[singlepic id=506 w=618 float=center]
Nutzung
Die Tätigkeiten, für welche die Probanden ihre Geräte nutzen, sind sehr vielfältig und reichen von Kommunikation über Unterhaltung bis zu klassischen Arbeits-Settings.
[singlepic id=505 w=618 float=center]
22 der Befragten gaben an, dass das Gerät oder die Geräte zur Erleichterung der Mobilität angeschafft wurden. Die weiteren Gründe waren Arbeitserleichterung (10 Nennungen) und die Ersparnis von Zeit (2 Nennungen) bzw. Kosten (1 Nennung). In 19 Fällen ist diese Erleichterung im Nachhinein betrachtet auch gelungen. Die Nutzung von Touchscreens hat 16 der befragten Probanden in irgendeiner Weise Schwierigkeiten bereitet. Darunter sind viele Aspekte der Steuerung, aber auch Unzulänglichkeiten im Bereich Display und Funktionalität. Die Probanden wurden auch gefragt, was ihnen an der Nutzung der Geräte am meisten Freude bereitet. Hierbei macht der Bereich der Bedienung den größten Anteil mit 23 Nennungen aus. Weitere Freudefaktoren sind die sofortige Verfügbarkeit des Geräts (6 Nennungen), sowie die Geschwindigkeit und Funktionsvielfalt (je 4 Nennungen). Ebenso wurden Ärgernisfaktoren identifiziert.
[nggtags Gallery=Nutzungsfaktoren+Fragebogen+Touchscreen_Akzeptanz]
Nur zwölf der Probanden gaben an, dass in ihrem Arbeitsumfeld Touchscreens genutzt werden, was auf viel Verbesserungspotenzial hindeutet. Die Einsatzgebiete sind dabei unterschiedlich.
[singlepic id=484 w=300 h=420 float=center]
Auf die Nachfrage hin, wo sich die Probanden eine effektive Nutzung von Touchscreens vorstellen könnten, antworteten die Probanden ausführlich und berufsbezogen.
[singlepic id=503 w=618 float=center]
Beurteilung der Szenarien
Auf Basis der mit der Studie gesammelten Informationen wurden die zuvor aufgestellten Einsatzszenarien auf ihre Bekanntheit hin beurteilt. Dabei wurde nach folgendem Prinzip vorgegangen:
[singlepic id=492 w=500 float=center]
Aus den Nennungen für den jeweiligen Prototypen wurde anschließend ein Ranking für jedes Einsatzszenario erstellt und nach dem gleichen Schema für die Einsatzszenarien untereinander verglichen. Es lässt sich erkennen, dass das Einsatzszenario 3 mit 155 die höchste Anzahl an Nennungen erzielt. Einsatzszenario 5 mit seinen vier Prototypen stößt mit den wenigsten Nennungen auf niedrige Bekanntheit seitens der Probanden. Einsatzszenario 2 ist ebenfalls wenig bekannt. Einsatzszenario 1 landete mit 86 Nennungen im Mittelfeld.
[singlepic id=479 w=618 float=center]
Weitere Einsatzszenarien
Nachdem die in der Literatur gefundenen Einsatzszenarien beurteilt wurden, konnten weitere Einsatzszenarien sowohl für das private als auch fürs berufliche Umfeld konstruiert werden. Hierzu wurden beschreibende Begriffe mit vielen Nennungen kombiniert mit Begriffen, die keinen der Prototypen beschreiben. Dabei sind folgende neue Szenarien entstanden:
- Installierter Entertainment- und Informations-Wandbildschirm in Sanitärbereich oder Küche
- Tragbarer Mediacontroller für die Steuerung der heimischen Entertainmentgeräte
- Tragbares, robustes Touchscreen-Gerät für den Einsatz zur Datenerfassung im Freien
- Stationär installierter Touchscreen zur Bedienung von Anlagen und Maschinen
- Tragbarer Präsentations-Touchscreen
- Halböffentlicher interaktiver Wandbildschirm für die Koordination in einer Abteilung
Erfolgspotenziale & Nutzungsbarrieren für Unternehmen
Mithilfe der gefundenen Bedürfnisse, Freudefaktoren und potenziellen Einsatzmöglichkeiten wurde festgestellt, wo die Potenziale der Nutzung von Touchscreen-Geräten liegen. Den Probanden macht die Bedienung der Geräte am meisten Freude, es gibt aber Barrieren in Form von Defiziten im Funktionsumfang und der Qualität von Software und Hardware. Diese Erkenntnis kann dazu verwendet werden, den Geräteherstellern Mängel aufzuzeigen, sodass die kontinuierliche Verbesserung vorangetrieben werden kann. Nutzern von Touchscreen-Geräten wird empfohlen, sich vor dem Kauf eines Geräts ausführlich über den Funktionsumfang der Geräte zu informieren, um Ärgernisse im Vorfeld zu minimieren. Ebenso sollten Nutzer andere Kaufwillige mit Erfahrungsberichten unterstützen. Die vielen möglichen Einsatzfelder im beruflichen Bereich deuten auf ein positives Marktpotenzial von Touchscreens im Allgemeinen und auf Verbesserungspotenzial in Unternehmen hin. Der Nutzungswille der Unternehmen muss steigen. Die von vielen Probanden gewünschten mobilen Geräte steigern die Effizienz, sparen Zeit und erzeugen mehr Freude bei der Nutzung. Zeitersparnis, Effizienz und zufriedene Mitarbeiter sind wichtige Unternehmensziele. Es müssen Einsatzmöglichkeiten erkundet werden, in denen – auch mobile – Touchscreen-Geräte sinnvoll genutzt werden können. Die Käufer solcher Geräte sollten mit sinnvollen und innovativen Nutzungs- und Bedienungskonzepten überzeugt werden. Entwicklungen im Bereich der Natural User Interfaces zeigen, worum es in Zukunft geht: Die Reduzierung der Komplexität für den Benutzer mit dem Ziel der Minimierung von Hindernissen der Akzeptanz.
[singlepic id=490 w=618 float=center]
Zusammenfassung & Ausblick
Ziel der vorliegenden Arbeit war es, mithilfe einer explorativen Analyse die Technologieakzeptanz von Touchscreens zu untersuchen. Im empirischen Teil der Arbeit wurden Nutzungsintentionen sowie Potenziale und Barrieren der Verwendung von Touchscreens ausgemacht. Als Einflussgrößen auf die Akzeptanz stehen Freudefaktoren im Bereich der Bedienung und Ärgernisfaktoren an äußerlichen Merkmalen der Geräte sowie fehlende oder mangelhaft umgesetzte Funktionen im Mittelpunkt. Daneben zeigen sich Potenziale in Form von möglichen Einsatzbereichen im privaten und beruflichen Umfeld. Einsatzbereiche von Touchscreens sind zwar bekannt, es mangelt jedoch an der praktischen Umsetzung im Unternehmensumfeld. Hier sind weitere Maßnahmen seitens der Unternehmen zu ergreifen, um geeignete und sinnvolle Einsatzbereiche zu identifizieren. Die identifizierten Einflussfaktoren helfen bei der Verbesserung und Neuentwicklung von Touchscreen-Geräten und können damit einen Beitrag zur Entwicklungspraxis von Hardware-Herstellern oder Anwendungsentwicklern leisten. Die Ergebnisse der Arbeit zeigen potenzielle Einsatzszenarien derartiger Geräte im Unternehmenskontext auf und legen einen Grundstein für weitere, quantitative Forschungen im Bereich Touchscreen-Akzeptanz.
Howto – Export von Vektorgrafiken mit der JavaFX Production Suite
In diesem Howto wird gezeigt, wie aus einer Vektorgrafik in Adobe Illustrator eine FXZ-Datei erstellt werden kann, die zur Programmierung einer entsprechenden Oberfläche in JavaFX benötigt wird. Dazu wird das Plugin der JavaFX Production Suite verwendet, das als Integrationslösung zur Unterstützung solcher Anwendungsfälle von Oracle bereitgestellt wird.
„Howto – Export von Vektorgrafiken mit der JavaFX Production Suite“ weiterlesen