SI-Screen: elderly interaction & service assistant

[toc]Das AAL-Forschungsprojekt Social Interaction Screen hat das Ziel die soziale Interaktion älterer Menschen mit ihrer Familie, Freunden und Bekannten aus der näheren Umgebung zu erleichtern und zu mehr realer sozialer Aktivität anzuregen. Vor diesem Hintergrund entsteht das nutzerorientierte soziale Interaktionswerkzeug elisa mit einer innovativen Benutzerschnittstelle für die Interaktion mittels dem Social Web. In diesem Beitrag stellen wir die Vision und die zentralen Konzepte von SI-Screen vor.

Ausgangssituation

Aktuell finden in ganz Europa im Rahmen des AAL Joint Programme umfangreiche Aktivitäten statt, um die Lebensqualität einer zunehmend älter werdenden Gesellschaft durch die Entwicklung neuer Technologien nachhaltig zu sichern. Das Ziel dieser Bemühungen besteht darin, neue Dienstleistungen und Technologien und insbesondere IKT zu entwickeln, um älteren Menschen so lange wie möglich ein selbstbestimmtes, unabhängiges und sozial integriertes Leben in ihren eigenen vier Wänden zu ermöglichen.

Das Ziel des AAL-Projektes SI-Screen ist die soziale Interaktion älterer Menschen mit ihrer Umwelt zu vereinfachen und zu unterstützen. Vor diesem Hintergrund arbeiten zehn europäische Partner an elisa, einem Tablet-Computer dessen Benutzerschnittstelle ganzheitlich auf die Bedürfnisse von Senioren ab Rentenalter ausgelegt ist. Die Interaktion und Kommunikation mit Familie und Freunden erfolgt unter Zuhilfenahme des Social Webs, mit dem Anliegen die soziale Bindung von Senioren zu fördern.

SI-Screen Vision

Die Benutzerschnittstelle von Desktop-Rechnern, Smartphones, Tablets etc. wurde vorwiegend für Personen konzipiert, die mehrere Stunden am Tag mit diesen Geräten arbeiten und den unterschiedlichsten Tätigkeiten nachgehen. Das Spektrum der Anwendungsmöglichkeiten reicht vom Stöbern im Internet über Dokumentenverarbeitung bis hin zur Anwendungsentwicklung.

[singlepic id=1156 w=618 float=center]

Der Nachteil für ältere Menschen besteht darin, dass sie durch die Vielzahl an Möglichkeiten überfordert sein können, insbesondere wenn sie zuvor keine oder nur wenig Erfahrung im Umgang mit Computern besitzen. Bei ihrer gezielten Suche nach Information oder Unterstützungsfunktion können sie beispielsweise die Orientierung verlieren oder die Angst aufkommen versehentlich einen „falschen“ Knopf zu drücken. Unsere Umfragen in Deutschland und Spanien haben ergeben, dass ältere Menschen vorwiegend ein Gerät benötigen, dass sie vorwiegend selbständig, ohne Anleitung und externe Hilfe, bedienen können.

elisa Tablet

Um dieser Anforderung gerecht zu werden gehen wir über die klassische Entwicklung einer Software-Anwendung hinaus. Mit elisa realisieren wir ein Tablet, dessen Möglichkeiten von älteren Menschen begreifbar sind und über dessen Design das Gerät mit einem eindeutigen Zweck verbunden wird. Dabei achten wir insbesondere auf eine moderne ästhetische Formgebung bei der Tablet Hardware, die auch für jüngere Generationen ansprechend ist und nicht als stigmatisierende Betonung des Alters unserer Zielgruppe wahrgenommen wird.

[singlepic id=1166 w=618 float=center]

[nggtags Gallery=SI-Screen+Tablet+Accessory]

Elisa unterscheidet sich sowohl im Endgerät als auch im Aufbau der grafischen Oberfläche von Tablets, die aktuell auf dem Markt erhältlich sind. Entgegen dem Trend eine möglichst dünne Display-Fassung aus Glas und Aluminum anzubieten, sehen wir einen breiten Rahmen mit einem Bezug aus Leder vor. Ein breiterer Rahmen verfügt über ausreichend Platz für die Ablage der Hände, ohne dass die Finger die Touch-Oberfläche berühren und versehentlich eine Funktion auslösen können. Ein integrierter Standfuß und Tragegriff sorgen für Stabilität sowohl während der Bedienung am Tisch, als auch für einen sicheren Transport bei der Mitnahme des Tablets.

elisa User Interface

Mit dem elisa UI entsteht eine klar strukturierte grafische Benutzerschnittstelle, die eine nachvollziehbare Navigation und einen konsistente Darstellung und Ablauf für jeden Funktionsbereich vorsieht. Für den ersten elisa Prototypen wurden insgesamt zwei Layout-Varianten konzipiert – das Inhalts-zentrische und das Personen-zentrische Layout.

Beim Inhalts-zentrischen Layout liegt die Betonung auf dem Zugang zu aufbereiteten Inhalten aus dem Web, ausgewählt nach persönlichen Präferenzen. Die in Magazin-Stil dargestellten Inhalte sollen dazu anregen auf lokale Interessengruppen und deren Aktivitäten aufmerksam zu werden, daran aktiv teilzunehmen und Gleichgesinnte dazu einzuladen.

Bei der Personen-zentrischen Gestaltung der elisa UI steht hingegen die soziale Interaktion mit Familie und Freunden im Vordergrund. Mit dem Ziel über aktuelle Geschehnisse von Vertrauten selbst bei großer örtlicher Entfernung auf dem Laufenden zu bleiben und die Möglichkeit zu bieten Personen mit gleichen Interessen zu finden oder verlorene Kontakte wieder herzustellen. Durch die Integration von bestehenden sozialen Netzwerken kann eine Brücke zur jüngeren Generation entstehen.

[singlepic id=1155 w=618 float=center]

[nggtags Gallery=SI-Screen+elisa+layout+content-centric]

[nggtags Gallery=SI-Screen+elisa+layout+person-centric]

Bei der elisa UI nehmen wir bewusst Abstand von der gegenwärtig dominierenden App-Metapher von Smartphones und Tablets. Unseren Beobachtungen zufolge werden Apps als inkonsistent in ihrem Funktionsumfang und grafischer Gestaltung wahrgenommen. Darüber hinaus setzen die verfügbaren Produkte voraus, dass der Endanwender administrative Aufgaben, wie z. B. die Installation und Konfiguration, selbständig übernehmen kann. Eine weitere Hürde für ältere Menschen ist oftmals die wiederholte Registrierung von Benutzerkonten für jede (Web-)Anwendung, bevor sie in den vollständigen Genuss der jeweiligen Funktionalität kommen.

[singlepic id=1184 w=618 float=center]

In SI-Screen steht der Nutzen und eine freudvolle Bedienung durch ältere Menschen an erster Stelle. Vor diesem Hintergrund haben wir für elisa Konzepte erarbeitet, um die unterschiedlichen Funktionen von Webdiensten über eine einheitliche Benutzerschnittstelle zur Verfügung zu stellen und die notwendigen administrativen Aufgaben zu reduzieren oder zumindest auf ein Person des eigenen Vertrauens übertragen zu können. Idealerweise können ältere Menschen die Vorteile des Social Webs nutzen, ohne selbst eine Mitgliedschaft beim jeweiligen Dienst beantragen zu müssen. Die Einmalanmeldung und Konsolidierung der Inhalte und Funktionalität des Social Webs verwirklichen wir über den sogenannten Social Software Integration Layer (SSIL).

Social Software Integration Layer

Der SSIL ist eine Server-basierte Software-Lösung, die elisa unterstützt mehrere Dienste des Social Webs über eine einheitliche Schnittstelle anzubinden. Zu diesem Zweck verdichtet der SSIL Profil-Informationen, Activity Streams (Status Updates) und Content Streams (Kommentare, Empfehlungen, Photos) von bestehenden SNS[ref]In elisa werden bspw. Facebook und Google+ als SNS unterstützt.[/ref], Social Content Sharing Plattformen[ref]In elisa werden bspw. Flickr und Picasa als Social Content Sharing Plattformen unterstützt.[/ref], Gruppenkalender[ref]In elisa wird bspw. Google Calender als Gruppenkalender unterstützt.[/ref] sowie Web Feeds[ref]In elisa werden bspw. Web Feeds von Artikel- oder Event-Webseiten bezogen.[/ref], Mailing-Listen und persönliche Blogs. Der SSIL verfügt über keine Benutzerschnittstelle, sondern ermöglicht elisa den Bi-Direktionalen Zugriff auf das Social Web.

[singlepic id=1185 w=618 float=center]

CommunityMashup

Für die Realisierung des SSIL setzen wir auf CommunityMashup, eine Personen-zentrische Mashup-Lösung die an der Forschungsgruppe Kooperationssysteme realisiert wird. CommunityMashup ist eine Service-orientierte Middleware, welche für jeden Endanwender Inhalte aus den verschiedenen SNS bezieht, zu einem einheitlichen Datenstrom (Awareness-Stream) verdichtet und anschliessend den elisa Tablets über eine REST API bereitstellt.

Um etwaige Zugangsbarrieren für technisch unerfahrene Senioren zu senken, wurde CommunityMashup um die Möglichkeit erweitert die Konfiguration von der Inhaltsbereitstellung zu trennen. Auf diese Weise erhalten ältere Menschen den Zugang zum Social Web, während die bereitstellenden Webdienste und deren Konfiguration vom Endanwender verborgen bleiben.

[singlepic id=1169 w=618 float=center]

Profile Admin UI

Die Konfiguration der Dienstzugriffe erfolgt über die Profile Admin UI. Mit Hilfe der Profile Admin UI können Vertrauenspersonen mittels Fernzugriff die administrativen Aufgaben für den Endanwender übernehmen. Konkret können Dritte im Bedarfsfall über eine Administrations-Webseite (temporär) dazu berechtigt werden, Benutzerzugänge zu bestehenden oder neuen E-Mail-Konten bzw. Web-Diensten im SSIL zu hinterlegen.

Auf diese Weise können ältere Menschen über ihre Einmalanmeldung auf ihrem elisa Tablet Zugriff auf die unterschiedlichen Dienste erlangen, ohne selbst einen Registrierungsvorgang durchführen zu müssen. Versierte Nutzer können weiterhin die Konfiguration von elisa übernehmen, sind aber ungezwungen und können zumindest einen Teil davon abgeben.

Service Integration

Unabhängig von der Administration können Familienmitglieder und Freunde mit Zugang zu sozialen Netzwerken einem elisa Nutzer Zugriff auf die eigenen Aktivitäten und publizierten Inhalte, wie Fotos oder geteilte Informationen, gewähren. Für Plattformen mit API-Key- oder OAuth-Unterstützung, wie z. B. Facebook oder Google+, ist für den Zugriff von elisa auf diesen Awareness-Stream keine Mitgliedschaft notwendig. Elisa ist bei ausgewählten Webdiensten als Anwendung registriert und mit Erlaubnis eines Mitglieds können Inhalte mit dem jeweiligen elisa Anwender geteilt werden.

Die Integration von Web-Diensten mittels SSIL geht über die Unterstützung von sozialen Netzwerken hinaus. Internetauftritte von lokalen Veranstaltern wie Theater, Museen, Kirchen Vereine oder Verbände, sowie Veröffentlichungen von Zeitungen oder Nachrichtenagenturen können beispielsweise über Web Feeds oder vergleichbare Datenquellen angebunden werden. Alternative Publikationsformen wie Newsletter werden in Zukunft über CommunityMashup ebenfalls unterstützt und können anschliessend abonniert werden.

Zusammenfassung und Ausblick

Das Ziel von SI-Screen ist die Realisierung eines Tablet Computers, der Inhalte und Funktionen über eine einheitliche und freudvolle Benutzerschnittstelle für ältere Menschen bereitstellt und zu sozialer Kommunikation und Aktivitäten im realen Leben anregt. Durch Übertragung der administrativen Vorgänge an Vertrauenspersonen können Senioren in die Vorzüge des Sozialen Webs gelangen, selbst wenn sie keine oder wenig Erfahrung im Umgang mit Computern haben.

Der erste Prototyp, eine klick-bare Demo-Anwendung der elisa UI, wurde im Januar 2012 fertig gestellt. In März und April 2012 wurden Senioren in Spanien und Deutschland zu den Hardware Designs und den beiden Layout-Varianten der grafischen Oberfläche befragt. Das Feedback fliesst in das gegenwärtige Design und Entwicklung des zweiten Prototypen ein. Über einen ISO 9241-9 Ergonomie-Test wird im Mai die Gebrauchstauglichkeit potentieller Tablet Computern evaluiert, deren Komponenten im zweiten Prototypen verarbeitet werden.

Danksagung

Dieser Beitrag steht im Zusammenhang mit dem Forschungsprojekt SI-Screen, das mit Mitteln des Bundesministeriums für Bildung, und Forschung (Förderkennzeichen 16SV3982), sowie durch das Europäische AAL Joint Programme (AAL-2009-2-088) gefördert wird. Das Vorhaben wird von einem Zusammenschluss aus zehn internationalen Partnern durchgeführt und von der Innovationsmanufaktur GmbH (ehemals SportKreativWerkstatt GmbH) koordiniert. Das Hardware-Design und Prototyping des elisa Produkts wird von Porsche Design Studio entwickelt. Die visuelle Gestaltung des Artikelbildes und der elisa UI erfolgt durch helios.bz. Die Koordination der Produkt- und Systementwicklung sowie die Integration von Social Software obliegt der Universität der Bundeswehr München. Weiterführende Informationen zu SI-Screen sind verfügbar unter http://www.si-screen.eu.

Evaluation von Zeigegeräten nach ISO 9241-9

[toc]Die ISO Norm 9241 ist eine internationale Norm, die Richtlinien zur Interaktion zwischen Mensch und Computer bereitstellt. Neben Vorgaben zur Ergonomie des Arbeitsplatzes und zur Gestaltung der Bildschirminteraktion beschreibt der Teil 9 mit dem Titel „Anforderungen an Eingabegeräte – außer Tastaturen“ neben einer Vielzahl von Begriffsbestimmungen auch Angaben für Maße der Gebrauchstauglichkeit eines Interaktionsmechanismus. So wird die Gebrauchstauglichkeit nach ISO 9241-9 durch die Effektivität, die Effizienz und die Zufriedenheit des Nutzers bei der Nutzung eines Gerätes in einem gewissen Anwendungskontext bestimmt. [ref] Deutsches Institut für Normung (2002): ISO 9241-9 Ergonomische Anforderungen für Bürotätigkeiten mit Bildschirmgeräten Teil 9: Anforderungen an Eingabemittel − ausgenommen Tastaturen. S.13.[/ref] Außerdem enthält die Norm neben Hinweisen zur Ergonomie und Nutzungsanforderungen bei der Gestaltung von Eingabegeräten außer Tastaturen im Anhang B auch Informationen zur Bewertung der Effektivität und Effizienz der Interaktionsmechanismen. [ref]Deutsches Institut für Normung (2002): ISO 9241-9 Ergonomische Anforderungen für Bürotätigkeiten mit Bildschirmgeräten Teil 9: Anforderungen an Eingabemittel − ausgenommen Tastaturen. S. 29 ff.[/ref] Zur Evaluation wird demnach ein Fitts’ Law Test verwendet. Diese Evaluationsmethode wird nachfolgend genauer erläutert, indem zunächst die ursprüngliche Evaluation eines Zeigegerätes nach Fitts vorgestellt wird und anschließend das daran angelehnte Verfahren nach ISO 9241-9 beschrieben wird.

Geschichte der Fitts‘ Law Evaluation

Der in der ISO 9241-9 beschriebene Testablauf zur Bewertung von Zeigegeräten basiert auf dem in der HCI auch vor der Normierung häufig zur Evaluation von Zeigegeräten genutzten Fitts’ Law Modell. Der ursprünglich von Paul M. Fitts durchgeführte Testablauf diente der Überprüfung, ob eine schnelle, gezielte Bewegung der Hand durch die physische Stärke des Muskelapparates oder die Geschwindigkeit der Informationsverarbeitung des menschlichen Nervensystems limitiert wird. [ref]Fitts, Paul M. (1954): The Information Capacity of the Human Motor System in Controlling the Amplitude of Movement. Journal of Experimental Psychology, 3/1954 (121), S.381.[/ref] Dazu mussten die getesteten Personen mit unterschiedlich schweren Stiften abwechselnd zwei Aluminiumstreifen mit vorgegebener Breite und festem Abstand berühren.

[singlepic id=842 w=618 h= float=]

Die Veränderung der Breite der Aluminiumstreifen und des Abstands der Streifen diente dann zur Veränderung des Schwierigkeitsgrades. Zur Bestimmung des Schwierigkeitsgrades nutzte Fitts ein Theorem von Shannon zur Bestimmung der Kapazität eines Kommunikationskanals in bit durch ID= log2(2A/ W) mit dem Schwierigkeitsindex ID in bit, der Zielentfernung A und der Zielbreite W. [ref]Shannon, Claude E. (1948): The mathematical theory of communication. 1963. M.D. Computing : Computers in Medical Practice, 4/1948 (14), S. 43.[/ref] Daher wird auch nach der heutigen ISO Norm die Schwierigkeit eines Ziels in bit angegeben und die Leistung eines Zeigegerätes in bit/s gemessen. Das Ergebnis des Tests war eine geringe Abweichung der Bewegungszeiten bei unterschiedlichem Gewicht des Stifts, woraus Fitts folgerte, dass nicht die physische Muskelstärke die Bewegungszeit einschränkt. Fitts’ Law sagt außerdem aus, dass ein linearer Zusammenhang zwischen dem Schwierigkeitsindex eines Ziels und der Auswahlzeit besteht.

[singlepic id=844 w=618 h= float=]

Evaluation nach ISO 9241-9

Die ISO Norm bietet zur Bewertung der Effizienz und Effektivität von Zeigegeräten verschiedene Verfahren, die je nach Interaktionsform ein unterschiedliches Vorgehen zur Datensammlung erfordern.

Dabei unterscheidet die Norm nach folgenden Interaktionsformen[ref]Deutsches Institut für Normung (2002): ISO 9241-9 Ergonomische Anforderungen für Bürotätigkeiten mit Bildschirmgeräten Teil 9: Anforderungen an Eingabemittel − ausgenommen Tastaturen. S. 30.[/ref]:

  • Zeigen
  • Auswählen
  • Ziehen
  • Nachziehen
  • Freihandeingabe

Je nach vorwiegender Interaktionsform bei der Interaktion mit der Mensch-Computer Schnittstelle hat auch der Versuchsaufbau ein anderes Erscheinungsbild. Während Auswahltests verschiedene Objekte auf dem Display darstellen, die der Nutzer mit dem Zeiger erreichen und auswählen muss, sind Nachziehtest so aufgebaut, dass ein Cursor-Objekt auf einer vorgegebenen Bahn zwischen zwei Randbegrenzungen bewegt werden muss. Der Anordnung von Zeiger und Zielen kann dem folgenden Bild entnommen werden:

[singlepic id=841 w=618 h= float=]

Durch die Testform wird auch die Messung der Daten zur Bewertung des Interaktionsmechanismus bestimmt. Die nachfolgenden Abschnitte beschäftigen sich mit der Bewertung von Zeigegeräten bei Zeige-, Auswahl- und Ziehaufgaben.

Wahl der Schwierigkeitsindizes

Der Schwierigkeitsgrad ID bei einem Auswahltest wird durch die Entfernung des Zeigers zur Zielmitte in der jeweiligen Bewegungsrichtung und der Größe des Ziels nach folgender Formel bestimmt[ref]Soukoreff, R. William & Mackenzie, I. Scott (2004): Towards a standard for pointing device evaluation, perspectives on 27 years of Fitts? law research in HCI. International Journal of Human-Computer Studies, 6/2004 (61), S. 755 bzw. Deutsches Institut für Normung (2002): ISO 9241-9 – Ergonomische Anforderungen für Bürotätigkeiten mit Bildschirmgeräten Teil 9: Anforderungen an Eingabemittel − ausgenommen Tastaturen. S. 31.[/ref]:

ID = log2 ((D/W)+1) = log2 ((D+W)/W)

Dabei ist D die Zielentfernung (Distance) und W die Zielbreite (Width). Für die Wahl der Maßeinheit für Zielentfernung und Zielbreite macht die ISO Norm keine Vorgaben, jedoch wird darauf hingewiesen, dass eine konsistente Nutzung der gewählten Einheit erforderlich ist. Nach ISO Norm gilt folgende Einordnung der Schwierigkeitsindizes auf der logarithmischen Skala:

  • 2 < ID <= 4 | leichtes Ziel
  • 4 < ID <= 6 | mittleres Ziel
  • ID > 6 | schweres Ziel

Die verwendeten Schwierigkeitsindizes sollten bei einer konkreten Evaluation in einem Bereich zwischen 2 und 8 liegen. Eine Kombination aus Zielentfernung und Zielbreite wird als Kondition bezeichnet. Je mehr Konditionen der Testperson präsentiert werden, desto aussagekräftiger ist das Bewertungsergebnis für das jeweilige Zeigegerät. Dabei ist jedoch zu beachten, dass eine Kondition dem Nutzer 15-25 mal angezeigt werden sollte. Welche Konditionen realisiert werden können, kann von dem verwendeten Display und der genutzten Testform abhängen.

Erhebung der Messwerte

Wurde die für das Einsatzszenario des Eingabegerätes geeigente Testform gewählt und eine Menge von Entfernungs-Zielbreite-Kombinationen festgelegt, wird eine korrekte Erfassung der Nutzerinteraktion während Durchführung des Tests vorgenommen. Dabei sind einige Maße zu erheben, die für die spätere Bewertung notwendig sind. Eines dieser Maße ist die Bewegungszeit MT (Movement Time), also die Zeit, die ab dem Moment vergeht, ab dem der Nutzer den Zeiger in Zielrichtung in Bewegung setzt bis das Ziel ausgewählt wurde.

[singlepic id=843 w=618 h= float=]

Dabei dürfen die Reaktionszeit des Nutzers bis zum Inbewegungnetzen des Zeiger und die Verweilzeit über dem Ziel, die bei manchen Interaktionsmechanismen zum Auslösen des Auswahlevents nötig ist, nicht in der Bewegnungszeit enthalten sein. Außerdem sollten der Start- und der Endpunkt der Bewegung sowie die Zielmitte erfasst werden und eventuelle „Fehler“ (falsche Auswahlevents) wenn sich der Zeiger nicht innerhalb des Ziels befindet, dokumentiert werden. Im Rahmen der Evaluation wird der entwickelte Mechanismus zur Erfassung und Dokumentation der Messwerte für die gewählte Testform dann von einer möglichst breiten und repräsentativen[ref]Insbesondere zum gewünschten Einsatzszenario passend.[/ref] Grundgesamtheit an Testpersonen genutzt.

Anpassung der Daten

Wurden die beschriebenen Messwerte bei der Durchführung des gewählten Testdurchlaufs erhoben, kann eine Anpassung der Schwierigkeitsindizes erfolgen, um den tatsächlich erzielten Schwierigkeitsindex widerzuspiegeln. Dieser sog. „effektive Schwierigkeitsindex“ wird für jede Kondition (also Zielentfernungs-Zielbreite-Kombinationen) errechnet. Dazu ist zunächst die effektive Zielbreite We notwendig. Diese berechnet sich aus der Standardabweichnung der Entfernung zwischen Zielmitte und Auswahlposition multipliziert mit 4,133:

We = 4,133 * StADistanz zur Zielmitte

Die Berechnung des effektiven Schwierigkeitsindexes erfolgt dann auf Basis folgender Formel:

IDe = log2 ((D/We)+1) = log2 ((D+We)/We)

Ist außerdem der Start- und Endpunkt der Zeigerbewegung bekannt, errechnet man zunächst die effektive Zielentfernung De aus dem Mittelwert der Distanz zwischen Start- und Endpunkt für alle ausgewählten Ziele der jeweiligen Kondition. Anschließend lässt sich der effektive Schwierigkeitsindex IDe folgendermaßen berechnen:

IDe = log2 ((De/We)+1) = log2 ((De+We)/We)

Durch die Anpassung des Schwierigkeitsindex an die tatsächlich vom Nutzer erzielten Ergebnisse wird der lineare Zusammenhang zwischen Schwierigkeitsindex eines Ziels und der zur Auswahl des Ziels benötigten Zeit verstärkt.[ref]Soukoreff R. William, Mackenzie I. Scott (2004): Towards a Standard for Pointing Device Evaluation, Perspectives on 27 Years of Fitts‘ Law Research in HCI. International Journal of Human-Computer Studies. 61(6): S. 766.[/ref]

[singlepic id=840 w=618 h= float=]

Bewertung anhand des Durchsatzes

Der Durchsatz ist ein Maß, das die Leistungfähigkeit des Zeigegerätes im Hinblick auf die ausgewählte Testaufgabe quantifiziert. Es kombiniert sowohl die Präzision als auch die Geschwindigkeit eines Interaktionsmechanismus zu einem vergleichbaren Wert. Das Maß für die Präzision ist dabei der zuvor beschrieben effektive Schwierigkeitsindex IDe jederKondition. Das Maß für die Geschwindigkeit ist die durchschnittliche Auswahlzeit der Ziele einer Kondition tm. Der Durchsatz T (Throughput) eines Zeigegerätes mit der Maßeinheit bit ergibt sich aus folgender Summe über alle x unterschiedlichen Konditionen:

T = ∑(IDe/tm)

Das Maß T erlaubt dann einen Vergleich der Leistungsfähigkeit eines Zeigegerätes bei verschiedenen Aufgaben oder verschiedener Zeigegeräte bei derselben Aufgabe. Zusätzlich kann mittels linearer Regression anhand der Wertepaare (IDe,tm) der einzelnen Konditionen überprüft werden, ob ein linearer Zusammenhang zwischen dem effektiven Schwierigkeitsindex und der dafür benötigten Auswahlzeit besteht und das Zeigegerät sich somit gegebenenfalls konform zu Fitts‘ Law verhält.

Praktische Anwendung

Geht man nach den beschrieben Schritten vor, wird mit dem Durchsatz ein Maß gewonnen, dass einen Vergleich verschiedener Eingabegeräte erlaubt. Daher ist die Evaluation nach ISO 9241-9 eine geeignete Methode, um beispielsweise verschiedene natürliche Interaktionsmechanismen zu vergleichen.
In Kürze folgt hierzu ein weiterer Bericht zu einer durchgeführten Evaluation über die Eignung verschiedener Eingabegeräte für die Steuerung eines großen Wandbildschirms unter Einhaltung der ISO-Vorgaben. Dabei wurden die Eigenschaften von fünf Interaktionsmechanismen aus unterschiedlichen Entferungen zu einem großen Wandbildschirm untersucht. Konkret handelte es sich dabei um die Nintendo Wii Remote, die Logitech MX Air Mouse, einen Friendlyway d-sign 52 Touchscreen, einen Microsoft Kinect Sensor und ein HTC Magic Smartphone.

[nggtags gallery=Interaktionsmechanismus+Evaluation]

Vergleich von Definitionen für Natural User Interfaces

Natürliche Benutzerschnittstellen (engl. „Natural User Interfaces“, kurz NUI) stellen nach der Ära der Kommandozeilenbedienung und der grafischen Benutzeroberflächen eine neue Generation der Mensch-Computer Interaktion (engl. „Human-Computer Interaction“, kurz HCI) dar

Die erste Generation der HCI waren Command-Line Interfaces (CLI). Auf einer monochromen Darstellungsfläche konnte der Benutzer durch eine vorgegebene Menge von Befehlen Manipulationen am System oder den Dateien, die das System enthält, vornehmen. Dabei erforderte diese Form der Interaktion eine strikte Einhaltung der Syntax eines Befehls, sodass der Nutzer nur mit dem Wissen über die verfügbaren Befehle und unter erhöhter Konzentration zur Einhaltung der syntaktischen Vorgaben Manipulationen vornehmen konnte. Die Eingabe erfolgte ausschließlich über eine Tastatur.

[singlepic id=568 w=320 h=240 float=none]

Die zweite Generation der Benutzerschnittstellen sind die heute weit verbreiteten grafischen Benutzerschnittstellen (GUI). Neben einer größeren Farbvielfalt sorgten besonders einge Metaphern in der Gestaltung der Darstellung dafür, dass die Bedienung eines Computers deutlich vereinfacht und somit für eine breitere Nutzergruppe zugänglich wurde. So haben die Desktopmetapher, welche die Oberfläche, auf der der Nutzer interagiert einem Schreibtisch nachempfindet und das WIMP-Prinzip, dass die Zusammensetzung der grafischen Komponenten in Fenster (engl. Windows), Symbole (engl. Icons), Menüs (engl. Menus)  und Zeiger bzw. Zeigegeräte (engl. Pointer bzw. Pointing Device) einführte bis heute Bestand. Häufig werden Maus und Tastatur zur Interaktion genutzt.

[singlepic id=566 w=320 h=240 float=none]

Die dritte Generation der Benutzerschnittstelle, die erst seit wenigen Jahren unter diesem Begriff eine eigene Entwicklungsrichtung der Gestaltung der HCI darstellt, sind Natural User Interfaces (NUI). Die Gestaltung der Darstellung und der Interaktion solerfolgt hier auf natürliche und intuitive Weise, indem auf Fähigkeiten zurückgreifen wird, die ein Nutzer im Laufe seines Lebens erworben hat. Die Interaktionsmechnismen sind vielfältig und verfolgen unterschiedliche Ansätze, die von Touchscreens über eine Steuerung durch spezielle Zeigegeräte wie der WiiRemote bis hin zu einer Gestensteuerung mit dem gesamten Körper reichen.

[singlepic id=303 w=320 h=240 float=none]

Anders als bei den beiden schon seit mehreren Jahrzehnten etablierten Formen der HCI gibt es jedoch wegen der dynamischen Entwicklung im Forschungsfeld NUI innerhalb der vergangenen beiden Jahre noch keine einheitliche, allgemein anerkannte Definition. Nachfolgend werden einige Definitionen vorgestellt, deren enthaltene Ansichten beschrieben und miteineander verglichen werden, um das derzeitige vorherrschende Verständnis von NUI in Wissenschaft und Praxis aufzuzeigen.

Überblick über existierende Definition

Einige der bereits existirenden Definition beziehen sich auf unteschiedliche Konzepte und Theorien und gewichten gemeinsame Aspekte verschieden. Folgende Beispiele verdeutlichen diesen Sachverhalt:

Blake 2010:

A natural user interface is a user interface designed to reuse existing skills for interacting directly with content. [Blake 2010, S. 2][ref]Blake, Joshua (2010): The Natural User Interface Revolution. In: Natural User Interfaces in .Net, 1. Auflage, Greenwich, USA: Manning Publications.[/ref]

Diese Definition von Joshua Blake enthält folgende Aspekte:

  1. Ein NUI ist „designed“. Es bedarf also einer gezielten Gestaltung eines Interaktionmechnismus durch den Entwickler, sodass die Form der Interaktion sowohl für den Nutzer, als auch für den Inhalt und den Kontext geeignet ist.
  2. Ein NUI baut auf dem „reuse of existing skills“ auf. Es ermöglicht also die Wiederverwendung von Fähigkeiten, die der Nutzer im Laufe seines Lebens (z.B. bei der zwischenmenschlichen Kommunikation) erworben hat und die es ihm erlauben ein NUI ohne vorherige Anleitung zu nutzen.
  3. Ein NUI erlaubt „interacting directly with the content“. Der Nutzer muss also die Möglichkeit haben, Inhalte direkt durch sein Handeln zu manipulieren.

Bollhoefer et al. 2009:

Ein Natural User Interface (NUI) beschreibt ein Interface, welches unmittelbar durch einen oder mehrere Sinne des Benutzers bedient wird. [Bollhoefer et al. 2009, S.6][ref]Bollhoefer, Klaas Wilhelm; Meyer, Kerstin & Witzsche, Rosina (2009): White Paper Microsoft Surface und das Natural User Interface ( NUI ). , Berlin.[/ref]

Bei dieser Definition eines NUI stellen Bollhoefer et al. folgende Aspekte heraus:

  1. Die unmittelbare, direkte Interaktion und damit auch eine direkte Manipulation.
  2. Die Nutzung eines oder mehrerer Sinne des Benutzers.

Monson-Haefel 2010:

A Natural User Interface is a human-computer interface that models interactions between people and the natural environment. [Monson-Haefel 2010][ref]Monson-Haefel, Richard (2010): NUI Defined. URL: http://theclevermonkey.blogspot.com/2010/01/nui-defined.html. Letzter Abruf: 12.07.2011.[/ref]

Richard Monson-Haefel stellt also folgende Aspekte heraus:

  1. Ein NUI ist eine besondere Ausprägung von HCI.
  2. Ein NUI bildet die Interaktion eines Nutzers mit seiner natürlichen Umgebung (Wasser, Bäume, etc.), nicht jedoch mit seiner künstlichen Umgebung (Autos, Computer) ab.

Vergleich der Definitionen

Autor Blake 2010
Bollhoefer et al. 2009
Monson-Haefel 2010
Gemeinsamkeiten direkte Manipulation
Unterschiede
  • designed für Nutzer, Inhalt und Kontext
  • Nutzung von Fähigkeiten zur Interaktion
  • Nutzung der Sinne zur Interaktion
  • Abbildung des natürlichen Nuterverhaltens zur Interaktion

Aus der Tabelle geht hervor, dass lediglich die direkte Manipulation von Inhalten durch die Benutzerinteraktion als gemeinsames Merkmal aller drei Definitionen auftritt. Außerdem beantworten alle Definitionen die Frage, womit aus Sicht des Nutzers interagiert wird (Fähigkeiten, Sinne, natürliches Verhalten), gehen jedoch auf keine konkrete Ausprägung von dieser Interaktion, wie beispielsweise Multi-Touch Interfaces (z.B. MS Surface[ref] Weitere Informationen zum Microsoft Surface sind erhältlich unter http://www.microsoft.com/surface/en/us/default.aspx [/ref], Apple iPhone[ref]Weitere Informationen zum Apple iPhone sind erhältlich unter http://www.apple.com/de/iphone/[/ref], etc.), Gestensteuerung (MS Kinect[ref]Weitere Informationen zu Microsoft Kinect sind erhältlich unter http://www.xbox.com/de-DE/Kinect[/ref], etc.), gerätevermittelte Interaktion (Nintendo WiiRemote[ref]Weitere Informationen zur Nintendo WiiRemote sind erhältlich unter http://www.nintendo.de/NOE/de_DE/systems/technische_details_1072.html[/ref], Air Mouse Konzepte[ref]Ein Beispiel hierfür ist die Logitech MX Air[/ref], etc.) ein.

Fazit

Es existieren bereits einige Definitionen von „Natural User Interface“, die zum Teil Überschneidungen zeigen, zum Teil jedoch auch sehr unterschiedlich Ansätze verfolgen. Daher besteht im Rahmen des wissenschaftlichen Diskurses mit der Materie die Notwendigkeit, eine Definition abzuleiten, die sowohl die Aspekte bereits existierender Definitionen aufgreift, als auch für zukünftige Entwicklungen im Umfeld der NUI ihre Gültigkeit behält.

Technik State-of-the-Art: Technische Fortschritte

[toc]

Im Rahmen des EU-Projekts SI-Screen (Social Interaction Screen), an dem wir als einer von zehn Projektpartnern teilnehmen, wird binnen der nächsten drei Jahre ein Gerät entwickelt, das u.a. Älteren einen einfachen Zugang zu sozialen Netzwerken wie z.B. Facebook ermöglicht. Im derzeitigen Stadium untersuchen wir den Markt hinsichtlich relevanter Trends, Konzepte, Technologien und Geräte, die für die Entwicklung eines Prototypen-Konzepts inspirierend sein könnten.

Dieser Teil unserer kleinen Mini-Serie beschäftigt sich mit Bereichen, in deren derzeit große Fortschritte erzielt werden. Insbesondere mit Hinblick auf die 3-jährige Projektlaufzeit könnten die Ergebnisse in diesen Feldern neue Möglichkeiten bei der Konzeptfindung eröffnen.

Die meisten der hier zusammengetragenen Bildern stammen aus entsprechenden Artikeln auf der Internetplattform engadget.com. Des Weiteren wurden Bilder von wired.com, gizmodo.com, it-tech.org, oopsconcept.co.cc und concepte.info übernommen.

Performance

Natürlich ist eine verbesserte Leistungsfähigkeit in allen Bereichen der Technologie zu erwarten. Bei ausreichender Verbesserung der Geschwindigkeit einer Technologie ergibt sich beispielsweise häufig ein vorher undenkbar Echtzeit-Einsatz, was wiederum eine neue Dimension möglicher Anwendungsbereiche eröffnet.
[nggtags gallery=Performance+Technik+Fortschritt]

Displays

[nggtags gallery=Display+Technik+Fortschritt]

Konnektivität

Durch ein gutes Zusammenspiel von verschiedenen Geräten an unterschiedlichen Orten lässt sich eine neuer Grad an Freiheit erzielen.
[nggtags gallery=Konnektivität+Technik+Fortschritt]

Robotik

Fortschritte im Umfeld der Robotik werden in (naher) Zukunft einen ersten produktiven Einsatz zur Unterstützung des Menschen erlauben. Im Rahmen des Projekts birgt eine Erleichterung alltäglicher Aufgaben natürlich ein großes Potential für Ältere.
[nggtags gallery=Robotik+Technik+Fortschritt]

Augmented Reality

Augmented Reality bezeichnet die künstliche Einbettung audiovisueller Inhalte in die reale Welt. Beispielsweise lassen sich in die Echtzeitanzeige des Kamerabilds eines mobilen Geräts Zusatzinformationen einblenden (z.B. zur Routenplanung oder als Stadtführung).
[nggtags gallery=Augmented_Reality+Technik+Fortschritt]

Danksagung

Dieser Beitrag steht im Zusammenhang mit dem Forschungsprojekt SI-Screen, das mit Mitteln des Bundesministeriums für Bildung, und Forschung (Förderkennzeichen 16SV3982), sowie durch das Europäische AAL Joint Programm (AAL-2009-2-088) gefördert wird. Das Vorhaben wird von der innovationsmanufaktur GmbH (ehemals SportKreativWerkstatt GmbH) koordiniert und gemeinsam mit der Universität der Bundeswehr München realisiert. Weiterführende Informationen sind verfügbar unter http://www.si-screen.eu.

Technik State-of-the-Art: Neuartige Eingabearten

Im Rahmen des EU-Projekts SI-Screen (Social Interaction Screen), an dem wir als einer von zehn Projektpartnern teilnehmen, wird binnen der nächsten drei Jahre ein Gerät entwickelt, das u.a. Älteren einen einfachen Zugang zu sozialen Netzwerken wie z.B. Facebook ermöglicht. Im derzeitigen Stadium untersuchen wir den Markt hinsichtlich relevanter Trends, Konzepte, Technologien und Geräte, die für die Entwicklung eines Prototypen-Konzepts inspirierend sein könnten.

Dieser Teil unserer kleinen Mini-Serie beschäftigt sich mit neuartigen und exotischen Eingabe- und Steuerungsmethoden.

Die meisten der hier zusammengetragenen Bildern stammen aus entsprechenden Artikeln auf der Internetplattform engadget.com. Des Weiteren wurden Bilder von wired.comgizmodo.comit-tech.orgoopsconcept.co.cc und concepte.info übernommen.

[nggtags gallery=Eingabe+Technik+Fortschritt]

Danksagung

Dieser Beitrag steht im Zusammenhang mit dem Forschungsprojekt SI-Screen, das mit Mitteln des Bundesministeriums für Bildung, und Forschung (Förderkennzeichen 16SV3982), sowie durch das Europäische AAL Joint Programm (AAL-2009-2-088) gefördert wird. Das Vorhaben wird von der innovationsmanufaktur GmbH (ehemals SportKreativWerkstatt GmbH) koordiniert und gemeinsam mit der Universität der Bundeswehr München realisiert. Weiterführende Informationen sind verfügbar unter http://www.si-screen.eu.

Technik State-of-the-Art: Alternative Verwendungsmöglichkeiten

[toc]

Im Rahmen des EU-Projekts SI-Screen / elisa, an dem wir als einer von zehn Projektpartnern teilnehmen, wird binnen der nächsten drei Jahre ein Gerät entwickelt, das u.a. Älteren einen einfachen Zugang zu sozialen Netzwerken wie z.B. Facebook ermöglichen soll. Im derzeitigen Stadium untersuchen wir den Markt hinsichtlich relevanter Trends, Konzepte, Technologien und Geräten, die für die Entwicklung eines Prototyp-Konzepts inspirierend sein könnten.

Dieser Teil unserer kleinen Mini-Serie beschäftigt mit Methoden, mit denen man bestehende Technologien in einem grundsätzlich anderen Kontext nutzen kann.

Die meisten der hier zusammengetragenen Bilder stammen aus entsprechenden Artikeln auf der Internetplattform engadget.com. Des Weiteren wurden Bilder von wired.comgizmodo.comit-tech.orgoopsconcept.co.cc und concepte.info übernommen.

Skinning

Durch einfaches Ändern der Optik eines Geräts lässt sich auf simple Weise eine unterschiedliche Wahrnehmung des Geräts erreichen, das zu einer neuartigen Verwendung einladen kann.
[nggtags gallery=Skinning+Technik+Fortschritt]

Erweiterungen

Vorhandene Geräte können durch Erweiterungen neue Anwendungsfälle zulassen. Erweiterungen müssen aber nicht zwangsweise entsprechende Peripheriegeräte, o.ä. sein; z.B. kann auch ein einfacher Ständer ein Tablet zu einem digitalen Rezeptbuch in der Küche machen.
[nggtags gallery=Erweiterung+Technik+Fortschritt]

Integrationen

Unter Integration wird hier der Gebrauch eines Geräts als Teil eines anderen (größeren) Systems verstanden. Logisch gesehen entspricht dieses Konzept einer Erweiterung, lediglich die Wahrnehmung unterscheidet sich hier.
[nggtags gallery=Integration+Technik+Fortschritt]

Kombinationen

Durch Kombination verschiedener Geräte lassen sich zum Teil grundlegend neue Anwendungsfelder erschließen.
[nggtags gallery=Kombination+Technik+Fortschritt]

Danksagung

Dieser Beitrag steht im Zusammenhang mit dem Forschungsprojekt SI-Screen, das mit Mitteln des Bundesministeriums für Bildung, und Forschung (Förderkennzeichen 16SV3982), sowie durch das Europäische AAL Joint Programme (AAL-2009-2-088) gefördert wird. Das Vorhaben wird von einem Zusammenschluss aus zehn internationalen Partnern durchgeführt und von der Innovationsmanufaktur GmbH(ehemals SportKreativWerkstatt GmbH) koordiniert. Die Koordination der Produkt- und Systementwicklung sowie die Integration von Social Software obliegt der Universität der Bundeswehr München. Weiterführende Informationen zu SI-Screen sind verfügbar unter http://www.si-screen.eu.