SI-Screen: elderly interaction & service assistant

[toc]Das AAL-Forschungsprojekt Social Interaction Screen hat das Ziel die soziale Interaktion älterer Menschen mit ihrer Familie, Freunden und Bekannten aus der näheren Umgebung zu erleichtern und zu mehr realer sozialer Aktivität anzuregen. Vor diesem Hintergrund entsteht das nutzerorientierte soziale Interaktionswerkzeug elisa mit einer innovativen Benutzerschnittstelle für die Interaktion mittels dem Social Web. In diesem Beitrag stellen wir die Vision und die zentralen Konzepte von SI-Screen vor.

Ausgangssituation

Aktuell finden in ganz Europa im Rahmen des AAL Joint Programme umfangreiche Aktivitäten statt, um die Lebensqualität einer zunehmend älter werdenden Gesellschaft durch die Entwicklung neuer Technologien nachhaltig zu sichern. Das Ziel dieser Bemühungen besteht darin, neue Dienstleistungen und Technologien und insbesondere IKT zu entwickeln, um älteren Menschen so lange wie möglich ein selbstbestimmtes, unabhängiges und sozial integriertes Leben in ihren eigenen vier Wänden zu ermöglichen.

Das Ziel des AAL-Projektes SI-Screen ist die soziale Interaktion älterer Menschen mit ihrer Umwelt zu vereinfachen und zu unterstützen. Vor diesem Hintergrund arbeiten zehn europäische Partner an elisa, einem Tablet-Computer dessen Benutzerschnittstelle ganzheitlich auf die Bedürfnisse von Senioren ab Rentenalter ausgelegt ist. Die Interaktion und Kommunikation mit Familie und Freunden erfolgt unter Zuhilfenahme des Social Webs, mit dem Anliegen die soziale Bindung von Senioren zu fördern.

SI-Screen Vision

Die Benutzerschnittstelle von Desktop-Rechnern, Smartphones, Tablets etc. wurde vorwiegend für Personen konzipiert, die mehrere Stunden am Tag mit diesen Geräten arbeiten und den unterschiedlichsten Tätigkeiten nachgehen. Das Spektrum der Anwendungsmöglichkeiten reicht vom Stöbern im Internet über Dokumentenverarbeitung bis hin zur Anwendungsentwicklung.

[singlepic id=1156 w=618 float=center]

Der Nachteil für ältere Menschen besteht darin, dass sie durch die Vielzahl an Möglichkeiten überfordert sein können, insbesondere wenn sie zuvor keine oder nur wenig Erfahrung im Umgang mit Computern besitzen. Bei ihrer gezielten Suche nach Information oder Unterstützungsfunktion können sie beispielsweise die Orientierung verlieren oder die Angst aufkommen versehentlich einen „falschen“ Knopf zu drücken. Unsere Umfragen in Deutschland und Spanien haben ergeben, dass ältere Menschen vorwiegend ein Gerät benötigen, dass sie vorwiegend selbständig, ohne Anleitung und externe Hilfe, bedienen können.

elisa Tablet

Um dieser Anforderung gerecht zu werden gehen wir über die klassische Entwicklung einer Software-Anwendung hinaus. Mit elisa realisieren wir ein Tablet, dessen Möglichkeiten von älteren Menschen begreifbar sind und über dessen Design das Gerät mit einem eindeutigen Zweck verbunden wird. Dabei achten wir insbesondere auf eine moderne ästhetische Formgebung bei der Tablet Hardware, die auch für jüngere Generationen ansprechend ist und nicht als stigmatisierende Betonung des Alters unserer Zielgruppe wahrgenommen wird.

[singlepic id=1166 w=618 float=center]

[nggtags Gallery=SI-Screen+Tablet+Accessory]

Elisa unterscheidet sich sowohl im Endgerät als auch im Aufbau der grafischen Oberfläche von Tablets, die aktuell auf dem Markt erhältlich sind. Entgegen dem Trend eine möglichst dünne Display-Fassung aus Glas und Aluminum anzubieten, sehen wir einen breiten Rahmen mit einem Bezug aus Leder vor. Ein breiterer Rahmen verfügt über ausreichend Platz für die Ablage der Hände, ohne dass die Finger die Touch-Oberfläche berühren und versehentlich eine Funktion auslösen können. Ein integrierter Standfuß und Tragegriff sorgen für Stabilität sowohl während der Bedienung am Tisch, als auch für einen sicheren Transport bei der Mitnahme des Tablets.

elisa User Interface

Mit dem elisa UI entsteht eine klar strukturierte grafische Benutzerschnittstelle, die eine nachvollziehbare Navigation und einen konsistente Darstellung und Ablauf für jeden Funktionsbereich vorsieht. Für den ersten elisa Prototypen wurden insgesamt zwei Layout-Varianten konzipiert – das Inhalts-zentrische und das Personen-zentrische Layout.

Beim Inhalts-zentrischen Layout liegt die Betonung auf dem Zugang zu aufbereiteten Inhalten aus dem Web, ausgewählt nach persönlichen Präferenzen. Die in Magazin-Stil dargestellten Inhalte sollen dazu anregen auf lokale Interessengruppen und deren Aktivitäten aufmerksam zu werden, daran aktiv teilzunehmen und Gleichgesinnte dazu einzuladen.

Bei der Personen-zentrischen Gestaltung der elisa UI steht hingegen die soziale Interaktion mit Familie und Freunden im Vordergrund. Mit dem Ziel über aktuelle Geschehnisse von Vertrauten selbst bei großer örtlicher Entfernung auf dem Laufenden zu bleiben und die Möglichkeit zu bieten Personen mit gleichen Interessen zu finden oder verlorene Kontakte wieder herzustellen. Durch die Integration von bestehenden sozialen Netzwerken kann eine Brücke zur jüngeren Generation entstehen.

[singlepic id=1155 w=618 float=center]

[nggtags Gallery=SI-Screen+elisa+layout+content-centric]

[nggtags Gallery=SI-Screen+elisa+layout+person-centric]

Bei der elisa UI nehmen wir bewusst Abstand von der gegenwärtig dominierenden App-Metapher von Smartphones und Tablets. Unseren Beobachtungen zufolge werden Apps als inkonsistent in ihrem Funktionsumfang und grafischer Gestaltung wahrgenommen. Darüber hinaus setzen die verfügbaren Produkte voraus, dass der Endanwender administrative Aufgaben, wie z. B. die Installation und Konfiguration, selbständig übernehmen kann. Eine weitere Hürde für ältere Menschen ist oftmals die wiederholte Registrierung von Benutzerkonten für jede (Web-)Anwendung, bevor sie in den vollständigen Genuss der jeweiligen Funktionalität kommen.

[singlepic id=1184 w=618 float=center]

In SI-Screen steht der Nutzen und eine freudvolle Bedienung durch ältere Menschen an erster Stelle. Vor diesem Hintergrund haben wir für elisa Konzepte erarbeitet, um die unterschiedlichen Funktionen von Webdiensten über eine einheitliche Benutzerschnittstelle zur Verfügung zu stellen und die notwendigen administrativen Aufgaben zu reduzieren oder zumindest auf ein Person des eigenen Vertrauens übertragen zu können. Idealerweise können ältere Menschen die Vorteile des Social Webs nutzen, ohne selbst eine Mitgliedschaft beim jeweiligen Dienst beantragen zu müssen. Die Einmalanmeldung und Konsolidierung der Inhalte und Funktionalität des Social Webs verwirklichen wir über den sogenannten Social Software Integration Layer (SSIL).

Social Software Integration Layer

Der SSIL ist eine Server-basierte Software-Lösung, die elisa unterstützt mehrere Dienste des Social Webs über eine einheitliche Schnittstelle anzubinden. Zu diesem Zweck verdichtet der SSIL Profil-Informationen, Activity Streams (Status Updates) und Content Streams (Kommentare, Empfehlungen, Photos) von bestehenden SNS[ref]In elisa werden bspw. Facebook und Google+ als SNS unterstützt.[/ref], Social Content Sharing Plattformen[ref]In elisa werden bspw. Flickr und Picasa als Social Content Sharing Plattformen unterstützt.[/ref], Gruppenkalender[ref]In elisa wird bspw. Google Calender als Gruppenkalender unterstützt.[/ref] sowie Web Feeds[ref]In elisa werden bspw. Web Feeds von Artikel- oder Event-Webseiten bezogen.[/ref], Mailing-Listen und persönliche Blogs. Der SSIL verfügt über keine Benutzerschnittstelle, sondern ermöglicht elisa den Bi-Direktionalen Zugriff auf das Social Web.

[singlepic id=1185 w=618 float=center]

CommunityMashup

Für die Realisierung des SSIL setzen wir auf CommunityMashup, eine Personen-zentrische Mashup-Lösung die an der Forschungsgruppe Kooperationssysteme realisiert wird. CommunityMashup ist eine Service-orientierte Middleware, welche für jeden Endanwender Inhalte aus den verschiedenen SNS bezieht, zu einem einheitlichen Datenstrom (Awareness-Stream) verdichtet und anschliessend den elisa Tablets über eine REST API bereitstellt.

Um etwaige Zugangsbarrieren für technisch unerfahrene Senioren zu senken, wurde CommunityMashup um die Möglichkeit erweitert die Konfiguration von der Inhaltsbereitstellung zu trennen. Auf diese Weise erhalten ältere Menschen den Zugang zum Social Web, während die bereitstellenden Webdienste und deren Konfiguration vom Endanwender verborgen bleiben.

[singlepic id=1169 w=618 float=center]

Profile Admin UI

Die Konfiguration der Dienstzugriffe erfolgt über die Profile Admin UI. Mit Hilfe der Profile Admin UI können Vertrauenspersonen mittels Fernzugriff die administrativen Aufgaben für den Endanwender übernehmen. Konkret können Dritte im Bedarfsfall über eine Administrations-Webseite (temporär) dazu berechtigt werden, Benutzerzugänge zu bestehenden oder neuen E-Mail-Konten bzw. Web-Diensten im SSIL zu hinterlegen.

Auf diese Weise können ältere Menschen über ihre Einmalanmeldung auf ihrem elisa Tablet Zugriff auf die unterschiedlichen Dienste erlangen, ohne selbst einen Registrierungsvorgang durchführen zu müssen. Versierte Nutzer können weiterhin die Konfiguration von elisa übernehmen, sind aber ungezwungen und können zumindest einen Teil davon abgeben.

Service Integration

Unabhängig von der Administration können Familienmitglieder und Freunde mit Zugang zu sozialen Netzwerken einem elisa Nutzer Zugriff auf die eigenen Aktivitäten und publizierten Inhalte, wie Fotos oder geteilte Informationen, gewähren. Für Plattformen mit API-Key- oder OAuth-Unterstützung, wie z. B. Facebook oder Google+, ist für den Zugriff von elisa auf diesen Awareness-Stream keine Mitgliedschaft notwendig. Elisa ist bei ausgewählten Webdiensten als Anwendung registriert und mit Erlaubnis eines Mitglieds können Inhalte mit dem jeweiligen elisa Anwender geteilt werden.

Die Integration von Web-Diensten mittels SSIL geht über die Unterstützung von sozialen Netzwerken hinaus. Internetauftritte von lokalen Veranstaltern wie Theater, Museen, Kirchen Vereine oder Verbände, sowie Veröffentlichungen von Zeitungen oder Nachrichtenagenturen können beispielsweise über Web Feeds oder vergleichbare Datenquellen angebunden werden. Alternative Publikationsformen wie Newsletter werden in Zukunft über CommunityMashup ebenfalls unterstützt und können anschliessend abonniert werden.

Zusammenfassung und Ausblick

Das Ziel von SI-Screen ist die Realisierung eines Tablet Computers, der Inhalte und Funktionen über eine einheitliche und freudvolle Benutzerschnittstelle für ältere Menschen bereitstellt und zu sozialer Kommunikation und Aktivitäten im realen Leben anregt. Durch Übertragung der administrativen Vorgänge an Vertrauenspersonen können Senioren in die Vorzüge des Sozialen Webs gelangen, selbst wenn sie keine oder wenig Erfahrung im Umgang mit Computern haben.

Der erste Prototyp, eine klick-bare Demo-Anwendung der elisa UI, wurde im Januar 2012 fertig gestellt. In März und April 2012 wurden Senioren in Spanien und Deutschland zu den Hardware Designs und den beiden Layout-Varianten der grafischen Oberfläche befragt. Das Feedback fliesst in das gegenwärtige Design und Entwicklung des zweiten Prototypen ein. Über einen ISO 9241-9 Ergonomie-Test wird im Mai die Gebrauchstauglichkeit potentieller Tablet Computern evaluiert, deren Komponenten im zweiten Prototypen verarbeitet werden.

Danksagung

Dieser Beitrag steht im Zusammenhang mit dem Forschungsprojekt SI-Screen, das mit Mitteln des Bundesministeriums für Bildung, und Forschung (Förderkennzeichen 16SV3982), sowie durch das Europäische AAL Joint Programme (AAL-2009-2-088) gefördert wird. Das Vorhaben wird von einem Zusammenschluss aus zehn internationalen Partnern durchgeführt und von der Innovationsmanufaktur GmbH (ehemals SportKreativWerkstatt GmbH) koordiniert. Das Hardware-Design und Prototyping des elisa Produkts wird von Porsche Design Studio entwickelt. Die visuelle Gestaltung des Artikelbildes und der elisa UI erfolgt durch helios.bz. Die Koordination der Produkt- und Systementwicklung sowie die Integration von Social Software obliegt der Universität der Bundeswehr München. Weiterführende Informationen zu SI-Screen sind verfügbar unter http://www.si-screen.eu.

Out-of-Home Displays: Interaktive Großbildschirme im öffentlichen Raum

[toc]Out-of-Home Displays werden an unterschiedlichsten öffentlichen Orten immer häufiger für Produkt- und Unternehmenswerbung verwenden. Gleichzeitig steigt das Interesse an Gestensteuerung und anderen modernen Interaktionsmöglichkeiten mit Großbildschirmen durch den Erfolg von Spielekonsolen wie beispielsweise Microsoft Kinect stetig an. Vor diesem Hintergrund liefert der folgende Beitrag zunächst eine kurze Einführung in den Themenbereich „Out-of-Home Displays“ sowie die damit verbundenen Begriffe „Ubiquitous Computing“ und „Pervasive Advertising“. Anschließend werden mögliche Klassifikationskriterien zur Strukturierung  von Out-of-Home Displays erarbeitet und anhand von Beispielen vorgestellt. Am Ende des Artikels erfolgt ein kurzer Ausblick über Nutzungsparadigmen von Out-of-Home Displays, die sich auf die Verbesserung der Informationsversorgung innerhalb von Unternehmen übertragen lassen.

httpvh://www.youtube.com/watch?v=a6cNdhOKwi0

Motivation

Interaktive Großbildschirme und andere Display-Technologien sind mittlerweile allgegenwärtig und werden ständig weiterentwickelt [ref]STALDER, URSULA & BOENIGK, MICHAEL (2009): Out-of-Home-Displays: Digitale Markenkommunikation im öffentlichen Raum. Medien Journal – Zeitschrift für Kommunikationskultur, 1/2009 (33), S. 33-51.[/ref]. Geeignete Nutzungskonzepte mit informationellem Mehrwert für die unternehmensinterne Zusammenarbeit fehlen jedoch, obwohl sich die bereits erfolgreich angewendeten Methoden im Bereich Pervasive Advertising z.T. durchaus auf den Unternehmenskontext übertragen werden könnten. Um dies in einem ersten Schritt zu ermöglichen, werden im vorliegenden Artikel verschiedene Konzepte von Out-of-Home Displays vorgestellt und klassifiziert.

Begriffsdefinitionen

Um für die spätere Beschreibung verschiedener Anwendungen eine ausreichende Begriffsbasis zu schaffen, werden im folgenden Kapitel zunächst die Begriffe „Out-of-Home-Displays“ sowie die damit verbundenen Wissenschaftsbereiche  „Ubiquitous Computing“ und „Pervasive Advertising“ kurz vorgestellt.

Out-of-Home Displays

Der Begriff “Out-of-Home-Displays”, resp. “Out-of-Home-Media” stellt eine Erweiterung und Weiterentwicklung des vor allem im angelsächsischen Raums verbreiteten Begriffs der “Outdoor Media” dar.(Stalder, Ursula)[ref]STALDER, URSULA (2008): Out-of-Home-Displays: Kommunikation im Spannungsfeld von narrativem, medialem und öffentlichen Raum. URL: http://blog.hslu.ch/outofhomedisplays/out-of-home-displays/, zuletzt abgerufen am: 09.10.2011.[/ref]

Out-of-Home-Displays bezeichnen damit alle digitalen Kommunikationsträger, die außerhalb des eigenen Hauses verwendet werden. Sie beruhen auf gemeinsamen technischen Grundlagen und haben gemeinsame medienspezifische Eigenschaften, z.B. Technologie, Informationsgehalt oder Eingabemöglichkeiten, die unterschiedlich genutzt werden. Es existieren unterschiedliche Anwendungsformen für Out-of-Home Displays. Die meisten Anwendungsgebiete sind vergleichbar mit konventionellen Werbe-, Unterhaltungs- und Informationssystemen, wobei sich vier Bereiche herauskristallisieren:

  • Out-of Home-Medien: Infoterminals, Kiosksysteme, etc.
  • Bild-Medien: TV, Videoclips, Film, Podcasts, etc.
  • Display-Medien: TV, PC, Web, MP3-Player, etc.
  • Netzwerk-Medien: Websites, Management-Informationssystemen, etc.

Diese unterschiedlichen Anwendungsgebiete lassen eine Kategorisierung nach verschiedenen konkreten Ausprägungen zu. Ihr Kontext als eigenständige Mediengruppe im medialen, sozialen und räumlichen Umfeld sind dabei die maßgebende Eigenschaft [ref]STALDER, URSULA (2008): Out-of-Home-Displays: Kommunikation im Spannungsfeld von narrativem, medialem und öffentlichen Raum. URL: http://blog.hslu.ch/outofhomedisplays/out-of-home-displays/, zuletzt abgerufen am: 09.10.2011.[/ref].

Ubiquitous Computing

Der Begriff des „Ubiquitous Computing“[ref]Gelegentlich auch als „Pervasive Computing“ bezeichnet.[/ref] beschreibt die allgegenwärtige Informationsverarbeitung, die Datenzugriffsmöglichkeit und die Vernetzung des Alltages mit „intelligenten“ Maschinen und Geräten. Interaktivität, Automatisierung und Ubiquität sind die Eigenschaften, die für dieses Prinzip stehen und im Rahmen von E-Commerce-Szenarien und webbasierten Geschäftsprozessen nutzbar gemacht werden können [ref]MATTERN, FRIEDEMANN (2007): Pervasive Computing. asut Bulletin, /2007 (4), S. 33ff.[/ref]. Das scheinbare Verschwinden der Technologie ist die mitunter wichtigste Eigenschaft:

The most profound technologies are those that disappear. They weave themselves into the fabric of everyday life until they are indistinguishable from it.(Weiser, Mark)[ref] WEISER, MARK (2002): Pervasive Computing. Scientific American, /2002.[/ref]

Für dessen Verwirklichung werden drei Teilen benötigt: günstige und leistungsstarke Computer, Software für ubiquitäre Anwendungen und ein Netzwerk, das alles miteinander verbindet. Anhand dieser aufgezählten Punkte fügt sich Pervasive Computing „unsichtbar“ in die Umwelt ein und verändert das Leben der Gesellschaft [ref] WEISER, MARK (2002): Pervasive Computing. Scientific American, 2002.[/ref]. Neue Technologien wie Sensoren, Netzwerke, Verarbeitungs- und Speichereinheiten ermöglichen die drei Kernprinzipen: Automation, Interactivity und Ubiquity [ref]MÜLLER, JÖRG; ALT, FLORIAN & MICHELIS, DANIEL (2011): Pervasive Advertising. 1. Aufl., . Springer London.[/ref].

Pervasive Advertising

Pervasive Advertising ist eine Zusammenführung der Fachrichtungen Pervasive Computing und Advertising. Advertising beschäftigt sich mit jeglicher Entwicklung von Werbung, um bei potentiellen Kunden Informationen zu vermitteln, Emotionen zu wecken und Reaktionen auszulösen. Neue Erkenntnisse aus der Marktforschung[ref]FLORACK, ARND (2009): Marktforschung – Einführung in die Psychologie der Werbung. URL: http://www.werbepsychologie-online.de/html/marktforschung.html, zuletzt abgerufen am: 10.10.2011.[/ref] argumentieren für das Einbinden von neuen effektiveren und insbesondere ubiquitären Technologien in die Werbung. Aus der Verbindung der beiden Fachrichtungen Advertising und Pervasive (Ubiquitous) Computing geht Pervasive Advertising hervor. Daraus ergibt sich die Möglichkeit, die bestehende Art der Werbung zu verändern. Besonders Personalisierung und das Kreieren eines positiven Verkaufserlebnisses stehen im Vordergrund.

„Pervasive advertising is the use of pervasive computing technologies for advertising purposes.”(Müller et al.)[ref]MÜLLER, JÖRG; ALT, FLORIAN & MICHELIS, DANIEL (2011): Pervasive Advertising. 1. Aufl., . Springer London.[/ref]

Durch die Verbindung mit Ubiquitous Computing bietet Pervasive Advertising im Vergleich zu traditionellen Werbemitteln, wie Plakatwänden oder Litfaßsäulen, fortgeschrittene Darstellungsmöglichkeiten. Pervasive Advertising beschäftigt sich u.a. mit:

  • Symmetric Communication: Das Abgeben der Bestimmungsrechte der Werbemittelbetreiber in die Hände der Nutzer; der Kunde erhält bei der Auswahl der Werbung ein Eintscheidungsrecht.[ref]WAART, PETER VAN & MULDER, INGRID (2009): Meaningful advertising: Pervasive Advertis-ing in the Experience Economy. In: Workshop Pervasive Advertising. Lübeck.[/ref]
  • The Long Tail: Auch Kleinanbietern ist es möglich, durch geringen Einsatz eine effektive und individualisierte Werbekampagne zu starten.[ref]ANDERSON, CHRIS (2006): The Long Tail: Why the Future of Business is Selling Less of More. Hyperion.[/ref]
  • Experiences: Neugier und das Interesse von Personen an neuen, unbekannten Systemen; Die visuellen Eindrücke, das Gefühlte und das daraus Reflektierte sind die drei Ebenen, die Pervasive Advertising anspricht.[ref]NORMAN, DONALD (2003): Emotional Design, Why We Love (or Hate) Everyday Things. Basic Books.[/ref]
  • Personalization and Context Adaptivity: Speichern von Vorlieben und Verhalten von Zielgruppen oder -personen, um den Kontext, in dem eine Werbung steht, besser zu erfassen und für die Darstellung der Werbung berücksichtigen zu können.[ref]MÜLLER, JÖRG; ALT, FLORIAN & MICHELIS, DANIEL (2011): Pervasive Advertising. 1. Aufl., . Springer London.[/ref]
  • Audience Measurement: Messung von Reaktionen der Passanten oder Nutzer, um den Erfolg oder Misserfolg einer Werbekampagne in Zahlen und Daten noch exakter beschreiben zu können.[ref]SCHRAMMEL, JOHANN; MATTHEISS, ELKE; DÖBELT, SUSEN; PALETTA, LUCAS; TSCHELIGI, MANFRED & ALMER, ALEXANDER (2011): Attentional Behavior of Users on the Move Towards Pervasive Advertising Media. In: MÜLLER, JÖRG; ALT, FLORIAN & MICHELIS, DANIEL (Hrsg.): Pervasive Advertising. 1. Aufl., . Springer London, S. 287-309.[/ref]
  • Automated Persuasion: Überzeugungskraft von Pervasive Displays, die auf die allgegenwärtige, teilweise unterbewusste Wahrnehmung setzt, um das Verhalten von Passanten zu beeinflussen und Kunden anzulocken.[ref]REITBERGER, WOLFGANG; MESCHTSCHERJAKOV, ALEXANDER; MIRLACHER, THOMAS; TSCHELIGI, MANFRED; MÜLLER, JÖRG; ALT, FLORIAN & MICHELIS, DANIEL (2011): Ambient Persuasion in the Shopping Context . London: Springer London, S. 309-323.[/ref].

Beispiele für Out-of-Home Displays

In der folgenden Kategorisierung werden die verschiedene Beispiele für Out-of-Home Displays entsprechend ihrer Nutzung näher beschrieben und kurz voneinander abgegrenzt.

Produktmedien

Produktmedien zeichnen sich durch Bildschirme mit Information, Werbung und Unterhaltungsangeboten an belebten Plätzen aus.

Carrefour Live, Schweiz

Die Carrefour Market-Kette mit über 1000 Filialen nutzt ein neues Netzwerk von Bildschirmen, das neben Produktnachrichten auch lokale Werbung und allgemeine Unterhaltung bietet [ref]Stalder, Ursula (2011b): Out-of-Home-Displays: Carrefour Tests Local Advertising. URL: http://blog.hslu.ch/outofhomedisplays/2011/02/23/carrefour-tests-local-advertising-on-its-digital-signage-network/, zuletzt abgerufen am: 30.10.2011.[/ref].

[singlepic id=961 w=290 float=left mode=crop]

[singlepic id=962 w=290 float=left mode=crop]

BBC Launch Kampagne, New York

Während der BBC Launch Kampagne wurden dramatische Fotografien aus Nachrichtensendungen dargestellt, die das Interesse der amerikanischen Bevölkerung an internationalen Nachrichten stärken sollten. Die Rezipienten konnten mit ihrem Handy über wichtige Fragen abstimmen und haben damit unbewusst ein Stimmungsbild der Bevölkerung zu verschiedenen Themen erzeugt[ref]Stalder, Ursula (2008c): Out-of-Home-Displays: BBC World Launch Kampagne. URL: http://blog.hslu.ch/outofhomedisplays/2008/09/30/bbc-world-launch-kampagne-2006/, zuletzt abgerufen am: 01.10.2011.[/ref].

[singlepic id=959 w=290 h=160 float=left mode=crop]

[singlepic id=960 w=290 h=160 float=left mode=crop]

Architekturmedien

Architekturmedien werden als Markenrepräsentationen in verschiedenen Größenkategorien eingesetzt. Siesind zum einen ein mediales System zur Markeninszenierung (eingebettet in die Architektur), das im Außenbereich an Gebäudefronten oder kompletten Gebäude angebracht ist und zum anderen eine zukunftsträchtige architektonische Inszenierung einer Marke mit Hilfe moderner Technik und Design, um deren Ansehen zu steigern.

Uniqa Tower, Wien

Die Versicherungsgesellschaft Uniqa repräsentiert über die Fassade des Towers hinweg die Unternehmensphilosophie durch die abstrakten und gegenständlichen Motive[ref]Stalder, Ursula (2008m): Out-of-Home-Displays: Uniqa-Tower Wien. URL: http://blog.hslu.ch/outofhomedisplays/2008/09/21/wien-uniqa-tower/, zuletzt abgerufen am: 01.10.2011.[/ref]. Für die visuelle Gestaltung wurde die gesamte Gebäudeoberfläche von mehr als 7000m², bestehend aus einer zweischaligen Glasfassade, genutzt[ref]Whitaker, Tim (2006): LEDs Magazine – Barco covers Vienna building with LED blocks. URL: http://www.ledsmagazine.com/news/3/5/17/1, zuletzt abgerufen am: 09.11.2011.[/ref].

[singlepic id=973 w=290 float=left mode=crop]

[singlepic id=974 w=290 float=left mode=crop]

Swarovski Kristallwelten, Wattens

Die Firma Swarovski hat in Wattens, Österreich, eine Fantasiewelt geschaffen, die sich über 8500m² erstreckt und das Motto „The Art of Crystal Fiction“ trägt[ref]Stalder, Ursula (2009b): Out-of-Home-Displays: Swarovski Kristallwelten Wattens. URL: http://blog.hslu.ch/outofhomedisplays/2009/07/23/swarovski-kristallwelten-wattens/, zuletzt abgerufen am: 01.10.2011.[/ref].

[singlepic id=972 w=290 h=220 float=left mode=crop]

[singlepic id=971 w=290 h=220 float=left mode=crop]

Forschungsmedien

Forschungsmedien sind interaktive (beispielsweise gestengesteuerte) Displays, die heute meist noch nicht in öffentlichen Anwendungen genutzt werden, sondern sich in der Entwicklung befinden. Es handelt sich meist um Prototypen, die zur Erforschung und Verbesserung von Gestensteuerung, Fingererkennung, 3D-Koordinaten-Verfolgung oder Multi-User-Nutzbarkeit dienen[ref]DEEG, ALEX (2010): 3-D Gesture-Based Interaction System Unveiled. URL: http://idw-online.de/pages/de/news380200, zuletzt abgerufen am: 01.10.2011.[/ref]. Potential ist im Spiele-, Unternehmens-, E-Learning- und Simulationssektor vorhanden [ref]KLUCZNIOK, JAN (2010): Wissenschaft: Fraunhofer-Institut entwickelt 3D-Multitouch ohne Touch – NETZWELT. URL: http://www.netzwelt.de/news/83424-wissenschaft-fraunhofer-institut-entwickelt-3d-multitouch-ohne-touch.html, zuletzt abgerufen am: 01.10.2011.[/ref]. Die Steuerung erfolgt über Bewegung der Hände und Finger, welche über verschiedene Kamerasysteme eingefangen digitalisiert und umgesetzt werden.

Omnitouch

Das System besteht aus einer Kamera und einem Pico-Projektor, die zusammen überall einen Touchscreen erzeugen können[ref]Pluta, Werner (2011): Omnitouch: Die Welt ist ein Touchscreen. URL: http://www.golem.de/1110/87166.html, zuletzt abgerufen am: 19.10.2011.[/ref].

[singlepic id=967 w=290 h=200 float=left mode=crop]

[singlepic id=968 w=290 h=200 float=left mode=crop]

iPoint Presenter

Mit dem iPoint Presenter, einer Entwicklung des Fraunhofer Heinrich-Hertz-Instituts, sollt die Mensch-Computer Interaktion, wie sie aus dem Film „Minority Report“ bekannt ist, verwirklicht werden[ref]Quandel, Gudrun (2011c): Heinrich-Hertz-Institut – iPoint Presenter. URL: http://www.hhi.fraunhofer.de/de/abteilungen-am-hhi/interaktive-medien-human-factors/uebersicht/hand-interaction/exponate/ipoint-presenter/, zuletzt abgerufen am: 01.10.2011.[/ref]. Die Technologie ermöglicht es dem Nutzer, den Computer mittels einfacher Gesten auch ohne direkte Berührung zu bedienen[ref]Kötter, Yasmin (2008): PCs steuern wie im Film: Der iPoint Presenter (Video) – NETZWELT. URL: http://www.netzwelt.de/news/77305-pcs-steuern-film-ipoint-presenter-video.html, zuletzt abgerufen am: 10.11.2011.[/ref].

[singlepic id=963 w=290 h=220 float=left mode=crop]

[singlepic id=964 w=290 h=220 float=left mode=crop]

Kulturell-Informelle Medien

Als viertes Einsatzgebiet existieren kulturell-informelle Medien, die sich durch interaktive Informations- und Orientierungssysteme, sowie digitale künstlerische Gestaltungsmöglichkeiten im öffentlichen Raum abgrenzen lassen.

Spots Facade, Berlin

Die Spots Medienfassade in Berlin besteht aus 1800 Leuchtstoffröhren, die in einer Matrix angeordnet und individuell steuerbar sind. Das Gebäude am Potsdamer Platz ist elf Stockwerke hoch und wurde durch die Glasvorhangfassade zu einem riesigen, 1350m² großen Display[ref]Gruentuch, Armand & Almut, Ernst (2006): Convertible City – Projects – SPOTS Licht- und Medienfassade. URL: http://www.convertiblecity.de/projekte_projekt09_en.html, zuletzt abgerufen am: 01.10.2011.[/ref].

[singlepic id=969 w=290 float=left mode=crop]

[singlepic id=970 w=290 float=left mode=crop]

ibex Touchboard, Luzern

Seit dem 01. Januar 2010 ist in der Lobby des Hotels Continental in Luzern das Ibex Touchboard aufgestellt. Das Informations-Tool bietet den hauseigenen Gästen Informationen über das Wetter, aktuelle Nachrichten, lokale Veranstaltungen, Webcam-Übertragungen, z.B. vom Gipfel des nächsten Berges, Kino- und Restauranttipps und vieles mehr[ref]Stalder, Ursula (2010): Out-of-Home-Displays: iBex Touchboard. URL: http://blog.hslu.ch/outofhomedisplays/2010/01/13/das-ibex-touchboard-interaktiver-flachbildschirm-zum-beruhren/, zuletzt abgerufen am: 01.10.2011.[/ref].

[singlepic id=965 w=290 h=220  float=left mode=crop]

[singlepic id=966 w=290 h=220 float=left mode=crop]

Klassifizierung von Out-of-Home Displays

Die verschiedenen Out-of-Home Displays können nach den folgenden Vergleichskriterien klassifiziert werden. Diese Kriterien werden im Anschluss anhand eines Beispiels in einer Klassifizierungstabelle dargestellt.

Vergleichkriterien

  • Anzeigetechnologie: Dieses Kriterium gibt die genutzte Displaytechnologie an, basierend auf den Herstellerangaben oder weiterführender Literatur.
  • Größe: Als Größe wird bei Bildschirmen die Diagonale in Zoll oder die Maße in Quadratmeter angegeben.
  • Betrachtungs- /Benutzungsabstand: Je nach Funktion des Displays gibt es entweder nur einen Betrachtungs- oder aber zusätzlich einen Benutzungsabstand. Diese Abstände sind in vier Zonen eingeteilt: Eine persönliche Interaktions-, eine subtile Interaktions-, eine implizite Interaktions- und eine Außenzone[ref]Michelis, Daniel (2009): Interactive Displays: Perception, Awareness, and Interaction « Interactive Displays in Public Space. URL: http://magicalmirrors2006.wordpress.com/2008/07/02/interactive-displays-perception-awareness-and-interaction/, zuletzt abgerufen am: 18.10.2011.[/ref].
  • Multiuserfähigkeit: Multiuserfähigkeit beschreibt die Eigenschaft eines Displays, mit mehreren Benutzern gleichzeitig zu interagieren[ref]Dempski, Kelly & Harvey, Brandon (2006): Multi-User Display Walls : Lessons Learned. In: Conference on Human Factors in Computing Systems. Montreal, Kanada, S. 1-4.[/ref].
  • Nutzung: Die vorgestellten Modelle können entweder interaktiv sein oder zur reinen Darstellung verwendet werden.
  • Verwendungszweck: Die Verwendungszwecke beinhalten z.B. Werbung, Informationsversorgung, Aufmerksamkeitserregung oder Markenrepräsentation und sind eng mit der Zuordnung in die jeweilige Kategorie verbunden.
  • Informationsgehalt: Dieses Kriterium gibt das Verhältnis von reiner Werbung und Informationen an, z.B. Aktualität von Nachrichten.
  • Eingabe: Die Eingabe an Displays kann über fünf Kategorien erfolgen: optisch, haptisch, akustisch, über Peripheriegeräte und Umwelteinflüsse.
  • Ausgabe: Im Vergleich zur Eingabe existieren bei der Ausgabe des Displays an Rezipienten vier Kategorien: optisch, haptisch, akustisch und Peripheriegeräte.
  • Umgebung: Out-of-Home Displays finden sich quasi überall im öffentlichen Raum[ref]STALDER, URSULA & BOENIGK, MICHAEL (2009): Out-of-Home-Displays: Digitale Markenkommunikation im öffentlichen Raum. Medien Journal – Zeitschrift für Kommunikationskultur, 1/2009 (33), S. 33-51.[/ref]. Dieses Kriterium liefert daher eine Einschränkung der genaueren Umgebung, in der das System installiert wurde.
  • Kategorie: Die Out-of-Home Displays werden in die im vorherigen Abschnitt vorgestellten Kategorien zugeordnet.

Beispiel: Hauptbahnhof Zürich

Das e-advertising Unternehmen hat im 2. Untergeschoss des Bahnhofs den ersten interaktiven Ad Screen der Schweiz eingerichtet. Auf dem Display wird abwechselnd, im 30 min Takt, Werbung für Coca-Cola und den VW Golf GTI angezeigt. Durch eine neue Softwaretechnik, die von der Vanija GmbH bereitgestellt wurde, soll die Werbung realistischer werden [ref]Mettler, Bruno (2011): eAd lanciert interaktives eBoard im HB Zürich… | Vanija – Agentur für interaktive Erlebnisse. URL: http://www.vanija.ch/2009/06/ead-lanciert-interaktives-eboard-im-hb-zurich/, zuletzt abgerufen am: 30.10.2011.[/ref].

[singlepic id=952 w=600  float=center]

Kriterium Beschreibung
Anzeigetechnologie LCD
Größe 82″
Betrachtungs- /Benutzungsabstand implizite und subtile Interaktionszone
Multiuserfähigkeit Reaktion auf einen Benutzer, mehrere Betrachter
Nutzung Darstellung von Werbung, indirekte Interaktion möglich
Verwendungszweck Werbung
Informationsgehalt gering, nur Produktwerbung
Eingabe Optisch über Bewegungssensor
Ausgabe Optisch, Animation an Bewegung angepasst
Umgebung öffentlicher Raum (Bahnhofspassage)
Kategorie Ad Screen am Point of Transportation

Mehrwerte für Unternehmen

Aus den betrachteten Out-of-Home Displays können verschiedene potenzielle Mehrwerte beim Einsatz von Großbildschirmen zur Verbesserung der Informationsversorgung in Unternehmen abgeleitet werden:

  • User Attraction und die Nutzung von Mobile Devices wie im Beispiel der BBC Launch Kampagne: Dadurch wird die Attraktivität gesteigert und zur Interaktion mit einem eigenen Gerät, z.B. einem Smartphone angeregt.
  • Gestensteuerung als moderne Interaktionsmöglichkeit wie im Beispiel des iPoint Presenter: Durch diese moderne Form der Interaktion kann die Steuerung intuitiver gestaltet und für ein größeres Zielpublikum nutzbar gemacht werden.
  • Mehrbenutzerfähigkeit, bzw. die Mehrbetrachterfähigkeit, wodurch mehrere Personen gleichzeitig an einem Display arbeiten können: Das kollaborative Arbeiten kann effektiver und einfacher durchgeführt werden.
  • Die Informationsdarstellung auf einem Display: Aus dem Beispiel des iBex Touchboard können geeignete Visualisierungsarten abgeleitet werden, um die benötigten Informationen auf sinnvolle Weise darzustellen. Dadurch kann ein Informationsüberfluss verhindert werden.

Zusammenfassung

Out-of-Home Displays sind mittlerweile allgegenwärtig und werden ständig weiterentwickelt[ref]STALDER, URSULA & BOENIGK, MICHAEL (2009): Out-of-Home-Displays: Digitale Markenkommunikation im öffentlichen Raum. Medien Journal – Zeitschrift für Kommunikationskultur, 1/2009 (33), S. 33-51.[/ref]. Geeignete Nutzungskonzepte mit informationellem Mehrwert für Unternehmen fehlen jedoch. Neue Visualisierungs- und Interaktionsmöglichkeiten, z.B. Multi-Touch, Gestensteuerung oder synchron-mehrbenutzerfähige Darstellung finden aktuell fast ausschließlich Anwendung in der Werbe- und Unterhaltungsbranche.

Gestensteuerungsmöglichkeiten werden beispielsweise bereits durch verschiedene Systeme erfolgreich erforscht [ref]DEEG, ALEX (2010): 3-D Gesture-Based Interaction System Unveiled. URL: http://idw-online.de/pages/de/news380200, zuletzt abgerufen am: 01.10.2011.[/ref] [ref]KLUCZNIOK, JAN (2010): Wissenschaft: Fraunhofer-Institut entwickelt 3D-Multitouch ohne Touch – NETZWELT. URL: http://www.netzwelt.de/news/83424-wissenschaft-fraunhofer-institut-entwickelt-3d-multitouch-ohne-touch.html, zuletzt abgerufen am: 01.10.2011.[/ref] [ref]OBLONG INDUSTRIES (o. J.): Oblong industries, inc. URL: http://oblong.com/, zuletzt abgeru-fen am: 01.10.2011.[/ref] [ref]QUANDEL, GUDRUN (2011): Heinrich-Hertz-Institut – iPoint 3D. URL: http://www.hhi.fraunhofer.de/de/departments/interactive-media-human-factors/overview/hand-interaction/exhibit/ipoint3d0/, zuletzt abgerufen am: 01.10.2011.[/ref].
Schwerpunktmäßiger Nutzungskontext sind allerdings Unterhaltungssysteme [ref]HOLZBAUER, FLORIAN (2010): Move , Kinect, WiiMote, Bewegungssteuerung im Test. URL: http://www.chip.de/artikel/Move-Kinect-WiiMote-Bewegungssteuerung-im-Test_44432699.html, zuletzt abgerufen am: 01.10.2011.[/ref] , obwohl Gestensteuerung als zukunftsträchtiges Interaktionsverfahren gilt. Out-of-Home-Medien bieten darüber hinaus viele weitere Verwendungsmöglichkeiten[ref]HILDEBRAND, ALEX (2010): APG | Out of home | Deshalb «out of home». URL: http://www.apg.ch/de/out-of-home/darum/, zuletzt abgerufen am: 30.10.2011.[/ref]. Durch Übertragung der Konzepte können Unternehmen die vorhandenen Mehrwerte für sich nutzen, um die unternehmensweite Informationsversorgung  zu verbessern.

Diesbezügliche Ansätze finden sich u.a. hier auf der Plattform im Bereich CommunityMirrors – Interaktiven Großbildschirmen zur Verbesserung der peripheren Informationsversorgung im Unternehmenskontext.

Moderne Android Tablet-Devices im Vergleich

[toc]

Tablets haben inzwischen Laptops als ubiquitäre Benutzerschnittstellen den Rang abgelaufen und werden zunehmend zum alltäglichen Begleiter. Vor diesem Hintergrund fasst der vorliegende Artikel aktuelle sowie in naher Zukunft auf dem Markt erhältliche Tablet-Produkte zusammen und vergleicht sie miteinander. Der Schwerpunkt des Vergleichs liegt in erster Linie auf Tablets mit dem Betriebssystem Android, wobei zwei Geräte mit anderen Betriebssystemen als Referenz dienen. Der Artikel ist im Kontext des Forschungsprojekts SI-Screen entstanden, das aktuell unter Beteiligung der Forschungsgruppe Kooperationssysteme zusammen mit anderen Firmen durchgeführt wird und versucht, älteren Menschen durch eine einfach zu bedienende Benutzerschnittstelle einen leichteren Zugang zum Social Web zu ermöglichen. In der Zusammenstellung werden deshalb auch wesentliche Anforderungen an die Geräte für die Nutzung durch Senioren berücksichtigt. Darüber hinaus werden im Hinblick auf die im Projektkontext betrachtete Nutzergruppe der „Best Ager“ nicht nur Tablets, die in naher Zukunft bereits erscheinen behandelt, sondern auch Industrial-Design-Konzepte, die ein Wegweiser dafür sein können, wie derartige Geräte in wenigen Jahren aussehen könnten.

Laut jüngsten Untersuchungen ist das Betriebssystem Android auf dem Vormarsch und hat im Smartphone-Bereich bereits einen Marktanteil von 50 Prozent erreicht.[ref]http://www.welt.de/print/welt_kompakt/webwelt/article13719379/Android-auf-dem-Vormarsch.html.[/ref] Auch im Tablet-Bereich wird Android immer mehr zum Apple-Konkurrenten. Apple iOS hat im 2. Quartal 2011 etwas über 30 Prozent Marktanteil im Vergleich zum Vorjahr verloren, wohingegen Android fast 30 Prozent hinzugewinnen konnte.[ref]http://www.androidmag.de/news/strategy-analytics-android-tablets-am-vormarsch/.[/ref]

[singlepic id=794 w=290 float=left] [singlepic id=795 w=290 float=left]

[singlepic id=796 w=618 float=]

Zukunftsvisionen

In diesem einführenden Abschnitt werden Konzepte von Tablet-Devices vorgestellt, die zum Teil nur als Grafik und Idee, aber auch bereits als Prototyp vorhanden sind. Im Vordergrund der Betrachtungen steht der potenzielle Mehrwert für ältere Menschen.[ref]Die vorgestellten Design-Studien und Prototypen basieren primär auf den Blogposts „The Future of Tablets – What your tablet will look like in 5 years“ und dem Engadget-Beitrag „Sharp bringt Tablet für Senioren„.[/ref]

Papier-Tablet

Eine mögliche Weiterentwicklungsrichtung für Tablet-Devices ist das Material. Diesbezüglich existieren Visionen, dass ein Tablet in Zukunft einem Stück Papier ähnlich wird, auf dem man beispielsweise seine Zeitung lesen kann. Die digitale Version ist dabei immer aktueller als gedruckte Zeitungen und gleichzeitig flexibler als bisherige Tablets, da sich dieses Device falten lässt und somit auch bequem in einer Jackentasche unterzubringen ist. Um die Vision zu verwirklichen, läuft aktuell an der Stanford Universität ein Projekt um biegsame Batterien aus Papier herzustellen[ref]http://news.stanford.edu/news/2009/december7/nanotubes-ink-paper-120709.html.[/ref]. Neben der grundlegend anderen Haptik liegt der Hauptvorteil des Konzepts darin, dass das leicht in jeder Jackentasche mitgenommen werden kann.

[singlepic id=626 w=618 float=center]

Smartphone-Tablet-Hybrid

Eine andere Designstudie beschäftigt sich mit der Lösung für das Problem, mit einem Tablet auch telefonieren zu können. Nutzer haben heute häufig nur eine SIM-Karte. Sofern diese für den mobilen Internetzugang in einem Tablet verwendet wird, ist die telefonische Erreichbarkeit eingeschränkt. Im Lösungsansatz von HTC deshalb verfügt das Tablet über einen Telefonhörer in stabform zum Telefonieren. Somit kann man sein Tablet auch als Telefon benutzen und hat trotzdem nur einen kleinen Hörer am Ohr. Zudem ist der ein Hörer am Ohr eine seit langem bekannte Art zu telefonieren und erfordert somit keine Verhaltensumstellung.

[singlepic id=620 w=618 float=center]

Senioren-Tablet

In Japan bringt Sharp ein Senioren-Tablet[ref]http://de.engadget.com/2011/02/18/japan-sharp-bringt-tablet-fur-senioren/.[/ref] auf den Markt, welches das Einkaufen erleichtern soll, indem die Benutzer durch ein virtuelles Einkaufszentrum geleitet werden. Das Gerät eignet sich vor allem für Personen, die aus gesundheitlichen Gründen nicht mehr ausreichend mobil sind, um die Einkäufe selbst im Supermarkt durchzuführen. Durch die Verwendung von großer Schrift und speziell angepassten Bedienelementen, richtet sich das Tablet nach den besondere Bedürfnissen der Zielgruppe „Best Ager“. Die im Comic-Design gehaltene Software verwendet eine eigene Währung und nutzt eine virtuelle Bezugsperson (Avatar) als zusätzliche personalisierte Hilfestellung für die Benutzer.

[singlepic id=665 w=618 float=center]

Tablet-Auswahl im Überblick

Dieser Abschnitt gibt einen Überblick über die innerhalb der Marktstudie verwendeten Geräte sowie die zugrundegelegten Bewertungskriterien, wie beispielsweise Gewicht, Auflösung, Displaygröße oder Abmessungen. Die Geräteauswahl basiert u.a. auf dem Heise Preisvergleich für Tablets. Eine besondere Herausforderung war dabei die Konsolidierung der z.T. fehlenden oder voneinander abweichenden Angaben zu Ausstattung und technischen Details.

[nggtags Gallery=Überblick]

Eingrenzung des Studienrahmens

Der Begriff „Tablet“ wurde in der Vergangenheit für sog. „Tablet-PCs“, eine primär von Microsoft geprägte Laptop-Spezialform aus den späten neunziger Jahren verwendet. Diese ursprüngliche Kategorie des Tablet-PCs, bei der es sich quasi um einen Laptop mit drehbarem Touchscreen handelt wird heute meist als Convertible bezeichnet. Kennzeichnend für die Geräte ist u.a. der häufig mitgelieferte Stift sowie eine typischerweise vorhandene Handschrifterkennung.

Spätestens seit der Einführung des Apple iPad wird der Begriff „Tablet“ inzwischen synonym für ultra-mobile Touchscreens verwendet, die meist gänzlich ohne Tastatur auskommen und deutlich größer sind als die von der grundsätzlichen Bedienung her sehr ähnlichen Smartphones.  Im Unterschied zu Convertibles, deren Software meist keinerlei Unterschiede zu einem klassischen Desktop-PC aufweisen, arbeiten Tablets fast ausschließlich mit speziell angepassten Betriebssystemen, die auf dem App-Konzept basieren. Hierdurch erlauben sie die modulare und sehr einfache Erweiterung um neue Funktionen bzw. Anwendungen.

Am Beispiel der verschiedenen Transformationsstufen vom Laptop zu einem multimedialem Notizblock des HP EliteBook 2760p zeigt die nachfolgende Galerie den Unterschied zwischen dem Convertible und einem Viewsonic Viewpad 7:

[nggtags Gallery=Abgrenzung]

Bewertungskriterien

Um die Funktionalitäten und Besonderheiten der Tablets ausführlich gegeneinander abgrenzen zu können, wurden unterschiedliche Bewertungskriterien gesammelt und im tabellarischen Überblick am Ende dieses Artikels zusammengestellt. Alle hier aufgeführten Tablets sind WLAN-fähig und unterstützen Multitouch-Gesten. Die Bewertungskriterien sind folgende:

  • Preisspanne: Spanne zwischen dem niedrigsten und höchsten Preis des Heise Preisvergleichs für Tablets.[ref]Bei Tablets mit mehreren Ausstattungsvarianten wurde jeweils die billigste Variante für die Untergrenze und die Top-Variante für die Obergrenze der Preispanne verwendet. Alle Preise basieren auf Angaben vom 28.11.2011.[/ref]
  • Displaygröße: Display-Diagonale in Zoll
  • Abmessungen: Breite und Höhe des Gerätes in Millimetern
  • Dicke: Dicke des Tablets in Millimetern
  • Gewicht: Gewicht des Tablets in Gramm
  • Gewicht/Größe: Verhältnis von Gewicht in Gramm zu Displaygröße in Zoll (je kleiner, desto besser)
  • Auflösung: Native Auflösung des Tablets
  • Prozessor: CPU des Tablets mit Rechengeschwindigkeit in GHz
  • Arbeitsspeicher: Arbeitsspeicher in GB
  • Massenspeicher: Interner Flash-Speicher des Tablets
  • Betriebssystem: Verwendetes Betriebssystem
  • 3G- / WWAN-Modul: Möglichkeit, mit dem Tablet auch unterwegs ohne WLAN im Internet zu surfen.
  • Speicherkarten: Welche und wie viele Speicherkartenslots sind vorhanden?
  • Kamera: Sind Kameras vorhanden und welche Auflösung haben sie?
  • haptische Tastatur: Wird eine haptische Tastatur speziell für das Gerät mitgeliefert, oder ist sie als Zubehör verfügbar?

Neben diesen quantitativen Bewertungskriterien wurden folgende subjektiven bzw. kontextspezifischen Vergleichskriterien für die Zusammenstellung herangezogen:

  • Verarbeitung/Qualität: Wirkt das Tablet hochwertig verarbeitet?
  • Haptik: Wie fühlt es sich an?
  • Besonderheiten: Beispielsweise Stylus, Tastatur, aufklappbar
  • Knöpfe: Hat das Tablet Knöpfe und wenn ja wie viele? Sind die Knöpfe sinnvoll belegt und gut zu erreichen?
  • Ergonomie: Liegt das Tablet gut in der Hand?
  • Mobilität: Kann man das Tablet auch bequem mit nur einer Hand halten?
  • Displayqualität: Spiegelt das Display?

Tablet-Devices im Detail

In diesem Abschnitt werden die im Überblick oben bereits aufgeführten Tablets jeweils kurz mit ihren Besonderheiten im Detail vorgestellt.

Sony Tablet S

[singlepic id=622 w=618 float=center]

Das Sony Tablet S hat eine Bildschirmdiagonale von 9,4 Zoll und im Gegensatz zu den meisten Tablets eine schräge Bauform. Dies ermöglicht eine ergonomische Körperhaltung, wenn das Gerät auf dem Tisch liegt, da man sich nicht nach vorne beugen muss um den Bildschirm ohne Spiegelungen zu erkennen. Die Top-Variante bietet  bis zu 32 GB Massenspeicher und 3G.

Das Tablet wird mit Android 3.1 ausgeliefert und kann auf Android 3.2 geupdatet werden. Der auf den ersten Blick gute technische Eindruck wird durch die Verwendung des etwas billig wirkenden Kunststoffs getrübt.

Sony Tablet P

[singlepic id=617 w=618 float=center]

Im Gegensatz zu seinem zuvor vorgestellten großen Bruder hat das Tablet P zwei 5,5 Zoll Bildschirme, die es ermöglichen das Gerät zuzuklappen, was wiederum einen enorm hohen Mobilitätsfaktor mit sich bringt. Die CPU ist ein Tegra 2 mit 1,0 GHz, der auch in vielen anderen Android-Tablets wie zum Beispiel dem Asus EeePad Transformer TF101 oder dem Sony Tablet S zu finden ist.

Im Vergleich zu anderen Tablets ist das Gerät mit einem Preis von rund 599 Euro relativ teuer und mit 14 Millimetern vergleichsweise dick. Ein Pluspunkt ist die Tatsache, dass es bereits mit Android 3.2 ausgeliefert wird, der momentan aktuellsten Honeycomb-Version.

Asus EeePad Transformer TF101

[singlepic id=621 w=618 float=center]

Das Asus EeePad Transformer hat eine Bildschirmdiagonale von 10,1 Zoll und wiegt nicht zu unterschätzende 680 Gramm. Das Gerät verfügt über eine 1,2 Megapixel Kamera an der Vorderseite zur Videotelefonie und über eine 5,0 Megapixel Kamera für Schnappschüsse auf der Rückseite.

Das Tablet ist eines der Ersten, welches durch ein optional erhältliches Keydock zu einem Android-Laptop transformierbar ist. Das Keydoch steigert außerdem die Akkulaufleistung und bietet zusätzliche Anschlüsse.

HTC Flyer

[singlepic id=764 w=618 float=center]

Das Flyer von HTC ist ein 7 Zoll großes Tablet, das durch die geringe Displaydiagonale hohe Mobilität verspricht. Entgegen der aufstrebenden Multitouch-Kultur ist das Tablet mit einem zusätzlichem Stylus ausgestattet, der schwierige Eingaben auf dem kleinen Displays vereinfacht.

Im Gegensatz zum Sony Tablet S wirk die Verarbeitung des HTC Flyer auf Grund des Metallgehäuses qualitativ hochwertig. Trotz der edleren Verarbeitung liegt das Gerät mit 420 Gramm bzgl. des Gewichts im Durchschnitt.

Amazon Kindle Fire

[singlepic id=623 w=618 float=center]

Das Kindle Fire ist der günstigste Kandidat im Vergleich und ist primär als eBook-Reader konzipiert. Daher hat es keine Kamera und der nicht vorhandene Speicherkartenslot ist von Amazon so beabsichtigt, da Inhalte ausschließlich über die eigenen Dienste bezogen werden sollen.

Das Tablet hat kein 3G-Modul und ist somit auf WLAN für den Internetzugang angewiesen. Das geringe Gewicht von 413 Gramm ordnet sich hervorragend in den 7 Zoll Tablet-Markt ein.

Samsung Galaxy Tab 8.9

[singlepic id=767 w=618 float=center]

Das Samsung Galaxy Tab 8.9 hat für seine Bildschirmdiagonale von 8,9 Zoll mit 470 Gramm ein relativ geringes Gewicht. Es bietet eine 2,0 Megapixel Kamera an der Front für gute Qualität bei Videotelefonie und eine 3,0 Megapixel Kamera auf der Rückseite für Schnappschüsse.

Das Tablet wird mit Android 3.1 ausgeliefert und hat ein 3G-Modul. Bemerkenswert ist die geringe Dicke des Gerätes von nur 8,6 Millimetern. Unglücklicherweise bietet es keinen Kartenslot zur Erweiterung des internen 16 GB Massenspeichers.

Samsung Series 7 Slate

[singlepic id=625 w=618 float=center]

Das Samsung Series 7 Slate ist neben dem als nächstes vorgestellten Apple iPad2 das einzige nicht auf Android basierende Tablet in diesem Vergleich. Es wird mit Windows 7 ausgeliefert und hat einen Intel Core i5 Prozessor mit zwei Kernen bei einer Geschwindigkeit von 1,6GHz.

Das Gerät verfügt über 128 GB interne Speicherkapazität und einen microSD-Kartenslot. Es fehlt jedoch ein 3G-Modul. Außerdem weist das Tablet weist mit 890 Gramm bei 11,6 Zoll Bildschirmdiagonale ein sehr hohes Gewicht auf. Bemerkenswert ist der hohe Preis von über 1300 Euro, was eher an Preise für vollwertige Desktop-PCs erinnert. Als kleiner Pluspunkt ist eine Tastatur optional erhältlich.

Apple iPad2

[singlepic id=747 w=618 float=center]

Das Apple iPad2 ist auf dem Tablet-Markt heute quasi das Maß der Dinge und legt somit auch die Messlatte dieses Vergleichs vor. Der interne Flashspeicher des mit iOS5 ausgelieferten Geräts ist bis zu 64 GB groß. Darüber hinaus ist die teuerste Variante auch mit 3G-Modul erhältlich und wiegt 613 Gramm.

Beim iPad(2) muss erwähnt werden, dass es schon vergleichsweise lange auf dem Markt erhältlich ist, dabei aber wie viele Apple-Produkte immer noch einen sehr hohen Preis hat. Es verfügt zwar über eine Kamera in der Front und eine auf der Rückseite, beide besitzen allerdings nur geringe Auflösungen, die z.T. noch nicht einmal die vom iPhone 3S bekannte Fotoqualität erreicht. Weiterhin sucht man vergeblich nach einem Slot für eine Speicherkarte.

Zusammenfassung

Abschließend lässt sich sagen, dass auch heute noch kein Allround-Tablet existiert, welches perfekt für jedes Einsatzszenario zugeschnitten ist. Benötigt man viel Arbeitsspeicher und eine hohe Festplattenkapazität, ist das Samsung Series 7 Slate den anderen Tablets vorzuziehen, wobei hier natürlich der weit höhere Preis und das nicht nativ für Tablets ausgelegte Betriebssystem Windows zu beachten ist.

Falls die Mobilität im Vordergrund steht, darf man das Sony Tablet P nicht außer Acht lassen. Es zeichnet sich durch das beste Gewicht-Größe-Verhältnis im Vergleich aus und ist durch seine kompakte Bauweise leicht in der Hosentasche zu verstauen.

Um eine einfachere, dem individuellen Einsatzkontext entsprechende Auswahl zu erleichtern fasst der nachfolgende Überblick die wichtigsten oben bereits kurz vorgestellten Bewertungskriterien der Devices in einem abschließenden tabellarischen Überblick zusammen:

[singlepic id=792 w=618 float=center]

Danksagung

Dieser Beitrag steht im Zusammenhang mit dem Forschungsprojekt SI-Screen, das mit Mitteln des Bundesministeriums für Bildung, und Forschung (Förderkennzeichen 16SV3982), sowie durch das Europäische AAL Joint Programm (AAL-2009-2-088) gefördert wird. Das Vorhaben wird von der innovationsmanufaktur GmbH (ehemals SportKreativWerkstatt GmbH) koordiniert und gemeinsam mit der Universität der Bundeswehr München realisiert. Weiterführende Informationen sind verfügbar unter http://www.si-screen.eu.

Spracherkennung und Sprachsteuerung

[toc]

Die Faszination dafür, Gegenstände nur durch die eigene Stimme zu steuern, hat mittlerweile zu einer merklichen Schwerpunktverlagerung in der Weiterentwicklung technischer Geräte geführt, wie zum Beispiel die Feature Liste des iPhone 4S jüngst zeigte. So wurde die Sprachsteuerung zu einem der wichtigsten Aspekte Multimodaler Interaktion. In diesem Artikel soll ein Überblick über Möglichkeiten zur Spracherkennung bzw. Sprachsteuerung vermittelt werden, dazu werden auch Webdienste behandelt. Möglichkeiten zur Implementierung beziehungsweise Einbindung für Software-Projekte, also vorhandene Programmbibliotheken[ref]http://de.wikipedia.org/wiki/Programmbibliothek[/ref] werden sofern vorhanden vorgestellt. Er soll einen groben Umriss über aktuell Produkte bieten. Der Schwerpunkt liegt in diesem Artikel auf der Android-Entwicklung und wurde im Zusammenhang mit dem Projekt ELISA erstellt. Es soll eine Erleichterung der Bedienbarkeit von Tablets unter anderem durch Sprachsteuerung erreicht werden.  Zunächst werden grundlegende Begriffe sowie Mechanismen erklärt, bevor im weiteren Verlauf Webdienste und Produkte im Einzelnen behandelt werden. Sie sind dabei unterteilt in den Kategorien „kommerziell“ und „Open Source“. Im abschließenden Vergleich werden sie einander tabellarisch gegenübergestellt.

Grundlagen

Zu unterscheiden ist neben Text-to-Speech (TTS) und Speech-to-Text (STT) vor allem zwischen Spracherkennung und Sprachsteuerung. TTS ist die künstliche Erzeugung (Synthese) von Sprache. Bei STT findet eine Digitalisierung der analogen Sprachsignale statt, welche mit Hilfe von akustischen Modellen, Wörterbücher und Sprachmodellen erkannt werden.

Bei der Spracherkennung werden eingegebene Sprachinformationen durch computerbasierte Systeme analysiert.[ref]http://www.itwissen.info/definition/lexikon/Spracherkennung-voice-recognition.html[/ref] Natürliche oder auch fließende Spracherkennung ist dabei die Fähigkeit des Systems nicht nur unterbrochene (diskrete) Sätze, sondern einen gesamten Sprachfluss zu erkennen. Es ist also bei modernen System nicht notwendig eine Pause zwischen den Wörtern einzulegen.

Als Sprachsteuerung hingegen bezeichnet man die Eingabe von Befehlen in technische Geräte per Stimme.  Diese baut direkt auf Spracherkennung auf, denn das gesprochene Wort muss erst erkannt werden, bevor es einem bestimmten Befehl zugeordnet werden kann.

[singlepic id=627 w=600 h=440 float=]

Mechanismen zur Spracherkennung

Hidden Markov Model

Als stochastisches Model der Spracherkennung wird unter anderem das Hidden-Markov-Model[ref]https://de.wikipedia.org/wiki/Hidden_Markov_Model[/ref] verwendet und in der Spracherkennungssoftware implementiert.

Das Hidden-Markov-Model ist die einfachste Form eines dynamischen Bayes’schen Netzes und ist durch Zustände und Übergangswahrscheinlichkeiten gekennzeichnet. Es entscheidet abhängig von den bisherigen Eingaben welches Wort, oder auch welches Phonem, mit größerer Wahrscheinlichkeit gemeint ist.[ref]http://en.wikipedia.org/wiki/Speech_recognition#Algorithms[/ref]

Beispiel:

Otto möchte seinen Bekannten Charlie anrufen.
„Charlie“ wird im Optimalfall wie „t-sch-a-r-l-i“ ausgesprochen.
Aufgezeichnet wird jedoch eine Tonspur die sich eher anhört wie „d-sch-a-o-l-ü“.
Das gemeinte Wort „Charlie“ ist für das Spracherkennungsprogramm also keineswegs direkt erkennbar, „t-sch-a-r-l-i“ ist hidden.

Das Programm verfügt über zwei Wahrscheinlichkeitstabellen,
die es sich nun zuhilfe nimmt.
Die eine Tabelle enthält Information, die unter Anderem besagen, dass
ein hidden-t mit einer gewissen Wahrscheinlichkeit auch als „d“,
ein hidden-r mit einer gewissen Wahrscheinlichkeit auch als „o“ und
ein hidden-i mit einer gewissen Wahrscheinlichkeit auch als „ü“ beobachtet werden kann.
Die andere Tabelle enthält Information, die unter Anderem besagen, dass
ein hidden-t wahrscheinlicher einem hidden-sch vorrausgeht als ein hidden-d,
ein hidden-r wahrscheinlicher zwischen einem hidden-a und einem hidden-l vorkommt als ein hidden-o und
ein hidden-i wahrscheinlicher auf ein hidden-l folgt als ein hidden-ü.

Dank dieser Informationen  wird das Programm nach einer etwas aufwändigen Berechnung unter Beachtung vieler weiterer Informationen aus den Tabellen in der Lage sein, „t-sch-a-r-l-i“ als wahrscheinlicher anzunehmen, „d-sch-a-o-l-ü“ also zu verwerfen und die Tonspur als „Charlie“ richtig zu erkennen.

Kommerzielle Dienste und Produkte

Nuance

Nuance bietet neben verschiedenen Spracherkennungsprodukten für Desktopanwendungen auch einen Webdienst zur serverbasierten Spracherkennung zum Beispiel für mobile Apps. Es unterstützt sowohl iOS als auch Android. Zur Entwicklung solcher Apps wird ein entsprechendes Software Development Kit (SDK) bereitgestellt, das im Folgenden kurz erläutert wird.

Dragon Mobile SDK

[singlepic id=742 w=320 h=240 float=]

Das Dragon Mobil SDK ist eine eigener Werkzeugsatz zur Integration von Spracherkennung in bestehende Applikationen und zur Erstellung eigener Anwendungen und nutzt eine serverbasierte Spracherkennung. Sogenannte Back-End-Systeme haben den Vorteil dass eine Verbesserung der Spracherkennung durchgeführt werden kann, ohne dass die Anwendung selbst aktualisiert werden muss.

Ein Codebeispiel:

 // Use the same handler for both buttons
 final Button dictationButton = (Button)findViewById(R.id.btn_startDictation);
 Button websearchButton = (Button)findViewById(R.id.btn_startWebsearch);
 Button.OnClickListener startListener = new Button.OnClickListener()
 {
 @Override
 public void onClick(View v) {
 _listeningDialog.setText("Initializing...");   
 showDialog(LISTENING_DIALOG);
 _listeningDialog.setStoppable(false);
 setResults(new Recognition.Result[0]);

 if (v == dictationButton)
 _currentRecognizer = MainView.getSpeechKit().createRecognizer(Recognizer.RecognizerType.Dictation, Recognizer.EndOfSpeechDetection.Long, "en_US", _listener, _handler);
 else
 _currentRecognizer = MainView.getSpeechKit().createRecognizer(Recognizer.RecognizerType.Search, Recognizer.EndOfSpeechDetection.Short, "en_US", _listener, _handler);
 _currentRecognizer.start();
 }
 };
 dictationButton.setOnClickListener(startListener);
 websearchButton.setOnClickListener(startListener);

Apple

Apple hat spätestens seit dem iPhone 4S [ref](https://www.apple.com/de/iphone)[/ref] und ihren Plänen zu Sprachsteuerung von TV-Geräten [ref](http://www.iptv-anbieter.info/iptv-news/apple-stost-auf-tv-markt-vor-fernseher-mit-sprachsteuerung-in-arbeit)[/ref] wieder eine wichtige Rolle in der Spracherkennung eingenommen. Es unterhält dementsprechend eigene Server zur Spracherkennung und -steuerung, limitiert deren Nutzung jedoch bisweilen stark.

SIRI

[singlepic id=743 w=320 h=240 float=]

Siri ist eine Software von Apple, die der Erkennung und Verarbeitung von natürlich gesprochener Sprache dient. [ref](https://de.wikipedia.org/wiki/Siri_%28Software%29)[/ref] Apple hat durch den Kauf vin Siri[ref](http://www.macnotes.de/2010/04/29/apple-kauft-siri-virtueller-assistent-fur-intelligente-suche-im-iphone-os/)[/ref]  bewiesen, wie interessant Sprachesteuerung für Kunden ist.

Microsoft

Tellme

Von Microsoft für Windows-Phone entwickelt Software Tellme bietet durch die Cloud eine ständige Verbesserung der Spracherkennung [ref](https://www.microsoft.com/en-us/Tellme/technology/default.aspx#tab=engines)[/ref].

[singlepic id=781 w=320 h=240 float=]

Es soll ein Konkurrent zu Siri sein, schnitt jedoch in vielen subjektiven Tests als deutlich schlechter und weniger intelligent ab.[ref]http://www.ifrick.ch/2011/11/microsoft-tellme-gegen-apple-siri-noch-fragen/[/ref]

WSR Macros

Dies ist ein kostenfreies Tool zum herunterladen, welches einem eine einfache Möglichkeit gibt die Sprachsteurung von Windows zu erweitern, ohne weitgreifende Programmierkenntnisse zu besitzen. Jedoch bleibt es weit hinter den Möglichkeiten anderer Anbieter zurück.

Google VoiceActions

[singlepic id=753 w=320 h=240 float=]

Auch Google hat mit Google Voice Actions[ref]http://www.google.com/mobile/voice-actions/[/ref] eine Möglichkeit entwickelt das Mobiltelefon oder das Tablet per Sprache zu bedienen. Anders als andere Anbieter braucht es den Vergleich mit Siri nicht zu scheuen, obwohl es in der Umsetzung einen deutlich anderen Weg gewählt hat. Anders als beim Produkt von Apple wird weniger in Oberfläche von Siri angezigt, sondern auf die Suchmaschine von Google gesetzt. Es wirkt zwar dadurch technischer, aber häufig auch detaillierter. Es stehen also auf der einen Seite ein Dialog-Ansatz und Styling von Apple und auf der anderen Seite klare Anweisungen und aufgelistete Ergebnisse von Google.[ref]http://t3n.de/news/apple-siri-google-voice-actions-funktioniert-besser-337314/[/ref]

Iris

Die erste Version von Iris soll innerhalb weniger Stunden entstanden sein und wurde später durch updates immer genauer und zuverlässiger. Dexetras Versuch Siri zu klonen stellt zur Zeit noch nicht eine ausgereifte Software dar, man kann aber vermuten, dass durchaus noch weitere Updates folgen werden.[ref]http://www.businessvalue24.de/iris-die-sprachsoftware-im-test[/ref] Iris benötigt Google Voice Search[ref]http://www.golem.de/1008/77191.html[/ref] und TTS, welche aber frei im Android Market erhältlich sind. Da es keine Softwarebibliothek, sondern eine prototypische Implementierung  auf Basis des unten erläutertem Android SDK ist und kein Quellcode erhältlich ist, kann es nicht in eigenen Programmen verwendet werden.

Android SDK

Android bietet den Vorteil, dass es frei und kostenlosnlos ist und zusäzlich der Quellcode eingesehen und studiert werden kann. Beides erleichtert die Implementierung neuer Applikationen. Die SDKs sind umfangreich und schon mit verschieden Tests vorhanden. Mit der aktuellen Version 4.0 Ice Cream Sandwich soll zudem auch ein Front-End-System, also einer Erkennung auf dem Client, der Spracherkennung möglich sein. Es ist damit unabhängig von den Servern der Anbieter, die Anwendung muss aber zur Verbesserung manuelle aktualisiert werden.

ein Codebeispiel:

/**
 * A very simple application to handle Voice Recognition intents
 * and display the results
 */
public class VoiceRecognitionDemo extends Activity
{

    private static final int REQUEST_CODE = 1234;
    private ListView wordsList;

    /**
     * Called with the activity is first created.
     */
    @Override
    public void onCreate(Bundle savedInstanceState)
    {
        super.onCreate(savedInstanceState);
        setContentView(R.layout.voice_recog);

        Button speakButton = (Button) findViewById(R.id.speakButton);

        wordsList = (ListView) findViewById(R.id.list);

        // Disable button if no recognition service is present
        PackageManager pm = getPackageManager();
        List<ResolveInfo> activities = pm.queryIntentActivities(
                new Intent(RecognizerIntent.ACTION_RECOGNIZE_SPEECH), 0);
        if (activities.size() == 0)
        {
            speakButton.setEnabled(false);
            speakButton.setText("Recognizer not present");
        }
    }

    /**
     * Handle the action of the button being clicked
     */
    public void speakButtonClicked(View v)
    {
        startVoiceRecognitionActivity();
    }

    /**
     * Fire an intent to start the voice recognition activity.
     */
    private void startVoiceRecognitionActivity()
    {
        Intent intent = new Intent(RecognizerIntent.ACTION_RECOGNIZE_SPEECH);
        intent.putExtra(RecognizerIntent.EXTRA_LANGUAGE_MODEL,
                RecognizerIntent.LANGUAGE_MODEL_FREE_FORM);
        intent.putExtra(RecognizerIntent.EXTRA_PROMPT, "Voice recognition Demo...");
        startActivityForResult(intent, REQUEST_CODE);
    }

    /**
     * Handle the results from the voice recognition activity.
     */
    @Override
    protected void onActivityResult(int requestCode, int resultCode, Intent data)
    {
        if (requestCode == REQUEST_CODE && resultCode == RESULT_OK)
        {
            // Populate the wordsList with the String values the recognition engine thought it heard
            ArrayList<String> matches = data.getStringArrayListExtra(
                    RecognizerIntent.EXTRA_RESULTS);
            wordsList.setAdapter(new ArrayAdapter<String>(this, android.R.layout.simple_list_item_1,
                    matches));
        }
        super.onActivityResult(requestCode, resultCode, data);
    }
}

Vlingo

[singlepic id=745 w=320 h=240 float=]

Vlingo ist eine kostenfreie App, welche Nachrichten oder Mails sendet, Anrufe und Websuche durch einfache Sprachbefehle startet – welche aber beim ersten Start eingestellt werden müssen. Es ist nur mit Android Versionen ab 2.0 kompatibel. Im Hauptmenü werden alle verfügbaren Befehle aufgelistet und neben dem erstellen von SMS, ist es auch möglich andere Applikationen wie zum Beispiel Skype aufrufen. Die Spracherkennung wurde in mehreren Test als überraschend gut beschrieben und bietet auch einen inCar-Modus, welcher eine Steuerung mit fast gar keinem Berühren erlaubt.[ref]http://www.cnet.de/blogs/mobile/android-app/41555152/vlingo_fuer_android_das_smartphone_per_sprachbefehl_steuern.htm[/ref]

Open Source Projekte

Neben kommerziellen Webdiensten und Produkten gibt es auch Open Source Projekte, die sich ebenfalls mit Spracherkennung (vordergründig) sowie zum Teil mit Sprachsteuerung befassen.
Durch eine freie und kostenlose Veröffentlichung eines Quelltextes fördern diese die Weiterentwicklung und erleichtern die Verbreitung. Es kann somit eine große Anzahl an Personen an einer Aufgabe arbeiten und jeder profitiert von den Erfolgen anderer.

CMU Sphinx

CMU Sphinx ist ein Open Source Projekt[ref]http://cmusphinx.sourceforge.net/[/ref] zur Spracherkennung der Carnegie Mellon University. Es ist unabhängig vom Nutzer und bietet die Erkennung von ununterbrochenem Sprachfluss.[ref](http://sourceforge.net/projects/cmusphinx/)[/ref]

Julius

[singlepic id=783 w=320 h=240 float=]

Julius ist eine Spracherkennungs-Engine, welche Open Source ist und sowohl ununterbrochene Sprachflüsse versteht, als auch mit großen Wortschätzen umgehen kann. Es basiert auf Hidden Markov Modellen und läuft auf modernen PCs nahezu in Echtzeit.[ref](https://de.wikipedia.org/wiki/Julius_%28Software%29)[/ref] Neben dem vollständigen Quelltext bietet es zusätzlich noche eine Anleitung in Englisch und Japanisch.

VoxForge

[singlepic id=770 w=320 h=240 float=]

VoxForge erstellt akustische Modelle für die Verwendung mit Spracherkennungs-Engines wie Sphinx oder Julius. Es sammelt dafür eingereichte Sprachdateien von Benutzern. [ref]http://julius.sourceforge.jp/en_index.php[/ref] Aus den Sprachaufnahmen wir dann ein akustisches Modell erstellt, welches aber eine große Menge von Sprachaufnahmen benötigt.

RWTH ASR

[singlepic id=793 w=320 h=240 float=]

RASR ist ein open source Spracherkennungs-Werkzeugsatz. Es wurde von der „Human Language Technology and Pattern Recognition Group“ an der Universität in Aachen entwickelt.

Nutzungsmöglichkeiten

[singlepic id=630 w=600 h=420 float=]

Das Ziel ist es im Schwerpunkt eine Verkürzung der Funktionsaufrufe um damit die Erleichterung der Bedienbarkeit zu erreichen. So soll es möglich sein vom Hauptmenü aus, mit nur einem Befehl, eine Person aus der Kontaktliste des Tablets anzurufen. Es entfallen also zum Teil lange Befehlsketten und werden durch  einzelne Befehle ersetzt. Es ist unter anderem für ältere Menschen, der Zielgruppe von ELISA, von Bedeutung.

In diesem Zusammenhang soll eine Beispielkontakliste auf einem Tablet erstellt und dem Nutzer ermöglicht werden sich einen dieser Kontakte durch einen Sprachbefehl anzuzeigen.

Vergleich

In dieser Tabelle können die vorgestellten Produkte und Webdienste nun miteinander verglichen werden.

[singlepic id=834 w=816 h=240 float=]

Zusammenfassung

Der Artikel zeigt, dass es bereits eine Vielzahl an Webdiensten, Produkten und Open Source Projekten zur Spracherkennung und Sprachsteuerung gibt, welche sich in vielen Gesichtspunkten jeweils sehr von einander unterscheiden. So wird die potentielle Nutzbarkeit zum Teil stark dadurch eingeschränkt, welche Betriebssysteme unterstützt werden, unter was für einer Lizenz die Veröffentlichung läuft, welche Sprachen erkannt werden und ob überhaupt Sprachsteuerung oder das Entwickeln eigener Anwendungen (SDK) vorgesehen ist. Dies wird in obiger Tabelle deutlich.

Die Spracherkennung derer Technologien, die sich für Android nutzen lassen findet bisweilen serverseitig statt. Die aufgezeichnete Eingabe wird an einen Server weitergeleitet und von diesem zu Text bzw. Befehlen verarbeitet.
Somit funktionieren jene nur, solange die Verbindung zwischen Gerät und Internet steht. Lediglich Google ließ verlauten, dass sein Android 4.0, welches Anfang Januar 2012 erscheinen soll, erstmals über eine autonom arbeitende Spracherkennung verfügt.

Unabhängig davon soll unbestätigten Berichten zufolge Anfang 2012 Googles Antwort auf Siri erscheinen. So berichtet der Fachblog androidandme, derzeit arbeite das Entwicklerteam an einer neuen Android-Sprachsteuerung mit Codenamen Majel. Auch heise.de zitierte den englischsprachigen Bolg in einem entsprechenden Artikel.
Majels Spracherkennung solle jedoch serverseitig stattfinden, hieß es, was wiederum mit Goggels offizieller Ankündigung einer autonom arbeitende Spracherkennung nicht ganz in Einklang zu bringen ist. Ein Google-Sprecher wiegelt Nachfragen indess damit ab, dass sie „keine Gerüchte und Spekulationen kommentieren“.
Man darf gespannt sein.

CommunityMashup – Ein erster Überblick

[toc] Das CommuntiyMashup ist eine Integrationslösung für Daten aus sozialen Diensten. Es vereinheitlicht und verbindet Daten aus den unterschiedlichsten Quellen. Hierbei steht im Sinne des „Social Web“ die Person im Vordergrund. Eine definierte Schnittstelle mit vorgefertigen Anwendungskompenten lässt eine einfache Verwendung der Daten in verschiedensten Anwendungsszenarien zu. Diese Seite gibt einen Überblick über die dem CommunityMashup zugrundeliegenden Konzepte und vermittelt einen Einblick in seine vielfältigen Verwendungsmöglichkeiten.

Ausgangssituation

Mit dem Erfolg von Web 2.0 im privaten und Enterprise 2.0 im unternehmensweiten Bereich veränderte sich die Art und Weise wie Informationen strukturiert und kosumiert werden.

[singlepic id=220 w=618 float=center]

Auswirkungen des Erfolg von Social Software

Im Zuge des immer verbreiteteren Einsatzes von Social Software auch im Unternehmenskontext vollzieht sich eine Entwicklung von einer datenzentrischen Systemsicht hin zu einer personzentrischen Perspektive. Soziale Netzwerke wie Facebook oder Microblogging Dienste wie Twitter sind nur zwei Arten von Diensten die Einzug in unser tägliches Leben gefunden haben. Insgesamt lässt sich beoachten, dass fast jeder Nutzer inzwischen mehr als einen Dienst benutzt, sei es wegen spezieller Funktionalitäten, den Personen die über den jeweiligen Dienst erreichbar sind oder schlichtweg um private und berufliche Nutzung zu trennen. So sind wir unter anderem gezwungen den richtigen Kanal zu wählen um Informationen zu konsumieren bzw. zu verteilen. Dies nährt den Wunsch nach einer Integrationslösung, die unsere Daten aus unterschiedlichen Diensten vereint ohne dabei ein neues zentralisiertes System zu schaffen. Insbesondere muss uns die Wahl der Dienste und die Art und Weise, wie wir diese nutzen wollen offen bleiben.

Mobile und ubiquitäre Nutzung

Eine weitere Veränderung der letzten Jahre lässt sich in der Nutzung verschiedenster Geräte, mit denen wir Informationen konsumieren, festhalten. Sei es mit dem Tablet zuhause im Wohnzimmer, unterwegs per Smartphone oder klassisch im Büro mit dem Desktoprechner. Hinzukommen ubiquitäre Systeme wie interaktive Wandbildschirme, welche die letzten Lücken unserer Informationsversorgung schließen. Eine zukunftsfähige Integrationslösung muss daher dem Nutzer die Möglichkeiten der freien Geräte- und Plattformwahl offen lassen.

Nutzerzentrische Aggregation verschiedener Quellen

Der Grundgedanke des Web 2.0 beinhaltet die starke Einbeziehung aller Nutzer bei der Erstellung von Inhalten und die Möglichkeit diese mit anderen Personen zu teilen. Mit der Integration von Daten aus uterschiedlichen Diensten entsteht der Wunsch diese untereinander mit zusätzlichen Informationen zu Verknüpfen und diese wiederum mit anderen zu teilen. Hierin liegt auch ein Kritikpunkt an aktuellen Integrationssystemen, die meist nur aus einer Single-User Perspektive getrieben sind. Beispielsweise ist die Verteilung der Information innerhalb einer Gruppe, wer welche Artikel zu einem gemeinsamen Interessensgebiet gelesen hat, aus dieser Perspektive unmöglich. Wobei die Artikel natürlich aus verschiedensten Quellen stammen können. Zusammen mit der personenzentrischen Sicht auf Daten, der Vielzahl verschiedenster genutzer Dienste und der Verwendung unterschiedlichster Geräte führt dies zum Wunsch einer neuen Integrationslösung für die wir im folgenden die Konzepte und Lösungsansätze vorstellen.

Grundidee

Das CommunityMashup verbindet die Inhalte aus verschiedensten sozialen Diensten. Dazu zählen beispielsweise Soziale Netzwerke wie facebook, Microblogging Dienste wie twitter oder Bild-Dienste wie flickr, aber auch spezielere wie beispielsweise der Referenzmanagement-Dienst Mendeley für wissenschaftliche Veröffentlichungen. Die Daten aus diesen Diensten werden über die Schnittstellen der Services abgerufen und über spezielle Adapter vereinheitlicht, so dass sie miteinander vermischt und verbunden werden können („mashup“). Die vereinheitlichten Daten werden anschließen wieder über spezielle Schnittstellen bereitgestellt. Hierbei wird auf unterschiedliche Anwendungsszenarien und deren spezielle Anforderung eingegangen, die insbesondere durch verschiedene Geräte und Plattformen beeinflusst sind. Wir unterscheiden ganz allgemein zwischen Web-Anwendungen, Desktop-Anwendungen und Anwendungen für mobile Geräte. Die folgende Grafik visualisiert diese Zusammenhänge noch einmal grafisch. Hierbei ist vorallem zu beachten, dass Daten nicht nur von den angebunden Diensten zu den Endbenutzer Anwendungen fließen, sondern auch in umgekehrter Richtung.
[singlepic id=603 w=618 float=center]

Model Driven Approach

Ausgehend von der Grundidee einer Integrationslösung für soziale Dienste, die Daten vereinheitlicht und über spezielle Schnittstellen wieder bereitstellt, stellt sich die Frage nach dem passenden Entwicklungsansatz. Erfahrungen haben gezeigt, dass Internetdienste sowie ihre ggf. vorhandenen Schnittstellen einer permanenten Änderung und Weiterentwicklung unterworfen sind. Dienste kommen und gehen bzw. sind populären oder unpopulärer ebenso verhält es sich mit ihren Funktionen und Schnittstellen. Um flexibel auf diesen kontinuierlichen Wandel reagieren zu können und dabei eine stetige Evolution der Integrationslösung zu ermöglichen, schlagen wir einen modellgetriebenen Ansatz vor. Dieser basiert auf einem dafür konzipierten personenzentrischen Datenmodell, das die Zusammenhänge in sozialen Diensten wiedergibt. Dieses Datenmodell und die darauf aufbauenden Anwendungskomponenten stellen wir im weiteren Verlauf näher vor.

Datenmodell

Untenstehende Abbildung zeigt die Kernelemente des personenzentrischen CommunityMashup-Datenmodells. Es enthält die drei Kernelmente Person, Organisation und Inhalt (Content). Organisationen wie auch Inhalte können hierarchisch strukturiert werden. Inhalte werden über eine Autor-Beziehung mit Personen verknüpft, diese wiederum können über Organisationen gruppiert werden. Personen-Objekte spiegeln jeweils reale Menschen wieder, d. h. für eine Person wird nicht ein eigenes Element für je benutzten Dienst erzeugt werden, vielmehr bilden alle verteilten Profile zusammen eine digitale Identität ab. Das Selbe gilt auch für die Profile von Organisationen. Jeder weitere Dienst trägt seine zusätzlichen Profilinformationen über Erweiterungs-Objekte (Extensions) bei. So bleibt auch der Bezug zur ursprünglichen Quelle erhalten.
[singlepic id=600 w=618 float=center]

Ein Kernkonzept des Datenmodells ist die bewusst offene Verwendung von Tags für Metainformationen, um ein Minimum von zusätzlichen Attributen für die einzelnen Daten-Objekte fix speichern zu müssen. Beispielsweise erhält eine Person nicht mehr zwei Attribute für die private und die berufliche E-Mail-Adresse, sondern Referenzen zu zwei E-Mail Objekten getaggt mit privat bzw. beruflich. Ein E-Mail Objekt lässt sich dann beispielsweise noch facebook taggen um so deren Verwendung auszuzeichnen. Dieses Verfahren wird auf alle Objekte des Datenmodells angewandt und erlaubt sehr flexible Such- und Filtermethoden und ermöglicht dadurch letztlich eine nutzungsoffene Verwendung der Integrationslösung.

Anwendungskomponenten

Mit der aus dem Datenmodell hervorgehend Abbildungsvorschrift, die es erlaubt Daten aus sozialen Diensten zu vereinheitlichen und miteinander zu verbinden, stellt sich die Frage, welche Teile einer konkreten Anwendung direkt vom vorliegenden Datenmodell abängen und somit ebenfalls automatisch aus dem Modell generiert werden können. Um eine nachhaltige und erweiterbare Lösung zu ermöglichen, ist es quasi ein Muss, dass alle diese direkt ableitbaren Teile automatisch bzw. zumindest semi-automatisch generiert werden. Die folgende Grafik gibt einen Überblick über die für das CommunityMashup relevanten, automatisch generierbaren Anwendungskomponenten:
[singlepic id=604 w=618 float=center]

Viele UML-Werkzeuge unterstützen mittlerweile die automatische Erzeugung einer (Java) Schnittstelle mit zugehörigen leeren Klassen und Methoden. Für eine durchgängige Lösung wird allerdings ausführbare Code mit einer Laufzeitumgebung (RunTime) benötigt. Diese kümmert sich beispielsweise um die Erzeugung von Objekten bzw. um die Bereitstellung von Methoden zur Manipulation solcher Instanzen. Ein zusätzlicher Event-Mechanismus erlaubt das Verfolgen dieser Änderungen. Eine weitere wichtige Anwendungskomponente stellt die Persistierung dar. Diese wird beispielsweise für Caching benötigt. Für die Persistierung von Daten ist eine Serialisierung und Deserialisierung der Objekte notwendig. Diese wird ebenfalls für den Datenaustaustausch über Web-Schnittstellen im XML-Format benötigt. Im Rahmen des CommunityMashup-Projektes wird aktuell eine durchgängige Werkzeugkette aufgebaut, die die automatische Erstellung dieser Komponenten ermöglicht. Wir wenden den gleichen modellgetrieben Ansatz auch auf ein Meta-Modell an, das die möglichen Konfigurationen des CommunityMashup beschreibt. Hierfür werden viele identische Komponenten benötigt, allerdings jeweils bezogen auf ein anderes Modell. Die Verwendung des Meta-Modells erlaubt es, Konfigurationen speichern und laden zu lassen (Persitierung) und beispielsweise aus Gründen der Fernwartung auch über eine Web-Schnittstelle abfragen und verändern zu lassen.

Service-Orientierte-Architektur

Alleine durch die oben beschrieben, aus einem Modell erzeugbaren Komponenten lässt sich noch keine gesamte Integrationslösung erstellen. Ziel des CommunityMashups ist nicht nur ein flexibles Entwicklungskonzept das durch den modellgetriebenen Ansatz erreicht wird, sondern auch eine flexible Systemarchitektur die aufgrund von Anforderungen wie Skalierbarkeit, Performance und Ausfallsicherheit eine Verteilung von Systemkomponenten zulässt. Diese Service-Orientierte-Architektur, muss sich dadurch auszeichnen, dass definierte Systemkomponenten als eigenständige Services mit definierten Schnittstellen realisiert werden. So lassen sich selbst zur Laufzeit einzelne Komponenten aktualisieren bzw. austauschen ohne die Verfügbarkeit des Gesamtsystems zu beeinflussen. Nachfolgende Abbildung zeigt ein exemplarisches verteiltes Szenario mit Client- und Server Komponenten.
[singlepic id=601 w=618 float=center]

Die Verbindung der Daten aus den eizelnen Quelldiensten (Source 1 bis Source n) wird auf einem Server durchgeführt und durch eine Konfiguration gesteuert. Jede dieser Quellkomponenten wird als eigener Service realisiert, der sich sich einzeln aktualiseren lässt, beispielsweise um auf die Änderung einer entfernten Schnittstelle zu reagieren.Java Intern überführen die dargestellten Quellkomponenten Daten der externen Dienste in das dem personenzentrische CommunityMashup-Datenmodell und tragen diese hierdurch sukzessive zu einem gemeinsamen Datensatz zusammen. Die zentrale CommunityMashup-Komponente stellt diesen Datensatz (ggf. je nach Bedarf gefiltert) wieder über eine Java Schnittstelle bereit. Darauf aufbauend lässt sich eine REST Schnittstelle hinzufügen, die die aggregierten und gefilterten Daten (zugriffsbeschränkt) über das Web verfügbar macht. Spezielle Anwendungskomponenten lassen nun eine Verwendung der Daten auf Client-Seite über eine identische Java API zu. Die je nach Client-Typ (im oben abgebildeten Beispiel eine klassische Desktop Anwendung in Kombination mit einem Android Mobile Device) speziell ausgeprägten Anwendungskomponenten kümmern sich im Hintergrund transparent um den Datenaustausch und verlagern je nach Client rechenintensive Aufgaben auf den Server.

CommunityMashup REST-Schnittstelle

[toc] Das CommunityMashup stellt Anwendungen eine auf Web2.0-Inhalte spezialisierte und auf einem personenzentrischen Datenmodell basierende Datenbasis zur Verfügung. Um Anwendern/Entwicklern generische Zugriffsmöglichkeiten auf diese Datenbasis zu ermöglichen, wurde im Rahmen einer Masterarbeit eine REST-Schnittstelle für das CommunityMashup entwickelt, die nachfolgend kurz vorgestellt wird

Problemstellung

Zu Beginn der Entwicklung des CommunityMashups wurde der Zugriff auf die Daten des Frameworks lediglich über eine Java-Schnittstelle ermöglicht, d.h. eine es nutzende Anwendung musste in Java implementiert sein und auf der gleichen Maschine wie das CommunityMashup laufen.Eine auf verschiedene Geräte oder Architekturen verteilte Nutzung wurde somit starkt erschwert (vgl. Abbildung links).

[singlepic id=582 h=270 float=left] [singlepic id=583 h=270 float=left]

Um diesem Problem zu begegnen, wurde das CommunityMashup im Rahmen einer Masterarbeit um eine REST-Schnittstelle erweitert. Mit Hilfe dieser Schnittstelle können verschiedenste Arten von Anwendungen (z.B. normale Anwendungen, Smartphone-Apps oder Widgets) auf unterschiedlichen Geräten auf die Daten eines oder mehrerer CommunityMashups zugreifen und diese verwenden sowie manipulieren (vgl. Abbildung rechts).

Verwendung der Schnittstelle

Die Schnittstelle kann prinzipiell von jeder Anwendung verwendet werden, die entsprechend der Schnittstellen-Dokumentation erstellt/konfiguriert wurde:

[singlepic id=581 w=518]

Da die Kommunikation mit der REST-Schnittstelle über das HTTP-Protokoll und damit potentiell dem gesamten Internet geschehen kann, ist die Anwendungsentwicklung sowohl was den Ort als auch die Architektur des Zielsystems betrifft vom CommunityMashup unabhängig.

Die REST-Schnittstelle wird vom CommunityMashup in Form eines Java-Servlets bereitgestellt, welches ebenfalls die Dokumentation der Schnittstelle enthält.

Beide können über die URL des CommunityMashup-REST-Services erreicht werden, der eine selbsterklärende Beschreibung der angebotenen Dienste bereithält. Unter anderem kann die Syntax der REST-Anfragen nachgeschlagen werden und die Anfragen können im Browser getestet werden, was bei der Entwicklung kompatibler Anwendungen hilft.

[singlepic id=595 w=618 float=center]

[singlepic id=584 w=618 float=center]

Technische Umsetzung

Um die REST-Schnittstelle mit der modellgetriebenen Entwicklung des CommunityMashups[ref]Vgl. https://soziotech.org/communitymashup/model-driven-approach/.[/ref] im Einklang zu halten, werden die dynamischen (vom Datenmodell des CommunityMashups anhängigen) Methoden und Funktionen mit Hilfe angepasster JET-Templates automatisch aus dem Modell generiert, was eine spätere manuelle Anpassung der Schnittstelle an Änderungen des CommunityMashups überflüssig macht:

[singlepic id=589 w=618 float=center]

Um den unauthorisierten Zugriff auf das CommunityMashup einzuschränken, wurde ein Sicherheitssystem entwickelt, das nur registrierten Anwendungen den Zugriff auf die Daten und Funktionen des CommunityMashups gestattet. Die Absicherung der REST-Anfragen geschieht durch eine Signatur, welche die Anfrage vor einer Manipulation schützt und den Absender der Anfrage eindeutig identifiziert.

Sicherheitssystem der Schnittstelle

Die Sicherheit der Daten des CommunityMashups wird durch die Verwendung sogenannter Message Authentication Codes (MAC) sichergestellt, welche auch bei anderen (REST)-Schnittstellen namhafter Online-Dienstanbieter wie Amazon, GoogleMaps oder Flickr verwendet wird. Dabeiwird neben der eigentlichen Anfrage der Hashcode der Anfrage und eines geheimen Schlüssels übermittelt, wodurch zum einen die Integrität der Nachricht und zum anderen die Identität des Absenders sichergestellt sind.

REST-Zugriff

Die folgenden Prozessdiagramme liefern einen kurzen Überblick über die Zugriffsmöglichkeiten auf das CommunityMashup über die REST-Schnittstelle, darunter auch über den Ablauf einer gesicherten REST-Anfrage:

[nggtags gallery=REST+Zugriff]