Outdoor-Touchscreens: Hardware und Komplettsysteme

Dieser Artikel enthält eine kurze Übersicht zu Hardware-Lösungen für Outdoor-Touchscreen-Terminals sowie zu Komplettsystemen, die Soft- und Hardware vereinen. Diese einzelnen Arbeiten wurden im Rahmen der Recherche zur Arbeit Touchscreen-basiertes Campus-Navigationssystem für die Universität der Bundeswehr München untersucht und werden hier noch einmal zusammenfassend vorgestellt.

Ziel der Zusammenstellung

Im Rahmen der Anschaffung eines Outdoor-Touchscreen-Terminals an der UniBwM wurden zunächst mögliche Lösungen betrachtet, um Hersteller und Nutzungskonzepte zu identifizieren. Diese Sammlung wurde im Rahmen der oben verlinkten Bachelorarbeit um existierende proprietäre Komplettsysteme (Hardware + Software) erweitert, um für die Umsetzung eines Touchscreen-basierten Campus-Navigationssystems aus den Erfahrungen anderer Hersteller und Entwickler zu lernen.

Terminals ohne Software

Die unten aufgeführten Terminals werden von den jeweiligen Firmen normalerweise ohne Software als reine Hardware-Produkte ausgeliefert und sind mit dem an der UniBwM verwendeten friendlyway artic Terminal vergleichbar. Natürlich erhebt diese Liste keinen Anspruch auf Vollständigkeit, sondern bildet nur den damaligen Recherchestand ab.

Kolembar

Das erste Terminal ist von der Firma „Kolembar Industietechnik“ [ref]http://www.kolembar.de/[/ref], diese ist Spezialist rund um das Thema Monitore und Kiosksysteme. Sie ist im deutschsprachigen Raum ansässig, agiert aber auch international.  Das System heißt „Hawk“ und ist ein Outdoor Kiosksystem mit bis zu 32“ Displays, das vom Kunden anwedungsspezifisch bestellt werden kann. Die Firma „Kolembar“ arbeitet zurzeit an einem neuen Outdoor System mit bis zu 46“ das wir jedoch noch nicht vorstellen können.

Hier einige mögliche Konfigurationen des „Kolembar -Hawk“ :

[nggtags Gallery=“KoHw“]

SOLIDD

Das zweite Terminal ist von der Firma „SOLIDD“ [ref]http://www.solidd.de/[/ref], diese hat ihren Sitz in Kusel, Rheinland – Pfalz.  Neben einem weit gefächerten und vielseitigen Spektrum an Standard- Informationssystemen bietet die Firma auch auf Kundenwünsche maßgeschneiderte Sonderlösungen. Weitere Besonderheit ist, dass Sie höhenverstellbare Modelle anbieten, die auch von Kindern oder Personen im Rollstuhle verwendet werden können. Das betrachtete Modell K8 ist eine im Design schlicht gehaltene Infostele in drei Displaygrößen.

Hier einige Bilder des „SOLIDD K8“:

[nggtags Gallery=“SoK8″]

friendlyway

Das nächste Terminal ist von der Firma „friendlyway“ [ref]http://www.friendlyway.de/[/ref], diese bietet ihren Service und ihre Produkte in Europa, im Mittleren Osten und in Nordamerika an.  Sie bieten digitale Kioske und Stelensysteme für den In- & Outdoorbereich. Der Artikel betrachtet das Modell „grande 46, es besitzt beidseitig ein 46“ Touchscreen Display.

[nggtags Gallery=“grande“]

BV-com Office

Dieses Terminal ist von der Firma „BV-com Office“ [ref]http://www.bv-comoffice.com/[/ref], einer in Deutschland ansässigen Firma und ist erfolgreicher Xerox-Vertriebspartner. Die Firma bietet weiterhin verschiedenste Projektionsgeräte, wie Beamer, Bildschirme und andere Displays. Neben diesen Produkten bieten Sie für Kunden maßgeschneiderte Medien Konzepte.  Das „iMotion“ kann mit ein- oder beidseitigen Displays in Größen von bis zu 70“ bestellt werden. Zudem bietet „BV-com Office“ als einzige der hier vorgestellten Firmen bei einer solchen Displaygröße ein Querformat.

[nggtags Gallery=“BVIm“]

Terminals der Firma ide-tec

[nggtags Gallery=idetec]

Terminals der Firma eKiosk

[nggtags Gallery=eKiosk]

Komplettsysteme mit Software

Die hier aufgeführten Komplettsysteme dienten vor allem als Input für Ideen in der Umsetzung der oben verlinkten Bachelorarbeit.

Pariser Metroplan

Hierbei handelt es sich um eine sehr frühe Art von interaktivem Navigationssystem. Das Pariser U-Bahn Netz wurde durch LEDs auf einer Karte abgebildet. Der Nutzer kann duch das Drücken von Reisezielen im unteren Teil des Gerätes seine Auswahl treffen. Das Gerät zeigt anschließend mithilfe der LEDs die U-Bahn Linien von Standort zu Zielort an.

[singlepic id=329 w=480 h=618 float=center]

Einkaufszentrum Paris

Dieses Komplettsystem wurde für ein Parieser Einkaufszentrum entwickelt. Es verfügt über ein Touchscreen Displays (links unten) und zwei einfache Monitore (oben in der Mitte und rechts unten). Über das Touchsceen Display kann der Nutzer sein Ziel auswählen und zusätzliche Einstellungen vornehmen. Der Hauptmonitor (oben) zeigt ihm dann die Navigation zum Ziel. Der dritte Bildschirm unten rechts ist als Werbefläche konzipiert und zeigt Werbefilme unabhäng von der Nutzung.

[singlepic id=330 w=480 h=618 float=center]

Interactive City Terminals

Dieses Komplettsystem wird vom Hersteller an an die individuellen Anforderungen von den Städten angepasst, in denen es später eingesetzt wird. Das Terminal der zweiten Generation verfügt über je ein 52″ Display auf Vorder- und Rückseite. Hierdurch kann das Terminal von zwei Nutzern gleichzeitig und unabhängig von einander genutzt werden. Bei der Software handelt es sich um ein Informations- und Navigationssystem, dass über Events in der Stadt sowie verschiedene öffentliche Einrichtungen Auskunft geben kann. Das System enthält Informationen über Hotels, Restaurants, Veranstaltungen und Ausflugsziele in der Umgebung und zeigt zu diesen Bilder und Videos.

[singlepic id=326 w=480 h=618 float=center]

Zusammenfassung

Abschließend ist zu sagen, dass Outdoor-Terminals für immer mehr Einsatzszenarien von konkreten Vertriebskonzepten bis hin zu rein unternehmensinterner Nutzung von Interesse zu sein scheinen.  Einsatzbereich und Umfang entscheiden oft über die verwendete Terminalart. Komplettsysteme werden häufiger für kleinere Unternehmen entwickelt, die nur wenig Anpassungen vom Hersteller wünschen. Reine Hardwaresysteme werden hingegen öfter von größern Unternehmen gekauft, die ihre eigene Software entwickeln oder diese von andern Firmen auf ihre spezifischen Wünschen anpassen lassen. Für das Terminal der UniBwM wurde im Rahmen einer Bachelorarbeit aufgrund der sehr spezifischen Anforderungen die zweite Variante gewählt. Weitere Informationen hierzu sind im Artikel Touchscreen-basiertes Campus-Navigationssystem für die Universität der Bundeswehr München beschrieben.

Alternative Möglichkeiten zur Interaktion mit großen vertikalen Displays

[toc] Ein Großteil der Entwicklungen im Bereich der Natural User Interfaces basiert auf (Multi-)Touch Interfaces und der Steuerung durch Touchgesten. Da diese Form der natürlichen Benutzerschnittstellen beispielsweise bei sehr großen vertikalen Displays oder an für den Benuter nicht erreichbaren Displays nicht verwendet werden kann, besteht die Notwendigkeit, alternative natürliche Interaktionsmechanismen einzusetzen, die eine berührungslose Interaktion mit vertikalen Displays aus einer gewissen Entfernung ermöglichen. Um einen Überblick über bereits existierende Prototypen solcher über die Touchinteraktion hinausgehenden (Beyond Touch) Interaktionsmechnismen zu geben, werden nun einige dieser Prototypen vorgestellt.

Aus der Vielzahl der Prototypen von natürlichen Interaktionsmechanismen lassen sich einige gehäuft auftretende, grundlegende Bedienkonzepte identifizieren. So werden vermehrt Ansätze gewählt, bei denen es beispielsweise möglich ist auch aus einiger Entfernung durch Touchgesten in unteschiedlichen Ausprägungen zu interagieren. Andere Prototypen basieren auf mouseähnlichen tragbaren Eingabegeräten, die eine Bedienung auf intuitive und natürliche Weise anstreben. Andere Interaktionsmechanismen beruhen auf der Gestensteuerung und verzichten auf zusätzliche Eingabegeräte auf Nutzerseite. Des Weiteren wird hier auch ein sogenanntes Brain-Computer Interface vorgestellt, das eine Anwendungsnutzung allein durch Gehirnstrommessung ermöglicht. Zunächst werden nun einige Mechanismen beschrieben, die durch die Körperbewegungen des Nutzers gesteuert werden. Nach diesen gestenbasierten Interaktionsmechanismen werden die Remote-Touch Interaktionsmechanismen, die gerätevermittelten Interaktionsmechanismen und das Brain-Computer Interface vorgestellt.

Gestenbasierte Interaktionsmechanismen

Die natürlichste Form der HCI ist die Bedienung einer Nutzerschnittstelle ohne die bewusste Nutzung eines Interaktionsmechanismus zur Erreichung der Zielsetzung. Dies bedingt einen vollständigen Verzicht auf Eingabegeräte auf Nutzerseite und die Interaktion zwischen System und Nutzer auf Basis der dem Nutzer zur Verfügung stehenden Kommunikationsmittel. Ebenso wie die Interaktion zwischen Menschen kann der Nutzer dem System seine Absichten über die Bemühung von Mimik, Gestik und Sprache mitteilen. [ref]Dahm, Markus (2006): Grundlagen der Mensch-Computer-Interaktion. 1. Aufl., . München: Pearson Studium, S. 112.[/ref] Die Gesture Based Interfaces nutzen zur Interaktion zwischen Mensch und Computer nur die Gestik zur Eingabe auf Nutzerseite und visuelles oder akustisches Feedback durch den Computer.

Magic Window

Magic Window[ref]Lee, Johnny C. (2008a): Hacking the Nintendo Wii Remote. IEEE Pervasive Computing, 3/2008 (7). IEEE Computer Society, S. 39–45.[/ref] ist ein Interaktionsmechanismus, der es dem Nutzer erlaubt ohne die Zuhilfenahme von Eingabegeräten mit Bildmaterial zu interagieren. Dazu wird die Position des Kopfes des Nutzers verfolgt (Headtracking) indem die Position der an der Brille des Nutzers befestigten Infrarot-LED von der Infrarotkamera einer Wii-Remote erfasst wird. Da die Darstellung auf dem Display stets zum Nutzer ausgerichtet wird, entsteht für diesen ein der Effekt, dass er den dargestellten Inhalt wie durch ein Fenster betrachtet. Bewegt sich der Nutzer also nach links, kann er mehr von der rechten Seite des Bildes sehen. Bewegt er seinen Kopf nach unten, kann er mehr von der oberen Seite des Bildes sehen. Nähert er sich dem Display, kann er mehr vom gesamten Bild sehen usw. Diese Form der Interaktion ist sehr natürlich, da der Nutzer das Prinzip der Paralaxe, also der scheinbaren Änderung der Position eines Objektes, wenn der Beobachter seine eigene Position verschiebt, bereits aus der im Alltag gesammelten Erfahrung kennt. Um der Interaktion weitere Freiheitsgrade hinzuzufügen kann z.B. ein weiterer Wii-Remote Controller in die Interaktion eingebunden werden.

[nggtags gallery=MagicWindow]

SixthSense

SixthSense[ref]Mistry, Pranav & Maes, Pattie (2009): SixthSense: A Wearable Gestural Interface. In: Anjyo, Ken (Hrsg.): ACM SIGGRAPH ASIA 2009 Sketches. New York, USA: ACM Press, S. 11:1[/ref] ist ein Interaktionsmechanismus der in die Rubrik des Wearable Computing eingeordnet werden kann, da die Hardware wie Kleidung am Körper getragen wird. Diese Hardware besteht aus einem Projektor und einer Kamera, die vor der Brust getragen werden sowie farbigen Markern an Daumen und Zeigefinger beider Hände. Somit können Inhalte durch den Projektor auf jeder beliebigen Fläche dargestellt werden und durch Handgesten manipuliert werden, die von der Kamera aufgenommen werden. So kann der Nutzer beispielsweise jederzeit und nahezu überall seinen Kalender anzeigen lassen, um seine Termine zu verwalten, Skizzen oder Notizen machen, Kartenmaterial der Umgebung betrachten oder gestengesteuert Fotos machen.

[nggtags gallery=SixthSense]

Imaginary Interface

Imaginary Interface[ref]Gustafson, Sean; Bierwirth, Daniel & Baudisch, Patrick (2010): Imaginary Interfaces: Spatial Interaction with Empty Hands and without Visual Feedback. In: Perlin, Ken; Czerwinski, Mary & Miller, Rob (Hrsg.): Proceedings of the 23nd Annual ACM Symposium on User Interface Software and Technology. New York, USA: ACM Press, S. 3–12.[/ref] ist ebenfalls eine Wearable Computing Benutzerschnittstelle und nutzt eine Kamera zur Erfassung von Handgesten, verzichtete aber anders als SixthSense vollständig auf eine Darstellung von Inhalten und erlaubt daher eine sehr kompakte Bauweise, da kein Anzeigegerät erforderlich ist. Durch eine L-Geste mit der nichtdominanten Hand wird eine imaginäre Eingabefläche aufgespannt, auf der dann durch das Zusammenführen von Daumen und Zeigefinger gezeichnet oder geschrieben werden kann. So kann der Nutzer jederzeit  Dokumente zu in seinem aktuellen Umfeld relevanten Themen erstellen. Diese auf einfachen Gesten basierende Form der Interaktion ist leicht erlernbar, jedoch sind komplexe Zeichnungen wegen des fehlenden visuellen Feedbacks schwierig zu realisieren.

[nggtags gallery=ImaginaryInterface]

Multitoe

Mit Multi Toe[ref]Kaefer, Konstantin; Kanitz, Dorian; Meusel, René; Fetzer, Caroline; Augsten, Thomas; Stoff, Thomas; Holz, Christian & Baudisch, Patrick (2010): “Multi-Toe” Interaction with a High-Resolution Multi-Touch Floor. Potsdam, Germany, S. 1-6.[/ref] kann der Benutzer eine Anwendung mit den Füßen steuern. Dazu erfolgt die Interaktion auf einem touchsensitiven Untergrund, der sich wiederum über einem Display befindet. Bei dieser Form der Touchinteraktion treten einige Besonderheiten auf. So hat der Nutzer nahezu dauerhaften Kontakt zur Interaktionsoberfläche. Außerdem ist die Kontakfläche um einiges größer als bei der Touchinteraktion mit Fingern, sodass ein Interaktionspunkt an der Sohle des Benutzers identifiziert werden muss, um eine präzise Bedienung zu gewährleisten. Allerdings bietet Multi Toe auch einige Vorteile gegenüber einer herkömlichen Touchinteraktion mit Fingern. So kann der Nutzer anhand des individuellen Profils seiner Schuhsohle identifiziert werden. Außerdem kann eine Gewichtsverlagerung des Nutzers erkannt werden, wodurch eine differenzierte Touchinterakion mit zusätzlichen Freiheitsgraden erfolgen kann.

[nggtags gallery=MultiToe]

Wii Gesture Interface

Wii Gesture Interface[ref]Lin, Jiaqing; Nishino, Hiroaki; Kagawa, Tsuneo & Utsumiya, Kouichi (2010): Free Hand Interface for Controlling Applications Based on Wii Remote IR Sensor. In: Spencer, Stephen N. (Hrsg.): Proceedings of the 9th ACM SIGGRAPH Conference on Virtual-Reality Continuum and its Applications in Industry VRCAI 2010. New York, USA: ACM Press, S. 139–142.[/ref] ist ein Interaktionsmechanismus zur Steuerung vertikaler Displays durch natürliche Handgesten. Eine Platine mit einer Vielzahl von Infrarot-LED leuchtet dazu den Raum vor dem Display aus. Die reflektierte Infrarotstrahlung wird dann von der Infrarotkamera eines Wii-Remote Controllers  in ein Bild umgewandelt, dass es ermöglicht die Hand des Benutzers und ihre Bewegungen zu identifizieren. Somit können einfache Gesten, wie eine Bewegung der Hand von links nach rechts genutzt werden, um beispielsweise den nächsten Inhalt auszuwählen oder eine Berührungsgeste, um einen Inhalt auszuwählen. Um dann weitere Interaktionsmöglichkeiten zu schaffen und die Präzision der Interaktion zu steigern, kann zusätzlich noch ein weiterer Wii-Remote Controller eingebunden werden, dessen Tasten z.B. mit schwer durch Gesten darstellbaren Aktionen belegt werden können.

[nggtags gallery=Wii Gesture Interface]

Remote-Touch Interaktionsmechanismen

Diese Form der alternativen natürlichen Interaktionsmechanismen erfordert keine Präsenz des Nutzers an einem vertikalen oder horizontalen Touchscreen sondern verlagert die direkte Interaktion mit dem System auf das vom Benutzer verwendete Gerät. Zwar erfolgt die Interaktion mit dem verwendeten Interaktionsmechanismus wiederum durch intuitive Touchgesten, jedoch ist der Nutzer nun nicht mehr dazu gezwungen sich zur Interaktion in unmittelbarer Nähe des großen vertikalen Displays aufzuhalten. Auf diese Weise können mehr Nutzer und auch entfernt stehende Nutzer in die Interaktion einbezogen werden. Je nach visuellem Feedback des genutzten Interaktionsmechanismus kann auch eine uneingeschränkte Interaktion wie am großen vertikalen Touchscreen selbst erfolgen. Außerdem ist es mit Remote Touch Interfaces möglich auch Displays, die keine Touchscreen sind mittel touchbasierter Nutzerinteraktion zu steuern.

SecondLight

SecondLight[ref]Izadi, Shahram; Hodges, Steve; Taylor, Stuart; Rosenfeld, Dan; Villar, Nicolas; Butler, Alex & Westhues, Jonathan (2008): Going Beyond the Display: A Surface Technology with an Electronically Switchable Diffuser. In: Cousins, Steve & Beaudouin-Lafon, Michel (Hrsg.): Proceedings of the 21st Annual ACM Symposium on User Interface Software and Technology. New York, USA: ACM Press, S. 269–278.[/ref] ist ein von Microsoft auf Basis der Technologie des MS Surface entwickelter Ansatz, der die gleichzeitige Projektion zweier unterschiedlicher Bilder auf die Oberfläche eines horizontalen Displays ermöglicht. Während das eine Bild wie gewohnt auf der Darstellungsfläche des Gerätes angezeigt wird, wird das zweite Bild durch diese Darstellungsfläche hindurch projiziert und kann durch weniger lichtdurchlässige Materialien sichtbar gemacht werden. Dies ermöglicht auch eine Projektion auf in einer geringen Entfernung über dem Gerät befindliche Oberflächen. Zusätzlich können auf diesen entfernten Oberflächen auch Touchinteraktion erfolgen.

[nggtags gallery=SecondLight]

Touch Projector

Touch Projector[ref]Boring, Sebastian; Baur, Dominikus; Butz, Andreas; Gustafson, Sean & Baudisch, Patrick (2010): Touch Projector: Mobile Interaction Through Video. In: Henry, Nathalie & Tabard, Aurélien (Hrsg.): Proceedings of the 28th International Conference on Human Factors in Computing Systems. Atlanta, GA, USA: ACM Press, S. 2287–2296.[/ref] ist ein Interaktionsmechanismus, der es erlaubt Inhalte auf gewöhnlichen Displays mittels Touchgesten zu manipulieren. Zu diesem Zweck wird das Echtzeitbild der Kamera eines Smartphones genutzt. Die darauf sichtbaren Inhalte, die auf dem herkömmlichen Display dargestellt werden, können nun durch Touchgesten auf dem Display des Smartphones manipuliert werden. Anschließend wird die Veränderung auch auf die Darstellung auf dem herkömmlichen Display übertragen. Dabei werden alle Displays in der Umgebung und das Smartphone über eine Server synchronisiert, was auch das verschieben eines Inhalts von einem Display auf ein anderes ermöglicht. Durch diesen Mechanismus können auch für den Benutzer unzugängliche nicht touchfähige Displays via Touchgesten genutzt werden.

[nggtags gallery=TouchProjector]

Light Space

Auf den ertsen Blick unterscheidet sich Light Space[ref]Wilson, Andrew D. & Benko, Hrvoje (2010): Combining Multiple Depth Cameras and Projectors for Interactions On , Above , and Between Surfaces. In: Perlin, Ken; Czerwinski, Mary & Miller, Rob (Hrsg.): Proceedings of the 23nd Annual ACM Symposium on User Interface Software and Technology. New York, USA: ACM Press, S. 273–282.[/ref] nicht wesentlich von andern natürlichen Benutzerschnittstellen. Es bietet sowohl eine horizontale als auch eine vertikale projizierte Darstellungsfläche, auf denen die gewohnten Touchgesten zur Manipulation von Bildinhalten ausgeführt werden können. Die Innovation liegt bei Light Space zwischen den Darstellungsflächen, denn ein dritter Projektor sowie drei  Kameras zur Entfernungsmessung erlauben eine Touchinteraktion auf gewöhnlichen Gegenständen aber auch eine Darstellungsübergreifende Interaktion mit den Inhalten. So kann ein Nutzer einen Inhalt auf der einen Darstelungsfläche berühren, danach die andere Darstellungsfläche berühren und so den Inhalt dorthin zu verschieben. Außerdem kann er einen Inhalt vom Rand der Darstellungsfläche auf seine Hand verschieben, wodurch der Inhalt im Sinne der Augmented Reality zu einem projizierten Ball wird, den der Nutzer auf seinem Arm umherrollen kann oder in die andere Hand bzw. auf einen Gegenstand legen kann. Berührt der Nutzer wiederum mit der Hand ohne Ball eine Darstellungsfläche, wird der durch den Ball repräsentierte Inhalt dorthin verschoben. Des Weiteren können durch die präzise Tiefenwahrnehmung der Anwendung Menüs im Raum platziert werden. Hält der Benutzer seine Hand über einen auf den Boden projizierten Menü Schriftzug, ändert sich die nun auf der Hand befindliche Darstellung je nach Höhe über dem Boden zu einem Menüpunkt, der dann durch das Entfernen der Hand ausgewählt werden kann.

[nggtags gallery=LightSpace]

Gerätevermittelte Interaktionsmechanismen

Zur Interaktion mit den Device Mediated Interfaces benötigt der Nutzer ein zusätzliches Eingabegerät, das er bei der Interaktion bei sich trägt oder in der Hand hält. Entgegen der indirekten Manipulation mit einer gewöhnlichen Maus, die nur über Sensoren zur Erfassung einer Positionsveränderung in einer zweidimensionalen Ebene verfügt und diese auf den Zeiger überträgt, können die für Device Mediated Interfaces genutzten Interaktionsmechanismen ihre Position im Raum oder relative Lageveränderungen durch zusätzliche optische, gyroskopische oder Beschleunigungssensoren ermitteln. So kann der Nutzer direkt mit Inhalten interagieren, denn wenn er mit dem Gerät auf einen Inhalt zeigt, zeigt auch der Cursor auf dieses Ziel. So wird die natürliche Interaktion des Nutzers über die Sensorik der genutzten Interaktionsmechanismen an den Computer übertragen und dort in entsprechende Manipulationen umgesetzt. Der Interaktionsmechanismus übernimmt sozusagen eine Mediatorrolle zwischen dem Nutzer und dem genutzten System, da er die natürlichen Interaktionen des Nutzers in vom System interpretierbare Manipulationen umwandelt. Außerdem bieten die Zusatztasten des jeweiligen Interaktionsmechanismus die Option Shortcuts für bestimmte Funktionen zu nutzen. Auf diese Weise muss der Nutzer keine komplexen Muster von Manipulationen nachbilden, um das System zu Steuern. Zur weiteren Steigerung der Effizienz der Interaktion sind Device Mediated Interfaces ergonomisch gestaltet, sodass der Nutzer gewissermaßen mit dem Gerät verschmilzt und das Gerät die natürliche Interaktion des Nutzers nicht beeinträchtigt.

Soap

Soap[ref]Baudisch, Patrick; Sinclair, Mike & Wilson, Andrew (2007): Soap: A Pointing and Gaming Device for the Living Room and Anywhere else. In: Heart, John C. (Hrsg.): ACM SIGGRAPH 2007 Emerging Technologies. New York, USA: ACM Press, S. 17–20.[/ref] ist ein Interaktionsmechanismus, der die Steuerung eines Zeigers zur Nutzung einer Anwendung auf großen vertikalen Wanddisplays ermöglicht. In einer flexiblen Kunststoffhülle befindet sich der optische Sensor einer Mouse sowie eine Taste auf der Rückseite der Platine, die durch die Kunsstoffhülle hindurch betätigt werden kann. Die Kunststoffhülle ist wiederum mit einem dehnbaren Stoffüberzug bespannt. Auf diese Weise kann eine Verschiebung der Stoffhülle durch den optischen Sensor registriert werden und so die Bewegung des Cursors gesteuert werden. Eine schnelle Verschiebung des Cursors hingegen ist in vertikale Richtung durch dauerhaftes fixieren des Gerätes durch Zusammendrücken von Daumen und Zeigefinger oder in horizontale Richtung durch Drehen des Gerätes um die Längsachse ähnlich einem nassen Stück Seife in der Handfläche möglich. Aufgrund dieser Seifenmetapher trägt der Mechanismus auch seinen Namen.

[nggtags gallery=Soap]

Brain-Computer Interface

Das Brain-Computer Interface[ref]McFarland, Dennis J. & Wolpaw, Jonathan R. (2011): Brain-Computer Interfaces for Communication and Control. Communications of the ACM, 5/2011 (54), S. 60-66.[/ref] ist eine Form der Mensch-Computer Interaktion, die auf der Messung von Gehirnströmen basiert. Da dies über an der Kopfhaut platzierte Elektroden geschieht, ist dieser Interaktionsmechanismus im Gegensatz zu den bisher vorgestellten Mechanismen auch für Menschen mit eingeschränkter Bewegungsfähigkeit geeignet. Die Anwendung von McFarland und Wolpaw erlaubt z.B. eine Texteingabe ohne die Nutzung zusätzlicher Eingabegeräte. Auf einem Display wird dazu eine Matrix von Buchstaben angezeigt, von denen jeweils abwechselnde Gruppen aufleuchten. Der Nutzer muss während der Blinksequenz eine Buchstaben mit den Augen fixieren. Da jeder Buchstabe eine individuelle Blinksequenz hat und das Aufleuchten des fixierten Buchstaben mittels EEG gemessen werden kann, ist der vom Nutzer ausgewählte Buchstabe eindeutig bestimmbar. So wird eine Texteingabe allein durch das Anschauen der Buchstabenmatrix möglich. Allerdings ist durch die Dauer der Blinksequenz keine schnelle Eingabe möglich und die für diesen Interaktionsmechanismus benötigte Hardware ist im Vergleich zu den meisten zuvor beschriebenen Prototypen sehr teuer.

[nggtags gallery=BCI]

Fazit

Fallende Preise durch die kommerzielle Massenfertigung von Sensortechnik wie der Wii-Remote oder der Microsoft Kinect aber auch sinkende Preise bei großen vertikalen Displays oder Projektoren haben dazu beigetragen, dass die Zahl neu entwickelter Interaktionsmechanismen zur Gestaltung der Schnittstelle zwischen Mensch und Computer zunimmt. Da gerade im Bereich der NUI bisher nur wenig Forschungsarbeit im Bezug auf die Standardisierung solcher Nutzerschnittstellen und die Eignung eines Interaktionsmechanismus für die Nutzung in einem bestimmten Anwendungsumfeld oder für eine bestimmt Aufgabe erfolgt ist, müssen zukünftige Arbeiten weitere Erkenntnisse über die Leistungsfähigkeit und Nutzerakzeptanz natürlicher Interaktionsmechnismen liefern. Außerdem haben alle der in diesem Artikel vorgeschlagenen Kategorien von natürlichen Interaktionsmechnismen ihre Vor- und Nachteile, sodass eventuell eine Kombination der Merkmale existierender natürlicher Benutzerschnittstellen oder die Entwicklung neuer Ansätze zur Gestaltung dieser Schnittstellen einen Interaktionsmechnismus hervorbringen, der das Potential hat, eine ähnlich hohe Verbreitung und Nutzerakzeptanz zu erreichen, wie es heute bei Maus und Tastatur für die GUI der Fall ist.

Touchscreen-basiertes Campus-Navigationssystem für die Universität der Bundeswehr München

[toc]Dieser Artikel beschreibt die wesentlichen Ergebnisse der Bachelorarbeit „Konzeption und Umsetzung eines Touchscreen-basierten Campus-Navigationssystems für die Universität der Bundeswehr München“ von Markus Schran. Ziel der Bachelorarbeit war die Konzeption und prototypische Umsetzung eines stationären Navigationssystems auf einem Outdoor-Kiosk-Terminal. Hierzu wurde zunächst zur Verfügung stehendes Kartenmaterial gesammelt und anwendungsspezifisch bewertet. Anschließend wurde der Besucherverkehr der Universität über mehrerer Tage protokolliert, bevor verschiedene Umsetzungsmöglichkeiten im Bezug auf Programmiersprache und Software Entwicklungstools gegeneinander abgewogen werden konnten. Das Ziel der praktischen Arbeit bestand darin, ein benutzerfreundliches und übersichtliches Programm für das touchscreen-basierte Terminal  zu programmieren. Neben den Grundfunktionen des Programms befasste sich die Arbeit vor allem mit späteren Weiterentwicklungsmöglichkeiten. Nach einer kurzen Einführung in die grundlegende Problematik werden in diesem Artikel die wichtigsten Schritte der Arbeit sowie die erzeugten Artefakte vorgestellt.

„Touchscreen-basiertes Campus-Navigationssystem für die Universität der Bundeswehr München“ weiterlesen

Erste Schritte im CommunityMirror Labor datArena

[toc]Im Rahmen eines Projektes der Vorlesung „CSCW – Rechnergestützte Gruppenarbeit“ entsteht aktuell in der datArena auf dem Gelände der Universität der Bundeswehr München ein Testaufbau unseres CommunityMirror-Konzeptes. Die datArena ist ein aktiv betriebenes historisches Rechenzentrum mit Computern aus allen Generationen seit den 1950er Jahren und stellt ein neuartiges Lehr-, Forschungs- und Ausstellungszentrum bereit, das zwischen Technik-, Kultur- und Sozialgeschichte vermittelt und zugleich ein Forum für Begegnung bietet.[ref]Weitere Informationen zur datArena finden sich beispielsweise auf der entsprechenden Seite des Instituts für Softwaretechnologie unter http://www.unibw.de/inf2/Forschung/Forschungsthemen/datArena oder auf der eigens eingerichteten Webpräsenz des Computermuseums München.[/ref] In diesem Setting steht eine Fläche von ca. 20 Quadratmetern zur Verfügung, um die verschiedenen Hardware-Komponenten von CommunityMirrors in einem konsistenten Laborumfeld aufzubauen, damit ihr Zusammenwirken in der Praxis überprüfen werden kann.

[singlepic id=542 w=618 float=center]

[nggtags gallery=datArena+Halle]

Dieser Artikel beschreibt die bisherigen Vorgänge bis zum aktuellen Stand, wobei die Installation noch nicht abgeschlossen ist. Daher wird in der nächsten Zeit abhängig vom Fortschritt des Projektes ein weiterer Artikel erscheinen.

Aufbau

Kernaufgabe war es, die Hardware zu positionieren und aufzubauen. Der Laborbereich liegt in einer Ecke der datArena und ist somit von zwei Wänden begrenzt und von den anderen beiden Seiten zugänglich. Da der Bereich möglichst offen wirken soll und die Wege aufgrund der Fluchtwegsbestimmungen ohnehin frei bleiben müssen, konnten nur wenige Komponenten an den offenen Seiten platziert werden. Das zentrale Element ist der große Wandbildschirm, der natürlich an einer Wand befestigt wird, wodurch sich auch die restlichen Elemente eher an den Wänden orientieren. Des Weiteren sind die Standorte der RFID-Antennen für die Benutzeridentifikation relativ genau vorgegeben, da sie ganz bestimmte Bereiche erfassen sollen.

[singlepic id=377 w=618 float=center]

Die grundlegende Platzierung der Geräte ist inzwischen abgeschlossen: Der Wandbildschirm als zentrales Element ist in Augenhöhe mittig an der längeren Wand befestigt. Die RFID-Antennen sind seitlich davon in den Raum ragend positioniert, während die Fingerprintsensoren am Monitor befestigt werden. Eingerahmt wird der Bereich von zwei Arbeitsplätzen mit Workstations (PC & Mac). Das Terminal steht mit dem Display zur Wand am PC-Arbeitsplatz, um dort eine private Zone zu erzeugen und gleichzeitig die Geschehnisse am großen Monitor verfolgen zu können. Die Trolley-PCs sind frei beweglich. Am PC-Arbeitsplatz ist in erhöhter Position eine Webcam angebracht, die einen möglichst großen Bereich erfasst, damit sich Aufnahmen und Videos zur Protokollierung von Vorgängen im Interaktionsbereich erstellen lassen. Um zusätzliche „Lounge“-Atmosphäre zu schaffen, ist mittig im Bereich eine Sitzgruppe mit mehreren Sesseln eingerichtet.

[nggtags gallery=datArena+Testaufbau]

Installation/Konfiguration

Neben diversen Aktualisierungen, die an den PCs und am Setting vollzogen werden mussten (Updates einspielen, CommunityMirrors-Framework aktualisieren, Kabel verlegen, etc.), bestand die Hauptarbeit in der Konfiguration und Integration der verschiedenen CommunityMirror-Komponenten, die im Folgenden kurz in ihrem Gesamtzusammenhang beschrieben werden.

RFID

Die Standorte der Antennen standen, wie oben bereits beschrieben, bereits fest. Daher mussten diese nur entsprechend aufgestellt und an die Lesegeräte angeschlossen werden. Dazu wurden je 2 Antennen an den Mid-Range und den Long-Range Reader angeschlossen. Ersterer dient zur Erfassung von Personen in der aktiven Zone, also derjenigen Personen, die direkt mit dem Wandbildschirm interagieren. Letzterer erfasst Personen, die sich dahinter befinden und das Geschehen passiv beobachten bzw. nur mit den Personen in der aktiven Zone interagieren, nicht aber mit dem Gerät selbst. Da die Lesegeräte beide an den Host-Rechner am Wandbildschirm angeschlossen werden mussten, sind diese in unmittelbarer Nähe davon positioniert.

Die Konfiguration der beiden Lesegeräte musste unabhängig erfolgen, da das eine per USB angeschlossen wird (Mid-Range Reader) und das andere per Ethernet (Long-Range Reader). Mit den RFID-Lesegeräten ist es, anders als es die Namensbezeichnung „Reader“ vermuten lässt, auch möglich, die zugehörigen RFID-Chipkarten mit einer selbst gewählten ID zu beschreiben. Dazu ist eine andere Konfiguration der Geräte nötig, als wenn die gelesenen RFID-Daten zum Host-Rechner übertragen werden. Die Umschaltung zwischen Konfigurationen geht mithilfe des mitgelieferten OBID ISOStart relativ schnell. Das CommunityMirrors-Framework besitzt bereits eine Schnittstelle zur Verwendung der RFID-Daten, sodass die Anzeige des Wandbildschirms in der datArena nun auf erkannte Personen reagieren kann.

Auch im Stand-Terminal ist ein RFID-Lesegerät, sowie eine entsprechende Antenne integriert. Es handelt sich um denselben Mid Range-Reader, der auch am Wandbildschirm Verwendung findet, sodass die Einrichtung hier analog verläuft.

[nggtags gallery=datArena+RFID]

Fingerabdruckscanner

Vor allem am zentralen Wandbildschirm kommen Fingerabdruckscanner zur Anwendung, um sich am Gerät anzumelden und sich so zum Beispiel benutzerspezifische bzw. personalisierte Informationen anzeigen zu lassen. Weiterhin können Informationen hierdurch in einer Art Warenkorb gesammelt und per E-Mail verschickt werden, um sie beispielsweise am Arbeitsplatz oder zu Hause ebenfalls zur Verfügung zu haben.

Im CommunityMirrors-Framework sind bereits mehrere Ansätze zur Integration der Geräte vorhanden. Auch am Stand-Terminal wird in Kürze ein Fingerabdruckscanner angebracht werden, um personalisierte Informationsmitnahme zwischen dem halböffentlichen Interaktionsbereich und der privaten Interaktionszone am Terminal zuzulassen.

[nggtags gallery=datArena+Fingerprinter]

Näherungssensoren

An einigen Geräten sind Näherungssensoren zur Erfassung einer Person im näheren Umfeld integriert, um zum Beispiel Bildschirmschoner oder ähnliches zu unterbrechen und interessantere Informationen anzeigen zu können. Hier findet jeweils dasselbe Modell Verwendung.

An Trolleys und Stand-Terminal sind die Näherungssensoren bereits integriert und installiert, sodass im Falle des Terminals dieser nur noch richtig befestigt werden musste. Der Näherungssensor vom Wandbildschirm dagegen konnte noch nicht angebracht werden, da zum einen die Frage der Stromversorgung noch offen ist, zum anderen wird der Sensor normalerweise an einen COM-Port angeschlossen, der Rechner im Wandbildschirm aber über keinen verfügt, sodass ein COM-Port/USB-Adapter notwendig ist.

[nggtags gallery=datArena+Näherungssensor]

Netzwerkkonfiguration

Die im Setting integrierten Rechner verfügen alle über einen Internet-Zugang, der über das Rechenzentrum-eigene WLAN, welches vor Kurzem in der Halle installiert wurde, bereitgestellt wird. Hierüber werden insbesondere die mobilen Trolleys angeschlossen. Daneben existiert eine ebenfalls vom Rechenzentrum verlegte Kabelverbindung.

Um die angebundenen Komponenten (RFID-Lesegerät, Fingerabdrucklesegeräte) vom Uni-Netz zu trennen und sie in einem Subnetz gliedern zu können, wurde im Rechner des Wandbildschirms eine zweite Ethernetschnittstelle integriert.

[nggtags gallery=datArena+Netzwerk]

Weitere Komponenten

Neben den oben beschriebenen, bereits seit Längerem für CommunityMirrors eingesetzten Systembestandteilen, sind vor Kurzem weitere Komponenten hingekommen, die noch installiert und konfiguriert werden müssen. Dazu zählt zunächst eine Microsoft Kinect, eigentlich eine Erweiterung der Spielekonsole Xbox 360, über die sich aber auch der Rechner per Gestensteuerung bedienen lässt. Dazu existieren Open Source Treiber, die dies unter anderem auch für Windows XP ermöglicht. Microsoft selbst hat vor kurzem ein Kinect-SDK für Windows als Beta-Version veröffentlicht, sodass die Möglichkeit besteht, das Gerät noch weitergehend in das Framework zu integrieren.

Auch mit dem sogenannten Headtracker TrackIR 5 Pro lässt sich der Rechner auf andere Weise steuern. Dabei wird eine Tracking-Komponente auf einer Schirmmütze auf dem Kopf eines Nutzers befestigt, ein Sensor ermittelt so die Kopfbewegungen und gibt diese an den Hostrechner weiter.

Zuletzt sind die Wii-Controller zu nennen, die eigentlich Zubehör der Nintendo Wii sind, mit passenden Treibern aber auch eine Maus ersetzen können. Die Steuerung schien in einem ersten Test allerdings nicht sehr präzise, sodass für diese Art der Steuerung eine gewisse Menge an Fingerspitzengefühl notwendig ist.

[nggtags gallery=datArena+Steuerung]

Mehrwert des Labors

Mit dem Aufbau des Labors wurde das CommunityMirrors-Konzept, welches bisher eher in theoretischer Form existierte, in die Tat umgesetzt. Im Folgenden können nun Forschungsarbeiten in dieser Richtung direkt am Objekt in der Praxis umgesetzt oder getestet werden. So kann das Labor bei wissenschaftliche Arbeiten, wie zum Beispiel Bachelor- oder Masterarbeiten, eine wertvolle Hilfe beim Testen von Komponenten oder Implementierungen in einem bestehenden Setting sein. Neue potentielle Komponenten lassen sich direkt testen, wie es bei der Microsoft Kinect und weiteren Komponenten bereits geschieht. Außerdem können theoretische Konzepte in der Praxis untersucht und verifiziert werden.

Ausblick

Der Testaufbau ist noch nicht abgeschlossen. Neben den neuen Komponenten, die noch integriert werden müssen, sind auch noch nicht alle ursprünglichen Arbeiten erledigt. So fehlen beispielsweise noch Kabelschächte und ein weiterer Arbeitsplatz. Weitere Informationen dazu folgen in einem späteren Bericht.

[singlepic id=384 w=618 float=center]

Technik State-of-the-Art: Technische Fortschritte

[toc]

Im Rahmen des EU-Projekts SI-Screen (Social Interaction Screen), an dem wir als einer von zehn Projektpartnern teilnehmen, wird binnen der nächsten drei Jahre ein Gerät entwickelt, das u.a. Älteren einen einfachen Zugang zu sozialen Netzwerken wie z.B. Facebook ermöglicht. Im derzeitigen Stadium untersuchen wir den Markt hinsichtlich relevanter Trends, Konzepte, Technologien und Geräte, die für die Entwicklung eines Prototypen-Konzepts inspirierend sein könnten.

Dieser Teil unserer kleinen Mini-Serie beschäftigt sich mit Bereichen, in deren derzeit große Fortschritte erzielt werden. Insbesondere mit Hinblick auf die 3-jährige Projektlaufzeit könnten die Ergebnisse in diesen Feldern neue Möglichkeiten bei der Konzeptfindung eröffnen.

Die meisten der hier zusammengetragenen Bildern stammen aus entsprechenden Artikeln auf der Internetplattform engadget.com. Des Weiteren wurden Bilder von wired.com, gizmodo.com, it-tech.org, oopsconcept.co.cc und concepte.info übernommen.

Performance

Natürlich ist eine verbesserte Leistungsfähigkeit in allen Bereichen der Technologie zu erwarten. Bei ausreichender Verbesserung der Geschwindigkeit einer Technologie ergibt sich beispielsweise häufig ein vorher undenkbar Echtzeit-Einsatz, was wiederum eine neue Dimension möglicher Anwendungsbereiche eröffnet.
[nggtags gallery=Performance+Technik+Fortschritt]

Displays

[nggtags gallery=Display+Technik+Fortschritt]

Konnektivität

Durch ein gutes Zusammenspiel von verschiedenen Geräten an unterschiedlichen Orten lässt sich eine neuer Grad an Freiheit erzielen.
[nggtags gallery=Konnektivität+Technik+Fortschritt]

Robotik

Fortschritte im Umfeld der Robotik werden in (naher) Zukunft einen ersten produktiven Einsatz zur Unterstützung des Menschen erlauben. Im Rahmen des Projekts birgt eine Erleichterung alltäglicher Aufgaben natürlich ein großes Potential für Ältere.
[nggtags gallery=Robotik+Technik+Fortschritt]

Augmented Reality

Augmented Reality bezeichnet die künstliche Einbettung audiovisueller Inhalte in die reale Welt. Beispielsweise lassen sich in die Echtzeitanzeige des Kamerabilds eines mobilen Geräts Zusatzinformationen einblenden (z.B. zur Routenplanung oder als Stadtführung).
[nggtags gallery=Augmented_Reality+Technik+Fortschritt]

Danksagung

Dieser Beitrag steht im Zusammenhang mit dem Forschungsprojekt SI-Screen, das mit Mitteln des Bundesministeriums für Bildung, und Forschung (Förderkennzeichen 16SV3982), sowie durch das Europäische AAL Joint Programm (AAL-2009-2-088) gefördert wird. Das Vorhaben wird von der innovationsmanufaktur GmbH (ehemals SportKreativWerkstatt GmbH) koordiniert und gemeinsam mit der Universität der Bundeswehr München realisiert. Weiterführende Informationen sind verfügbar unter http://www.si-screen.eu.

Anwender-Workshop Open Innovation für IT- und Software-Unternehmen am 18. März 2011 im gate in Garching

[toc]

Am 18. März 2011 ist die Forschungsgruppe Kooperationssysteme während des Anwenderworkshops „Open Innovation für IT- und Softwareunternehmen“ u.a. mit einem Vortrag von Herrn Prof. Dr. Michael Koch zum Thema „IdeaMirrors: Soziotechnisch integrierte Benutzerschnittstellen für Innovationsmanagementsysteme“ sowie mit einer Demonstrator-Version der IdeaMirrors vertreten. Die Anmeldung erfolgt auf http://www.gategarching.com/termine/wissenstransfer oder direkt bei anette.keller@gategarching.com.

Innovationsdruck für IT-Unternehmen

Im Vergleich zu Unternehmen anderer Branchen sind Unternehmen im Bereich der Software und IT einem enormen Innovationsdruck ausgeliefert. Denn in kaum einer anderen Branche werden schneller und häufiger neue Innovationen eingeführt. Eine systematische Öffnung von Innovationsprozessen für Einflüsse von außen, kann für die kontinuierliche Entwicklung von Innovationen und den nachhaltigen Unternehmenserfolg wichtige Impulse liefern. Durch eine Integration von Kunden, Geschäfts- und Forschungspartnern in den eigenen Innovationsprozess, können zusätzliche Innovationspotentiale gehoben, Innovationszyklen verkürzt und somit die eigene Innovationskraft nachhaltig verbessert werden. Leider werden diese Möglichkeiten von deutschen Software- und IT-Unternehmen oftmals nur unzureichend genutzt.

Anwenderworkshop Open Innovation

Namhafte Vertreter aus Wissenschaft und Praxis, stellen während des Workshops Methoden und Ansätze vor, wie gemeinsam mit Kunden innovative Ideen generiert und weiterentwickelt werden können. Das Internet, Web 2.0 und neue Technologien wie innovative Benutzerschnittstellen, z. B. der IdeaMirror (großer Touchscreen-Display, der Innovationscommunities in die physische, reale Welt verlangert), ermöglichen dabei auch für Unternehmer kleiner und mittlerer Größe eine effiziente Einbindung von Kunden in den Innovationsprozess.

[nggtags gallery=gate+IdeaMirror+Nutzung]

Zusätzlich haben Sie die Möglichkeit, neuartige, im Rahmen des Forschungsprojektes GENIE (Gemeinschaftsgestützte Innovationsentwicklung für Software-Unternehmen) entwickelte IT-Lösungen, wie z. B. den IdeaMirror oder einen Ideenmarkt zur Community-basierten Ideenbewertung, zur Durchführung von Open Innovation, live zu erproben.

Der IdeaNet Ideenmarkt

[nggtags gallery=gate+IdeaNet]

Screenshots vom IdeaMirror

[nggtags gallery=gate+IdeaMirror+Screenshot]

Agenda

10:00 – 10:30 Uhr Registrierung, Begrüßungs-Kaffee
10:30 – 11:00 Uhr Prof.  Dr. Jan Marco Leimeister: „Gemeinschaftsgestützte Innovationsentwicklung für Software-Unternehmen am Beispiel der SAP AG“
11:00 – 11:30 Uhr Dr. Hagen Habicht: „Open Innovation Maturity: Kompetenzentwicklung für Open Innovation in der IT- und Software-Branche“
11:30 – 12:00 Uhr Alexander Lang: „Open Innovation, wie schaffe ich den Erfolg?“
12:00 – 13:00 Uhr Mittagspause
13:00 – 13:30 Uhr Frank Huefner: „Ideas-Plattformen am Beispiel der Haufe Gruppe Freiburg“
13:30 – 14:00 Uhr Johannes Gebauer: „Open Innovation im Umfeld von IT-Dienstleistungen am Beispiel von Fujitsu-Siemens-Computers“
14:00 – 14:15 Uhr Kaffeepause mit frischem Obst
14:15 – 14:45 Uhr Prof. Dr. Michael Koch: „IdeaMirrors: Soziotechnisch integrierte Benutzerschnittstellen für Innovationsmanagementsysteme“
14:45 – 15:15 Uhr Ivo Blohm: „Community-basierte Ideenbewertung mittels Ideenbörsen und Web 2.0“
15:15 – 15:45 Uhr Diskussions- und Fragerunde

Für Ihre Unterlagen finden Sie hier eine PDF-Version des Programms zum Anwenderworkshop Open Innovation März 2011.

Ihr Nutzen

  • Profitieren Sie von den neuesten Forschungsergebnissen aus dem Bereich Open Innovation
  • Lernen Sie direkt von erfolgreichen Open Innovation Anwendern aus der Praxis
  • Einmaliger Fokus auf Lösungsansätze für die speziellen Herausforderungen der IT- und Softwarebranche
  • Möglichkeit State-of-the-Art IT-Lösungen zur Durchführung von Open Innovation vor Ort auszuprobieren
  • Erfahrungsaustausch und Networking mit erfahrenen Open Innovation Anwendern und Unternehmen mit ähnlichen Problemstellungen

Zielgruppe

  • Unternehmen der IT- und Softwarebranche
  • Interessierte, Experten und Entscheider im Bereich Innovationsmanagement und Open Innovation

Kosten

79,00 € pro Teilnehmer, inkl. MwSt., Tagungsunterlagen und Verpflegung.

Anmeldung

Im Anmeldeformular rechts auf http://www.gategarching.com/termine/wissenstransfer oder direkt bei anette.keller@gategarching.com.

Anfahrt

[singlepic id=237 w=614]