Skip to content

Posts tagged ‘Medienpaedagogik’

Image-based Augmented Reality selber erstellen: Layar, Wikitude, Metaio, Daqri, Aurasma und Augment

aurasma_austellungkl

Nach den positiven Erfahrungen aus den Augmented Reality (AR) Handyrallyes in unseren „Surfing The Streets“ Projekten habe ich mich in letzter Zeit den Image-based AR Anwendungen gewidmet. Nicht zuletzt motiviert durch die aktuellen technischen Entwicklungen von AR-Brillen wie der Google Glass. Trotz vielfältiger medialer Präsenz hat sich die Nutzung von AR im alltäglichen Gebrauch bisher kaum durchgesetzt, was m.E. an der umständlichen Handhabbarkeit liegt. Es sind einige Schritte zu tun, um AR Inhalte anschauen zu können: Spezielle App auf Handy oder Tablet starten, gegebenenfalls noch eine entsprechende Ebene oder Kategorie suchen und aufrufen, die Smartphonekamera auf ein Zielobjekt richten oder wie bei ortsbasiertem AR sich mit dem Smartphone um die eigene Achse drehen, um die zur Umgebung passenden Informationen eingeblendet zu bekommen. Das sieht manchmal nicht nur seltsam aus, sondern lässt sich auch wirklich nur mit gut funktionierendem Kompass und Gyroskop präzise nutzen.

Anders mit einer Brille wie den Google Glasses: entsprechend der Kopfbewegungen bzw. Blickrichtung werden digitale Informationen automatisch eingeblendet. Kleiner Nachteil bisher: Die digitalen Informationen werden nicht im gesamten Gesichtsfeld angezeigt, sondern lediglich in einem kleinen Feld oben rechts. Inzwischen haben bis auf Augment alle hier genannten Dienste Apps für Google Glass entwickelt. Eine weitere Erleichterung wäre die Entwicklung von in Kontaktlinsen integrierten Displays, wie sie in dem Kurzfilm „Sight“, den wir gerne in Workshops einsetzen, ebenso zukunftsweisend, wie auch erschreckend gezeigt wird.

Im Vorfeld eines für die sächsischen SAEK durchgeführten Workshop habe ich mir die angebotenen Lösungen für image-basiertes AR genauer angeschaut und ausprobiert. Der Schwerpunkt lag dabei auf den Diensten, die es ermöglichen, eigene Inhalte einzubinden. Darüber hinaus gibt es auch eine Reihe schöner Beispiele für AR Apps, die nicht nur nützlich sind, sondern gleichzeitig auch ästhetisch Spaß machen. Das geht mittlerweile über die mit digitalen Infos angereicherten Produktkataloge wie z.B. von Ikea weit hinaus. Mit AR werden kleine Spiele wie z.B.  TOY Car RC entwickelt oder Visualisierungen naturwissenschaftlicher Experimente wie bei Elements 4D. Mit Elements 4D können kleine Würfel mit chemischen Elementen miteinander kombiniert und die entsprechenden chemischen Reaktionen auslöst werden.

4d Elements elemente

Elements 4D

Die bekanntesten Dienste, die für die Produktion eigener AR Inhalte in Frage kommen, die auf Bilderkennung beruhen, sind Layar, Metaio (Junaio), Wikitude, Daqri, Aurasma und Augment. Im Gegensatz zu geobasiertem AR, das mit Layar, Wikitude und Metaio ebenfalls möglich und kostenlos ist, lassen sich die Firmen für das imagebasierte AR gut bezahlen.

Bezahlt wird entweder eine monatliche Pauschale, die eine unbegrenzte Anzahl an Markern einschließt (ab $275/Monat bei Metaio), oder für eine bestimmte Anzahl an Markern (z.B. 10 Marker für $19/Monat bei Wikitude oder 400€/Jahr bei Layar). Eine weitere Einnahmequelle ist die Lizenzierung der eigenen Technologie in Form von Entwicklungsumgebungen (SDKs). Metaio, Wikitude, Daqri und auch Layar bieten solche SDKs mit denen die AR Funktionen in eigene Apps integriert werden können. Layar bietet außerdem einen Premiumaccount mit erweiterter Funktionalität für $3000 im Jahr an. Metaio läßt sich seine Editorsoftware (Metaio Creator, 490€) bezahlen.

augment_app

Augment

Funktionsweisen

Auch wenn jeder Dienst eigene Bezeichnungen nutzt, wird hier im Text immer der Begriff Marker (Synonym für Trigger, Tracker, Page, Targets, Image) für das zu scannende Bild (oder Objekt, wobei die Erkennungsraten von dreidimensionalen Objekten noch nicht besonders groß sind) und Overlay (synonym für Button, Augmentations) für die digitalen Überblendungen benutzt.

Die Erkennung von Bildern funktioniert bei allen Diensten ähnlich gut. Die Apps unterscheiden sich im wesentlichen in der Art, wie die eigenen AR Inhalte für andere bereitgestellt werden.

Sowohl bei Layar als auch Metaio, Wikitude und Aurasma können als Overlays Bilder, Videos, Audio, Links oder auch 3D-Objekte mit Animationen angezeigt werden. Bei Layar und Metaio können außerdem interaktive Overlays programmiert werden. Augment ist auf 3D Modelle beschränkt.

Das Hauptkriterium für die Entscheidung zugunsten einer AR Anwendungen ist für mich vor allem die Benutzungsfreundlichkeit oder die sogenannte „User Experience“. Da es sich um eine relativ neue Technologie handelt, gibt es hier keine Standards bzw. Bedienungsabläufe die intuitiv ausprobiert werden können. Werden die Apps auf dem Tablet oder Smartphone geöffnet, ist jeweils sofort das Livebild der Kamera zu sehen, meist mit dem Hinweis „Scannen“. Lediglich Augment zeigt zuerst eine Liste der eigenen hochgeladenen 3D-Modelle. Nur bei Aurasma lässt sich eine Übersicht von bereits bestehenden universellen bzw. globalen AR Inhalten (hier „Auras“ genannt) anzeigen. Bei allen anderen Diensten muss ich zum Ausprobieren auf Bildbeispiele auf den Webseiten zurückgreifen. Aurasma erfordert als einzige AR App eine Registrierung.

aurasma3

Aurasma

layar_twitteroverlay

Layar

Um eigene Inhalte zu erstellen bieten mit einer Ausnahme alle Dienste webbasierte Editoren an. Metaio setzt mit seinem „Metaio Creator“ auf eine Software für Windows oder MacOS. Bei Aurasma besteht zusätzlich die Möglichkeit, AR Inhalte gleich über die App zu erstellen. Dafür stehen bei Aurasma eine Reihe von vorgegebene Grafiken und Bildern, aber auch 3D-Animationen zur Verfügung. Zusätzlich kann ein auf dem Gerät vorhandenes Bild oder Video genutzt werden.

Die Funktionsweise aller Editoren ist ähnlich. Ein eigenes Bild als Marker wird hochgeladen und darauf werden dann verschiedene Overlays platziert, die in der AR Ansicht auf den Bildern sichtbar werden, beispielsweise Fotos oder Videos. Layar und Metaio bieten hier die meisten Möglichkeiten, bis hin zur Integration von Javascript, mit dem auch kleine Spiele programmiert werden können.

Große Unterschiede gibt es in der Sichtbarkeit der eigenen AR Inhalte für andere. Layar hat nur eine „globale“ Ebene, d.h. alle erstellten Inhalte sind für jeden überall und sofort sichtbar. Bei Metaio muss zunächst eine Ebene (hier „Channel“ genannt) für die App Junaio erstellt werden. Der Channel muss in der App dann entweder über die Suchfunktion gefunden oder mit Hilfe eines QR Code aufgerufen werden, der nach dem Abscannen die entsprechende Ebene aufruft. Auch Wikitude arbeitet mit Ebenen, die hier Worlds heißen. Eigene AR Inhalte müssen hier auch einer World zugeordnet werden, die in der Wikitude App per Suchfunktion gefunden werden kann.

AR Inhalte, die ich mit Aurasma erstelle (entweder mit der App oder dem Editor), sind zunächst nur für Personen sichtbar, die mich abonniert haben. Ich kann den Personen, denen ich meine AR Objekte zugänglich machen will, eine Mail mit dem entsprechenden Link schicken. Seit einigen Monaten können in Aurasma keine eigenen Ebenen/Kanäle mehr angelegt werden, d.h. es müssen immer alle Auras einer Person abonniert werden. Aurasma Nutzer_innen lassen sich auch üner die Suchfunktion der App finden. Möchte ich eine universelle Aura anlegen, die sofort bei allen sichtbar wird, muss ich dafür bezahlen. Kosten dafür müssen erfragt werden.

Augment funktioniert ein wenig anders. Im Vordergrund steht hier das Betrachten von 3D-Modellen, die über die Augment-Webseite hochgeladen wurden. Hochladen kann diese jeder Nutzer/jede Nutzerin von Augment. Eine Verknüpfung mit einem bestimmten Marker ist erstmal nicht nötig. Den Marker erzeugt sich jeder Nutzer/jede Nutzerin individuell. Möchte ich eine spezielle Zuordnung eines meiner 3D-Objekte zu einem bestimmten Marker, dann lege ich im Editor einen Marker an und weise diesem eines meiner 3D-Objekte zu. Dieser Marker zeigt dann bei allen Augment-Nutzer_innen das gleiche 3D-Modell an.

Einige pädagogische Einsatzszenarien

Virtuelle Ausstellung mit Augment: Eigene 3D-Modelle werden in einer Galerie oder auch im öffentlichen Raum gezeigt, in dem große Marker auf den Boden geklebt werden. Die 3D Objekte können damit überlebensgroß im Raum platziert und von allen Seiten durch Herumlaufen betrachtet werden.

Gebäuderallye mit Augment: Ähnlich einer QR Code Rally in Gebäuden, bei denen abgescannte QR Codes jeweils Hinweise auf neue zu findecde Orte und weitere QR Codes bilden, können Marker von Augment genutzt werden um dreidimensionale Objekte in den Räumen erscheinen zu lassen, die als Wegweiser zu anderen Orten fungieren.

Interaktiver Film mit Aurasma, Layar, Wikitude oder Junaio: AR Marker werden an verschiedenen „Spielorten“ in der Umgebung platziert und mit Videoszenen eines Films überblendet. Der Zuschauer/die Zuschauerin hat die Möglichkeit die Orte in einer Reihenfolge seiner/ihrer Wahl anzusteuern und könnte dadurch z.B. bei einem Krimi verschiedene Hinweise auf die Auflösung erhalten.

Multimedia-Buch mit Aurasma, Layar, Wikitude oder Junaio: In einem Lehrbuch werden Videos über bestimmte Abbildungen gelegt. Das könnten Statements der Schüler_innen zu den Inhalten sein, Tutorials oder abgefilmte Versuche in naturwissenschaftlichen Büchern.

Fazit

Es gibt nicht den besten Dienst für image-basiertes Augmented Reality, vielmehr ist der Einsatz von einer Vielzahl von Faktoren abhängig. Am wichtigsten dabei ist wohl, wie einfach der Weg ist, damit andere meine eigenen AR Inhalte betrachten können. Eine App, die für mich hier positiv herausstach, auch wenn die Funktionen nur sehr rudimentär waren, war Stiktu, das leider im Frühjahr 2014 eingestellt wurde. Ein beliebiges Bild konnte direkt in der App mit eigenen Fotos, Text oder vorgegebenen Stickern kombiniert werden und war anschließend sofort weltweit für alle Stiktunutzer_innen verfügbar. Der Vorteil: Die Erstellung war unglaublich einfach, die Ergebnisse konnten sofort von allen betrachtet werden. Ein Projekt von Medien + Bildung.com  hatte sich das zu Nutze gemacht, in dem Streetartbilder in Mainz mit eigenen Kommentaren versehen wurden.

Aurasma ist sicher eine gute Wahl, wenn ich die Möglichkeit habe, auf Tablets oder Handys, die beispielsweise die Besucher einer Ausstellung oder Präsentation nutzen, etwas vorzuinstallieren, weil dort der entsprechende Inhalt im voraus abonniert werden kann. Ansonsten würde sich Junaio anbieten, da hier die Nutzer lediglich aufgefordert werden müssten, die kostenlose App zu installieren und einen QR Code abzuscannen, um die AR Inhalte betrachten zu können.

Die Kosten sind natürlich ebenfalls ein wichtiger Faktor. Zumeist wird man jedoch oft schon mit den Trial- oder Demoversionen auskommen, die die meisten Dienste anbieten. Oft gibt es die Möglichkeit als Bildungseinrichtung Rabatte zu bekommen oder auch gänzlich kostenlos AR inhalte erstellen zu können.

Ich freue mich über Erfahrungsberichte in den Kommentaren.

 

Übersicht über AR Editoren zum Download:

uebersicht_ar_editoren_vorschau

Download: Augmented_Reality_Editoren.pdf (PDF, 65 kB)

 

Augmented Reality Editoren UIs:

layar_creator

Layar Creator

metaio_creator

Metaio Creator Software (MacOS)

Wikitude Studio

Wikitude Studio

Aurasma Studio

Aurasma Studio

 

 

Creative Commons Lizenzvertrag Dieses Werk ist lizenziert unter einer Creative Commons Namensnennung 4.0 International Lizenz.

Medienpädagogische Twitterverfolgungsjagd in Josefstal

Viele neue Ideen und neue Möglichkeiten für medienpädagogische Aktionen bieten die aktuellen mobilen Technologien. In einem Selbstversuch mit KollegInnen aus der pädagogischen Praxis konnte ich das gerade bei einer Klausurtagung im Studienzentrum Josefstal selber erfahren.

Ausgerüstet mit zwei Nokia N95, zwei iPhones und diversen GPS-Geräten ging es in einer vierstündigen Aktion rund um und über den (zugefrorenen) Schliersee. Das Setting:
– zwei Gruppen, eine Follower, eine „Followed“
– ein paar vorher ausgedruckte QR-Codes
– diverse Accounts bei Twitter, Twible, Qik, Twitterific
– und die oben beschriebene Technik

Da! on TwitPic

Die Followed-Gruppe schickt die Follower per GPS-Koordinaten zu einem Startpunkt und von dort weiter zu verschiedenen Stationen, die entweder per Foto/Video oder GPS-Koordinaten zu finden sind und stellt dort diverse Aufgaben per Twittermessage oder QR-Code: eine digitale Schnitzeljagd, draußen in der Natur.

Während der ganzen Aktion werden dann fleissig Nachrichten hin- und hergejagt, teilweise mit Fotos und Geokoordinaten versehen, teilweise auch durch einen Videolivestreams begleitet. Das Ganze wird sehr elegant nur in einem Kanal gebündelt, was die mediale Integration ins Spielgeschehen sehr „seamless“ (nahtlos) macht: Twitter.

Das geht in ungefähr so: Nachrichten vom Nokia per Twibble, vom iPhone per Twitterific an den Spieltwitteraccount schicken, mit beiden Programmen können auch kurz zuvor aufgenommene Fotos „angehängt“ werden. (Über Twitpic). Fotos beim Nokia können zusätzlich noch mit Geokoordinaten versehen werden. Über Twibble können Geokoordinaten auch direkt in die Twittermessages einkopiert werden, sind aber auf Twitter dann nur noch „manuell“ auslesbar. Twitterific auf dem iPhone hingegen verschickt Links zu Google Maps, die dann direkt mit der angezeigten Position auf dem Handy aufrufbar sind.

Das Livevideostreaming wird über Qik realisiert. Sobald ein Stream zu Qik auf dem Handy gestartet wird (ein iPhone müsste dazu allerdings „gejailbreakt“ sein), schickt Qik einen Tweet los. Kein Problem ist es, wenn der Livestream verpasst wird, alle Streams werden bei Qik archiviert und sind unter derselben URL erreichbar wie der Livestream.

Die zusätzliche Einbeziehung von QR-Codes, die dann per QR-Decoder auf dem Handy (bei Nokia standdardmässig eingebaut, beim iPhone aus dem AppStore zu erhalten, zB. 2D Sense) macht die Aufgabenlösung vielleicht etwas geheimnisvoller (und Kinder und Jugendliche dafür sensibler, wie codiert unsere Lebenswelt schon ist), muss für mich aber nicht unbedingt Bestandteil einer solchen Twitterverfolgungsjagd sein.

Fazit: Viel Spaß gehabt. Viele technische Möglichkeiten kennengelernt. Das Gefühl gehabt, selbst in menschenleerer Natur nie alleine zu sein;-) Das Nokia N95 hat ein paar mehr Möglichkeiten (besonders Video), die Bedienung beim iPhone ist dafür weitaus besser. Die Bandbreite der UMTS-Handys lässt leider nur bis zur Unkenntlichkeit komprimierte Livevideos und Fotos zu, ansonsten lassen die langen Uploadzeiten das Spiel doch ins Stocken kommen. An der GPS Integration müssen die Webservices noch arbeiten. Twitter ist doch zu was nütze;-))

Ich bin sehr gespannt, welche weiteren Spielideen sich aus der unterschiedlichen Kombination aller eingesetzten mobilen Webservices noch ergeben werden. Medienpädagogisch gesehen könnte man sich nun, wo die Technik einigermaßen mitspielt, den Inhalten widmen.

Mit Gruß an meine MitspielerInnen Verena, Irene, Bernhard, Wolfgang und Franz und großem Dank an Daniel (www.mediale-pfade.de) für das zur Verfügung gestellte Technikspielzeug.

Und hier noch ein (fast) Liveeinblick ins Spielgeschehen:
??

Livestreaming: Die eigene Fernsehshow im Netz

In einem aktuellen Beitrag stellt Eike vom Blog Medienpädagogik-Praxis zwei kostenlose Webservices vor, die es ermöglichen, mit der eigenen Webcam (oder angeschlossenen Videokamera) ein Livebild ins Web zu streamen: ustream.tv und justin.tv.

Zumindest für Leute, die einen schnellen Rechner haben, kann ich noch empfehlen auch mal make.tv, ein relativ neues Startup aus Köln, auszuprobieren. Das tolle an make.tv ist das virtuelle Fernsehstudio in dem man mehrere Quellen zusammenschneiden kann, u.a. auch mit Bild-in-Bild-Funktion, natürlich auch mit Integration von Bilder und Filmen usw.. Gerade für die medienpädagogische Arbeit bietet sich an, hier mit gemeinsam mit Jugendlihen zunächst mal verschiedene Szenen genau zu überlegen, bevor man auf Sendung geht und dann zwischen diesen hin- und herzuschneiden.

Virtuelles Studio bei make.tv

Virtuelles Studio bei make.tv

Wer möchte kann sich dann direkt an einer Aktion der LAG Medienarbeit e.V. Berlin zum Safer Internet Day am 10.2. beteiligen: Safer Internet TV bei der ich dann auch am virtuellen Bildmischer sitzen werde.