Skip to content

Image-based Augmented Reality selber erstellen: Layar, Wikitude, Metaio, Daqri, Aurasma und Augment

aurasma_austellungkl

Nach den positiven Erfahrungen aus den Augmented Reality (AR) Handyrallyes in unseren „Surfing The Streets“ Projekten habe ich mich in letzter Zeit den Image-based AR Anwendungen gewidmet. Nicht zuletzt motiviert durch die aktuellen technischen Entwicklungen von AR-Brillen wie der Google Glass. Trotz vielfältiger medialer Präsenz hat sich die Nutzung von AR im alltäglichen Gebrauch bisher kaum durchgesetzt, was m.E. an der umständlichen Handhabbarkeit liegt. Es sind einige Schritte zu tun, um AR Inhalte anschauen zu können: Spezielle App auf Handy oder Tablet starten, gegebenenfalls noch eine entsprechende Ebene oder Kategorie suchen und aufrufen, die Smartphonekamera auf ein Zielobjekt richten oder wie bei ortsbasiertem AR sich mit dem Smartphone um die eigene Achse drehen, um die zur Umgebung passenden Informationen eingeblendet zu bekommen. Das sieht manchmal nicht nur seltsam aus, sondern lässt sich auch wirklich nur mit gut funktionierendem Kompass und Gyroskop präzise nutzen.

Anders mit einer Brille wie den Google Glasses: entsprechend der Kopfbewegungen bzw. Blickrichtung werden digitale Informationen automatisch eingeblendet. Kleiner Nachteil bisher: Die digitalen Informationen werden nicht im gesamten Gesichtsfeld angezeigt, sondern lediglich in einem kleinen Feld oben rechts. Inzwischen haben bis auf Augment alle hier genannten Dienste Apps für Google Glass entwickelt. Eine weitere Erleichterung wäre die Entwicklung von in Kontaktlinsen integrierten Displays, wie sie in dem Kurzfilm „Sight“, den wir gerne in Workshops einsetzen, ebenso zukunftsweisend, wie auch erschreckend gezeigt wird.

Im Vorfeld eines für die sächsischen SAEK durchgeführten Workshop habe ich mir die angebotenen Lösungen für image-basiertes AR genauer angeschaut und ausprobiert. Der Schwerpunkt lag dabei auf den Diensten, die es ermöglichen, eigene Inhalte einzubinden. Darüber hinaus gibt es auch eine Reihe schöner Beispiele für AR Apps, die nicht nur nützlich sind, sondern gleichzeitig auch ästhetisch Spaß machen. Das geht mittlerweile über die mit digitalen Infos angereicherten Produktkataloge wie z.B. von Ikea weit hinaus. Mit AR werden kleine Spiele wie z.B.  TOY Car RC entwickelt oder Visualisierungen naturwissenschaftlicher Experimente wie bei Elements 4D. Mit Elements 4D können kleine Würfel mit chemischen Elementen miteinander kombiniert und die entsprechenden chemischen Reaktionen auslöst werden.

4d Elements elemente

Elements 4D

Die bekanntesten Dienste, die für die Produktion eigener AR Inhalte in Frage kommen, die auf Bilderkennung beruhen, sind Layar, Metaio (Junaio), Wikitude, Daqri, Aurasma und Augment. Im Gegensatz zu geobasiertem AR, das mit Layar, Wikitude und Metaio ebenfalls möglich und kostenlos ist, lassen sich die Firmen für das imagebasierte AR gut bezahlen.

Bezahlt wird entweder eine monatliche Pauschale, die eine unbegrenzte Anzahl an Markern einschließt (ab $275/Monat bei Metaio), oder für eine bestimmte Anzahl an Markern (z.B. 10 Marker für $19/Monat bei Wikitude oder 400€/Jahr bei Layar). Eine weitere Einnahmequelle ist die Lizenzierung der eigenen Technologie in Form von Entwicklungsumgebungen (SDKs). Metaio, Wikitude, Daqri und auch Layar bieten solche SDKs mit denen die AR Funktionen in eigene Apps integriert werden können. Layar bietet außerdem einen Premiumaccount mit erweiterter Funktionalität für $3000 im Jahr an. Metaio läßt sich seine Editorsoftware (Metaio Creator, 490€) bezahlen.

augment_app

Augment

Funktionsweisen

Auch wenn jeder Dienst eigene Bezeichnungen nutzt, wird hier im Text immer der Begriff Marker (Synonym für Trigger, Tracker, Page, Targets, Image) für das zu scannende Bild (oder Objekt, wobei die Erkennungsraten von dreidimensionalen Objekten noch nicht besonders groß sind) und Overlay (synonym für Button, Augmentations) für die digitalen Überblendungen benutzt.

Die Erkennung von Bildern funktioniert bei allen Diensten ähnlich gut. Die Apps unterscheiden sich im wesentlichen in der Art, wie die eigenen AR Inhalte für andere bereitgestellt werden.

Sowohl bei Layar als auch Metaio, Wikitude und Aurasma können als Overlays Bilder, Videos, Audio, Links oder auch 3D-Objekte mit Animationen angezeigt werden. Bei Layar und Metaio können außerdem interaktive Overlays programmiert werden. Augment ist auf 3D Modelle beschränkt.

Das Hauptkriterium für die Entscheidung zugunsten einer AR Anwendungen ist für mich vor allem die Benutzungsfreundlichkeit oder die sogenannte „User Experience“. Da es sich um eine relativ neue Technologie handelt, gibt es hier keine Standards bzw. Bedienungsabläufe die intuitiv ausprobiert werden können. Werden die Apps auf dem Tablet oder Smartphone geöffnet, ist jeweils sofort das Livebild der Kamera zu sehen, meist mit dem Hinweis „Scannen“. Lediglich Augment zeigt zuerst eine Liste der eigenen hochgeladenen 3D-Modelle. Nur bei Aurasma lässt sich eine Übersicht von bereits bestehenden universellen bzw. globalen AR Inhalten (hier „Auras“ genannt) anzeigen. Bei allen anderen Diensten muss ich zum Ausprobieren auf Bildbeispiele auf den Webseiten zurückgreifen. Aurasma erfordert als einzige AR App eine Registrierung.

aurasma3

Aurasma

layar_twitteroverlay

Layar

Um eigene Inhalte zu erstellen bieten mit einer Ausnahme alle Dienste webbasierte Editoren an. Metaio setzt mit seinem „Metaio Creator“ auf eine Software für Windows oder MacOS. Bei Aurasma besteht zusätzlich die Möglichkeit, AR Inhalte gleich über die App zu erstellen. Dafür stehen bei Aurasma eine Reihe von vorgegebene Grafiken und Bildern, aber auch 3D-Animationen zur Verfügung. Zusätzlich kann ein auf dem Gerät vorhandenes Bild oder Video genutzt werden.

Die Funktionsweise aller Editoren ist ähnlich. Ein eigenes Bild als Marker wird hochgeladen und darauf werden dann verschiedene Overlays platziert, die in der AR Ansicht auf den Bildern sichtbar werden, beispielsweise Fotos oder Videos. Layar und Metaio bieten hier die meisten Möglichkeiten, bis hin zur Integration von Javascript, mit dem auch kleine Spiele programmiert werden können.

Große Unterschiede gibt es in der Sichtbarkeit der eigenen AR Inhalte für andere. Layar hat nur eine „globale“ Ebene, d.h. alle erstellten Inhalte sind für jeden überall und sofort sichtbar. Bei Metaio muss zunächst eine Ebene (hier „Channel“ genannt) für die App Junaio erstellt werden. Der Channel muss in der App dann entweder über die Suchfunktion gefunden oder mit Hilfe eines QR Code aufgerufen werden, der nach dem Abscannen die entsprechende Ebene aufruft. Auch Wikitude arbeitet mit Ebenen, die hier Worlds heißen. Eigene AR Inhalte müssen hier auch einer World zugeordnet werden, die in der Wikitude App per Suchfunktion gefunden werden kann.

AR Inhalte, die ich mit Aurasma erstelle (entweder mit der App oder dem Editor), sind zunächst nur für Personen sichtbar, die mich abonniert haben. Ich kann den Personen, denen ich meine AR Objekte zugänglich machen will, eine Mail mit dem entsprechenden Link schicken. Seit einigen Monaten können in Aurasma keine eigenen Ebenen/Kanäle mehr angelegt werden, d.h. es müssen immer alle Auras einer Person abonniert werden. Aurasma Nutzer_innen lassen sich auch üner die Suchfunktion der App finden. Möchte ich eine universelle Aura anlegen, die sofort bei allen sichtbar wird, muss ich dafür bezahlen. Kosten dafür müssen erfragt werden.

Augment funktioniert ein wenig anders. Im Vordergrund steht hier das Betrachten von 3D-Modellen, die über die Augment-Webseite hochgeladen wurden. Hochladen kann diese jeder Nutzer/jede Nutzerin von Augment. Eine Verknüpfung mit einem bestimmten Marker ist erstmal nicht nötig. Den Marker erzeugt sich jeder Nutzer/jede Nutzerin individuell. Möchte ich eine spezielle Zuordnung eines meiner 3D-Objekte zu einem bestimmten Marker, dann lege ich im Editor einen Marker an und weise diesem eines meiner 3D-Objekte zu. Dieser Marker zeigt dann bei allen Augment-Nutzer_innen das gleiche 3D-Modell an.

Einige pädagogische Einsatzszenarien

Virtuelle Ausstellung mit Augment: Eigene 3D-Modelle werden in einer Galerie oder auch im öffentlichen Raum gezeigt, in dem große Marker auf den Boden geklebt werden. Die 3D Objekte können damit überlebensgroß im Raum platziert und von allen Seiten durch Herumlaufen betrachtet werden.

Gebäuderallye mit Augment: Ähnlich einer QR Code Rally in Gebäuden, bei denen abgescannte QR Codes jeweils Hinweise auf neue zu findecde Orte und weitere QR Codes bilden, können Marker von Augment genutzt werden um dreidimensionale Objekte in den Räumen erscheinen zu lassen, die als Wegweiser zu anderen Orten fungieren.

Interaktiver Film mit Aurasma, Layar, Wikitude oder Junaio: AR Marker werden an verschiedenen „Spielorten“ in der Umgebung platziert und mit Videoszenen eines Films überblendet. Der Zuschauer/die Zuschauerin hat die Möglichkeit die Orte in einer Reihenfolge seiner/ihrer Wahl anzusteuern und könnte dadurch z.B. bei einem Krimi verschiedene Hinweise auf die Auflösung erhalten.

Multimedia-Buch mit Aurasma, Layar, Wikitude oder Junaio: In einem Lehrbuch werden Videos über bestimmte Abbildungen gelegt. Das könnten Statements der Schüler_innen zu den Inhalten sein, Tutorials oder abgefilmte Versuche in naturwissenschaftlichen Büchern.

Fazit

Es gibt nicht den besten Dienst für image-basiertes Augmented Reality, vielmehr ist der Einsatz von einer Vielzahl von Faktoren abhängig. Am wichtigsten dabei ist wohl, wie einfach der Weg ist, damit andere meine eigenen AR Inhalte betrachten können. Eine App, die für mich hier positiv herausstach, auch wenn die Funktionen nur sehr rudimentär waren, war Stiktu, das leider im Frühjahr 2014 eingestellt wurde. Ein beliebiges Bild konnte direkt in der App mit eigenen Fotos, Text oder vorgegebenen Stickern kombiniert werden und war anschließend sofort weltweit für alle Stiktunutzer_innen verfügbar. Der Vorteil: Die Erstellung war unglaublich einfach, die Ergebnisse konnten sofort von allen betrachtet werden. Ein Projekt von Medien + Bildung.com  hatte sich das zu Nutze gemacht, in dem Streetartbilder in Mainz mit eigenen Kommentaren versehen wurden.

Aurasma ist sicher eine gute Wahl, wenn ich die Möglichkeit habe, auf Tablets oder Handys, die beispielsweise die Besucher einer Ausstellung oder Präsentation nutzen, etwas vorzuinstallieren, weil dort der entsprechende Inhalt im voraus abonniert werden kann. Ansonsten würde sich Junaio anbieten, da hier die Nutzer lediglich aufgefordert werden müssten, die kostenlose App zu installieren und einen QR Code abzuscannen, um die AR Inhalte betrachten zu können.

Die Kosten sind natürlich ebenfalls ein wichtiger Faktor. Zumeist wird man jedoch oft schon mit den Trial- oder Demoversionen auskommen, die die meisten Dienste anbieten. Oft gibt es die Möglichkeit als Bildungseinrichtung Rabatte zu bekommen oder auch gänzlich kostenlos AR inhalte erstellen zu können.

Ich freue mich über Erfahrungsberichte in den Kommentaren.

 

Übersicht über AR Editoren zum Download:

uebersicht_ar_editoren_vorschau

Download: Augmented_Reality_Editoren.pdf (PDF, 65 kB)

 

Augmented Reality Editoren UIs:

layar_creator

Layar Creator

metaio_creator

Metaio Creator Software (MacOS)

Wikitude Studio

Wikitude Studio

Aurasma Studio

Aurasma Studio

 

 

Creative Commons Lizenzvertrag Dieses Werk ist lizenziert unter einer Creative Commons Namensnennung 4.0 International Lizenz.

Eigene Google Streetview Rundgänge erstellen

Achtung: Das hier im Artikel beschriebene Verfahren zur Veröffentlichung eigener 360º-Panoramen auf Google Maps funktioniert NICHT mehr. Über das aktuelle Verfahren gibt es einen neuen Artikel, der hier zu finden ist: Eigene Google Streetview Rundgänge erstellen (neu 2016)

glienicke_360

Die PhotoSphere Funktion auf Android Handys oder in Google Maps erlaubt das Betrachten von Panorama Fotos in einer 360 Grad Rundumsicht analog der von Google erstellten Streetview Bilder. Mit einem Google+-Account kann jeder/jede Fotos mit Photo Sphere Effekt zu Google Maps hinzufügen.

Aber auch mit iPhone/iPad mit entsprechender App oder auch mit einer digitalen Kamera lassen sich solche 360 Grad-Fotos (auch als Spherical-Fotos bezeichnet) erstellen und zu Google Maps hochladen.

Mehr Informationen zur Photo Sphere Funktion in Android unter https://support.google.com/maps/topic/3189543

An dieser Stelle findet ihr eine Schritt für Schritt Anleitung, die verschiedene Möglichkeiten beschreibt, wie man mit eigenen 360 Grad-Fotos an Google Maps partizipieren und daraus Rundgänge für die eigene Webseite erstellen kann.

Das Ergebnis sähe dann so aus:

Views: SFBB von Michael Lange

A. Erstellen eines Panoramas

1. Erstellen mit der „Google Kamera“-App

Idealerweise wird eine Photo Sphere-Ansicht mit der App „Google Kamera“ erstellt. Die App ist derzeit nur unter Android 4.4. Kitkat erhältlich (bei Nexusgeräten wohl auch mit 4.3). Neben Panoramaaufnahmen können mit der App auch direkt Fotos im Photo Sphere Modus gemacht und direkt auf Google Maps geteilt werden.

google_kamera

Erklärung zur Nutzung der Google Kamera: http://artikel.softonic.de/google-camera-so-nutzen-sie-panorama-und-photo-sphere

2. Erstellen mittels einer Panorama App

Für iPads und iPhones empfehle ich die App „360 Panorama“ von Occipital (0,89 €) (https://itunes.apple.com/de/app/360-panorama/id377342622). Mit der App lassen sich wie bei der Google Kamera komplette Rundum-Aufnahmen inklusive Boden und Himmel machen. Die Fotos können als JPGs in den Fotoaufnahmen abgespeichert und dann weiterbearbeitet werden. Für Android  leistet die kostenlose App „Panorama – 360 (Free)“ (https://play.google.com/store/apps/details?id=com.vtcreator.android360) ähnliches.

3. Erstellen mit DSLR Kameras

Auch mit einer DSLR Kamera lassen sich 360 Grad-Panoramen erstellen, indem eine Reihe sich um ca. 20-40% überlappenden Fotos gemacht werden. Auf dem PC oder MAC werden die Fotos durch spezielle Programme zu Panoramen zusammengesetzt. Das macht z.B. „Panorama 360“ von haiqun deng für Mac OS 10.9 (App Store, 2,69 €). Professioneller und mit sehr viel mehr Einstellungsmöglichkeiten geht das mit PTGui für Windows und Mac (79 €) (http://www.ptgui.com)

B. Bearbeiten des Panoramas

Wichtig ist, ein Seitenverhältnis der Fotos von 2:1 einzuhalten. Eventuell muss das Panorama mit einer Bildbearbeitungssoftware durch einen weißen oder schwarzen Rand oben bzw. unten ergänzt werden. Der Horizont sollte dabei möglichst in der Mitte des Bildes bleiben.

C. Upload in das eigene Fotoalbum bei Google+

Im richtigen Format gespeicherte Fotos (JPGs, Seitenverhältnis 2:1) werden automatisch nach dem Hochladen mit „Auto-Effekt“ in 360 Grad-Ansichten (Photo Sphere) umgewandelt. Dazu muss in den Google+ Einstellungen „Auto-Effekte“ aktiviert sein. Der Vorgang kann ein paar Minuten dauern. Die erstellte Photo Sphere erscheint automatisch im Fotoalbum und wird durch ein „Auto-Effekt“ Symbol oben links und dem Google Sphere Icon gekennzeichnet.

google+fotos

Nach Aufrufen des Fotos können unter „Fotodetails“ weitere Angaben zum Bild ergänzt werden. Dazu sollten unbedingt auch die Standortdaten gehören, die sich leicht über Google Maps anlegen lassen.

D. Hinzufügen zu Streetview

Das Hinzufügen der Photo Sphere geschieht in der Google Views Community: https://www.google.com/maps/views/home. Über das Hinzufügen von Fotos werden diese nach einer Prüfung durch Google auf Google Maps veröffentlicht. Dies dauert von einigen Stunden bis zu einem Tag.
googlemaps_viewsprofil

 

Auf Goolge Maps werden die eingefügten Panoramen als kleine grüne Punkte sichtbar, sobald ich die Streetview-Ansicht aktiviere.

E. Verbinden von Panoramen

Aus den hinzugefügten Panoramabildern kann ein eigener Rundgang (bzw. eine „Panoramengruppe“) erstellt werden, dafür müssen die Panoramen zunächst verbunden werden. Dies geschieht ebenfalls in der Google Views Community.

googlemaps_panoramen_verbinden

Nach dem die Panoramen verbunden wurden, sollten sie noch so gedreht werden, dass die Pfeile im Bild auch in die richtige Richtung weisen. Bis die Bilder dann auch in der Streetviewansicht verbunden sind, kann es ebenfalls einige Stunden dauern.

Kurzes Tutorial dazu: http://google-latlong.blogspot.fr/2013/12/create-your-own-street-view.html
Ausführliche Beschreibung: https://support.google.com/maps/answer/3481809

Über den „Sharen“-Button in der Google Views Community kann der Rundgang in die eigene Webseite eingebettet werden.

Weitere Informationen zur 360 Grad-Panoramafotografie:
Panoramafotos: http://www.pano.ie/
Videotutorials (engl.): http://www.youtube.com/playlist?list=PL15B8C737F69319BE

Update 20.8.2014: Ab sofort gibt es die Google Kamera App als „Photo Sphere Camera“ auch für iOS (iPad und iPhone): https://itunes.apple.com/de/app/photo-sphere-camera/id904418768?mt=8

Update 15.9.2015:  „Photo Sphere Camera“ heißt nun „Google Street View“ und ist hier zu bekommen: https://itunes.apple.com/de/app/photo-sphere-camera/id904418768?mt=8 (iOS), https://play.google.com/store/apps/details?id=com.google.android.street&hl=de (Android)

Danke an Eike Rösch für die initiale Idee!

Creative Commons Lizenzvertrag Dieses Werk ist lizenziert unter einer Creative Commons Namensnennung 4.0 International Lizenz.

Arbeitsbogen: Eigene Lehr- und Lernmaterialien als OER (Open Educational Ressources) Material veröffentlichen

arbeitsblatt_bild

Im Rahmen unseres Projekts „Schüler machen OER“ habe ich für die Abschlusspräsentation der Schüler_innen einen Arbeitsbogen entworfen, der ihnen helfen soll, ihr Material mit einer CC-Lizenz zu versehen. Die Lizenzierung haben sie zusammen mit den Besucher_innen, zumeist ihren Eltern, gemeinsam vorgenommen. So konnte den Eltern gleichzeitig auch noch Wissen über OER und CC-Lizenzen vermittelt werden.

Der Arbeitsbogen ist ebenfalls OER-Material und kann in drei verschiedenen Formaten geladen, bearbeitet und verwendet werden. Verbesserungsvorschläge oder andere Hinweise gerne an mich:

OER lizenzieren Arbeitsbogen (DOC, 295 kB)

OER lizenzieren Arbeitsbogen (PDF, 140 kB)

OER lizenzieren Arbeitsbogen (PDF, 320 kB)

 

Minecraft Objekte exportieren und in Augmented Reality Ansicht anzeigen

Minecraft ist aktuell eines der angesagtesten Onlinespiele (leider hauptsächlich männlicher Jugendlicher). Wer Minecraft kennt, weiß, dass hier vor allem Kreativität eine große Rolle spielt, wenn eigene Objekte in den Onlinewelten erschaffen werden. Das macht Minecraft natürlich für medienpädagogische Aktionen spannend. Um aber über das Selbstgestalten hinauszugehen, kombinierten wir in einem Workshop im Sommer 2013 das Ganze mit dem Thema Augmented Reality, das nun spätestens seit Google die erste Version von Google Glasses an ausgewählte Käufer vergeben hat, in der Öffentlichkeit einen gewissen Bekanntheitsgrad erreicht hat.

In einem dreitägigen Workshop haben wir mit neun Jugendlichen Minecraftobjekte geschaffen und diese aus den Welten exportiert, um sie per Augmented Reality in der physischen Welt zu platzieren. Neben der Vermittlung von Wissen über Augmented Reality ging es uns auch darum, zu reflektieren, welche Chancen und Gefahren sich aus dieser Technologie ergeben.

IMG_1201

Zum Export von Objekten aus Minecraft haben wir Mineways benutzt. Ähnliches leistet noch die Java App „jMc2Obj“. In meinen Tests hat sich aber gezeigt, dass die mit jMc2Obj exportierten Objekte teilweise Texturfehler aufwiesen. Daneben gibt es noch die iOS App “Minecraft Reality”. Über eine Webseite können hier Minecraft Objekte direkt in die App übertragen und in einer AR Ansicht angezeigt werden, ohne den Umweg über das 3D-OBJ-Format zu gehen. Bei Minecraft Reality muss über eine Webseite die Regionsdatei importiert werden. In den meisten Fällen hat bei mir aber der Upload nicht funktioniert. Außerdem muss erstmal herausgefunden werden, in welcher Region in der Minecraftwelt sich das Objekt überhaupt befindet.

An dieser Stelle also nun der Weg, den wir im Workshop gewählt haben:

A. Export der Objekte aus Minecraft mit Mineways (Win und Mac)

Es ist generell nur der Export aus der Welt auf dem eigenen PC möglich, bzw. Aus einer Minecraftwelt, bei der man FTP-Zugriff auf den Server hat.

1. in Mineways importiert werden (Open World) muss die Datei level.dat der Welt?Zu finden ist die Datei unter:?../Library/Application Support/Minecraft/Saves/ (Mac)?…/Dokumente und Einstellungen/Besitzer/Anwendungsdaten/ .minecraft/saves/ (Windows, bei Ordneroptionen müssen versteckte Dateien angezeigt werden)

2. Wichtig: Die Angabe in Mineways “Level Depth” entscheidet, ob der Untergrund mit exportiert wird. 4 in einer Superflat World oder 63 in einer normalen Welt verhindert, dass der Boden exportiert wird. Auf der Höhe 63 liegt überlicherweise der Meeresspiegel in Minecraft Welten.

mineways

3. Das zu exportierende Objekt wird auf der Karte mit der rechten Maustaste ausgewählt.

4. Weiter im Menü mit „File“ und „Export for Rendering“. Im Exportdialog „Make Z the up direction instead of Y“ markieren, ansonsten liegt das Objekt später auf der Seite.

5. Es werden insgesamt 3-5 Objekte exportiert: OBJ, MTL, PNG und bei transparenten Strukturen zusätzlich zwei weitere PNG-Dateien.

B. Es empfiehlt sich, das Objekt auf dem PC vor dem Hochladen anzuschauen, z.B. mit dem GLC Player (Mac und Windows),  (Achtung: Durchsichtige Texturen/Alphakanäle funktionieren nicht)

glc_player

C. Zum Betrachten in der AR Ansicht auf dem Smartphone/Tablet haben wir die App „Augment“ (Android und iOS, kostenlos) benutzt

1. Vorher müssen alle exportierten Dateien zusammen in ein ZIP-File gepackt werden.

2. Upload des ZIP-Files über http://agmt.me (Registrierung auf der Webseite erforderlich). ?Zusätzlich sollte ein kleiner Screenshot als Thumbnail und ein Marker/Tracker hochgeladen werden (Tracker kann irgendein Bild mit relativ komplexen Strukturen sein)

augment_add_3d

3. Anschließend wird die App „Augment“ auf Smartphone oder Tablet geöffnet

4. Einloggen mit dem Benutzer der auf agmt.me angelegt wurde

5. Eigene Objekte finden sich im Menü unter „My Business Catalog“

augment_ipad1

6. das Objekt nun in AR Ansicht öffnen. Es erscheint mittig in der Kamaraansicht und kann durch Ziehen bewegt oder verkleinert und vergrößert werden.?7. Eigenen Tracker/Marker anlegen erhöht die Genauigkeit der Darstellung, dazu in der AR-Ansicht auf „Tracker“, „Create Tracker“ klicken. Dazu sollte man eine feste Pappe mit einem gut strukturierten Bild bereithalten, dass dann zunächst als Tracker abfotografiert wird. Hält man den Tracker später ins Kamerabild erscheint darauf stehend das Minecraftobjekt und kann durch drehen und kippen von allen Seiten betrachtet werden.

Weitere Smartphone/Tablet App, die Minecraft-Objekte in einer AR Ansicht zeigt:

Minecraft Reality (nur iOS, 1,79 €)?Upload eigener Objekte über minecraftreality.com (Beta) möglich, aber kompliziert?Eigene Marker möglich, (auch aus verschiedenen Perspektiven, z.B. Straßenfläche, Häuserwände)

Nichtgetestet, aber möglich wäre es natürlich auch, die 3D-Objekte auf einem 3D Drucker auszudrucken. Dazu werden ebenfalls die OBJ-Datei und die Bilder der Texturen verwendet. Ein Internetdienst, der das Drucken anbietet ist Shapeways. Soll die Farbigkeit erhalten bleiben muss als Material: Fullcolor Sandstone, 0,75$ pro cm³) gewählt werden. Beispiele dafür finden sich unter: https://www.flickr.com/groups/mineways/pool/with/6626972287/

Und hier noch der im Workshop entstandene Film, in dem unsere TeilnehmerInnen das Vorgehen beschreiben und Beispiele zeigen, aber auch in Straßeninterviews Passanten zu ihrer Meinung über „Augmented Reality“ befragt haben:

 

Learnist: Pinterest für Lerner

Ich habe ja schon lange einen Faible für Informations- und Wissenmanagement im Netz. Angefangen mit den ersten selbstprogrammierten Datenbanken über meine Wikis Web 2.0 (völlig veraltet) und 3DBildungswelten (ziemlich veraltet) und Delicious, das ich bis heute gerne als Bookmarkablage nutze, schaue ich mir doch immer wieder gerne neue Tools an. Gerade was Infosharing angeht tut sich hier im Moment sehr viel. Und zu meiner großen Befriedigung tut sich auch etwas beim Design (gerade Mediawiki fand ich immer furchtbar).

Seit einiger Zeit ist mein favorisierter Dienst scoop.it. Übersichtlich, gut zu handeln und der Dienst schlägt selber zum Thema passende Beiträge vor. Mit Pinterest konnte ich mich bisher nicht anfreunden, insbesondere weil es sehr auf Bilder fokussiert ist und sich m.E. damit nicht alle Themen darstellen lassen. Nun gibt es aber seit einigen Wochen mit Learnist eine sehr stark an Pinterest angelehnte Alternative, mit dem erklärten Ziel „Wissen zu teilen und von anderen zu lernen“.

Auch hier werden einzelne Webseiten abgespeichert, versehen mit einem Vorschaubild und einem erklärenden Text. Diese Einheit heisst „Learning“. Learnings zu einem Thema werden linear geordnet und bilden dann ein „Board“. Die Idee dabei ist, dass die Lernboards so in einer vorgegebenen Reihenfolge von den Lernern „abgearbeitet“ werden, im Grunde also ein kleiner Onlinekurs entsteht. Fehlt das passende Material aus dem Netz können auch Learnings bestehend aus eigenen Bildern und Texten hinzugefügt werden. Auch andere Boards können ein Learning bilden. Damit kann dazu eingeladen werden, an einer Stelle des Boards das Thema weiter zu vertiefen.

Learnist auf dem iPad

Hört sich simpel an, bietet aber eine Menge Möglichkeiten und ist optisch sehr ansprechend, wie ich finde. Genauso gelungen ist auch die iPad App, bei der man ganz iPad-like durch die Boards wischt. Mir hat es jedenfalls sehr viel Spass gemacht, Boards anderer Leute zu entdecken und zu durchstöbern.

Gut umgesetzt sind auch alle sozialen Features. Ich kann die Boards anderer Leute liken, kommentieren und sowohl bestimmten Boards als auch Leuten folgen. Änderungen und Aktualisierungen werden mit auf meiner Learnist-Homepage angezeigt. Ich kann sehen, wer wem folgt und wer welche Boards mag und werde so auf andere interessante Boards und Leute aufmerksam. Und natürlich können Boards auch kollaborativ gestaltet werden. (Was ärgerlicherweise bei scoop.it nicht ging). Und auch wenn ich nicht an einem Board beteiligt bin, kann ich Learnings vorschlagen.

Neben dem informellen Selbstlernen bieten sich auch für den Unterricht und in der Bildungsarbeit einige Einsatzszenarien an. An erster Stelle steht die Organisation von Lernmaterialien inklusive dazugehöriger Kommentare alleine oder gemeinsam mit KollegInnen, entweder zur Einarbeitung in den Unterrichtsstoff oder als nachträgliche Dokumentation von Lerninhalten. Spannend wird es insbesondere, wenn SchülerInnen aufgefordert werden, eigene thematische Lernboards anzulegen. Das Lernboard kann damit auch eine attraktive Alternative zur Powerpoint-Präsentation sein.

Ein paar Nachteile sehe ich noch: Bisher können keine privaten Boards angelegt werden und die Anmeldung muss zwangsweise über Facebook passieren.

Und dieser Hinweis darf natürlich auch nicht fehlen: genauso wie Pinterest ist Learnist kein Dienst, der in Deutschland angesiedelt werden könnte, denn da ist das deutsche Urheberrecht vor, schließlich werden Bilder aus dem Netz auf die eigenen Boards übernommen.

Mein Profil bei Learnist

.

Sharing bei iOS 6: vermurkster Datenaustausch bei iPads und iPhones

Über 200 neue Funktionen in iOS 6, aber nicht die eine, die ich mir so dringend gewünscht hätte: einen einfachen Dateiaustausch von Gerät zu Gerät. Dass ich damit der einzige bin, glaube ich kaum. In unseren iPad Schulungen für LehrerInnen ist das eine der ersten Fragen: Wie übertrage ich meinen SchülerInnen Materialien und Arbeitsblätter? Nach dem die Buttons mit iDisk und iWork bei den iWork-Apps Keynote, Pages und Numbers schon seit geraumer Zeit nicht mehr funktionierten, gab es nur die Möglichkeit, die Dokumente per WebDAV im Netz zu speichern. Aber wer hat schon einen eigenen WebDAV Server? Bei meinem favorisierten Cloudspeicherdienst Dropbox  ist WebDav kostenpflichtig. Es geht trotzdem auch kostenlos, wenn man einen Dienst wie Otixo dazwischenschaltet. Aber ist das ein Weg, den man Leuten nahelegen sollte, die zum ersten Mal iPads nutzen? Eher nicht.

Also: Am besten alles per eMail schicken! Auf die Emailfunktion kann jede App zugreifen. Ist leider nicht sehr elegant und die Gefahr ist immer, dass wichtige Dokumente im Spam der letzten Stunden untergehen.

Immerhin, ein paar Sachen haben sich mit dem neuen iOS  beim „Share“-Button geändert. Aus den Apple Apps wurden die funktionslosen iWork- und iDisk-Button entfernt. Und hinzugekommen ist die Möglichkeit, Dokumente in einer „anderen App“ zu öffnen:

Je Dokumententyp (3 unterschiedliche lassen sich jeweils bei Keynote, Numbers und Pages auswählen) werden andere Apps angeboten. Achtung: Was ich zunächst auch nicht bemerkt habe: durch Wischen lassen sich mehr als die 9 angezeigten Apps auswählen, die auch das Dokument öffnen können. Hier fehlen in der Programmierung die kleinen Punkte am unteren Rand, die anzeigen, dass noch weitere „Fenster“ vorhanden sind.

Noch größer ist meine Verwunderung, wenn man die Sharingmöglichkeiten anderer Apple Apps betrachtet. Hier zum Beispiel Garageband und iMovie:

War das nicht mal Apple, das für seine genialen und einfachen User Interfaces berühmt geworden ist? Bei den beiden Apps ist davon nichts zu sehen, aber vielleicht kommt ja noch eine Anpassung an die iWork-Apps. Nach wie vor kann auch Garageband nicht mal Songs in der iOS eigenen Musikbibliothek ablegen.

Auch die Camera Roll hat ein Update spendiert bekommen, was die Sharingfunktion angeht. Allerdings eher ein optisches, viel mehr Möglichkeiten gibt es nicht. Abgesehen von der nun überall anzutreffenden Facebook-Sharingfunktion. Hier ist ein Update vielleicht auch nicht ganz so wichtig, ist doch die Camera Roll der Bereich, bei dem Apple es gestattet, das andere Apps darauf zugreifen. Und hier gibt es dann auch Apps wie z.B. Wireless Transfer und Bump, die einen direkten Austausch von Fotos und Videos zwischen iPads und iPhones erlauben. Auch die Dropbox-App kann direkt auf die Camera Roll zugreifen und dann Fotos und Videos nach Dropbox übertragen.

Wieder etwas anders sieht das bei der iPhoto-App aus, die ja eigentlich unter MAC OS X zusammen mit Garageband und iMovie zur iLife-Serie gehört. Vielleicht ist die Entwicklung hier aber auch schon etwas weiter: Man beachte im Vergleich zur Camera Roll das farbige Druckersymbol, die Verknüpfung mit Cards (das ich allerdings gar nicht habe) und hier nun endlich das vermisste „Beamen“-Symbol. Der „Öffnen in“-Button führt hier über einen Zwischenschritt, bei dem ich merkwürdigerweise noch die Möglichkeit habe, ein anderes Foto auszuwählen, zur bekannten Übersicht mit kompatiblen Apps. Bemerkenswerterweise sind hier die kleinen Punkte am unteren Rand bereits integriert, die anzeigen, dass durch Wischen weitere Apps ausgewählt werden können.

 

Ich hätte mir für iOS 6 eine solche geniale Lösung wie bei Mac OS X mit Airdrop gewünscht: Auf beiden Rechner wird ein Airdropfenster geöffnet, eine Datei wird auf das Computersymbol des anderen Rechners gezogen, fertig! Und das sogar ohne eine WLAN-Verbindung zu nutzen. Warum das nicht bei iPads gehen soll, ist mir ein Rätsel, immerhin gibt es mindestens eine App, die das in der Art kann: iFiles. iFiles überträgt Dateien per WLAN-Verbindung oder Bluetooth zwischen iPads. Leider nur Dateien, die vorher in iFiles geladen wurden, beispielsweise über einen externen Speicherdienst und natürlich nicht Dokumente, die in den Bookshelfs der Apple Apps stehen.

Beim Dateiaustausch also ist iOS 6 eher eine Enttäuschung: teilweise komplett anderes Erscheinungsbild innerhalb der Apple Apps und kaum zusätzliche Funktionen. Ich hoffe auf einen neuen Versuch in einem Jahr mit iOS 7.

Kennt jemand weitere Möglichkeiten zwischen iOS-Geräten Dokumente auszutauschen? Gerne Hinweise dazu in die Kommentare schreiben.

Einstieg in die Filmarbeit mit iMovie Trailer

Seit  wir in den Workshops meines Vereins Metaversa verstärkt iPads einsetzen, probieren wir auch immer neue Methoden aus, um einen Einstieg ins Thema oder eine Einführung in Medienproduktion zu finden. Zuletzt im Workshop „Das Netz sind wir„, in dem es um soziale Netzwerke ging. Für die Videogruppe hieß es deshalb  am Beginn: Erstellt in Kleingruppen mit iMovie den fiktiven Trailer eines Films über „Facebook“.

Seit zwei Jahren schon wird mit der Apple Software eine Reihe an „Templates“ oder „Themen“ zur Erstellung eines einminütigen Filmtrailers mitgeliefert. Sowohl in der Desktop als auch in der iPhone- und iPad-Version. Die Funktion dafür findet man an der Stelle, an der auch ein neues Projekt erzeugt wird. Dort gibt es die Möglichkeit einen „Neuen Trailer“ zu erzeugen. Anschließend kann auf dem iPad aus acht fertigen Beispieltrailer mit unterschiedlichen Themen: Märchenfilm, Abenteuer, Romantik etc. ausgewählt werden. In der Desktopversion stehen weitere Themen zur Verfügung.

Ist die Entscheidung für ein Thema gefallen, werden die Szenen anhand eines vorgegebenen Storyboards mit dem iPad nachgedreht und die Zwischentexte ausgetauscht. Dabei lernen die SchülerInnen den Aufbau eines Storyboards kennen, sowie auch die Einstellungsgrößen im Film, denn jede Szene ist durch eine kleine Skizze genau vorgegeben. (Natürlich muss man sich nicht daran halten, lediglich die Dauer der Clips lässt sich nicht beeinflussen). Für die SchülerInnen ist dies eine gute Orientierung und in kurzer Zeit erreichen sie damit ein Ergebnis, das präsentierbar ist.

Der Einsatz von iMovie Trailer ist damit nicht nur ein aktiver Einstieg um den Aufbau eines Storyboards kennenzulernen, sondern auch ein sehr lockerer und motivierender Auftakt eines Filmworkshops.

Es empfiehlt sich aber mit iPads zu arbeiten, da hier direkt die Szenen mit der eingebauten Kamera aufgezeichnet werden können. Ansonsten müsste eine externe Kamera eingesetzt und der Film zunächst importiert werden, was dem flüssigen Arbeiten bzw. dem „Flow“ bei der kreativen Arbeit hinderlich ist. So können allerdings auch bereits gedrehte und bearbeitete Filme noch zu Trailern umgeschnitten werden.

Je nach persönlichem Anspruch brauchten die Kleingruppen von 3-4 SchülerInnen bei uns zwischen 30 und 90 Minuten zur Gestaltung eines eigenen Trailers mit dem iPad.

 

E-Books am iPad lesen und erstellen: Apple will Standards setzen

Da ich mich gerade auch aktuell mit der Erstellung von E-Books auf dem iPad befasse und dazu etwas bloggen wollte, passte es ganz gut dass Apple just seine Initiative zu digitalen Lehrbüchern vorstellte. Das Fazit meines Artikels sollte nämlich sein, dass das Selbsterstellen von E-Books mit dem iPad zwar sehr viel Spaß macht und ziemlich einfach ist, E-Books nach dem EPUB-Standard aber für mich ansonsten vor allem eins sind: häßlich. Nicht umsonst gibt es bisher wenig Zeitungen oder Zeitschriften, die im EPUB-Format erscheinen, eine rühmliche Ausnahme ist die taz (Probeausgabe der taz als EPUB). Alle anderen verteilen ihre Magazine entweder als PDF oder gerne gleich als eigene App für das iPad.

Auf der anderen Seite haben EPUB-Formate natürlich den Vorteil, dass sie auf vielen Betriebsystemen und Geräten zu lesen sind. Und wenn der neuste Standard verwendet wird, sind sie auch ein wenig multimedial. Zudem dürfte das EPUB-Format eine große Rolle spielen, wenn es um die Erstellung freier Lerninhalte – Stichwort „OER“ – geht.

Auf dem iPad empfehle ich Schulen vor allem zwei Anwendungen, um E-Books im EPUB-Standard selber zu gestalten: Book Creator (3,99€) und Creative Book Builder (2,99€), leider beide nur in englisch. Beide sind gut geeignet, um wirklich schnell und einfach Projekte, Experimente, Unterrichtseinheiten etc. in ansprechender Form zu dokumentieren. Auch mit Pages lassen sich Dokumente im EPUB-Format exportieren, leider allerdings nur auf dem Mac und nicht mit dem iPad.

Book Creator ist sehr gut auch für jüngere Schüler geeignet, da alle Texte und Fotos per Drag und Drop schnell auf den entsprechenden Seiten platziert werden können. Über das Mikrofon oder iTunes kann zusätzlich Audio hinzugefügt werden. Videos sind derzeit leider nicht möglich.

Bei der Verwendung von Creative Book Builder muss man sich schon im Vorfeld mehr mit der Gliederung des Buchs beschäftigen. Überschriften, Textabschnitte, Listen, Fotos, Audio und Videos werden wie Bausteine hintereinander gelegt. erst in der Vorschau lässt sich dann das fertige Buch betrachten.

Die fertigen E-Loks landen am Ende in der App “ iBooks“ und reihen sich dort ein zwischen die Klassiker der Weltliteratur (sofern mal runtergeladen) und können natürlich auch ins Netz übertragen oder per Email weitergegeben werden. Das ist erstmal für Schüler sehr motivierend und lässt sich im Unterricht gut nutzen, ist aber auf Dauer gestalterisch nicht sehr anspruchsvoll.

Insofern ist das neue E-Bookformat, das Apple ab sofort anbietet (zunächst erstmal als Lehrbücher für Schulen und Universitäten, aber das muss ja nicht immer so bleiben) ziemlich beeindruckend: komplett freie grafische Gestaltung, Filme, 3D-Objekte, Bildergalerien und kleine Quizmodule. Dazu dann ein kostenloses Authoringprogramm für MacOS „iBooks Author“ (für das iPad „noch“ nicht), das sehr übersichtlich und komfortabel zu bedienen ist. Ich kann es deshalb Schulen nicht verdenken, auf diesen Zug aufzuspringen, gerade wenn sie schon iPads im Unterricht einsetzen. .

Allein: Es ist kein EPUB-Standard mehr, sondern Apple erweitert hier das Format um viele eigene Spezifikationen. Und natürlich sind die iBooks nur auf iPads und Macs lesbar. Baldur Bjarnason hat sich das ibook-Format genauer angeschaut und vermutet, dass selbst die Programmierung eines Konvertierungsprogramms für iBooks keine leichte Aufgabe wird.

Nun ist das ganze zunächst mal nur für Lehrbücher gedacht und nur einige amerikanische Verlage sind bisher mitgezogen, aber durch die Dominanz des iPads kann man den Eindruck gewinnen, dass Apple hier ganz bewusst versucht, Standards für E-Books zu setzen. Um dem noch eins drauf zusetzen, versucht Apple per Lizenzvertrag alle NutzerInnen von „iBooks Author“ zu verpflichten, kostenpflichtige iBooks nur im iBook-Store zu verkaufen (was Apple 30% der Einnahmen bescheren würde und das Recht nicht genehme Bücher abzulehnen!). Eine interessante Methode, um kostenlose Software zu „monetarisieren“, die natürlich für Empörung gesorgt hat und rechtlich wahrscheinlich nicht mal haltbar ist.

Insofern kann ich die Initiative der deutschen Schulbuchverlage gut verstehen, die (neben Verhandlungen mit Apple) ein eigenes Angebot aufbauen wollen. Unter welchem Standard diese „übergreifende digitale Plattform“ laufen soll, ist wohl noch nicht bekannt. Vorgestellt werden soll die Initiative dann auf der Didakta. Irgendwie komisch, dass Verage und Verwertungsgesellschaften immer erst aufwachen, wenn Apple entsprechende Produkte platziert.

Mein Fazit: E-Books in der Bildungsarbeit zu produzieren ist toll, dann aber möglichst im EPUB-Standard, Apples neue iBooks sind ein Genuss und Gewinn für den Leser/die Leserin, der sich nicht an Konzernen mit marktbeherrschender Stellung stört, vom Produzieren mit der iBooks Authoringsoftware würde ich solange abraten, bis die Ergebnisse auf anderen Plattformen lauffähig sind oder zumindest vernünftig konvertiert werden können.

… und die Frage, ob Ebooks überhaupt noch eine Rolle im digitalen Klassenzimmer der Zukunft spielen sollten, könnt ihr mir ja gerne in den Kommentaren beantworten.

Acht Kindercommunities stellten sich bei „Kinder Aktiv Vernetzt“ vor

Einen kleinen aber feinen Überblick über nicht-kommerzielle deutsche Kindercommunities bot das Fachforum „Kinder Aktiv Vernetzt“ der LAG Medienarbeit Berlin am 12.12.2011, das ich mit organisieren durfte. Nicht zu vergessen natürlich der spannende Einstiegsvortrag von Prof. Dr. Burkhard Fuhs zum Thema „Mediatisierte Kinderfreundschaften als pädagogische Herausforderung“, der sich auf der Fachforumswebseite runterladen lässt.

Internauten Webseite Internauten (www.internauten.de): Eine Plattform der Freiwilligen Selbstkontrolle Multimedia-Anbieter, die Kinder beim Einstieg und der Orientierung im Internet unterstützt und eine Anlaufstelle für jugendmedienschutzrelevante Fragen darstellt. Als Internaut kann man Quizfragen beantworten und dafür Punkte sammeln, außerdem Empfehlungen für Bücher, Filme und Internetseiten abgeben.
Kindersache (www.kindersache.de): Angebot des Deutschen Kinderhilfswerkes e.V.. Hier finden alle Kinder ihrem Alter entsprechende Informationen rund um die Rechte von Kindern. Hier können sie mit anderen chatten und mailen, eigene Artikel oder Kommentare schreiben, sich über ihre Rechte informieren und sich für ein kinderfreundlicheres Internet einsetzen.
Clipklapp (www.clipklapp.de): Videoportal für Kinder des Deutschen Kinderhilfswerk e.V. (DKHW). Hier können Kinder altersgerechte Videos ansehen und natürlich auch eigene Beiträge hochladen. Seit 2010.
Tausch-dich-fit (www.tausch-dich-fit.de):  Erste kind- und jugendgerechte Tauschbörse in Deutschland, kombiniert mit einer Wissensbörse zum Thema Handel. Vor wenigen Monaten erst online gegangen.
Sufino (www.sufino.de): Kinder im Alter von 6 – 14 Jahren können ihre Freizeit aktiv gestalten, planen und sich darüber austauschen. Durch die kindgerechten Suchoptionen und Beschreibungen können sich Ihre Kinder eigenaktiv oder gemeinsam mit ihren Eltern über abwechslungsreiche Freizeitideen in der Umgebung oder für zu Hause informieren. Seit 2011.
Mein!KI.KA (www.mein-kika.de): Community für Kinder bis 15 Jahren. Jeder Nutzer hat die Möglichkeit, ein eigenes Profil inklusive Blog und Pinwand zu gestalten und über diese mit anderen Kindern zu kommunizieren.
Knipsclub (www.knipsclub.de): Fotocommunity für Kinder von 8 bis 12 Jahren des JFF – Institut für Medienpädagogik. Kinder können eigene Fotos veröffentlichen und mit anderen teilen.
Spreegucker.net (www.spreegucker.net): Im Aufbau befindliches Kinderportal der LAG Medienarbeit Berlin. Zielgruppe sind hier im Unterschied zu den anderen Communities Grundschulen und Kindereinrichtungen über die sich die Kinder anmelden können. Eine Anmeldung aus dem Internet ist nicht möglich. Im Vordergrund steht das Selbergestalten der Communityinhalte.

Praktisch alle Plattformen betreiben eine Vorkontrolle von Beiträgen, die Kinder in der Community anlegen oder hochladen. Bei der größten der vorgestellten Plattformen „Mein!KI.KA“ sind dafür 19 MitarbeiterInnen zuständig. Sehr unterschiedlich ist die Anmeldeprozedur geregelt. Eine erforderliche Zustimmung der Eltern holen einige über die Angabe einer zweiten Emailadresse (im besten Falle, die der Eltern) ein, andere wie KI.KA erwarten eine schriftliche Rückmeldung per Brief, was allerdings dazu führt, dass über zwei Drittel der begonnenen Anmeldeprozesse abgebrochen werden.

Positiv zu bemerken ist, dass der große Arbeitsaufwand nicht nur auf Kontroll- und Anmeldemechanismen verwendet wird, sondern auch, um bei Regelverstössen den Kindern genau zu erklären, was sie eventuell falsch gemacht haben, anstatt Beiträge einfach nur zu löschen. Hier zeigt sich schon, dass ehrenamtlich betriebene Kinderangebote, da personell kaum mithalten können. Ein Thema mit dem sich auch Plattformen wie sufino.de oder Tausch-dich-fit auseinandersetzen müssen, wenn sie bekannter werden.

Interessant ist, dass sich keine der Plattformen (mit Ausnahme von spreegucker.net) an pädagogische Einrichtungen oder Schulen wendet, um den PädagogInnen eine sinnvolle Alternative für die Einbeziehung von sozialen Netzwerken in den Unterricht oder Kinderfreizeit zu bieten. Hier wird m.E. viel Potential verschenkt.

Überraschendes kommt bei der Abschlussdiskussion zutage, die die etwas provokant formulierte Frage nach einer „überhaupt möglichen“ Koexistenz mit Facebook stellte. Während sufino.de zumindest eine Facebookpage betreibt (für die Eltern der Kinder wohlgemerkt), wird beim Deutsche Kinderhilfswerk versucht, Facebook komplett zu verdrängen: Facebookpage undenkbar, taucht Facebook in Beiträgen oder Kommentaren auf der Plattform Kindersache oder Clipklapp auf, werden diese gelöscht, bzw. „Facebook“ wird durch “ soziale Netzwerke“ ersetzt.

Gerade beim Vergleich der Umgehensweise mit der Moderation von Beiträgen der Kindern wäre es interessant gewesen, auch kommerzielle Anbieter und die Communities der privaten Fernsehsender wie z.B. Toggo dabei zu haben, die sich zwar auch an Kinder- und Jugendschutz halten müssen, die Regelungen jedoch großzügiger auslegen. Jede Plattform muss für sich eine Position zwischen einem absolutem Behüten der Kinder und dem Bereitstellen von Freiräumen für eigene Erfahrungen (eventuell auch negativer) finden. Öffentlich-rechtliche Angebote scheinen mir da teilweise zu übervorsichtig zu sein. Das wäre aber wohl eine Diskussion gewesen, die den Rahmen dieses Fachforums gesprengt hätte, die aber an anderer Stelle geführt werden sollte. Von allen Anbietern wurde bemerkt, dass ein Austausch untereinander bisher zu wenig stattgefunden hat, obwohl er sehr wünschenswert wäre.

Augmented Reality in der Medienarbeit

(Der Artikel wurde erstmals veröffentlicht am  14.11.2011 im Medienpädagogik-Praxis-Blog)

Wer möchte nicht schon mal gerne seine Realität erweitern? Augmented Reality (AR) verspricht genau das, wenn auch nicht ganz so spektakulär, wie dieses neue Buzzword vielleicht glauben macht. AR-Apps auf Smartphones nutzen Kompass, GPS- und Videofunktionen, um zusätzliche Informationen über bestimmte Orte, die sogenannten POIs (Points-of-Interest), in ein Livekamerabild einzublenden: in welcher Richtung ist die nächste Bushaltestelle, wo ein Geldautomat, in welchen Häusern sind Wohnungen zu vermieten etc. . Zumeist sind das Einblendungen von Icons oder Markern, die anklickbar sind und ein Fenster mit Informationstext und Fotos öffnen. Mittlerweile können das auch 3D-Objekte sein, die dann am Orginalort eine virtuelle Berliner Mauer wieder auferstehen lassen.

Für den Einsatz in der medienpädagogischen Arbeit bieten sich vielfältige Möglichkeiten. Immer wenn es um Inhalte geht, die mit festen Orten verknüpft sind, lassen sich diese alternativ zu einer Kartendarstellung als AR-Anwendung umsetzen: von geschichtlichen Ereignissen über architektonische oder ökologische Besonderheiten bis hin zu aktuellen Orten der Jugendkultur. Insbesondere die optionale Verwendung von 3D-Objekten fördert den kreativen Medienumgang: so kann ich mit eigenen virtuellen Skulpturen das Straßenbild bereichern oder gleich eine komplette computergenerierte Stadt zum Durchwandern erschaffen. Am attraktivsten ist sicher die Entwicklung von Handyrallyes mit Wettbewerbscharakter, der sich ja oft als sehr motivierend erweist. Wie sich ortsbezogene Informationen mit Aufgaben verknüpfen lassen und daraus ein Spiel entsteht, schildere ich im folgenden Text.

Augmented Reality Apps

Die drei bekanntesten AR-Apps sind Layar (www.layar.com), Wikitude (www.wikitude.com) und Junaio (www.junaio.com), die sowohl auf iPhones als auch auf Android-Handys laufen. Bei jedem der Programme entscheide ich selber, welche Art von Informationen ich über meine Umgebung erhalten will. Über den Startscreen der App kann ich aus einer Vielzahl vorhandener Ebenen die mich interessierende auswählen. Die Informationsebenen (in der Layar-App heißen diese Ebenen, bei Wikitude Worlds und bei Junaio Channel) sind kein fester Bestandteil der Programme, sondern können von ganz unterschiedlichen Servern geladen werden. Deshalb spricht man bei den Apps auch von AR-Browsern.

Alle Anbieter erlauben, eigene Ebenen zu erzeugen und zu laden. Die Ebeneninhalte können auf dem eigenen Server abgelegt werden, der allerdings über bestimmte Librarys verfügen muss. Die Ebenen müssen mit einer bestimmten Syntax programmiert werden. Einfacher ist es, einen Hostingservice zu nutzen, bei dem die eigenen AR-Ebenen gespeichert werden und die über einfach zu bedienende Webformulare das Anlegen der POIs ermöglichen. In jedem Fall muss die Ebene immer beim jeweiligen AR-Webdienst angemeldet werden.

Der Workshop

Die Möglichkeit, in einem Bildungsworkshop mit Jugendlichen eine eigene AR-Ebene zu programmieren, habe ich mit meinem Verein Metaversa e.V. (www.metaversa.de) im September 2011 erstmalig ausprobiert. Unter dem Titel „Surfing the streets“ (surfingthestreets.wordpress.com) luden wir Jugendliche in den Herbstferien ein, gemeinsam ortsbezogene Dienste auf Handys auszuprobieren. Inhaltlich ging es um das Leben im Berlin der zwanziger Jahre wie es im experimentellen Dokumentarfilm „Sinfonie einer Großstadt“ von 1927 dargestellt wird. Die Jugendlichen recherchierten zur damaligen Lebenssituation der Menschen und versuchten bei einem Stadtrundgang die im Film vorkommenden Orte wieder zu finden.

Insgesamt entstanden acht kleine Ortsportraits, zum Teil noch ergänzt um kurze Videointerviews mit Passanten, deren geschichtliche Kenntnisse überprüft wurden. Zur Umsetzung als AR-Ebene entschieden wir uns für Layar als App und den Hostingservice Hoppala (www.hoppala.eu), der nach unserer Recherche die meisten Funktionalitäten anbietet. Um die Nutzung unseres Layers auch im Anschluss an den Workshop für andere interessant zu machen, wurde daraus eine Handyrallye gestaltet, indem Quizfragen in die Beschreibung der POIs integriert wurden, verbunden mit der Chance auf einen Gewinn, wenn alle Orte aufgesucht und die Fragen korrekt beantwortet werden.

Eigene AR-Ebene anlegen

Erforderlich ist eine Registrierung als Developer sowohl bei Layar, als auch bei Hoppala. Hoppala gestatte das kostenlose Anlegen unbegrenzter Ebenen mit bis zu insgesamt hundert POIs (die hier Augments genannt werden), die dann aber ein Hoppala-Branding tragen. Möchte man dies nicht, oder benötigt mehr Punkte, kostet der Dienst 50 Euro/Jahr. Ein großer Vorteil von Hoppala ist, dass die hier eingegebenen Augments auch gleichzeitig für Ebenen bei Wikitude und Junaio genutzt werden können. Layar ist für Developer kostenlos wenn weniger als 10.000 Abrufe von POIs pro Monat stattfinden.

Der erste Schritt zu einer eigenen AR-Ebene beginnt bei Layar. Nach dem Einloggen als Developer lege ich einen eigene Ebene (Layer) an und gebe dieser einen Namen. Als nächstes werden bei Hoppala die POIs bestimmt. Dazu wird auch dort eine neue Ebene angelegt, die den selben Namen bekommen muss. Auf einer Google Map können per Mausklick die Marker an den gewünschten Orten platziert und mit Informationen versehen werden.

Außer einem Titel können einem POI ein Foto und drei sehr kurze Textzeilen zugewiesen werden und verschiedene Aktionen (Actions), die Interaktionen ermöglichen, sobald der Punkt ausgewählt ist. Das kann zum Beispiel ein Link zu einer Webseite sein, ein Videoaufruf oder das Starten eines Telefonanrufs.

Sind alle POIs bei Hoppala angelegt, werden die Grundeinstellungen der Ebene bei Layar vorgenommen. Das wichtigste dabei ist das Eintragen der sogenannten API Endpoint URL, die Layar sagt, auf welchem Server die POIs gespeichert sind. Diese URL stellt Hoppala bereit (Overlay URL). Bei Layar werden außerdem festgelegt: ein Infotext zur Ebene mit Startbild, ein Icon und die farbliche Gestaltung der Infoboxen und des Textes. Wichtig ist vor allem auch, einen Ortsbereich festzulegen, an dem sich die POIs befinden. Die Ebene wird mir dann als Layar-Nutzer unter der Kategorie „Lokal“ angezeigt, sobald ich mich in der Nähe befinde.

Der letzte Schritt ist das Einreichen der Ebene zur Freischaltung bei Layar. Es empfiehlt sich, die Ebene vorher ausgiebig zu testen. Das ist ganz leicht möglich, indem ich mich in der Layar-Smartphone App mit meinem Developeraccount einlogge. Auch auf noch nicht freigegebene Ebenenentwürfe kann ich dann direkt zugreifen. Das anschließende Prüfen durch Layar dauert in der Regel drei bis fünf Tage und wird per Mail bestätigt, zum Teil mit Hinweisen, wie die Ebene noch verbessert werden kann.

Gestaltung einer Handyrallye

Layar ist nicht unbedingt dafür ausgelegt, eine Spielsituation zu erzeugen, wie etwa den nächsten Ort einer Stadtrallye erst nach Lösung einer Aufgabe anzuzeigen. Es gibt aber zwei Eigenschaften, die der Ebene bzw. den POIs zugewiesen werden können, die dabei sehr hilfreich sind. Zum einen kann für die Ebene generell festgelegt werden, bis zu welcher Entfernung POIs noch sichtbar sind. Damit kann ein Ausgangspunkt festgelegt werden und alle anderen Orte werden erst sichtbar, wenn ich mich ihnen nähere. Die zweite Funktion betrifft die einzelnen Orte, hier kann ich entscheiden, wie nah ich dem Punkt sein muss, um eine Aktion auszulösen, also z.B. einen Link zu einer Webseite anzuzeigen oder eine Audio- oder Videodatei abzuspielen.

Für unsere Stadtrallye haben wir dies genutzt, in dem die einzelnen POIs so programmiert wurde, dass die Links zu den Quizfragen erst sichtbar werden, wenn ich mich näher als 400 Meter vom Ort entfernt befinde. Eine Reihenfolge der Stationen war uns egal, d.h. alle Orte werden gleichzeitig angezeigt, jedenfalls wenn man sich in der Innenstadt Berlins bewegt.

Fazit

Die Jugendlichen hatten sehr viel Spaß im Workshop, an erster Stelle natürlich dabei, in der Stadt mit Fotoapparat und Video unterwegs zu sein. Augmented Reality Apps hatten sie vorher noch nie genutzt und kannten diese nicht einmal, waren aber natürlich schnell dabei, die von uns zur Verfügung gestellten Smartphones auszutesten. Und warten jetzt natürlich gespannt auf die ersten Einsendungen des richtigen Lösungsworts zur „Sinfonie einer Großstadt“-Ebene bei Layar. Zumindest laut der Statistik, die Layar auch über jede Ebene führt, wird unsere Statdrallye bis zu 30 mal täglich aufgerufen.

Für Berliner und Brandenburger Bildungseinrichtungen bieten wir an, sich unsere fünf Smartphones auszuleihen und entweder damit das historische Berlin der zwanziger Jahre zu entdecken oder gerne auch mit unserer Unterstützung eigene Layar-Ebenen zu programmieren.

Projektwebseite: surfingthestreets.wordpress.com