Skip to content

Medienkompetenzförderung in den Wahlprogrammen der Parteien zur Berliner Abgeordnetenhauswahl 2016

IMG_20160905_180837532

Am 18. September 2016 wird nach fünf Jahren das Abgeordnetenhaus in Berlin neu gewählt. Es wird also Zeit, sich mal in die Wahlprogramme der Parteien einzulesen und nach relevanten Aussagen zur Medienbildung zu suchen. Das hatte ich bereits 2011 gemacht. Im Nachhinein muss ich erschreckt feststellen, wie gering der Stellenwert der Medienbildung damals noch bei einigen Parteien war. So lässt sich nun aber auch überprüfen, was aus den damaligen Versprechen der Parteien geworden ist. Fairerweise geht das natürlich nur bei den Regierungsparteien CDU und SPD:

Wahlprogramme 2011 – Cybermobbing einen Riegel vorschieben

Die CDU konnte nicht viel falsch machen, hatte sie doch 2011 lediglich eine Idee zur Medienbildung im Wahlprogramm:
„Dem Phänomen des Mobbing im Internet (häufig als „Cyber-Mobbing“ bezeichnet) schnellstmöglich ein Riegel“ vorschieben – wurde nicht so wirklich umgesetzt.

Auch die SPD glänzte 2011 nicht unbedingt mit originellen Ideen:

  • „Um die Ausstattung der Schulen mit Computern zur bedarfsgerechten Medienbildung zu verbessern, bauen wir die Kooperation mit Privaten aus.“ War da was?
  • „Wir werden die Anzahl der Kooperationsvereinbarungen zwischen den Schulen und den Bibliotheken zur Leseförderung und zum Erwerb von Medienkompetenz erhöhen, indem wir die Rahmenbedingungen verbessern.“ Ist mir auch nicht bekannt geworden.
  • Immerhin: „Medienkompetenz und kulturelle Bildung und die damit einhergehende Entwicklung sozialer und kreativer Kompetenzen sollen an den Schulen stärkeres Gewicht erhalten.“, ist zumindest in die neuen Rahmenlehrpläne in Form des Basiscurriculum Medienbildung eingeflossen. Welche Unterstützung die Schulen bis zum Inkrafttreten zum Schuljahr 2017/18 zur Implementierung bekommen, scheint aber noch nicht klar zu sein.

 

Medienkompetenzförderung in Berlin – ein Trauerspiel

Wer mir bei Twitter oder Facebook folgt und auch meine Arbeit im Vorstand der LAG Medienarbeit kennt, weiß, dass ich mit der Medienkompetenzförderung der Berliner Bildungsverwaltung in den letzten Jahren nicht besonders glücklich war. Und dies vor allem aus der Perspektive, dass Berlin vor 10-15 Jahren schon mal eine fast eine Vorreiterrolle in Deutschland hatte: mit gemeinsam erarbeiteten Standards für Medienbildung in der Jugendarbeit, mit der Berliner Mailbox Spinnenwerk und zahlreichen Fachtagungen, in denen bereits frühzeitig Medienthemen pädagogisch bearbeitet wurden.

Seitdem herrscht von Seiten der Jugendarbeit eher Stagnation in Form des Programms jugendnetz-berlin.de. Seit Jahren werden hier die bezirklichen Medienkompetenzzentren mit der immer gleichen Summe von 5000 Euro jährlich (!) am Leben erhaltengefördert. Andere Förderprogramme wie „StepsIntoFuture“, bei dem unkompliziert Medienprojekte für 500 Euro beantragt werden konnten und auch die Förderung berlinweiter, vernetzter Projekte wurden weitestgehend eingestellt. Stattdessen setzt die Bildungssenatorin gegen zahlreiche Expertenwarnungen seit 2015 auf ein eigenes Berliner Jugendportal, das 200.000 Euro im Jahr verschlingt und nach Projekthalbzeit absehbar keine besondere Relevanz entfaltet.

Auch auf Schulseite sieht es in Berlin nicht besser aus, sofern dort überhaupt ein Einblick zu erhalten ist, denn selbst der Abgeordnete Thomas Birk von Bündnis 90/Die Grünen erhält 2014 auf eine Anfrage die Antwort, Auskünfte an Außenstehende erteilt die Pressestelle der Senatsverwaltung für Bildung, Jugend und Wissenschaft. Und entsprechend sehen dann auch die Webseiten der Senatsverwaltung zum Thema Schule und Medienbildung aus.

Auf der Senatswebseite zum Thema „Unterrichten mit Medien“ wird nicht einmal der immer wieder beschworene eEducation-Masterplan genannt oder verlinkt. Die neuesten Infos beziehen sich hier auf Open Educational Ressourcen (OER), bestehen aber lediglich auf einer Begriffsdefinition.

Auf der Webseite des Lernraum Berlins, einem berlinweiten Moodle für Schulen (durchschnittliche Logins pro Tag 2014: 1272, bei über 300.000 Berliner SchülerInnen), werden dann auch konsequent die Ziele des eEducation-Masterplan von 2005 zitiert.

Google findet ihn dann doch noch, den eEducation-Masterplan: http://masterplan.be.schule.de/ mit dem letzten Zwischenbericht von 2009. Hier finden sich immerhin die seit 10 Jahren bestehenden Teilprojekte: Roberta mit immerhin 50 teilnehmenden Schulen, das Internetseepferdchen (Berliner Internetführerschein) und eTwinning, das zumindest laut Webseite ein lebendiges Projekt zu sein scheint. Als neues Projekt in den letzten Jahren ist dort „MYOP – make your own product“ dazugekommen: 2013 erhielten zwei der 700 Berliner Schulen einen 3D Drucker und einen 3D Scanner. Da wundert es auch gar nicht, wenn das aktuellste Projekt: „Second Hand IT für Berliner Schule“ heißt.

Die Opposition hat sich hingegen kurz vor Schluss mit dem Antrag „Berlins Zukunft sichern – jetzt Konzept für die Bildung mit digitalen Medien vorlegen“ ein Bienchen verdient.

 

Wahlprogramme 2016 – CDU favorisiert Apple

Aber ab 18. September kann ja nun alles anders werden. Immerhin ist damit zu rechnen, dass die bisherige Koalition aus CDU und SPD nicht fortgeführt werden kann.

Bei meiner diesjährigen Durchsicht der Wahlprogramme habe ich diesmal nur konkrete Umsetzungsvorschläge berücksichtigt. Medienbildung ganz allgemein finden inzwischen alle Parteien wichtig und toll.

In wechselnden Konstellationen finden sich bei allen Parteien gemeinsame Punkte:

  • die Förderung von frei lizenzierten Unterrichtsmaterialien (OER) (Ausnahme.: CDU)
  • Aus- und Fortbildung von Lehrkräften im „Digitalem Lernen“ (Ausnahme: SPD)
  • Die Förderung des Freifunk-Projekts (Ausnahme: SPD und CDU)
  • Zusätzliche Stellen für qualifiziertes Personal insbesondere für IT-Kräfte (Ausnahme: Bündnis 90/Die Grünen)

Einig sind sich alle neben der Weiterentwicklung von Schulen in der Stärkung außerschulischer Lernorte. Dies ist allerdings mit der Aufnahme der Verkehrsschulen, der Jugendkunstschulen und der Gartenarbeitsschulen ins Schulgesetz bereits verabschiedet worden. Nur die bezirklichen Medienkompetenzzentren wurden dabei vergessen. Bündnis 90/Die Grünen sind leider die einzigen, die das gerne ergänzen würden und die Medienkompetenzentren im Wahlprogramm explizit erwähnen.

Darüberhinaus haben die Parteien verschiedene weitere Ideen zur Medienkompetenzförderung entwickelt:

SPD

Dass sich mobile Geräte auch für die Bildung eignen, ist der Berliner SPD noch weitestgehend unbekannt. Hier wird beim bisherigen Kurs geblieben: Ziel ist es, jede Schule mit Whiteboards ausstatten, interessierte Schulen darüberhinaus mit Laptopklassen. Die SPD hat die Stärkung der Jugendarbeit in ihrer dezentralen Struktur und die Stärkung außerschulischer Lernorte im Wahlprogramm verankert, wie bereits beschrieben, leider ohne Medienzentren zu benennen. Informations- und Medienkompetenz wird als Aufgabe der Bibliotheken gesehen.
Man will außerdem die Aktivitäten im Land Berlin zur Steigerung der Medienkompetenz verstärken und eine „einheitliche Anlaufstelle“ schaffen. (Was immer das auch heißen soll, vielleicht eine Medienkompetenz-Hotline?) Der bisher nicht zustande Kooperationsvertrag mit der Medienanstalt Berlin-Brandenburg, den es in Brandenburg seit einigen Jahren gibt, soll nun wohl doch angegangen werden. Im Wahlprogramm heißt es dazu: „Die Aktivitäten sollen mit der Medienanstalt Berlin-Brandenburg verzahnt werde.“ Und natürlich droht uns mit der SPD „der Ausbau des neuen Jugendportals“.

CDU

Leider ein bisschen zu spät, denn die neuen Rahmenlehrpläne wurden ja gerade (unter CDU/SPD) beschlossen, spricht sich die CDU für „Fachteams zur Überprüfung der Lehrinhalte und Erarbeitung digitaler Möglichkeiten des Wissenserwerbs“ aus. Lernstoffe sollen in Form von Apps die Schulöffentlichkeit erreichen. Gefordert wird eine Schule 4.0 mit WLAN, Whiteboards, Tablets und IT Experten vor Ort. Erstaunlicherweise offenbart der Finanzierungsvorschlag für neue Laptopklassen eine klare Präferenz für Apple, denn „Zur Finanzierung könnten Schulen z.B. dem erfolgreichen Vorbild der Friedrich-Bergius-Schule folgen, die in dieser Frage mit Apple zusammenarbeitet.“ Die Grundlagen des Programmierens sollen altersgerecht erlernt werden. Aus dem Vorschlag einer „einheitlichen Anlaufstelle“ wird bei der CDU die Gründung eines Fachreferats Digitale Bildung bei der Senatsverwaltung.

Bündnis 90/Die Grünen

Eine zentrale Stelle möchten auch Bündnis 90/Die Grünen, hier wird daraus eine „Koordinierungsstelle im Senat zur Steuerung des digitalen Aufbruchs“. Zusätzlich haben Bündnis 90/Die Grünen den begonnen Versuch der LAG Medienarbeit aufgegriffen und möchten einen Runden Tisch Medienbildung unter Leitung des Senats einführen. Programmieren soll in der Schule vermittelt werden, ebenso wie mehr Informationen zu Cybermobing und Gewalt im Netz. Der Informatikunterricht soll durch ethische, datenschutzrechtliche und soziale Fragen weiterentwickelt werden und dies auch mit Angeboten in der Grundschule. Ergänzt werden soll die Medienbildung um die Unterstützung von Eltern durch Angebote der Selbstregulation, Aufklärungs- und Informationskampagnen zu Gewalt im Netz und der Sensibilisierung für Datenschutz.

Die Linke

Als einzige der Partien hat sich Die Linke Gedanken gemacht, wie auch bundespolitisch Medienkompetenz gefördert wird und regt ein Bund-Länder-Programm für digitale Bildung mit Förderung eines mobilen Geräts pro Kind an. Ebenso wie die Abschaffung des Kooperationsverbots. Versprochen wird ein Wettbewerb und die Förderung für Mädchen und Frauen zum Erlernen und kreativen Nutzen von Programmiersprachen und Onlinetechnologien.

Piraten

Die Piraten haben leider nicht mehr viel neues Innovatives beizutragen. Neben den zusätzlichen IT Experten (bei den Piraten „Medienwarte“ gennant“) geht es vor allem um kostenlose Schulungen in Bedienkompetenzen für alle und der Einführung eines Fachs „Medienkompetenz“.

 

Kampagne „Medienbildung jetzt“

Wer sich weitere Inspirationen für den Wahlzettel holen will, sollte noch die Kampagne „Medienbildung jetzt“ beachten. Im Rahmen dieser gemeinsamen Kampagne der GMK Landesgruppe Berlin-Brandenburg und der LAG Medienbildung gab es neben veröffentlichten Wahlprüfsteinen und Fragen an die Parteien am 29.6.16 eine spannende Veranstaltung mit VertreterInnen von SPD, Grünen, Linken und den Piraten. Die CDU blieb sowohl der Veranstaltung fern, als auch die Übersendung der Fragen zu den Wahlprüfsteinen schuldig.

Auf der Kampagnenwebseite findet sich eine Transkription der Gesprächsrunde, die deutlich macht, wo die Medienkompetenzen bei den PolitikerInnen liegen: deutlich bei der bisherigen Opposition und nicht der SPD. Und hier wurde dann auch konstatiert, dass gerade bei der Lehrerausbildung Defizite bestehen und Nachbesserungsbedarf. Und auch auf die Situation der LehrerInnen an den Schulen wird sehr differenziert eingegangen. Während der Vertreter der SPD betont, dass LehrerInnen bei ausreichender Bereitschaft auch genügend Möglichkeiten haben, sich fortzubilden, sehen die VertreterInnen der Opposition die Notwendigkeit, die Arbeitszeiten der LehrerInnen zu verändern, um mehr Räume für innovative Unterrichtsmethoden zu schaffen und auch die Lehrpläne von einigen Inhalte zu entlasten. Einig waren sich zumindest hier alle Beteiligten, dass es sinnvoll ist, die Expertise möglichst vieler Akteure einzubeziehen, ob das nun in Form eines Runden Tischs oder eines vom SPD Vertreter vorgeschlagenen Beirats passiert, ist dann Sache der Koalitionsverhandlungen.

Disclaimer: Als Vorstand und Projektleiter der LAG Medienarbeit bin ich direkt durch die Kürzungen der Mittel für vernetzte Projekte betroffen und deshalb weder objektiv noch unparteiisch. Korrekturen, Kritik und Anmerkungen nehme ich gerne entgegen, per Mail oder in den Kommentaren.

Hier geht es dann zum Update in 2021: Medienkompetenzförderung in den Wahlprogrammen der Parteien zur Berliner Abgeordnetenhauswahl 2021

Bildungsideen für das Internet der Dinge mit Wio Link und IFTTT

Mit der zunehmenden Einbindung von physischen Objekten ins weltweite Netz, dem sogenannten Internet der Dinge (IoT, Internet of things), steigt die Relevanz, dies auch in Schule und außerschulischen Bildungseinrichtungen zum Thema zu machen. Nötig wird dies nicht nur wegen der zunehmenden Verbreitung der Technik, sondern insbesondere wegen der damit verbundenen Datenschutzproblematik, beispielsweise bei  der automatischen Erfassung von Standortdaten bei vernetzten Autos oder durch die laufende Übermittlung der Stromverbrauchsdaten an den Energieversorger durch die neuen „Smart Meter“.

Eine bewährte Methode zum Einstieg ins Thema ist in der Medienbildung das praktische Ausprobieren der Technik. Das war bisher immer mit viel Löten von elektrischen Kontakten, Sensoren und Controllern verbunden. Anschließend musste noch die nötige Software programmiert werden, was viel Zeit und Programmierkenntnisse erforderte und höchstens im Informatikunterricht oder in speziellen AGs in der Oberschule zu leisten war.  Seit kurzen gibt es mit dem Mikrocontroller „WIO Link“ in Kombination mit dem Internetservice IFTTT eine niedrigschwellige Alternative.

Der „Wio Link“ ist ein Mikrocontroller mit WiFi-Modul von Seeedstudio und lässt sich durch die ebenfalls von Seeedstudios entwickelten Grove-Module um verschiedene Funktionen erweitern. Ca. 40 der angebotenen Grove-Module funktionieren mit dem Wio Link, weitere sollen hinzukommen. Die Sensormodule registrieren u.a. Temperatur, Licht, Lautstärke, Luft- und Bodenfeuchtigkeit, Luftqualität und Entfernungen, die Aktionsmodule steuern u.a. Servomotoren, Stromflüsse, LEDs und Magnetschalter. Der Wio Link ist nicht teuer. $14 verlangt Seeedstudio dafür. Die Grove-Module kosten zwischen $10 und $30.

„IFTTT“ steht für „If this then that“ und ist ein Internetdienst mit dem verschiedene Webanwendungen verknüpft werden können. Der Nutzer/die Nutzerin erstellt sogenannte Rezepte nach dem Motto „Wenn dies, dann das“, die aus einem Auslöser (dem „this“) und einer Aktion (dem „that“) bestehen. So können sehr leicht immer wieder kehrende Aufgaben automatisiert werden. Beispielsweise können Facebookbilder auf denen ich markiert wurde, automatisch in meiner Dropbox gespeichert werden. Tweets mit einem bestimmten Hashtag können in Evernote archiviert werden oder Emailanhänge automatisch zu Google Drive hochgeladen werden.  Die Rezepte können mittlerweile aus über 300 Channel erstellt werden. Dazu gehören nicht mehr nur Webdienste, sondern inzwischen auch „smarte“ Geräte wie die Phillips Hue oder auch die Lokalisierungsfunktion von Android- und iOS-Geräten. Damit kann ich dann z.B. automatisch Licht anschalten, wenn ich in die Nähe meiner Wohnung komme. Sehr nützlich finde ich gerade die Benachrichtigung auf dem iPad wenn meinem Handy der Strom ausgeht. Die bei IFTTT erstellten Rezepte können mit anderen geteilt werden. Die beliebtesten finden sich auf den Rezeptseiten von IFTTT.

ifttt

IFTTT ist einer meiner derzeitigen Lieblingsdienste im Netz, bei dem ich immer wieder erstaunt bin, wie wenig er eigentlich genutzt wird. Auch ohne die Nutzung eines Wio Link lässt sich IFTTT gut in Bildungsszenerien einsetzen, um zu demonstrieren wie viel Daten eigentlich täglich bei den von uns benutzen Geräten und Diensten anfallen, welche Möglichkeiten die Kombination der Dienste bietet und wie man sich eigene Filter und automatisierte Prozesse programmieren kann. Alleine mit der Nutzung eines Smartphones plus einiger sozialer Netzwerke verfügen Kinder und Jugendliche bereits über genug Datenmaterial, das sich mit IFTTT sinnvoll oder auch völlig widersinnig verknüpfen lässt.

Wenn allerdings nicht mit den persönlichen Daten der SchülerInnen gearbeitet werden soll, kann auf „smarte“ Geräte wie den Wio Link zurückgegriffen werden, der durch die Vielzahl der Sensoren reichlich Datenmaterial bietet. Die Einrichtung des Wio Link ist denkbar einfach und hat bei mir problemlos funktioniert. Benötigt wird dafür lediglich die Wio Link App (Android und iOS) und Wlan. Nachdem der Wio Link mit dem Wlan verbunden und benannt wurde, werden die unterschiedlichen Module angeschlossen, dabei muss nur darauf geachtet werden, welches Modul an welchen Port passt: Digital, Analog, UART oder I2C. Nachdem die Module angeschlossen wurden, ist ein Update erforderlich um die passende Firmware zu laden. Ob die Einrichtung der Module erfolgreich war, kann sofort im API-Menü ausprobiert werden. Hier sind die Webadressen zu finden über die entweder die Werte der Sensoren ausgelesen werden oder bei Aktions-Modulen ein Event ausgelöst wird; je nach Modul ergänzt um zusätzliche Attribute. GET ruft den Wert des Moduls auf, POST löst eine Aktion eines Moduls aus.

wio_sensorhinzufuegen_android wio_api_android

Funktionieren die Module am Wio Link muss bei IFTTT der Channel „Seeed“aktiviert werden. Wird nun ein neues Rezept erstellt, kann eines der Wio Module entweder als Trigger (für Sensoren) oder als Action (für Output-Module) ausgewählt werden. Sobald das Rezept aktiviert ist, fragt IFTTT alle 15 Minuten den Status des Triggers ab und löst gegebenenfalls die zugehörige Aktion aus.

In der Kombination mit verschiedenen Social Media Diensten lassen sich daraus eine Vielzahl von Rezepten kreieren. Ich habe zum Ausprobieren vorwiegend Twitter benutzt und dafür einen eigenen Account angelegt. Über den Twitteraccount mein_zuhause informiert mich meine Wohnung nun wenn eine bestimmte Temperatur unterschritten wird und ich die Heizung anschalten sollte,  wann es Zeit wird, die Pflanzen zu gießen, ob die Luftfeuchtigkeit zu hoch wird und wann es hell und dunkel wird. Und damit es keine Einbahnstraße ist, ist ein LED Strip angeschlossen, der durch Aufleuchten signalisiert, wenn mein_zuhause auf Twitter erwähnt wird.

Inzwischen gibt es Dienste wie dweet.io und freeboard.io mit denen ich alle Werte meiner Sensoren als übersichtliche Anzeige im Browser sichtbar machen kann. Und dies funktioniert auch für den Wio Link hervorragend.

freeboard

Dashboard von freeboard.io

do_button

Do-Button App

Auch die IFTTT App „Do Button“ (Android und iOS) kann Aktionen über den Wio Link und die angeschlossenen Module auslösen. Das funktioniert ähnlich wie bei IFTTT, nur der Trigger ist bereits vorher festgelegt und besteht aus einem Klick auf den Button der Do-App. Damit kann dann z.B. die LED oder der LED-Strip angeschaltet, der Servomotor in eine bestimmte Position gedreht oder das Relais aktiviert werden, um ein beliebiges Gerät anzuschalten, das über einen 220V-Stromanschluss verfügt (vorausgesetzt, es lässt sich lediglich durch Stromzufuhr aktivieren und nicht noch zusätzlich über einen Einschaltknopf). Damit würde ich dann z.B. übers Internet die Wasserpumpe aktivieren, die den Garten in meiner Abwesenheit bewässert.

Die Aktion, die mein Lieblingsrezept mit dem Wio Link gerade auslöst, bekomme ich gar nicht zu sehen, denn eine mit Hilfe des Servomotor gebastelte Anzeige informiert meine Familie automatisch, wie weit weg von Zuhause ich noch (oder schon;-)) bin.

wio_link_clock

Ich freue mich über Fragen, Anregungen und Erfahrungsberichte in den Kommentaren.

Eigene Google Streetview Rundgänge erstellen (neu 2016)

glienicke_360

Seit meinem letzten Artikel über das Erstellen eigener 360º Panoramen und dem Hinzufügen zu Google Maps hat Google einiges am Verfahren geändert und die eigene App weiterentwickelt. Das Verfahren wurde sowohl vereinfacht (für Tablet- und SmartphonebesitzerInnen), wie auch erschwert (für BesitzerInnen von DSLR Kamera, die ihre Panoramen mit einer entsprechenden Software erstellen).

Nachdem im August 2015 die Google View Community, in der die eigenen 360º Panoramabilder verwaltet wurden, zugunsten der neuen Street View App abgeschaltet wurde, war es nicht mehr möglich, Panoramen miteinander zu verknüpfen und daraus virtuelle Rundgänge zu erstellen. Erst mit der Anfang Mai 2016 veröffentlichten Version der Street View App ist nun auch wieder die Verknüpfung von Panoramen möglich.

360º Panoramen (auch Photosphere) können entweder mit einer speziellen App auf dem Smartphone/Tablet erstellt, mit Panoramakameras aufgenommen oder aus normalen Fotos mithilfe einer Software am PC berechnet werden. Mit Ausnahme der Panoramakameras, die eine einzige Aufnahme machen, werden 360º Panoramen aus zahlreichen Einzelbildern zusammengesetzt, die am Ende eine Rundumsicht ergeben. Dies funktioniert umso besser, je kleiner die Abweichungen beim Aufnahmestandpunkt der verschiedenen Bilder sind. Bei Handyaufnahmen kann man sich mit einer Schnur behelfen, die am Ende beschwert ist und die man nah am Kameraobjektiv anbringt. Bei den Aufnhamen ist dann darauf zu achten, dass das Ende der Schnur am Boden immer in gleichen Abstand über einem vorher bestimmten Punkt schwebt. Für DSLR-Kameras gibt es spezielle Stativköpfe, die dies ermöglichen.

Google Maps enthalten mit den Google eigenen Streetviewaufnahmen bereits eine Vielzahl 360º Panoramen, in Deutschland allerdings beschränkt auf wenige Städte. Mit einem Google Account können eigene Fotos und Panoramen der Map hinzugefügt werden und sind so weltweit sichtbar. Üblicherweise sind diese an bestimmte auf der Map bereits verzeichnete Orte gebunden. Wer auf das Streetviewicon unter einer Google Map klickt, kann sich die vorhanden Fotos als kleine blaue Punkte, bzw. orangene Punkte bei Indoor-Aufnahmen anzeigen lassen.

An dieser Stelle findet ihr eine Schritt für Schritt Anleitung, die verschiedene Möglichkeiten beschreibt, wie man mit eigenen 360º-Panoramen an Google Maps partizipieren und daraus Rundgänge für die eigene Webseite erstellen kann.

Das Ergebnis kann dann so aussehen:

Views: SFBB von Michael Lange

Erstellen mit der Street View App

Mit der Street View App von Google (iOS oder Android) können über die Kamera des Smartphones oder Tablets 360º Panoramen aufgenommen werden, aus der Bildergalerie oder auch von per WLAN angeschlossenen Panoramakameras importiert werden.

Auf dem Startscreen der App auf das +-Zeichen klicken und die Anweisungen auf dem Screen befolgen. Der weiße Ring muss jeweils mit dem orangenen Kreis zur Deckung gebracht werden.

streetview_app

Aus 36 Einzelbildern berechnet die App die Rundumsicht des 360º Panoramas. Diese ist anschließend unter dem Reiter „Privat“ zu finden und nur auf dem Smartphone/Tablet verfügbar. Mit Klick auf Veröffentlichen wird diese auf Google Maps veröffentlicht und ist dann unter „Profil“ zu finden. Wichtig: Vor dem Veröffentlichen muss der Ort festgelegt werden. Entweder es wird ein bekannter Ort über die Suchfunktion gefunden oder der Aufnahmeort wird per Dreifachtap(!) auf die Karte festgelegt.

streetview_panoramaortfestlegen_veroeffentlichen

Eine Bildbeschreibung kann nicht über die Street View App hinzugefügt werden. Das veröffentlichte Bild ist aber anschließend ebenfalls im eigenen Google Fotos Ordner im Web gespeichert. Dort kann eine Beschreibung eingegeben werden.

Im Mai 2016 nun hat Google in der Street View App die Funktion implementiert, die eigenen Panoramen miteinander zu verbinden, um so einen virtuellen Rundgang zu ermöglichen. Dazu muss der Finger länger auf einer Stelle des veröffentlichten Bildes gehalten werden. Anschließend wird gefragt, welches Panorama verbunden werden soll.

streetview_panoramaverbinden

Auf Google Maps sieht das dann so aus:

googlemaps_verknuepfung

Der Klick auf den Pfeil führt zum nächsten Panorama.

google_kamera

App „Google Kamera“

Erstellen mit der „Google Kamera“-App

Neben normalen Fotos und Panoramaaufnahmen können mit der Google Kamera App (nur Android) auch Bilder im Photosphere Modus gemacht werden. Diese können nicht direkt auf Google Map veröffentlicht werden, sondern müssen zunächst in den eigenen Google Foto Ordner hochgeladen werden und können dann über die Google Maps Webseiten einem Ort hinzugefügt werden (siehe unten). Ein anderer Weg wäre, diese in die Street View App zu importieren und dann auf Google Maps zu veröffentlichen.

 

Erstellen mit DSLR Kameras

Auch mit einer DSLR Kamera lassen sich 360º-Panoramen erstellen, indem eine Reihe sich um ca. 20-40% überlappenden Fotos gemacht werden. Auf dem PC oder MAC werden die Fotos durch spezielle Programme zu Panoramen zusammengesetzt.  Professionell geht das z.B. mit PTGui für Windows und Mac (79 €) (http://www.ptgui.com)

Wichtig ist, dass das Bild anschließend im Bildformat 2:1 vorliegt und mit bestimmten Metatags versehen ist.

Fotografen und Agenturen können eine Zertifizierung nach dem Street View Trustes-Programm beantragen. Zugelassene Fotografen können dann den Desktop Streetvieweditor zum Upload der Fotos und zur Verknüpfung nutzen. (Die Latte zur Zulassung liegt hier ziemlich hoch. Voraussetzungen und die Bewerbung um eine Zulassung sind hier zu finden: https://support.google.com/maps/answer/6272623)

Ohne Zulassung zum Programm können die Panoramen entweder in der Street View App importiert werden oder über die Google Maps Webseite einem Ort hinzugefügt werden.

Mit den Panoramakameras RICOH THETA S und der NCTECH IRIS360 können Panoramaaufnahmen per WIFI direkt zur Street View App übertragen werden.

Hinzufügen zu Google Maps über die Street View App oder über die Google Maps Webseite?

exif_daten

Metatags eines Photosphere Bildes

360º Panoramabilder, die nicht mit der Street View App selber erstellt wurden, können entweder in die Street View App importieren oder über die Google Maps Webseite einem Ort hinzufügen. In jedem Fall funktioniert der Import nur, wenn die Fotos das übliche Bildformat von 2:1 einhalten und bestimmte Metatags enthalten. Fehlen diese Metatags können sie aber auch über einen entsprechenden Metatageditor hinzugefügt werden.

Zum Upload auf der Google Maps Webseite muss zunächst ein vorhandener Ort ausgewählt werden.   Der Link zum Hinzufügen von Bildern findet sich relativ weit unten in der Beschreibung des Ortes:

googlemaps_fotohinzufuegen

Der Nachteil des Uploads über die Google Maps Seite ist, dass die Panoramen jeweils einem bestimmten schon auf der Map vorhanden Orts hinzugefügt werden, während bei der Street View App das Panorama frei positioniert werden kann.

Einbetten von 360º Panoramen in die eigene Webseite

Was derzeit anscheinend nicht möglich ist oder möglich sein soll, ist das Einbetten der eigenen 360º Panoramabilder in der eigenen Webseite (obwohl wie oben zu sehen, der iFrame meines alten Panoramas noch funktioniert). Google Streetviewaufnahmen lassen sich einbetten, in dem im Fotomenü oben links ein Dropdown-Menü geöffnet wird. Im Menü gibt es den Punkt „Bild teilen oder einbetten“. Bei Panoramen, die nicht von Google sind, wird der Einbetten-Code jedoch nicht angezeigt. Bleibt abzuwarten, ob das ein Fehler ist oder Absicht.

Weitere Informationen zur 360º-Panoramafotografie:
Google Hilfe: https://support.google.com/maps/answer/6281095?hl=de&ref_topic=6344610
Panoramafotos: http://www.pano.ie/
Videotutorials (engl.): http://www.youtube.com/playlist?list=PL15B8C737F69319BE

Danke an Eike Rösch für die initiale Idee!

Creative Commons Lizenzvertrag Dieses Werk ist lizenziert unter einer Creative Commons Namensnennung 4.0 International Lizenz.

Mit Robotern Programmieren lernen

Seit einigen Monaten sammeln wir (mein Verein Metaversa e.V.) nun Erfahrungen mit unseren beiden kleinen Robotern Sphero und Dash. Zum Einsatz kamen sie bisher vor allem bei unserem Schulprojekttag Reise durch die Mediengalaxie, bei dem 10-12jährige Schüler_innen einen Spielparcours mit kleinen Medienaktionen gestalten, aufbauen und dann für Eltern-Kind-Teams durchführen. Die Aktionsbasis „Roboter programmieren“, die sich immer großer Beliebtheit erfreut, hat das Ziel, einen kleinen Einblick in die Computerprogrammierung zu geben. Die Spielteams erhalten dabei die Aufgabe in 3-5 Minuten am Tablet einen der beiden Roboter so zu programmieren, dass er einen kleinen Parcours abfährt. Es spricht für die verwendeten Apps, dass dies selbst in dieser kurzen Zeit gut machbar ist.

sphero_mediengalaxie

Sphero im Einsatz bei der Reise durch die Mediengalaxie


Der Dash von Makewonder

Der Dash von Makewonder

Auch wenn die Diskussion, ob alle Schüler_innen programmieren lernen müssen, gerade sehr kontrovers geführt wird, finde ich es aus medienpädagogischer Perspektive wichtig und nötig, zumindest das Grundkonzept von Software und Algorithmen zu kennen auch ohne Programmcode beherrschen zu müssen. Das Einbeziehen von physischen programmierbaren Objekten wie z.B. dem Sphero oder dem Dash bietet dabei eine gute Chance, auch wenig lese- und schreibfreudige Kinder zu motivieren, sich mit ersten Codezeilen auseinanderzusetzen und im besten Fall noch ihr Englisch zu erweitern.

Der Sphero ist eine weiße Plastikkugel, die im Inneren über einen steuerbaren Motor und verschiedene Lampen verfügt. Damit kann er in beliebige Richtungen rollen. Einzige eingebaute Sensoren sind ein Gyroskop und ein Beschleunigungssensor (Accelerometer), die registrieren, wie der Sphero bewegt wird und ob er beispielsweise auf ein Hindernis getroffen ist. Der Dash sieht nach den Vorstellungen der Schüler_innen schon sehr viel mehr nach einem richtigen Roboter aus. Außer sich bewegen, kann er den „Kopf“ drehen, mehrere farbige Lampen aktivieren und Geräusche machen. Er verfügt über ein Mikrophon, Annäherungsensoren vorne und hinten und ebenfalls einen Beschleunigungssensor. Bis zu vier Buttons am Kopf können mit verschiedenen Funktionen belegt werden.

Für beide Roboter gibt es Apps für iOS und Android, mit denen sie remote gesteuert werden können. Die Verbindung funktioniert über Bluetooth. Für unsere Zwecke nutzen wir aber Apps, die eine einfache visuelle Programmiersprache ähnlich wie „Scratch“ verwenden, um dem Roboter verschiedene Handlungsabläufe beizubringen. Der Programmcode wird in der App per Drag und Drop kleiner Blöcke zusammengestellt. Der Dash verwendet dazu „Blockly„, eine von Google entwickelte visuelle Programmiersprache. Beim Sphero hat der Hersteller dafür eine eigene, aber sehr ähnliche Lösung gefunden und in der App „SPRK“ implementiert. Für Scratch gibt es Erweiterungen mit denen der Sphero aus Scratch heraus ansteuerbar ist. Getestet habe ich das mit der Scratch Helper App S2Bot. Leider hat Scratch die Befehle nicht richtig umgesetzt.

App "Blockly" zur Programmierung des Dash

App „Blockly“ zur Programmierung des Dash


App "SPRK" zur Programmierung des Sphero

App „SPRK“ zur Programmierung des Sphero

Für beide Roboter gibt es noch die aus einem Kickstarter Projekt hervorgegangene App Tickle (leider nur für iOS). Die App ist kompatibel mit verschiedenen Geräten u.a. auch Arduino Beans und bietet die Möglichkeit auch ohne physische Devices kleine Programme wie beispielsweise Animationen zu erstellen. Verwendet wird bei Tickle eine eigene Programmiersprache angelehnt an Blockly und Scratch.

App "Tickle" (nur für iOS)

App „Tickle“ (nur für iOS)

Das schöne allen drei Apps ist, dass sie sehr gut skalierbar sind. Einsteiger programmieren erst einmal einfache Bewegungsabläufe oder verschiedene Lichteffekte. Fortgeschrittene können mit Hilfe der Sensoren verschiedene Reaktionen auf bestimmte Ereignisse hinzufügen und Schleifen einfügen und werden so mit den Grundprinzipien des Programmierens vertraut gemacht.

Im direkten Vergleich gewinnt sowohl bei den Schüler_innen als auch bei uns der Dash gegen den Sphero. Bei den Schüler_innen vor allem wegen des roboterartigen Aussehens und den Geräuschen. Auch die Orientierung ist besser, da der Sphero aufgrund seiner Form zunächst kein sichtbares Vorne und Hinten hat und immer wieder neu vor jeder Fahrt per App ausgerichtet werden muß. Für uns war der Dass bisher einfach zuverlässiger. Der Sphero verlor öfter seine Bluetoothverbindung, die manchmal erst nach Neustart des Tablets wieder funktionierte.

Ein paar Vorteile hat aber auch der Sphero. Die Programmierung kann sehr viel komplexer erfolgen. Wer bereits Scratch behrerrscht, kann hier direkt den Sphero per Scratch nutzen. Mit Hilfe seiner Sensoren kann er auch als Controller für verschiedene Spiel-Apps verwendet werden. Beim Sphero gibt es außerdem noch kleine Spiel-Apps, die aus dem Sphero per Augmented Reality im Kamerabild einen Biber oder auch Zombie-Shooter machen. Kleine Spielereien, die aber zeigen, was noch möglich ist. Und auch der etwas geringere Preis von 120 Euro gegenüber 180 Euro beim Dash spielen  eine Rolle.

App "Sharks" für den Sphäre. Aus der weißen Kugel wird per Augmented Reality ein Biber

App „Sharks“ für den Sphäre. Aus der weißen Kugel wird per Augmented Reality ein Biber

Noch nicht zum Einsatz gekommen ist unser dritter Roboter, ein mBot von Makeblock . Grund war vor allem, dass es derzeit noch einen Desktoprechner braucht, an dem der mBot programmiert werden muss und die mBlock-Software (basierend auf Scratch) hier noch nicht so userfreundlich wie die Apps des Sphero oder Dash sind. (Update: Für iOS gibt es mittlerweile eine Programmierapp für den mBot: mBlockly) Dafür ist sie allerdings kompatibel mit Arduino und bietet einen Einstieg ins Arduinouniversum. Der mBot ist außerdem modulbar aufgebaut und kann durch diverse elektronische Bauteile, Displays, Motoren und Sensoren erweitert werden.

Eine Erweiterung unser Roboterflotte streben wir an. Es gibt einige heiße Favoriten auf der Wunschliste:

  • die Parrot Minidrone Rolling Spider ist bereits auf dem Markt und ebenfalls über die App Tickle ansteurbar. Mit dem üblichen Nachteil, dass der Drohnenakku kaum 8 Minuten durchhält und dann eine Stunde aufgeladen werden muss.
  • die Tinkerbot Baukästen sind bereits demnächst erhältlich, allerdings verhältnismäßig teuer
  • Ozobot, klein aber fein

Als sehr spannende Kickstarter Projekte laufen außerdem gerade:

  • Robo Wunderkind, die ähnlich programmierbare Bausteine anbieten wie Tinkerbot
  • der Dobot, ein programmierbarer Roboterarm, der stark an die Fertigungsstraßen in Autofabriken erinnert, der aber auch schreiben und malen kann
  • die Cannybots, programmierbare Spielzeugautos, die Rennen gegeneinander austragen können

Fazit: Sowohl die Teilnehmer_innen (Kinder wie auch Erwachsene) als auch wir hatten bisher viel Spaß mit den Robotern. Zuverlässigkeit und geringe Einstiegshürden trugen dabei wesentlich zum erfolgreichen Einsatz auch in Projekten mit jüngeren Schüler_innen bei. Vorkenntnisse sind dabei nicht erforderlich, um bereits in wenigen Minuten zu sichtbaren Lernerfolgen und Erfolgserlebnissen zu kommen.

Ich freue mich über weitere Vorschläge für Roboter und Erfahrungsberichte in den Kommentaren.

Augmented Reality Anwendungen mit Microsoft Excel erstellen

junaio_grenzgeschichten

Zur Erstellung von geobasierten AR Rallyes habe ich in der Vegangenheit gerne den Hostingservice Hoppala genutzt. Weder Layar noch Junaio als die populärsten AR Dienste bieten die Möglichkeit die ortsbasierten Informationen (Points Of Interest, POIs) auf deren Servern abzuspeichern, so dass diese entweder selbst gehostet oder ein zusätzlicher Dienst eingebunden werden muss. Mein bisher favorisierter Anbieter Hoppala wird leider nicht weiter gepflegt und so sind seit einigen Monaten verschiedene Funktionen nicht mehr verfügbar.

Nun bietet Junaio eine ganz neue und einfache Möglichkeit, eigene AR Ebenen für die Junaio App über das Anlegen der POIs in einer Microsoft Excel Tabelle zu erstellen.

Nötig dazu ist zunächst einmal der Download und die Installation der Excel-App „Metaio Creator“. Diese lässt sich über den Microsoft Marketplace finden und per Klick zu Excel hinzufügen. Mindestens Office 2013 wird vorausgesetzt, d.h. am Mac funktioniert das derzeit nicht.

microsoftmarket

In Excel wird eine Tabelle geöffnet und dann in „Einfügen“ der Metaio Creator ausgewählt. Im rechten Menü der App loggt man sich mit seinem Junaio Developeraccount ein. Es empfiehlt sich, in der oberen Zeile die benötigten Parameter für jeden POI erzeugen zu lassen. Außer den Koordinaten, dem Namen und einer kurzen Beschreibung sind alle Angaben optional. Jede Zeile stellt einen POI dar. Die Koordinaten lassen sich am einfachsten über Google Maps herausfinden. Zu beachten ist nur, dass aus dem Dezimalpunkt den Google Maps ausgibt, ein Dezimalkomma gemacht werden muss. Ich musste außerdem die Zelleneigenschaften in Excel auf sechs Stellen hinter dem Komma einstellen. Sollen Vorschaubilder in den POI Beschreibungen verwendet werden, muss das Vorschaubild zuerst irgendwo im Web abgelegt werden. Der Link zum Bild wird dann in die entsprechende Spalte eingetragen.

metaiocreatorapp2

Sind alle Punkte angelegt, muss zunächst die oberste Zeile gelöscht werden. Anschließend Namen und Beschreibung der AR-Ebene eingeben und auf Upload klicken. Das war es dann schon. Die Ebene ist sofort in Junaio verfügbar, wenn ich den bereitgestellten QR-Code nutze und mit Junaio scanne.

Über die Suchfunktion von Junaio ist die Ebene erst auffindbar, wenn über die Weboberfläche des Junaio Developeraccounts die Freigabe beantragt wird. Dies dauert erfahrungsgemäß zwei bis drei Tage.

Leider fehlen in der App einige Parameter, die Junaio POIs normalerweise auch bieten. Dazu gehört u.a. auch die Einstellung, ab welcher Entfernung ein POI in der AR Ansicht der App sichtbar wird. D.h. alle angelegten POIs sind immer sichtbar und können von jedem Ort aus aufgerufen werden. Gerade für den Spielcharakter einer AR Rallye fehlt damit eine wesentliche Funktion, da die SpielerInnen nun nicht mehr real vor Ort sein müssen, um die entsprechenden ortsbasierten Informationen zu erhalten. Vielleicht entwickelt Junaio das Plugin hier noch weiter. Für viele andere Anwendungsbereiche ist die Excel App ansonsten eine sehr einfache Alternative zur manuellen Programmierung einer AR-Ebene als XML-Datei.

Weitere Infos im Blog von Metaio: http://blog.metaio.com/2014/11/25/metaio-brings-free-augmented-reality-authoring-tool-microsoft-excel/

AR Rallye „Through The Looking-Glass“

coverbildweb-600x286

Für meinen Verein Metaversa e.V. habe ich eine auf Bilderkennung beruhende Augmented Reality (AR) Rallye erstellt: „Through The Looking-Glass“. Oftmals können sich die Leute unter AR noch wenig vorstellen und schriftlich oder auch im Video lässt sich die Technik nur schlecht erklären. Am besten natürlich, man probiert es selber aus. Deshalb ist die erstellte Rallye ortsunabhängig, Materialien und Beschreibungen können von der Webseite runtergeladen, genutzt und auch bearbeitet werden.

Benötigt werden lediglich die ausgedruckten Trigger-Bilder, ein Smartphone oder Tablet mit Internetzugang und die App „Aurasma“.

Image-based Augmented Reality selber erstellen: Layar, Wikitude, Metaio, Daqri, Aurasma und Augment

aurasma_austellungkl

Nach den positiven Erfahrungen aus den Augmented Reality (AR) Handyrallyes in unseren „Surfing The Streets“ Projekten habe ich mich in letzter Zeit den Image-based AR Anwendungen gewidmet. Nicht zuletzt motiviert durch die aktuellen technischen Entwicklungen von AR-Brillen wie der Google Glass. Trotz vielfältiger medialer Präsenz hat sich die Nutzung von AR im alltäglichen Gebrauch bisher kaum durchgesetzt, was m.E. an der umständlichen Handhabbarkeit liegt. Es sind einige Schritte zu tun, um AR Inhalte anschauen zu können: Spezielle App auf Handy oder Tablet starten, gegebenenfalls noch eine entsprechende Ebene oder Kategorie suchen und aufrufen, die Smartphonekamera auf ein Zielobjekt richten oder wie bei ortsbasiertem AR sich mit dem Smartphone um die eigene Achse drehen, um die zur Umgebung passenden Informationen eingeblendet zu bekommen. Das sieht manchmal nicht nur seltsam aus, sondern lässt sich auch wirklich nur mit gut funktionierendem Kompass und Gyroskop präzise nutzen.

Anders mit einer Brille wie den Google Glasses: entsprechend der Kopfbewegungen bzw. Blickrichtung werden digitale Informationen automatisch eingeblendet. Kleiner Nachteil bisher: Die digitalen Informationen werden nicht im gesamten Gesichtsfeld angezeigt, sondern lediglich in einem kleinen Feld oben rechts. Inzwischen haben bis auf Augment alle hier genannten Dienste Apps für Google Glass entwickelt. Eine weitere Erleichterung wäre die Entwicklung von in Kontaktlinsen integrierten Displays, wie sie in dem Kurzfilm „Sight“, den wir gerne in Workshops einsetzen, ebenso zukunftsweisend, wie auch erschreckend gezeigt wird.

Im Vorfeld eines für die sächsischen SAEK durchgeführten Workshop habe ich mir die angebotenen Lösungen für image-basiertes AR genauer angeschaut und ausprobiert. Der Schwerpunkt lag dabei auf den Diensten, die es ermöglichen, eigene Inhalte einzubinden. Darüber hinaus gibt es auch eine Reihe schöner Beispiele für AR Apps, die nicht nur nützlich sind, sondern gleichzeitig auch ästhetisch Spaß machen. Das geht mittlerweile über die mit digitalen Infos angereicherten Produktkataloge wie z.B. von Ikea weit hinaus. Mit AR werden kleine Spiele wie z.B.  TOY Car RC entwickelt oder Visualisierungen naturwissenschaftlicher Experimente wie bei Elements 4D. Mit Elements 4D können kleine Würfel mit chemischen Elementen miteinander kombiniert und die entsprechenden chemischen Reaktionen auslöst werden.

4d Elements elemente

Elements 4D

Die bekanntesten Dienste, die für die Produktion eigener AR Inhalte in Frage kommen, die auf Bilderkennung beruhen, sind Layar, Metaio (Junaio), Wikitude, Daqri, Aurasma und Augment. Im Gegensatz zu geobasiertem AR, das mit Layar, Wikitude und Metaio ebenfalls möglich und kostenlos ist, lassen sich die Firmen für das imagebasierte AR gut bezahlen.

Bezahlt wird entweder eine monatliche Pauschale, die eine unbegrenzte Anzahl an Markern einschließt (ab $275/Monat bei Metaio), oder für eine bestimmte Anzahl an Markern (z.B. 10 Marker für $19/Monat bei Wikitude oder 400€/Jahr bei Layar). Eine weitere Einnahmequelle ist die Lizenzierung der eigenen Technologie in Form von Entwicklungsumgebungen (SDKs). Metaio, Wikitude, Daqri und auch Layar bieten solche SDKs mit denen die AR Funktionen in eigene Apps integriert werden können. Layar bietet außerdem einen Premiumaccount mit erweiterter Funktionalität für $3000 im Jahr an. Metaio läßt sich seine Editorsoftware (Metaio Creator, 490€) bezahlen.

augment_app

Augment

Funktionsweisen

Auch wenn jeder Dienst eigene Bezeichnungen nutzt, wird hier im Text immer der Begriff Marker (Synonym für Trigger, Tracker, Page, Targets, Image) für das zu scannende Bild (oder Objekt, wobei die Erkennungsraten von dreidimensionalen Objekten noch nicht besonders groß sind) und Overlay (synonym für Button, Augmentations) für die digitalen Überblendungen benutzt.

Die Erkennung von Bildern funktioniert bei allen Diensten ähnlich gut. Die Apps unterscheiden sich im wesentlichen in der Art, wie die eigenen AR Inhalte für andere bereitgestellt werden.

Sowohl bei Layar als auch Metaio, Wikitude und Aurasma können als Overlays Bilder, Videos, Audio, Links oder auch 3D-Objekte mit Animationen angezeigt werden. Bei Layar und Metaio können außerdem interaktive Overlays programmiert werden. Augment ist auf 3D Modelle beschränkt.

Das Hauptkriterium für die Entscheidung zugunsten einer AR Anwendungen ist für mich vor allem die Benutzungsfreundlichkeit oder die sogenannte „User Experience“. Da es sich um eine relativ neue Technologie handelt, gibt es hier keine Standards bzw. Bedienungsabläufe die intuitiv ausprobiert werden können. Werden die Apps auf dem Tablet oder Smartphone geöffnet, ist jeweils sofort das Livebild der Kamera zu sehen, meist mit dem Hinweis „Scannen“. Lediglich Augment zeigt zuerst eine Liste der eigenen hochgeladenen 3D-Modelle. Nur bei Aurasma lässt sich eine Übersicht von bereits bestehenden universellen bzw. globalen AR Inhalten (hier „Auras“ genannt) anzeigen. Bei allen anderen Diensten muss ich zum Ausprobieren auf Bildbeispiele auf den Webseiten zurückgreifen. Aurasma erfordert als einzige AR App eine Registrierung.

aurasma3

Aurasma

layar_twitteroverlay

Layar

Um eigene Inhalte zu erstellen bieten mit einer Ausnahme alle Dienste webbasierte Editoren an. Metaio setzt mit seinem „Metaio Creator“ auf eine Software für Windows oder MacOS. Bei Aurasma besteht zusätzlich die Möglichkeit, AR Inhalte gleich über die App zu erstellen. Dafür stehen bei Aurasma eine Reihe von vorgegebene Grafiken und Bildern, aber auch 3D-Animationen zur Verfügung. Zusätzlich kann ein auf dem Gerät vorhandenes Bild oder Video genutzt werden.

Die Funktionsweise aller Editoren ist ähnlich. Ein eigenes Bild als Marker wird hochgeladen und darauf werden dann verschiedene Overlays platziert, die in der AR Ansicht auf den Bildern sichtbar werden, beispielsweise Fotos oder Videos. Layar und Metaio bieten hier die meisten Möglichkeiten, bis hin zur Integration von Javascript, mit dem auch kleine Spiele programmiert werden können.

Große Unterschiede gibt es in der Sichtbarkeit der eigenen AR Inhalte für andere. Layar hat nur eine „globale“ Ebene, d.h. alle erstellten Inhalte sind für jeden überall und sofort sichtbar. Bei Metaio muss zunächst eine Ebene (hier „Channel“ genannt) für die App Junaio erstellt werden. Der Channel muss in der App dann entweder über die Suchfunktion gefunden oder mit Hilfe eines QR Code aufgerufen werden, der nach dem Abscannen die entsprechende Ebene aufruft. Auch Wikitude arbeitet mit Ebenen, die hier Worlds heißen. Eigene AR Inhalte müssen hier auch einer World zugeordnet werden, die in der Wikitude App per Suchfunktion gefunden werden kann.

AR Inhalte, die ich mit Aurasma erstelle (entweder mit der App oder dem Editor), sind zunächst nur für Personen sichtbar, die mich abonniert haben. Ich kann den Personen, denen ich meine AR Objekte zugänglich machen will, eine Mail mit dem entsprechenden Link schicken. Seit einigen Monaten können in Aurasma keine eigenen Ebenen/Kanäle mehr angelegt werden, d.h. es müssen immer alle Auras einer Person abonniert werden. Aurasma Nutzer_innen lassen sich auch üner die Suchfunktion der App finden. Möchte ich eine universelle Aura anlegen, die sofort bei allen sichtbar wird, muss ich dafür bezahlen. Kosten dafür müssen erfragt werden.

Augment funktioniert ein wenig anders. Im Vordergrund steht hier das Betrachten von 3D-Modellen, die über die Augment-Webseite hochgeladen wurden. Hochladen kann diese jeder Nutzer/jede Nutzerin von Augment. Eine Verknüpfung mit einem bestimmten Marker ist erstmal nicht nötig. Den Marker erzeugt sich jeder Nutzer/jede Nutzerin individuell. Möchte ich eine spezielle Zuordnung eines meiner 3D-Objekte zu einem bestimmten Marker, dann lege ich im Editor einen Marker an und weise diesem eines meiner 3D-Objekte zu. Dieser Marker zeigt dann bei allen Augment-Nutzer_innen das gleiche 3D-Modell an.

Einige pädagogische Einsatzszenarien

Virtuelle Ausstellung mit Augment: Eigene 3D-Modelle werden in einer Galerie oder auch im öffentlichen Raum gezeigt, in dem große Marker auf den Boden geklebt werden. Die 3D Objekte können damit überlebensgroß im Raum platziert und von allen Seiten durch Herumlaufen betrachtet werden.

Gebäuderallye mit Augment: Ähnlich einer QR Code Rally in Gebäuden, bei denen abgescannte QR Codes jeweils Hinweise auf neue zu findecde Orte und weitere QR Codes bilden, können Marker von Augment genutzt werden um dreidimensionale Objekte in den Räumen erscheinen zu lassen, die als Wegweiser zu anderen Orten fungieren.

Interaktiver Film mit Aurasma, Layar, Wikitude oder Junaio: AR Marker werden an verschiedenen „Spielorten“ in der Umgebung platziert und mit Videoszenen eines Films überblendet. Der Zuschauer/die Zuschauerin hat die Möglichkeit die Orte in einer Reihenfolge seiner/ihrer Wahl anzusteuern und könnte dadurch z.B. bei einem Krimi verschiedene Hinweise auf die Auflösung erhalten.

Multimedia-Buch mit Aurasma, Layar, Wikitude oder Junaio: In einem Lehrbuch werden Videos über bestimmte Abbildungen gelegt. Das könnten Statements der Schüler_innen zu den Inhalten sein, Tutorials oder abgefilmte Versuche in naturwissenschaftlichen Büchern.

Fazit

Es gibt nicht den besten Dienst für image-basiertes Augmented Reality, vielmehr ist der Einsatz von einer Vielzahl von Faktoren abhängig. Am wichtigsten dabei ist wohl, wie einfach der Weg ist, damit andere meine eigenen AR Inhalte betrachten können. Eine App, die für mich hier positiv herausstach, auch wenn die Funktionen nur sehr rudimentär waren, war Stiktu, das leider im Frühjahr 2014 eingestellt wurde. Ein beliebiges Bild konnte direkt in der App mit eigenen Fotos, Text oder vorgegebenen Stickern kombiniert werden und war anschließend sofort weltweit für alle Stiktunutzer_innen verfügbar. Der Vorteil: Die Erstellung war unglaublich einfach, die Ergebnisse konnten sofort von allen betrachtet werden. Ein Projekt von Medien + Bildung.com  hatte sich das zu Nutze gemacht, in dem Streetartbilder in Mainz mit eigenen Kommentaren versehen wurden.

Aurasma ist sicher eine gute Wahl, wenn ich die Möglichkeit habe, auf Tablets oder Handys, die beispielsweise die Besucher einer Ausstellung oder Präsentation nutzen, etwas vorzuinstallieren, weil dort der entsprechende Inhalt im voraus abonniert werden kann. Ansonsten würde sich Junaio anbieten, da hier die Nutzer lediglich aufgefordert werden müssten, die kostenlose App zu installieren und einen QR Code abzuscannen, um die AR Inhalte betrachten zu können.

Die Kosten sind natürlich ebenfalls ein wichtiger Faktor. Zumeist wird man jedoch oft schon mit den Trial- oder Demoversionen auskommen, die die meisten Dienste anbieten. Oft gibt es die Möglichkeit als Bildungseinrichtung Rabatte zu bekommen oder auch gänzlich kostenlos AR inhalte erstellen zu können.

Ich freue mich über Erfahrungsberichte in den Kommentaren.

 

Übersicht über AR Editoren zum Download:

uebersicht_ar_editoren_vorschau

Download: Augmented_Reality_Editoren.pdf (PDF, 65 kB)

 

Augmented Reality Editoren UIs:

layar_creator

Layar Creator

metaio_creator

Metaio Creator Software (MacOS)

Wikitude Studio

Wikitude Studio

Aurasma Studio

Aurasma Studio

 

 

Creative Commons Lizenzvertrag Dieses Werk ist lizenziert unter einer Creative Commons Namensnennung 4.0 International Lizenz.

Eigene Google Streetview Rundgänge erstellen

Achtung: Das hier im Artikel beschriebene Verfahren zur Veröffentlichung eigener 360º-Panoramen auf Google Maps funktioniert NICHT mehr. Über das aktuelle Verfahren gibt es einen neuen Artikel, der hier zu finden ist: Eigene Google Streetview Rundgänge erstellen (neu 2016)

glienicke_360

Die PhotoSphere Funktion auf Android Handys oder in Google Maps erlaubt das Betrachten von Panorama Fotos in einer 360 Grad Rundumsicht analog der von Google erstellten Streetview Bilder. Mit einem Google+-Account kann jeder/jede Fotos mit Photo Sphere Effekt zu Google Maps hinzufügen.

Aber auch mit iPhone/iPad mit entsprechender App oder auch mit einer digitalen Kamera lassen sich solche 360 Grad-Fotos (auch als Spherical-Fotos bezeichnet) erstellen und zu Google Maps hochladen.

Mehr Informationen zur Photo Sphere Funktion in Android unter https://support.google.com/maps/topic/3189543

An dieser Stelle findet ihr eine Schritt für Schritt Anleitung, die verschiedene Möglichkeiten beschreibt, wie man mit eigenen 360 Grad-Fotos an Google Maps partizipieren und daraus Rundgänge für die eigene Webseite erstellen kann.

Das Ergebnis sähe dann so aus:

Views: SFBB von Michael Lange

A. Erstellen eines Panoramas

1. Erstellen mit der „Google Kamera“-App

Idealerweise wird eine Photo Sphere-Ansicht mit der App „Google Kamera“ erstellt. Die App ist derzeit nur unter Android 4.4. Kitkat erhältlich (bei Nexusgeräten wohl auch mit 4.3). Neben Panoramaaufnahmen können mit der App auch direkt Fotos im Photo Sphere Modus gemacht und direkt auf Google Maps geteilt werden.

google_kamera

Erklärung zur Nutzung der Google Kamera: http://artikel.softonic.de/google-camera-so-nutzen-sie-panorama-und-photo-sphere

2. Erstellen mittels einer Panorama App

Für iPads und iPhones empfehle ich die App „360 Panorama“ von Occipital (0,89 €) (https://itunes.apple.com/de/app/360-panorama/id377342622). Mit der App lassen sich wie bei der Google Kamera komplette Rundum-Aufnahmen inklusive Boden und Himmel machen. Die Fotos können als JPGs in den Fotoaufnahmen abgespeichert und dann weiterbearbeitet werden. Für Android  leistet die kostenlose App „Panorama – 360 (Free)“ (https://play.google.com/store/apps/details?id=com.vtcreator.android360) ähnliches.

3. Erstellen mit DSLR Kameras

Auch mit einer DSLR Kamera lassen sich 360 Grad-Panoramen erstellen, indem eine Reihe sich um ca. 20-40% überlappenden Fotos gemacht werden. Auf dem PC oder MAC werden die Fotos durch spezielle Programme zu Panoramen zusammengesetzt. Das macht z.B. „Panorama 360“ von haiqun deng für Mac OS 10.9 (App Store, 2,69 €). Professioneller und mit sehr viel mehr Einstellungsmöglichkeiten geht das mit PTGui für Windows und Mac (79 €) (http://www.ptgui.com)

B. Bearbeiten des Panoramas

Wichtig ist, ein Seitenverhältnis der Fotos von 2:1 einzuhalten. Eventuell muss das Panorama mit einer Bildbearbeitungssoftware durch einen weißen oder schwarzen Rand oben bzw. unten ergänzt werden. Der Horizont sollte dabei möglichst in der Mitte des Bildes bleiben.

C. Upload in das eigene Fotoalbum bei Google+

Im richtigen Format gespeicherte Fotos (JPGs, Seitenverhältnis 2:1) werden automatisch nach dem Hochladen mit „Auto-Effekt“ in 360 Grad-Ansichten (Photo Sphere) umgewandelt. Dazu muss in den Google+ Einstellungen „Auto-Effekte“ aktiviert sein. Der Vorgang kann ein paar Minuten dauern. Die erstellte Photo Sphere erscheint automatisch im Fotoalbum und wird durch ein „Auto-Effekt“ Symbol oben links und dem Google Sphere Icon gekennzeichnet.

google+fotos

Nach Aufrufen des Fotos können unter „Fotodetails“ weitere Angaben zum Bild ergänzt werden. Dazu sollten unbedingt auch die Standortdaten gehören, die sich leicht über Google Maps anlegen lassen.

D. Hinzufügen zu Streetview

Das Hinzufügen der Photo Sphere geschieht in der Google Views Community: https://www.google.com/maps/views/home. Über das Hinzufügen von Fotos werden diese nach einer Prüfung durch Google auf Google Maps veröffentlicht. Dies dauert von einigen Stunden bis zu einem Tag.
googlemaps_viewsprofil

 

Auf Goolge Maps werden die eingefügten Panoramen als kleine grüne Punkte sichtbar, sobald ich die Streetview-Ansicht aktiviere.

E. Verbinden von Panoramen

Aus den hinzugefügten Panoramabildern kann ein eigener Rundgang (bzw. eine „Panoramengruppe“) erstellt werden, dafür müssen die Panoramen zunächst verbunden werden. Dies geschieht ebenfalls in der Google Views Community.

googlemaps_panoramen_verbinden

Nach dem die Panoramen verbunden wurden, sollten sie noch so gedreht werden, dass die Pfeile im Bild auch in die richtige Richtung weisen. Bis die Bilder dann auch in der Streetviewansicht verbunden sind, kann es ebenfalls einige Stunden dauern.

Kurzes Tutorial dazu: http://google-latlong.blogspot.fr/2013/12/create-your-own-street-view.html
Ausführliche Beschreibung: https://support.google.com/maps/answer/3481809

Über den „Sharen“-Button in der Google Views Community kann der Rundgang in die eigene Webseite eingebettet werden.

Weitere Informationen zur 360 Grad-Panoramafotografie:
Panoramafotos: http://www.pano.ie/
Videotutorials (engl.): http://www.youtube.com/playlist?list=PL15B8C737F69319BE

Update 20.8.2014: Ab sofort gibt es die Google Kamera App als „Photo Sphere Camera“ auch für iOS (iPad und iPhone): https://itunes.apple.com/de/app/photo-sphere-camera/id904418768?mt=8

Update 15.9.2015:  „Photo Sphere Camera“ heißt nun „Google Street View“ und ist hier zu bekommen: https://itunes.apple.com/de/app/photo-sphere-camera/id904418768?mt=8 (iOS), https://play.google.com/store/apps/details?id=com.google.android.street&hl=de (Android)

Danke an Eike Rösch für die initiale Idee!

Creative Commons Lizenzvertrag Dieses Werk ist lizenziert unter einer Creative Commons Namensnennung 4.0 International Lizenz.

Arbeitsbogen: Eigene Lehr- und Lernmaterialien als OER (Open Educational Ressources) Material veröffentlichen

arbeitsblatt_bild

Im Rahmen unseres Projekts „Schüler machen OER“ habe ich für die Abschlusspräsentation der Schüler_innen einen Arbeitsbogen entworfen, der ihnen helfen soll, ihr Material mit einer CC-Lizenz zu versehen. Die Lizenzierung haben sie zusammen mit den Besucher_innen, zumeist ihren Eltern, gemeinsam vorgenommen. So konnte den Eltern gleichzeitig auch noch Wissen über OER und CC-Lizenzen vermittelt werden.

Der Arbeitsbogen ist ebenfalls OER-Material und kann in drei verschiedenen Formaten geladen, bearbeitet und verwendet werden. Verbesserungsvorschläge oder andere Hinweise gerne an mich:

OER lizenzieren Arbeitsbogen (DOC, 295 kB)

OER lizenzieren Arbeitsbogen (PDF, 140 kB)

OER lizenzieren Arbeitsbogen (PDF, 320 kB)

 

Minecraft Objekte exportieren und in Augmented Reality Ansicht anzeigen

Minecraft ist aktuell eines der angesagtesten Onlinespiele (leider hauptsächlich männlicher Jugendlicher). Wer Minecraft kennt, weiß, dass hier vor allem Kreativität eine große Rolle spielt, wenn eigene Objekte in den Onlinewelten erschaffen werden. Das macht Minecraft natürlich für medienpädagogische Aktionen spannend. Um aber über das Selbstgestalten hinauszugehen, kombinierten wir in einem Workshop im Sommer 2013 das Ganze mit dem Thema Augmented Reality, das nun spätestens seit Google die erste Version von Google Glasses an ausgewählte Käufer vergeben hat, in der Öffentlichkeit einen gewissen Bekanntheitsgrad erreicht hat.

In einem dreitägigen Workshop haben wir mit neun Jugendlichen Minecraftobjekte geschaffen und diese aus den Welten exportiert, um sie per Augmented Reality in der physischen Welt zu platzieren. Neben der Vermittlung von Wissen über Augmented Reality ging es uns auch darum, zu reflektieren, welche Chancen und Gefahren sich aus dieser Technologie ergeben.

IMG_1201

Zum Export von Objekten aus Minecraft haben wir Mineways benutzt. Ähnliches leistet noch die Java App „jMc2Obj“. In meinen Tests hat sich aber gezeigt, dass die mit jMc2Obj exportierten Objekte teilweise Texturfehler aufwiesen. Daneben gibt es noch die iOS App “Minecraft Reality”. Über eine Webseite können hier Minecraft Objekte direkt in die App übertragen und in einer AR Ansicht angezeigt werden, ohne den Umweg über das 3D-OBJ-Format zu gehen. Bei Minecraft Reality muss über eine Webseite die Regionsdatei importiert werden. In den meisten Fällen hat bei mir aber der Upload nicht funktioniert. Außerdem muss erstmal herausgefunden werden, in welcher Region in der Minecraftwelt sich das Objekt überhaupt befindet.

An dieser Stelle also nun der Weg, den wir im Workshop gewählt haben:

A. Export der Objekte aus Minecraft mit Mineways (Win und Mac)

Es ist generell nur der Export aus der Welt auf dem eigenen PC möglich, bzw. Aus einer Minecraftwelt, bei der man FTP-Zugriff auf den Server hat.

1. in Mineways importiert werden (Open World) muss die Datei level.dat der Welt?Zu finden ist die Datei unter:?../Library/Application Support/Minecraft/Saves/ (Mac)?…/Dokumente und Einstellungen/Besitzer/Anwendungsdaten/ .minecraft/saves/ (Windows, bei Ordneroptionen müssen versteckte Dateien angezeigt werden)

2. Wichtig: Die Angabe in Mineways “Level Depth” entscheidet, ob der Untergrund mit exportiert wird. 4 in einer Superflat World oder 63 in einer normalen Welt verhindert, dass der Boden exportiert wird. Auf der Höhe 63 liegt überlicherweise der Meeresspiegel in Minecraft Welten.

mineways

3. Das zu exportierende Objekt wird auf der Karte mit der rechten Maustaste ausgewählt.

4. Weiter im Menü mit „File“ und „Export for Rendering“. Im Exportdialog „Make Z the up direction instead of Y“ markieren, ansonsten liegt das Objekt später auf der Seite.

5. Es werden insgesamt 3-5 Objekte exportiert: OBJ, MTL, PNG und bei transparenten Strukturen zusätzlich zwei weitere PNG-Dateien.

B. Es empfiehlt sich, das Objekt auf dem PC vor dem Hochladen anzuschauen, z.B. mit dem GLC Player (Mac und Windows),  (Achtung: Durchsichtige Texturen/Alphakanäle funktionieren nicht)

glc_player

C. Zum Betrachten in der AR Ansicht auf dem Smartphone/Tablet haben wir die App „Augment“ (Android und iOS, kostenlos) benutzt

1. Vorher müssen alle exportierten Dateien zusammen in ein ZIP-File gepackt werden.

2. Upload des ZIP-Files über http://agmt.me (Registrierung auf der Webseite erforderlich). ?Zusätzlich sollte ein kleiner Screenshot als Thumbnail und ein Marker/Tracker hochgeladen werden (Tracker kann irgendein Bild mit relativ komplexen Strukturen sein)

augment_add_3d

3. Anschließend wird die App „Augment“ auf Smartphone oder Tablet geöffnet

4. Einloggen mit dem Benutzer der auf agmt.me angelegt wurde

5. Eigene Objekte finden sich im Menü unter „My Business Catalog“

augment_ipad1

6. das Objekt nun in AR Ansicht öffnen. Es erscheint mittig in der Kamaraansicht und kann durch Ziehen bewegt oder verkleinert und vergrößert werden.?7. Eigenen Tracker/Marker anlegen erhöht die Genauigkeit der Darstellung, dazu in der AR-Ansicht auf „Tracker“, „Create Tracker“ klicken. Dazu sollte man eine feste Pappe mit einem gut strukturierten Bild bereithalten, dass dann zunächst als Tracker abfotografiert wird. Hält man den Tracker später ins Kamerabild erscheint darauf stehend das Minecraftobjekt und kann durch drehen und kippen von allen Seiten betrachtet werden.

Weitere Smartphone/Tablet App, die Minecraft-Objekte in einer AR Ansicht zeigt:

Minecraft Reality (nur iOS, 1,79 €)?Upload eigener Objekte über minecraftreality.com (Beta) möglich, aber kompliziert?Eigene Marker möglich, (auch aus verschiedenen Perspektiven, z.B. Straßenfläche, Häuserwände)

Nichtgetestet, aber möglich wäre es natürlich auch, die 3D-Objekte auf einem 3D Drucker auszudrucken. Dazu werden ebenfalls die OBJ-Datei und die Bilder der Texturen verwendet. Ein Internetdienst, der das Drucken anbietet ist Shapeways. Soll die Farbigkeit erhalten bleiben muss als Material: Fullcolor Sandstone, 0,75$ pro cm³) gewählt werden. Beispiele dafür finden sich unter: https://www.flickr.com/groups/mineways/pool/with/6626972287/

Und hier noch der im Workshop entstandene Film, in dem unsere TeilnehmerInnen das Vorgehen beschreiben und Beispiele zeigen, aber auch in Straßeninterviews Passanten zu ihrer Meinung über „Augmented Reality“ befragt haben: