Skip to content

Posts from the ‘Allgemein’ Category

Augmented Reality (AR) in der Medienbildung – neue Möglichkeiten mit Apples ARKit

Nachdem es nach der Einstellung von Googles Augmented Reality-Brille um AR im letzen Jahr etwa ruhiger geworden ist, befeuert jetzt Apple den Hype mit der Vorstellung eines eigenen ARKit. Das ARKit soll im neuen IOS 11, das Herbst 2017 veröffentlicht wird, App-Entwicklern zur Umsetzung von AR zur Verfügung stehen, bzw. lässt sich jetzt schon in der Beta ausprobieren.

Ich bin ja schon länger von der praktischen Anwendung von AR überzeugt und sehr früh haben wir mit Metaversa verschiedene AR-Apps und Webdienste in der medienpädagogischen Arbeit eingesetzt. Dabei hat sich mit der zunehmend besser werdenden Technik der Inhalt der Projekte gewandelt. 2011 war es zunächst die Erstellung von Stadtrallyes bei denen die anzusteuernden Orte als POIs (Point of Interest) in einer AR-Darstellung bei Layar und bei Junaio (von Apple gekauft und eingestellt) angezeigt wurden. Später lag der Schwerpunkt in den Projekten auf markerbasiertem AR, bei dem Bilder, Grafiken etc. genutzt werden, um sie mit virtuellen Informationen zu überblenden. Ein Beispiel dafür ist unsere AR-Rallye Through the Looking-Glass, die die App Aurasma nutzt und die von unserer Webseite zum Ausprobirieren heruntergeladen werden kann. Die App Augment nutzten wir, um mit AR computergenerierte 3D-Objekte in der physischen Realittät darstellen zu können. Im dem mit Jugendlichen im einem Ferienworkshop 2013 gedrehten Film „Minecraft Reality“ waren das selbstgebaute Minecraft Objekte, die in die physische Realität projeziert wurden.

Zwei entscheidende Hürden standen bisher der weiteren Verbreitung von AR-Anwendungen im Weg. Zum einen musste immer ein Handy oder Tablet genutzt werden, das einen nur sehr begrenzten Ausschnitt zeigen konnte und zudem immer erforderte, Handy oder Tabelt (Google Glass war eine erste wenn auch sehr unzureichende Lösung des Problems, mittlerweile bemühen sich hier aber auch andere Firmen wie Microsoft mit der Holo Lens und Magic Leap). Zum zweiten war die Darstellung und stabile Platzierung der virtuellen Objekte im Raum abhängig von der Genauigkeit des Trackers, entweder des GPS Signals (sehr ungenau, insbesondere was die Höhenkoordinate anging) oder eines ausgedruckten Markers bzw. vorhandenen Bildes, das dann aber auch ständig in der Kameraansicht zu sehen sein muss.

Für das zweite Problem scheint Apple nun mit dem ARKit eine sehr gute Lösung gefunden zu haben. Damit sind Apple zwar nicht die ersten, die ersten Apps, die das ARKit nutzen, zeigen aber eine erstaunlich große Positionsgenauigkeit und Stabilität. Damit muss kein physischer Marker mehr im Raum vorhanden sein, an den das virtuelle Objekt gebunden wird. Apple erreicht diese Genauigkeit durch eine Auswertung der verschiedenen in iPhones und iPads vorhanden Sensoren wie Kompass, Accelerometer und Gyroskop in Kombination mit Bilderkennungstechnologien, die berechnen können, wie sich der dreidimensionale Raum um sie herum darstellt. Das Handy oder Tablet erstellt eine dreidimensionale Karte der Umgebung und errechnet seine genaue Position und Lage in diesem Raum. Die Technik dazu heißt Visual-Inertial Odometry (VIO) und scheint wohl von Qualcomm entwickelt worden zu sein. Sie soll auch das in der Robotik bestehende SLAM-Problem (Simultaneous Localization and Mapping; deutsch: Simultane Lokalisierung und Kartenerstellung) lösen.

Auch Google arbeitet schon länger an diesen Technologien. Googles Projekt heißt „Tango“ und ist bereits auf einigen wenigen Smartphones verfügbar. Die Nutzung ist eingeschränkter, denn Tango setzt das Vorhandensein mehrerer Kameras voraus, die aktuell nur in wenigen Smartphones eingebaut sind. (Update 30.8.17: Google gibt die Einstellung des Projekts „Tango“ bekannt, Nachfolgeprojekt ist „ARcore“, das nun weniger Voraussetzungen mitbringt und auf mehr Smartphones laufen wird.)

Inzwischen gibt es zahlreiche Beispiele des Einsatzes von Apples ARKits von Entwicklern, die die Betaversion von iOS 11 nutzen:

Neue Gameoptionen:

Nur mit physischen Markern wäre es nicht möglich, solche Räume auch virtuell zu betreten:

Und einen extrem praktischen Nutzen gibt es auch:

Und bei dieser Killer-App sowieso:

Noch fehlt anscheinend die Funktion, dass sich die virtuellen Objekte auch hinter physischen Gegenständen verstecken können, bzw. von diesen teilweise verdeckt werden, vermutlich nur eine Frage der Zeit. Aktuelle Gerüchte besagen, dass Apple im iPhone 8 3D-Laser-Sensoren auf der Rückseite verbauen wird, die den Abstand zu Objekten sehr genau berechnen können. Und schließlich wird seit einigen Jahren bereits über eine Apple eigene AR-Brille spekuliert.

Dankenswerterweise hat hat sich die Anzahl der Apps, die es erlauben, auch eigene Inhalte einzubinden, in den letzten Jahren stark erhöht, im Gegensatz zu Apps die lediglich vorgegebene Inhalte bieten. Ich bin sehr gespannt, welche Apps uns ab Herbst mit dem ARKit zur Verfügung stehen und welche neuen kreativen Möglichkeiten für die medienpädagogische Arbeit sich daraus ergeben.

WIO Link und WIO Node installieren und nutzen

Für meinen morgigen Workshop unter dem schönen Titel „Lasst Blumen sprechen… Bildungsideen für das Internet der Dinge“ beim 18. Gautinger Internettreffen habe ich Handouts für die Installation und Einbindung eines WIO Link und/oder WIO Node erstellt:

WIO Link und WIO Node installieren und nutzen (PDF, 2,8 MB)
WIO Link und WIO Node installieren und nutzen (DOC, 2,8 MB)
(Handouts unter CC-BY-SA-Lizenz)

Was der WIO Link und der WIO Node so können und was das ganze überhaupt soll, habe ich im Artikel Bildungsideen für das Internet der Dinge mit WIO Link und IFTTT“ beschrieben.

Beispiele für Microcontroller, mit denen sich Anwendungen des Internet der Dinge umsetzen lassen:

Und außerdem läuft auf Kickstarter bis zum 19.4.17 eine Kampagne von Makeblock für Neurons; ohne Kabel zusammensteckbare Module, die mir einer eigenen App programmiert werden: https://www.kickstarter.com/projects/1818505613/makeblock-neuron-an-electronic-building-blocks-pla

Und hier noch ein paar interessante Links zum Thema „Internet der Dinge“:

Und falls ich mit Sensoren unterwegs bin, gibt es hier ein paar Livewerte:

Freue mich über weitere Ideen und Erfahrungen zu den Einsatzmöglichkeiten von Sensoren und Microcontrollern im Bildungsbereich in den Kommentaren.

mBots – Roboter mit Scratch programmieren

Seit zwei Jahren setzen wir bei unserem Schulaktionstag „Reise durch die Mediengalaxie“  verschiedene kleine Roboter ein, die auf dem Tablet mit Blockly, einer blockbasierten Programmiersprache, programmiert werden können. Über unsere Erfahrungen mit verschiedenen Apps und Robotern habe ich im Artikel „Mit Robotern programmieren lernen“ berichtet.

Für unseren Projekttag „Flucht nach Utopia“ im Rahmen des Codeweek Award wurde es nun erforderlich, Roboter zu finden, die mehr Möglichkeiten der Programmierung bieten. Zentraler Bestandteil des Projekts ist ein Alternate Reality Game, bei dem Schüler_innen mittels Umprogrammierung von Robotern einen Code finden müssen, der sie zum Ziel führt. Da der Projekttag mit 5. und 6. Klassen durchgeführt wird, kam eine komplexe Sprache wie Arduino, auf der sehr viel Hardware im Roboterbereich beruht, nicht in Frage. Vielmehr wollten wir hier die ebenfalls blockbasierte Programmiersprache Scratch einsetzen, bei der der Einsteig sehr niedrigschwellig ist, die aber auch Fortgeschrittenen komplexe Möglichkeiten bietet.

Wir entschieden uns für den mBot von Makeblock, der beide dieser Bedingungen erfüllt: er ist modular aufgebaut und kann um zahlreiche Motoren, LED-Anzeigen und Sensoren erweitert werden. Programmiert wird er am Desktoprechner mit mBlock, einer Software, die auf Scratch basiert, zusätzlich aber noch die Blöcke enthält, mit denen der mBot gesteuert wird. Die Verbindung mit dem PC läuft entweder über Bluetooth oder über Wifi. Die Wifi-Verbindung wird dabei über ein mit dem Modul mitgelieferten USB-Dongle aufgebaut, so dass kein vorhandes WLAN genutzt werden muss. Die Verbindung per Wifi hat sich als sehr viel stabiler erwiesen als per Bluetooth. Wer allerdings den mBot auch mit einer Tablet-App steuern will, ist zwingend auf das Bluetoothmodul angewiesen.

Der mBot kostet ca. 80 Euro und wird als Bausatz geliefert, der in weniger als einer Stunde zusammengebaut ist. Gelötet werden muss dabei nicht. Er verfügt über zwei Motoren, die die Räder antreiben, einen Ultraschall-Annäherungssensor, einen Linefollower-Sensor, einen Lichtsensor, einen Infrarotsender und -empfänger und verschiedene LEDs. Schon damit lassen sich relativ komplexe Steuerungen programmieren. Für den mBot lassen sich dann eine Reihe Zusatzmodule erwerben. Unsere mBots haben wir zusätzlich noch mit Servomotoren, die z.B. einen Roboterarm bewegen können, einer LED Matrix, auf der einfache Zeichnungen, Symbole und Laufschrift eingeblendet werden können und zusätzlichen Ultraschallsensoren, die dem MBot die Orientierung im Raum erleichtern, ausgerüstet. Die Module und Motoren kosten zwischen 5 und 20 Euro. Nachteilig ist, dass für zusätzliche Module lediglich vier Ports am mBots bereitstehen, damit ist die Funktionalität etwas eingeschränkt. Im Nachfolgemodell mBot Ranger, der allerdings auch 140 Euro kostet, können bis zu zehn Ports frei belegt werden.

Die auf Scratch basierende Software mBlock wird von Makeblock kostenlos zum Download für Windows und Mac OS angeboten. Die Programmierung mit mBlock ist schnell erlernbar. Per Drag und Drop werden Blöcke mit verschiedenen Programmbefehlen aneinandergereiht. In einem ersten Schritt könnten damit beispielsweise Tasten mit verschiedenen Roboterfunktionen belegt werden: Vorwärtsfahren, Links-Rechtsdrehen, Rückwärtsfahren, Servomotoren/Roboterarme bewegen und LEDs an- und ausschalten. Sehr schnell lässt sich so eine eigene Fernbedienung für den mBot programmieren.

mBlock mit den Blöcken, die für die Programmierung des mBot zur Verfügung stehen

Komplexere Programme entstehen, wenn die Sensoren des mBot mit einbezogen werden. Beim Über- oder Unterschreiten eines Sensorwerts werden dann automatisch verschiedene Programmabläufe gestartet. Beispielsweise wird der Annäherungssensor so programmiert, dass er verhindert, dass der mBot gegen Hindernisse fährt. Sobald der Abstandswert eine bestimmte Größe unterschreitet, stoppt der Roboter, dreht sich vom Hindernis weg und fährt erst dann weiter. So kann er sich autonom durch ein Labyrinth bewegen. Die Linefollower-Sensoren reagieren auf die Helligkeit des Untergrunds, damit kann der mBot entweder vorgegebene Linien abfahren oder z.b. bei Überschreiten einer Markierung umdrehen und zurückfahren. Mittels Lichtsensor kann ein Lasertag-Game programmiert werden: trifft den mBot ein Lichtstrahl, den ein anderer mBot aussendet, wird dies als Treffer registriert und auf der LED-Matrix angezeigt. Über den integrierten Infrarot-Empfänger und den Sender lassen sich auch Signale zwischen den mBots senden, die dann vorher programmierte Befehle auslösen. Zahlreiche weitere Sensoren wie ein Kompass, ein Soundsensor, ein Gyroskop und sogar ein Flammensensor vervielfachen die Kombinationsmöglichkeiten.

Beispielcode: Nähert sich der mBot einem Hindernis auf 10 cm Entfernung wird der Roboterarm über den Servomotor bewegt.

Das mBlock-Board basiert auf Arduino. Das gestattet es, den mBot auch mit Arduino zu programmieren, im mBlock-Programm kann wahlweise zwischen Scratch und Arduinocode umgeschaltet werden.

Die vielfältigen Verwendungsmöglichkeiten und vor allem die Eignung für unterschiedliche Zielgruppen machen den mBot ideal für medienpädagogische Projekte. Von der Nutzung einer Remote-App über die blockbasierte Programmierung am Tablet mit mBlockly, bzw. der Programmierung mit Scratch am PC bis hin zum Coden in Arduino finden sich Einsatzmöglichkeiten wie auch für Teilnehmer_innen mit vorhanden Programmierkenntnissen. Zudem lässt sich der mBot durch zahlreiche Module erweitern und ist im Vergleich mit anderen Robotern wie den oft eingesetzten Lego Mindstorms auch noch sehr günstig. Die Motivation, sich mit komplexen und teilweise sehr abstrakten Programmbefehlen auseinanderzusetzen, ist ungleich größer, wenn nicht nur für den „Bildschirm“ programmiert wird, sondern die Auswirkungen direkt in der physischen Welt sichtbar werden.

Medienkompetenzförderung in den Wahlprogrammen der Parteien zur Berliner Abgeordnetenhauswahl 2016

IMG_20160905_180837532

Am 18. September 2016 wird nach fünf Jahren das Abgeordnetenhaus in Berlin neu gewählt. Es wird also Zeit, sich mal in die Wahlprogramme der Parteien einzulesen und nach relevanten Aussagen zur Medienbildung zu suchen. Das hatte ich bereits 2011 gemacht. Im Nachhinein muss ich erschreckt feststellen, wie gering der Stellenwert der Medienbildung damals noch bei einigen Parteien war. So lässt sich nun aber auch überprüfen, was aus den damaligen Versprechen der Parteien geworden ist. Fairerweise geht das natürlich nur bei den Regierungsparteien CDU und SPD:

Wahlprogramme 2011 – Cybermobbing einen Riegel vorschieben

Die CDU konnte nicht viel falsch machen, hatte sie doch 2011 lediglich eine Idee zur Medienbildung im Wahlprogramm:
„Dem Phänomen des Mobbing im Internet (häufig als „Cyber-Mobbing“ bezeichnet) schnellstmöglich ein Riegel“ vorschieben – wurde nicht so wirklich umgesetzt.

Auch die SPD glänzte 2011 nicht unbedingt mit originellen Ideen:

  • „Um die Ausstattung der Schulen mit Computern zur bedarfsgerechten Medienbildung zu verbessern, bauen wir die Kooperation mit Privaten aus.“ War da was?
  • „Wir werden die Anzahl der Kooperationsvereinbarungen zwischen den Schulen und den Bibliotheken zur Leseförderung und zum Erwerb von Medienkompetenz erhöhen, indem wir die Rahmenbedingungen verbessern.“ Ist mir auch nicht bekannt geworden.
  • Immerhin: „Medienkompetenz und kulturelle Bildung und die damit einhergehende Entwicklung sozialer und kreativer Kompetenzen sollen an den Schulen stärkeres Gewicht erhalten.“, ist zumindest in die neuen Rahmenlehrpläne in Form des Basiscurriculum Medienbildung eingeflossen. Welche Unterstützung die Schulen bis zum Inkrafttreten zum Schuljahr 2017/18 zur Implementierung bekommen, scheint aber noch nicht klar zu sein.

 

Medienkompetenzförderung in Berlin – ein Trauerspiel

Wer mir bei Twitter oder Facebook folgt und auch meine Arbeit im Vorstand der LAG Medienarbeit kennt, weiß, dass ich mit der Medienkompetenzförderung der Berliner Bildungsverwaltung in den letzten Jahren nicht besonders glücklich war. Und dies vor allem aus der Perspektive, dass Berlin vor 10-15 Jahren schon mal eine fast eine Vorreiterrolle in Deutschland hatte: mit gemeinsam erarbeiteten Standards für Medienbildung in der Jugendarbeit, mit der Berliner Mailbox Spinnenwerk und zahlreichen Fachtagungen, in denen bereits frühzeitig Medienthemen pädagogisch bearbeitet wurden.

Seitdem herrscht von Seiten der Jugendarbeit eher Stagnation in Form des Programms jugendnetz-berlin.de. Seit Jahren werden hier die bezirklichen Medienkompetenzzentren mit der immer gleichen Summe von 5000 Euro jährlich (!) am Leben erhaltengefördert. Andere Förderprogramme wie „StepsIntoFuture“, bei dem unkompliziert Medienprojekte für 500 Euro beantragt werden konnten und auch die Förderung berlinweiter, vernetzter Projekte wurden weitestgehend eingestellt. Stattdessen setzt die Bildungssenatorin gegen zahlreiche Expertenwarnungen seit 2015 auf ein eigenes Berliner Jugendportal, das 200.000 Euro im Jahr verschlingt und nach Projekthalbzeit absehbar keine besondere Relevanz entfaltet.

Auch auf Schulseite sieht es in Berlin nicht besser aus, sofern dort überhaupt ein Einblick zu erhalten ist, denn selbst der Abgeordnete Thomas Birk von Bündnis 90/Die Grünen erhält 2014 auf eine Anfrage die Antwort, Auskünfte an Außenstehende erteilt die Pressestelle der Senatsverwaltung für Bildung, Jugend und Wissenschaft. Und entsprechend sehen dann auch die Webseiten der Senatsverwaltung zum Thema Schule und Medienbildung aus.

Auf der Senatswebseite zum Thema „Unterrichten mit Medien“ wird nicht einmal der immer wieder beschworene eEducation-Masterplan genannt oder verlinkt. Die neuesten Infos beziehen sich hier auf Open Educational Ressourcen (OER), bestehen aber lediglich auf einer Begriffsdefinition.

Auf der Webseite des Lernraum Berlins, einem berlinweiten Moodle für Schulen (durchschnittliche Logins pro Tag 2014: 1272, bei über 300.000 Berliner SchülerInnen), werden dann auch konsequent die Ziele des eEducation-Masterplan von 2005 zitiert.

Google findet ihn dann doch noch, den eEducation-Masterplan: http://masterplan.be.schule.de/ mit dem letzten Zwischenbericht von 2009. Hier finden sich immerhin die seit 10 Jahren bestehenden Teilprojekte: Roberta mit immerhin 50 teilnehmenden Schulen, das Internetseepferdchen (Berliner Internetführerschein) und eTwinning, das zumindest laut Webseite ein lebendiges Projekt zu sein scheint. Als neues Projekt in den letzten Jahren ist dort „MYOP – make your own product“ dazugekommen: 2013 erhielten zwei der 700 Berliner Schulen einen 3D Drucker und einen 3D Scanner. Da wundert es auch gar nicht, wenn das aktuellste Projekt: „Second Hand IT für Berliner Schule“ heißt.

Die Opposition hat sich hingegen kurz vor Schluss mit dem Antrag „Berlins Zukunft sichern – jetzt Konzept für die Bildung mit digitalen Medien vorlegen“ ein Bienchen verdient.

 

Wahlprogramme 2016 – CDU favorisiert Apple

Aber ab 18. September kann ja nun alles anders werden. Immerhin ist damit zu rechnen, dass die bisherige Koalition aus CDU und SPD nicht fortgeführt werden kann.

Bei meiner diesjährigen Durchsicht der Wahlprogramme habe ich diesmal nur konkrete Umsetzungsvorschläge berücksichtigt. Medienbildung ganz allgemein finden inzwischen alle Parteien wichtig und toll.

In wechselnden Konstellationen finden sich bei allen Parteien gemeinsame Punkte:

  • die Förderung von frei lizenzierten Unterrichtsmaterialien (OER) (Ausnahme.: CDU)
  • Aus- und Fortbildung von Lehrkräften im „Digitalem Lernen“ (Ausnahme: SPD)
  • Die Förderung des Freifunk-Projekts (Ausnahme: SPD und CDU)
  • Zusätzliche Stellen für qualifiziertes Personal insbesondere für IT-Kräfte (Ausnahme: Bündnis 90/Die Grünen)

Einig sind sich alle neben der Weiterentwicklung von Schulen in der Stärkung außerschulischer Lernorte. Dies ist allerdings mit der Aufnahme der Verkehrsschulen, der Jugendkunstschulen und der Gartenarbeitsschulen ins Schulgesetz bereits verabschiedet worden. Nur die bezirklichen Medienkompetenzzentren wurden dabei vergessen. Bündnis 90/Die Grünen sind leider die einzigen, die das gerne ergänzen würden und die Medienkompetenzentren im Wahlprogramm explizit erwähnen.

Darüberhinaus haben die Parteien verschiedene weitere Ideen zur Medienkompetenzförderung entwickelt:

SPD

Dass sich mobile Geräte auch für die Bildung eignen, ist der Berliner SPD noch weitestgehend unbekannt. Hier wird beim bisherigen Kurs geblieben: Ziel ist es, jede Schule mit Whiteboards ausstatten, interessierte Schulen darüberhinaus mit Laptopklassen. Die SPD hat die Stärkung der Jugendarbeit in ihrer dezentralen Struktur und die Stärkung außerschulischer Lernorte im Wahlprogramm verankert, wie bereits beschrieben, leider ohne Medienzentren zu benennen. Informations- und Medienkompetenz wird als Aufgabe der Bibliotheken gesehen.
Man will außerdem die Aktivitäten im Land Berlin zur Steigerung der Medienkompetenz verstärken und eine „einheitliche Anlaufstelle“ schaffen. (Was immer das auch heißen soll, vielleicht eine Medienkompetenz-Hotline?) Der bisher nicht zustande Kooperationsvertrag mit der Medienanstalt Berlin-Brandenburg, den es in Brandenburg seit einigen Jahren gibt, soll nun wohl doch angegangen werden. Im Wahlprogramm heißt es dazu: „Die Aktivitäten sollen mit der Medienanstalt Berlin-Brandenburg verzahnt werde.“ Und natürlich droht uns mit der SPD „der Ausbau des neuen Jugendportals“.

CDU

Leider ein bisschen zu spät, denn die neuen Rahmenlehrpläne wurden ja gerade (unter CDU/SPD) beschlossen, spricht sich die CDU für „Fachteams zur Überprüfung der Lehrinhalte und Erarbeitung digitaler Möglichkeiten des Wissenserwerbs“ aus. Lernstoffe sollen in Form von Apps die Schulöffentlichkeit erreichen. Gefordert wird eine Schule 4.0 mit WLAN, Whiteboards, Tablets und IT Experten vor Ort. Erstaunlicherweise offenbart der Finanzierungsvorschlag für neue Laptopklassen eine klare Präferenz für Apple, denn „Zur Finanzierung könnten Schulen z.B. dem erfolgreichen Vorbild der Friedrich-Bergius-Schule folgen, die in dieser Frage mit Apple zusammenarbeitet.“ Die Grundlagen des Programmierens sollen altersgerecht erlernt werden. Aus dem Vorschlag einer „einheitlichen Anlaufstelle“ wird bei der CDU die Gründung eines Fachreferats Digitale Bildung bei der Senatsverwaltung.

Bündnis 90/Die Grünen

Eine zentrale Stelle möchten auch Bündnis 90/Die Grünen, hier wird daraus eine „Koordinierungsstelle im Senat zur Steuerung des digitalen Aufbruchs“. Zusätzlich haben Bündnis 90/Die Grünen den begonnen Versuch der LAG Medienarbeit aufgegriffen und möchten einen Runden Tisch Medienbildung unter Leitung des Senats einführen. Programmieren soll in der Schule vermittelt werden, ebenso wie mehr Informationen zu Cybermobing und Gewalt im Netz. Der Informatikunterricht soll durch ethische, datenschutzrechtliche und soziale Fragen weiterentwickelt werden und dies auch mit Angeboten in der Grundschule. Ergänzt werden soll die Medienbildung um die Unterstützung von Eltern durch Angebote der Selbstregulation, Aufklärungs- und Informationskampagnen zu Gewalt im Netz und der Sensibilisierung für Datenschutz.

Die Linke

Als einzige der Partien hat sich Die Linke Gedanken gemacht, wie auch bundespolitisch Medienkompetenz gefördert wird und regt ein Bund-Länder-Programm für digitale Bildung mit Förderung eines mobilen Geräts pro Kind an. Ebenso wie die Abschaffung des Kooperationsverbots. Versprochen wird ein Wettbewerb und die Förderung für Mädchen und Frauen zum Erlernen und kreativen Nutzen von Programmiersprachen und Onlinetechnologien.

Piraten

Die Piraten haben leider nicht mehr viel neues Innovatives beizutragen. Neben den zusätzlichen IT Experten (bei den Piraten „Medienwarte“ gennant“) geht es vor allem um kostenlose Schulungen in Bedienkompetenzen für alle und der Einführung eines Fachs „Medienkompetenz“.

 

Kampagne „Medienbildung jetzt“

Wer sich weitere Inspirationen für den Wahlzettel holen will, sollte noch die Kampagne „Medienbildung jetzt“ beachten. Im Rahmen dieser gemeinsamen Kampagne der GMK Landesgruppe Berlin-Brandenburg und der LAG Medienbildung gab es neben veröffentlichten Wahlprüfsteinen und Fragen an die Parteien am 29.6.16 eine spannende Veranstaltung mit VertreterInnen von SPD, Grünen, Linken und den Piraten. Die CDU blieb sowohl der Veranstaltung fern, als auch die Übersendung der Fragen zu den Wahlprüfsteinen schuldig.

Auf der Kampagnenwebseite findet sich eine Transkription der Gesprächsrunde, die deutlich macht, wo die Medienkompetenzen bei den PolitikerInnen liegen: deutlich bei der bisherigen Opposition und nicht der SPD. Und hier wurde dann auch konstatiert, dass gerade bei der Lehrerausbildung Defizite bestehen und Nachbesserungsbedarf. Und auch auf die Situation der LehrerInnen an den Schulen wird sehr differenziert eingegangen. Während der Vertreter der SPD betont, dass LehrerInnen bei ausreichender Bereitschaft auch genügend Möglichkeiten haben, sich fortzubilden, sehen die VertreterInnen der Opposition die Notwendigkeit, die Arbeitszeiten der LehrerInnen zu verändern, um mehr Räume für innovative Unterrichtsmethoden zu schaffen und auch die Lehrpläne von einigen Inhalte zu entlasten. Einig waren sich zumindest hier alle Beteiligten, dass es sinnvoll ist, die Expertise möglichst vieler Akteure einzubeziehen, ob das nun in Form eines Runden Tischs oder eines vom SPD Vertreter vorgeschlagenen Beirats passiert, ist dann Sache der Koalitionsverhandlungen.

Disclaimer: Als Vorstand und Projektleiter der LAG Medienarbeit bin ich direkt durch die Kürzungen der Mittel für vernetzte Projekte betroffen und deshalb weder objektiv noch unparteiisch. Korrekturen, Kritik und Anmerkungen nehme ich gerne entgegen, per Mail oder in den Kommentaren.

Hier geht es dann zum Update in 2021: Medienkompetenzförderung in den Wahlprogrammen der Parteien zur Berliner Abgeordnetenhauswahl 2021

Bildungsideen für das Internet der Dinge mit Wio Link und IFTTT

Mit der zunehmenden Einbindung von physischen Objekten ins weltweite Netz, dem sogenannten Internet der Dinge (IoT, Internet of things), steigt die Relevanz, dies auch in Schule und außerschulischen Bildungseinrichtungen zum Thema zu machen. Nötig wird dies nicht nur wegen der zunehmenden Verbreitung der Technik, sondern insbesondere wegen der damit verbundenen Datenschutzproblematik, beispielsweise bei  der automatischen Erfassung von Standortdaten bei vernetzten Autos oder durch die laufende Übermittlung der Stromverbrauchsdaten an den Energieversorger durch die neuen „Smart Meter“.

Eine bewährte Methode zum Einstieg ins Thema ist in der Medienbildung das praktische Ausprobieren der Technik. Das war bisher immer mit viel Löten von elektrischen Kontakten, Sensoren und Controllern verbunden. Anschließend musste noch die nötige Software programmiert werden, was viel Zeit und Programmierkenntnisse erforderte und höchstens im Informatikunterricht oder in speziellen AGs in der Oberschule zu leisten war.  Seit kurzen gibt es mit dem Mikrocontroller „WIO Link“ in Kombination mit dem Internetservice IFTTT eine niedrigschwellige Alternative.

Der „Wio Link“ ist ein Mikrocontroller mit WiFi-Modul von Seeedstudio und lässt sich durch die ebenfalls von Seeedstudios entwickelten Grove-Module um verschiedene Funktionen erweitern. Ca. 40 der angebotenen Grove-Module funktionieren mit dem Wio Link, weitere sollen hinzukommen. Die Sensormodule registrieren u.a. Temperatur, Licht, Lautstärke, Luft- und Bodenfeuchtigkeit, Luftqualität und Entfernungen, die Aktionsmodule steuern u.a. Servomotoren, Stromflüsse, LEDs und Magnetschalter. Der Wio Link ist nicht teuer. $14 verlangt Seeedstudio dafür. Die Grove-Module kosten zwischen $10 und $30.

„IFTTT“ steht für „If this then that“ und ist ein Internetdienst mit dem verschiedene Webanwendungen verknüpft werden können. Der Nutzer/die Nutzerin erstellt sogenannte Rezepte nach dem Motto „Wenn dies, dann das“, die aus einem Auslöser (dem „this“) und einer Aktion (dem „that“) bestehen. So können sehr leicht immer wieder kehrende Aufgaben automatisiert werden. Beispielsweise können Facebookbilder auf denen ich markiert wurde, automatisch in meiner Dropbox gespeichert werden. Tweets mit einem bestimmten Hashtag können in Evernote archiviert werden oder Emailanhänge automatisch zu Google Drive hochgeladen werden.  Die Rezepte können mittlerweile aus über 300 Channel erstellt werden. Dazu gehören nicht mehr nur Webdienste, sondern inzwischen auch „smarte“ Geräte wie die Phillips Hue oder auch die Lokalisierungsfunktion von Android- und iOS-Geräten. Damit kann ich dann z.B. automatisch Licht anschalten, wenn ich in die Nähe meiner Wohnung komme. Sehr nützlich finde ich gerade die Benachrichtigung auf dem iPad wenn meinem Handy der Strom ausgeht. Die bei IFTTT erstellten Rezepte können mit anderen geteilt werden. Die beliebtesten finden sich auf den Rezeptseiten von IFTTT.

ifttt

IFTTT ist einer meiner derzeitigen Lieblingsdienste im Netz, bei dem ich immer wieder erstaunt bin, wie wenig er eigentlich genutzt wird. Auch ohne die Nutzung eines Wio Link lässt sich IFTTT gut in Bildungsszenerien einsetzen, um zu demonstrieren wie viel Daten eigentlich täglich bei den von uns benutzen Geräten und Diensten anfallen, welche Möglichkeiten die Kombination der Dienste bietet und wie man sich eigene Filter und automatisierte Prozesse programmieren kann. Alleine mit der Nutzung eines Smartphones plus einiger sozialer Netzwerke verfügen Kinder und Jugendliche bereits über genug Datenmaterial, das sich mit IFTTT sinnvoll oder auch völlig widersinnig verknüpfen lässt.

Wenn allerdings nicht mit den persönlichen Daten der SchülerInnen gearbeitet werden soll, kann auf „smarte“ Geräte wie den Wio Link zurückgegriffen werden, der durch die Vielzahl der Sensoren reichlich Datenmaterial bietet. Die Einrichtung des Wio Link ist denkbar einfach und hat bei mir problemlos funktioniert. Benötigt wird dafür lediglich die Wio Link App (Android und iOS) und Wlan. Nachdem der Wio Link mit dem Wlan verbunden und benannt wurde, werden die unterschiedlichen Module angeschlossen, dabei muss nur darauf geachtet werden, welches Modul an welchen Port passt: Digital, Analog, UART oder I2C. Nachdem die Module angeschlossen wurden, ist ein Update erforderlich um die passende Firmware zu laden. Ob die Einrichtung der Module erfolgreich war, kann sofort im API-Menü ausprobiert werden. Hier sind die Webadressen zu finden über die entweder die Werte der Sensoren ausgelesen werden oder bei Aktions-Modulen ein Event ausgelöst wird; je nach Modul ergänzt um zusätzliche Attribute. GET ruft den Wert des Moduls auf, POST löst eine Aktion eines Moduls aus.

wio_sensorhinzufuegen_android wio_api_android

Funktionieren die Module am Wio Link muss bei IFTTT der Channel „Seeed“aktiviert werden. Wird nun ein neues Rezept erstellt, kann eines der Wio Module entweder als Trigger (für Sensoren) oder als Action (für Output-Module) ausgewählt werden. Sobald das Rezept aktiviert ist, fragt IFTTT alle 15 Minuten den Status des Triggers ab und löst gegebenenfalls die zugehörige Aktion aus.

In der Kombination mit verschiedenen Social Media Diensten lassen sich daraus eine Vielzahl von Rezepten kreieren. Ich habe zum Ausprobieren vorwiegend Twitter benutzt und dafür einen eigenen Account angelegt. Über den Twitteraccount mein_zuhause informiert mich meine Wohnung nun wenn eine bestimmte Temperatur unterschritten wird und ich die Heizung anschalten sollte,  wann es Zeit wird, die Pflanzen zu gießen, ob die Luftfeuchtigkeit zu hoch wird und wann es hell und dunkel wird. Und damit es keine Einbahnstraße ist, ist ein LED Strip angeschlossen, der durch Aufleuchten signalisiert, wenn mein_zuhause auf Twitter erwähnt wird.

Inzwischen gibt es Dienste wie dweet.io und freeboard.io mit denen ich alle Werte meiner Sensoren als übersichtliche Anzeige im Browser sichtbar machen kann. Und dies funktioniert auch für den Wio Link hervorragend.

freeboard

Dashboard von freeboard.io

do_button

Do-Button App

Auch die IFTTT App „Do Button“ (Android und iOS) kann Aktionen über den Wio Link und die angeschlossenen Module auslösen. Das funktioniert ähnlich wie bei IFTTT, nur der Trigger ist bereits vorher festgelegt und besteht aus einem Klick auf den Button der Do-App. Damit kann dann z.B. die LED oder der LED-Strip angeschaltet, der Servomotor in eine bestimmte Position gedreht oder das Relais aktiviert werden, um ein beliebiges Gerät anzuschalten, das über einen 220V-Stromanschluss verfügt (vorausgesetzt, es lässt sich lediglich durch Stromzufuhr aktivieren und nicht noch zusätzlich über einen Einschaltknopf). Damit würde ich dann z.B. übers Internet die Wasserpumpe aktivieren, die den Garten in meiner Abwesenheit bewässert.

Die Aktion, die mein Lieblingsrezept mit dem Wio Link gerade auslöst, bekomme ich gar nicht zu sehen, denn eine mit Hilfe des Servomotor gebastelte Anzeige informiert meine Familie automatisch, wie weit weg von Zuhause ich noch (oder schon;-)) bin.

wio_link_clock

Bodenfeuchtigkeit: moisture;
?>

Ich freue mich über Fragen, Anregungen und Erfahrungsberichte in den Kommentaren.

Eigene Google Streetview Rundgänge erstellen (neu 2016)

glienicke_360

Seit meinem letzten Artikel über das Erstellen eigener 360º Panoramen und dem Hinzufügen zu Google Maps hat Google einiges am Verfahren geändert und die eigene App weiterentwickelt. Das Verfahren wurde sowohl vereinfacht (für Tablet- und SmartphonebesitzerInnen), wie auch erschwert (für BesitzerInnen von DSLR Kamera, die ihre Panoramen mit einer entsprechenden Software erstellen).

Nachdem im August 2015 die Google View Community, in der die eigenen 360º Panoramabilder verwaltet wurden, zugunsten der neuen Street View App abgeschaltet wurde, war es nicht mehr möglich, Panoramen miteinander zu verknüpfen und daraus virtuelle Rundgänge zu erstellen. Erst mit der Anfang Mai 2016 veröffentlichten Version der Street View App ist nun auch wieder die Verknüpfung von Panoramen möglich.

360º Panoramen (auch Photosphere) können entweder mit einer speziellen App auf dem Smartphone/Tablet erstellt, mit Panoramakameras aufgenommen oder aus normalen Fotos mithilfe einer Software am PC berechnet werden. Mit Ausnahme der Panoramakameras, die eine einzige Aufnahme machen, werden 360º Panoramen aus zahlreichen Einzelbildern zusammengesetzt, die am Ende eine Rundumsicht ergeben. Dies funktioniert umso besser, je kleiner die Abweichungen beim Aufnahmestandpunkt der verschiedenen Bilder sind. Bei Handyaufnahmen kann man sich mit einer Schnur behelfen, die am Ende beschwert ist und die man nah am Kameraobjektiv anbringt. Bei den Aufnhamen ist dann darauf zu achten, dass das Ende der Schnur am Boden immer in gleichen Abstand über einem vorher bestimmten Punkt schwebt. Für DSLR-Kameras gibt es spezielle Stativköpfe, die dies ermöglichen.

Google Maps enthalten mit den Google eigenen Streetviewaufnahmen bereits eine Vielzahl 360º Panoramen, in Deutschland allerdings beschränkt auf wenige Städte. Mit einem Google Account können eigene Fotos und Panoramen der Map hinzugefügt werden und sind so weltweit sichtbar. Üblicherweise sind diese an bestimmte auf der Map bereits verzeichnete Orte gebunden. Wer auf das Streetviewicon unter einer Google Map klickt, kann sich die vorhanden Fotos als kleine blaue Punkte, bzw. orangene Punkte bei Indoor-Aufnahmen anzeigen lassen.

An dieser Stelle findet ihr eine Schritt für Schritt Anleitung, die verschiedene Möglichkeiten beschreibt, wie man mit eigenen 360º-Panoramen an Google Maps partizipieren und daraus Rundgänge für die eigene Webseite erstellen kann.

Das Ergebnis kann dann so aussehen:

Views: SFBB von Michael Lange

Erstellen mit der Street View App

Mit der Street View App von Google (iOS oder Android) können über die Kamera des Smartphones oder Tablets 360º Panoramen aufgenommen werden, aus der Bildergalerie oder auch von per WLAN angeschlossenen Panoramakameras importiert werden.

Auf dem Startscreen der App auf das +-Zeichen klicken und die Anweisungen auf dem Screen befolgen. Der weiße Ring muss jeweils mit dem orangenen Kreis zur Deckung gebracht werden.

streetview_app

Aus 36 Einzelbildern berechnet die App die Rundumsicht des 360º Panoramas. Diese ist anschließend unter dem Reiter „Privat“ zu finden und nur auf dem Smartphone/Tablet verfügbar. Mit Klick auf Veröffentlichen wird diese auf Google Maps veröffentlicht und ist dann unter „Profil“ zu finden. Wichtig: Vor dem Veröffentlichen muss der Ort festgelegt werden. Entweder es wird ein bekannter Ort über die Suchfunktion gefunden oder der Aufnahmeort wird per Dreifachtap(!) auf die Karte festgelegt.

streetview_panoramaortfestlegen_veroeffentlichen

Eine Bildbeschreibung kann nicht über die Street View App hinzugefügt werden. Das veröffentlichte Bild ist aber anschließend ebenfalls im eigenen Google Fotos Ordner im Web gespeichert. Dort kann eine Beschreibung eingegeben werden.

Im Mai 2016 nun hat Google in der Street View App die Funktion implementiert, die eigenen Panoramen miteinander zu verbinden, um so einen virtuellen Rundgang zu ermöglichen. Dazu muss der Finger länger auf einer Stelle des veröffentlichten Bildes gehalten werden. Anschließend wird gefragt, welches Panorama verbunden werden soll.

streetview_panoramaverbinden

Auf Google Maps sieht das dann so aus:

googlemaps_verknuepfung

Der Klick auf den Pfeil führt zum nächsten Panorama.

google_kamera

App „Google Kamera“

Erstellen mit der „Google Kamera“-App

Neben normalen Fotos und Panoramaaufnahmen können mit der Google Kamera App (nur Android) auch Bilder im Photosphere Modus gemacht werden. Diese können nicht direkt auf Google Map veröffentlicht werden, sondern müssen zunächst in den eigenen Google Foto Ordner hochgeladen werden und können dann über die Google Maps Webseiten einem Ort hinzugefügt werden (siehe unten). Ein anderer Weg wäre, diese in die Street View App zu importieren und dann auf Google Maps zu veröffentlichen.

 

Erstellen mit DSLR Kameras

Auch mit einer DSLR Kamera lassen sich 360º-Panoramen erstellen, indem eine Reihe sich um ca. 20-40% überlappenden Fotos gemacht werden. Auf dem PC oder MAC werden die Fotos durch spezielle Programme zu Panoramen zusammengesetzt.  Professionell geht das z.B. mit PTGui für Windows und Mac (79 €) (http://www.ptgui.com)

Wichtig ist, dass das Bild anschließend im Bildformat 2:1 vorliegt und mit bestimmten Metatags versehen ist.

Fotografen und Agenturen können eine Zertifizierung nach dem Street View Trustes-Programm beantragen. Zugelassene Fotografen können dann den Desktop Streetvieweditor zum Upload der Fotos und zur Verknüpfung nutzen. (Die Latte zur Zulassung liegt hier ziemlich hoch. Voraussetzungen und die Bewerbung um eine Zulassung sind hier zu finden: https://support.google.com/maps/answer/6272623)

Ohne Zulassung zum Programm können die Panoramen entweder in der Street View App importiert werden oder über die Google Maps Webseite einem Ort hinzugefügt werden.

Mit den Panoramakameras RICOH THETA S und der NCTECH IRIS360 können Panoramaaufnahmen per WIFI direkt zur Street View App übertragen werden.

Hinzufügen zu Google Maps über die Street View App oder über die Google Maps Webseite?

exif_daten

Metatags eines Photosphere Bildes

360º Panoramabilder, die nicht mit der Street View App selber erstellt wurden, können entweder in die Street View App importieren oder über die Google Maps Webseite einem Ort hinzufügen. In jedem Fall funktioniert der Import nur, wenn die Fotos das übliche Bildformat von 2:1 einhalten und bestimmte Metatags enthalten. Fehlen diese Metatags können sie aber auch über einen entsprechenden Metatageditor hinzugefügt werden.

Zum Upload auf der Google Maps Webseite muss zunächst ein vorhandener Ort ausgewählt werden.   Der Link zum Hinzufügen von Bildern findet sich relativ weit unten in der Beschreibung des Ortes:

googlemaps_fotohinzufuegen

Der Nachteil des Uploads über die Google Maps Seite ist, dass die Panoramen jeweils einem bestimmten schon auf der Map vorhanden Orts hinzugefügt werden, während bei der Street View App das Panorama frei positioniert werden kann.

Einbetten von 360º Panoramen in die eigene Webseite

Was derzeit anscheinend nicht möglich ist oder möglich sein soll, ist das Einbetten der eigenen 360º Panoramabilder in der eigenen Webseite (obwohl wie oben zu sehen, der iFrame meines alten Panoramas noch funktioniert). Google Streetviewaufnahmen lassen sich einbetten, in dem im Fotomenü oben links ein Dropdown-Menü geöffnet wird. Im Menü gibt es den Punkt „Bild teilen oder einbetten“. Bei Panoramen, die nicht von Google sind, wird der Einbetten-Code jedoch nicht angezeigt. Bleibt abzuwarten, ob das ein Fehler ist oder Absicht.

Weitere Informationen zur 360º-Panoramafotografie:
Google Hilfe: https://support.google.com/maps/answer/6281095?hl=de&ref_topic=6344610
Panoramafotos: http://www.pano.ie/
Videotutorials (engl.): http://www.youtube.com/playlist?list=PL15B8C737F69319BE

Danke an Eike Rösch für die initiale Idee!

Creative Commons Lizenzvertrag
Dieses Werk ist lizenziert unter einer Creative Commons Namensnennung 4.0 International Lizenz..

Mit Robotern Programmieren lernen

Seit einigen Monaten sammeln wir (mein Verein Metaversa e.V.) nun Erfahrungen mit unseren beiden kleinen Robotern Sphero und Dash. Zum Einsatz kamen sie bisher vor allem bei unserem Schulprojekttag Reise durch die Mediengalaxie, bei dem 10-12jährige Schüler_innen einen Spielparcours mit kleinen Medienaktionen gestalten, aufbauen und dann für Eltern-Kind-Teams durchführen. Die Aktionsbasis „Roboter programmieren“, die sich immer großer Beliebtheit erfreut, hat das Ziel, einen kleinen Einblick in die Computerprogrammierung zu geben. Die Spielteams erhalten dabei die Aufgabe in 3-5 Minuten am Tablet einen der beiden Roboter so zu programmieren, dass er einen kleinen Parcours abfährt. Es spricht für die verwendeten Apps, dass dies selbst in dieser kurzen Zeit gut machbar ist.

sphero_mediengalaxie

Sphero im Einsatz bei der Reise durch die Mediengalaxie

Der Dash von Makewonder

Der Dash von Makewonder

Auch wenn die Diskussion, ob alle Schüler_innen programmieren lernen müssen, gerade sehr kontrovers geführt wird, finde ich es aus medienpädagogischer Perspektive wichtig und nötig, zumindest das Grundkonzept von Software und Algorithmen zu kennen auch ohne Programmcode beherrschen zu müssen. Das Einbeziehen von physischen programmierbaren Objekten wie z.B. dem Sphero oder dem Dash bietet dabei eine gute Chance, auch wenig lese- und schreibfreudige Kinder zu motivieren, sich mit ersten Codezeilen auseinanderzusetzen und im besten Fall noch ihr Englisch zu erweitern.

Der Sphero ist eine weiße Plastikkugel, die im Inneren über einen steuerbaren Motor und verschiedene Lampen verfügt. Damit kann er in beliebige Richtungen rollen. Einzige eingebaute Sensoren sind ein Gyroskop und ein Beschleunigungssensor (Accelerometer), die registrieren, wie der Sphero bewegt wird und ob er beispielsweise auf ein Hindernis getroffen ist. Der Dash sieht nach den Vorstellungen der Schüler_innen schon sehr viel mehr nach einem richtigen Roboter aus. Außer sich bewegen, kann er den „Kopf“ drehen, mehrere farbige Lampen aktivieren und Geräusche machen. Er verfügt über ein Mikrophon, Annäherungsensoren vorne und hinten und ebenfalls einen Beschleunigungssensor. Bis zu vier Buttons am Kopf können mit verschiedenen Funktionen belegt werden.

Für beide Roboter gibt es Apps für iOS und Android, mit denen sie remote gesteuert werden können. Die Verbindung funktioniert über Bluetooth. Für unsere Zwecke nutzen wir aber Apps, die eine einfache visuelle Programmiersprache ähnlich wie „Scratch“ verwenden, um dem Roboter verschiedene Handlungsabläufe beizubringen. Der Programmcode wird in der App per Drag und Drop kleiner Blöcke zusammengestellt. Der Dash verwendet dazu „Blockly„, eine von Google entwickelte visuelle Programmiersprache. Beim Sphero hat der Hersteller dafür eine eigene, aber sehr ähnliche Lösung gefunden und in der App „SPRK“ implementiert. Für Scratch gibt es Erweiterungen mit denen der Sphero aus Scratch heraus ansteuerbar ist. Getestet habe ich das mit der Scratch Helper App S2Bot. Leider hat Scratch die Befehle nicht richtig umgesetzt.

App "Blockly" zur Programmierung des Dash

App „Blockly“ zur Programmierung des Dash

App "SPRK" zur Programmierung des Sphero

App „SPRK“ zur Programmierung des Sphero

Für beide Roboter gibt es noch die aus einem Kickstarter Projekt hervorgegangene App Tickle (leider nur für iOS). Die App ist kompatibel mit verschiedenen Geräten u.a. auch Arduino Beans und bietet die Möglichkeit auch ohne physische Devices kleine Programme wie beispielsweise Animationen zu erstellen. Verwendet wird bei Tickle eine eigene Programmiersprache angelehnt an Blockly und Scratch.

App "Tickle" (nur für iOS)

App „Tickle“ (nur für iOS)

Das schöne allen drei Apps ist, dass sie sehr gut skalierbar sind. Einsteiger programmieren erst einmal einfache Bewegungsabläufe oder verschiedene Lichteffekte. Fortgeschrittene können mit Hilfe der Sensoren verschiedene Reaktionen auf bestimmte Ereignisse hinzufügen und Schleifen einfügen und werden so mit den Grundprinzipien des Programmierens vertraut gemacht.

Im direkten Vergleich gewinnt sowohl bei den Schüler_innen als auch bei uns der Dash gegen den Sphero. Bei den Schüler_innen vor allem wegen des roboterartigen Aussehens und den Geräuschen. Auch die Orientierung ist besser, da der Sphero aufgrund seiner Form zunächst kein sichtbares Vorne und Hinten hat und immer wieder neu vor jeder Fahrt per App ausgerichtet werden muß. Für uns war der Dass bisher einfach zuverlässiger. Der Sphero verlor öfter seine Bluetoothverbindung, die manchmal erst nach Neustart des Tablets wieder funktionierte.

Ein paar Vorteile hat aber auch der Sphero. Die Programmierung kann sehr viel komplexer erfolgen. Wer bereits Scratch behrerrscht, kann hier direkt den Sphero per Scratch nutzen. Mit Hilfe seiner Sensoren kann er auch als Controller für verschiedene Spiel-Apps verwendet werden. Beim Sphero gibt es außerdem noch kleine Spiel-Apps, die aus dem Sphero per Augmented Reality im Kamerabild einen Biber oder auch Zombie-Shooter machen. Kleine Spielereien, die aber zeigen, was noch möglich ist. Und auch der etwas geringere Preis von 120 Euro gegenüber 180 Euro beim Dash spielen  eine Rolle.

App "Sharks" für den Sphäre. Aus der weißen Kugel wird per Augmented Reality ein Biber

App „Sharks“ für den Sphäre. Aus der weißen Kugel wird per Augmented Reality ein Biber

Noch nicht zum Einsatz gekommen ist unser dritter Roboter, ein mBot von Makeblock. Grund war vor allem, dass es derzeit noch einen Desktoprechner braucht, an dem der mBot programmiert werden muss und die mBlock-Software (basierend auf Scratch) hier noch nicht so userfreundlich wie die Apps des Sphero oder Dash sind. (Update: Für iOS gibt es mittlerweile eine Programmierapp für den mBot: mBlockly) Dafür ist sie allerdings kompatibel mit Arduino und bietet einen Einstieg ins Arduinouniversum. Der mBot ist außerdem modular aufgebaut und kann durch diverse elektronische Bauteile, Displays, Motoren und Sensoren erweitert werden.

Eine Erweiterung unser Roboterflotte streben wir an. Es gibt einige heiße Favoriten auf der Wunschliste:

  • die Parrot Minidrone Rolling Spider ist bereits auf dem Markt und ebenfalls über die App Tickle ansteurbar. Mit dem üblichen Nachteil, dass der Drohnenakku kaum 8 Minuten durchhält und dann eine Stunde aufgeladen werden muss.
  • die Tinkerbot Baukästen sind bereits demnächst erhältlich, allerdings verhältnismäßig teuer
  • Ozobot, klein aber fein

Als sehr spannende Kickstarter Projekte laufen außerdem gerade:

  • Robo Wunderkind, die ähnlich programmierbare Bausteine anbieten wie Tinkerbot
  • der Dobot, ein programmierbarer Roboterarm, der stark an die Fertigungsstraßen in Autofabriken erinnert, der aber auch schreiben und malen kann
  • die Cannybots, programmierbare Spielzeugautos, die Rennen gegeneinander austragen können

Fazit: Sowohl die Teilnehmer_innen (Kinder wie auch Erwachsene) als auch wir hatten bisher viel Spaß mit den Robotern. Zuverlässigkeit und geringe Einstiegshürden trugen dabei wesentlich zum erfolgreichen Einsatz auch in Projekten mit jüngeren Schüler_innen bei. Vorkenntnisse sind dabei nicht erforderlich, um bereits in wenigen Minuten zu sichtbaren Lernerfolgen und Erfolgserlebnissen zu kommen.

Ich freue mich über weitere Vorschläge für Roboter und Erfahrungsberichte in den Kommentaren.

Augmented Reality Anwendungen mit Microsoft Excel erstellen

junaio_grenzgeschichten

Zur Erstellung von geobasierten AR Rallyes habe ich in der Vegangenheit gerne den Hostingservice Hoppala genutzt. Weder Layar noch Junaio als die populärsten AR Dienste bieten die Möglichkeit die ortsbasierten Informationen (Points Of Interest, POIs) auf deren Servern abzuspeichern, so dass diese entweder selbst gehostet oder ein zusätzlicher Dienst eingebunden werden muss. Mein bisher favorisierter Anbieter Hoppala wird leider nicht weiter gepflegt und so sind seit einigen Monaten verschiedene Funktionen nicht mehr verfügbar.

Nun bietet Junaio eine ganz neue und einfache Möglichkeit, eigene AR Ebenen für die Junaio App über das Anlegen der POIs in einer Microsoft Excel Tabelle zu erstellen.

Nötig dazu ist zunächst einmal der Download und die Installation der Excel-App „Metaio Creator“. Diese lässt sich über den Microsoft Marketplace finden und per Klick zu Excel hinzufügen. Mindestens Office 2013 wird vorausgesetzt, d.h. am Mac funktioniert das derzeit nicht.

microsoftmarket

In Excel wird eine Tabelle geöffnet und dann in „Einfügen“ der Metaio Creator ausgewählt. Im rechten Menü der App loggt man sich mit seinem Junaio Developeraccount ein. Es empfiehlt sich, in der oberen Zeile die benötigten Parameter für jeden POI erzeugen zu lassen. Außer den Koordinaten, dem Namen und einer kurzen Beschreibung sind alle Angaben optional. Jede Zeile stellt einen POI dar. Die Koordinaten lassen sich am einfachsten über Google Maps herausfinden. Zu beachten ist nur, dass aus dem Dezimalpunkt den Google Maps ausgibt, ein Dezimalkomma gemacht werden muss. Ich musste außerdem die Zelleneigenschaften in Excel auf sechs Stellen hinter dem Komma einstellen. Sollen Vorschaubilder in den POI Beschreibungen verwendet werden, muss das Vorschaubild zuerst irgendwo im Web abgelegt werden. Der Link zum Bild wird dann in die entsprechende Spalte eingetragen.

metaiocreatorapp2

Sind alle Punkte angelegt, muss zunächst die oberste Zeile gelöscht werden. Anschließend Namen und Beschreibung der AR-Ebene eingeben und auf Upload klicken. Das war es dann schon. Die Ebene ist sofort in Junaio verfügbar, wenn ich den bereitgestellten QR-Code nutze und mit Junaio scanne.

Über die Suchfunktion von Junaio ist die Ebene erst auffindbar, wenn über die Weboberfläche des Junaio Developeraccounts die Freigabe beantragt wird. Dies dauert erfahrungsgemäß zwei bis drei Tage.

Leider fehlen in der App einige Parameter, die Junaio POIs normalerweise auch bieten. Dazu gehört u.a. auch die Einstellung, ab welcher Entfernung ein POI in der AR Ansicht der App sichtbar wird. D.h. alle angelegten POIs sind immer sichtbar und können von jedem Ort aus aufgerufen werden. Gerade für den Spielcharakter einer AR Rallye fehlt damit eine wesentliche Funktion, da die SpielerInnen nun nicht mehr real vor Ort sein müssen, um die entsprechenden ortsbasierten Informationen zu erhalten. Vielleicht entwickelt Junaio das Plugin hier noch weiter. Für viele andere Anwendungsbereiche ist die Excel App ansonsten eine sehr einfache Alternative zur manuellen Programmierung einer AR-Ebene als XML-Datei.

Weitere Infos im Blog von Metaio: http://blog.metaio.com/2014/11/25/metaio-brings-free-augmented-reality-authoring-tool-microsoft-excel/

Image-based Augmented Reality selber erstellen: Layar, Wikitude, Metaio, Daqri, Aurasma und Augment

aurasma_austellungkl

Nach den positiven Erfahrungen aus den Augmented Reality (AR) Handyrallyes in unseren „Surfing The Streets“ Projekten habe ich mich in letzter Zeit den Image-based AR Anwendungen gewidmet. Nicht zuletzt motiviert durch die aktuellen technischen Entwicklungen von AR-Brillen wie der Google Glass. Trotz vielfältiger medialer Präsenz hat sich die Nutzung von AR im alltäglichen Gebrauch bisher kaum durchgesetzt, was m.E. an der umständlichen Handhabbarkeit liegt. Es sind einige Schritte zu tun, um AR Inhalte anschauen zu können: Spezielle App auf Handy oder Tablet starten, gegebenenfalls noch eine entsprechende Ebene oder Kategorie suchen und aufrufen, die Smartphonekamera auf ein Zielobjekt richten oder wie bei ortsbasiertem AR sich mit dem Smartphone um die eigene Achse drehen, um die zur Umgebung passenden Informationen eingeblendet zu bekommen. Das sieht manchmal nicht nur seltsam aus, sondern lässt sich auch wirklich nur mit gut funktionierendem Kompass und Gyroskop präzise nutzen.

Anders mit einer Brille wie den Google Glasses: entsprechend der Kopfbewegungen bzw. Blickrichtung werden digitale Informationen automatisch eingeblendet. Kleiner Nachteil bisher: Die digitalen Informationen werden nicht im gesamten Gesichtsfeld angezeigt, sondern lediglich in einem kleinen Feld oben rechts. Inzwischen haben bis auf Augment alle hier genannten Dienste Apps für Google Glass entwickelt. Eine weitere Erleichterung wäre die Entwicklung von in Kontaktlinsen integrierten Displays, wie sie in dem Kurzfilm „Sight“, den wir gerne in Workshops einsetzen, ebenso zukunftsweisend, wie auch erschreckend gezeigt wird.

Im Vorfeld eines für die sächsischen SAEK durchgeführten Workshop habe ich mir die angebotenen Lösungen für image-basiertes AR genauer angeschaut und ausprobiert. Der Schwerpunkt lag dabei auf den Diensten, die es ermöglichen, eigene Inhalte einzubinden. Darüber hinaus gibt es auch eine Reihe schöner Beispiele für AR Apps, die nicht nur nützlich sind, sondern gleichzeitig auch ästhetisch Spaß machen. Das geht mittlerweile über die mit digitalen Infos angereicherten Produktkataloge wie z.B. von Ikea weit hinaus. Mit AR werden kleine Spiele wie z.B.  TOY Car RC entwickelt oder Visualisierungen naturwissenschaftlicher Experimente wie bei Elements 4D. Mit Elements 4D können kleine Würfel mit chemischen Elementen miteinander kombiniert und die entsprechenden chemischen Reaktionen auslöst werden.

4d Elements elemente

Elements 4D

Die bekanntesten Dienste, die für die Produktion eigener AR Inhalte in Frage kommen, die auf Bilderkennung beruhen, sind Layar, Metaio (Junaio), Wikitude, Daqri, Aurasma und Augment. Im Gegensatz zu geobasiertem AR, das mit Layar, Wikitude und Metaio ebenfalls möglich und kostenlos ist, lassen sich die Firmen für das imagebasierte AR gut bezahlen.

Bezahlt wird entweder eine monatliche Pauschale, die eine unbegrenzte Anzahl an Markern einschließt (ab $275/Monat bei Metaio), oder für eine bestimmte Anzahl an Markern (z.B. 10 Marker für $19/Monat bei Wikitude oder 400€/Jahr bei Layar). Eine weitere Einnahmequelle ist die Lizenzierung der eigenen Technologie in Form von Entwicklungsumgebungen (SDKs). Metaio, Wikitude, Daqri und auch Layar bieten solche SDKs mit denen die AR Funktionen in eigene Apps integriert werden können. Layar bietet außerdem einen Premiumaccount mit erweiterter Funktionalität für $3000 im Jahr an. Metaio läßt sich seine Editorsoftware (Metaio Creator, 490€) bezahlen.

augment_app

Augment

Funktionsweisen

Auch wenn jeder Dienst eigene Bezeichnungen nutzt, wird hier im Text immer der Begriff Marker (Synonym für Trigger, Tracker, Page, Targets, Image) für das zu scannende Bild (oder Objekt, wobei die Erkennungsraten von dreidimensionalen Objekten noch nicht besonders groß sind) und Overlay (synonym für Button, Augmentations) für die digitalen Überblendungen benutzt.

Die Erkennung von Bildern funktioniert bei allen Diensten ähnlich gut. Die Apps unterscheiden sich im wesentlichen in der Art, wie die eigenen AR Inhalte für andere bereitgestellt werden.

Sowohl bei Layar als auch Metaio, Wikitude und Aurasma können als Overlays Bilder, Videos, Audio, Links oder auch 3D-Objekte mit Animationen angezeigt werden. Bei Layar und Metaio können außerdem interaktive Overlays programmiert werden. Augment ist auf 3D Modelle beschränkt.

Das Hauptkriterium für die Entscheidung zugunsten einer AR Anwendungen ist für mich vor allem die Benutzungsfreundlichkeit oder die sogenannte „User Experience“. Da es sich um eine relativ neue Technologie handelt, gibt es hier keine Standards bzw. Bedienungsabläufe die intuitiv ausprobiert werden können. Werden die Apps auf dem Tablet oder Smartphone geöffnet, ist jeweils sofort das Livebild der Kamera zu sehen, meist mit dem Hinweis „Scannen“. Lediglich Augment zeigt zuerst eine Liste der eigenen hochgeladenen 3D-Modelle. Nur bei Aurasma lässt sich eine Übersicht von bereits bestehenden universellen bzw. globalen AR Inhalten (hier „Auras“ genannt) anzeigen. Bei allen anderen Diensten muss ich zum Ausprobieren auf Bildbeispiele auf den Webseiten zurückgreifen. Aurasma erfordert als einzige AR App eine Registrierung.

aurasma3

Aurasma

layar_twitteroverlay

Layar

Um eigene Inhalte zu erstellen bieten mit einer Ausnahme alle Dienste webbasierte Editoren an. Metaio setzt mit seinem „Metaio Creator“ auf eine Software für Windows oder MacOS. Bei Aurasma besteht zusätzlich die Möglichkeit, AR Inhalte gleich über die App zu erstellen. Dafür stehen bei Aurasma eine Reihe von vorgegebene Grafiken und Bildern, aber auch 3D-Animationen zur Verfügung. Zusätzlich kann ein auf dem Gerät vorhandenes Bild oder Video genutzt werden.

Die Funktionsweise aller Editoren ist ähnlich. Ein eigenes Bild als Marker wird hochgeladen und darauf werden dann verschiedene Overlays platziert, die in der AR Ansicht auf den Bildern sichtbar werden, beispielsweise Fotos oder Videos. Layar und Metaio bieten hier die meisten Möglichkeiten, bis hin zur Integration von Javascript, mit dem auch kleine Spiele programmiert werden können.

Große Unterschiede gibt es in der Sichtbarkeit der eigenen AR Inhalte für andere. Layar hat nur eine „globale“ Ebene, d.h. alle erstellten Inhalte sind für jeden überall und sofort sichtbar. Bei Metaio muss zunächst eine Ebene (hier „Channel“ genannt) für die App Junaio erstellt werden. Der Channel muss in der App dann entweder über die Suchfunktion gefunden oder mit Hilfe eines QR Code aufgerufen werden, der nach dem Abscannen die entsprechende Ebene aufruft. Auch Wikitude arbeitet mit Ebenen, die hier Worlds heißen. Eigene AR Inhalte müssen hier auch einer World zugeordnet werden, die in der Wikitude App per Suchfunktion gefunden werden kann.

AR Inhalte, die ich mit Aurasma erstelle (entweder mit der App oder dem Editor), sind zunächst nur für Personen sichtbar, die mich abonniert haben. Ich kann den Personen, denen ich meine AR Objekte zugänglich machen will, eine Mail mit dem entsprechenden Link schicken. Seit einigen Monaten können in Aurasma keine eigenen Ebenen/Kanäle mehr angelegt werden, d.h. es müssen immer alle Auras einer Person abonniert werden. Aurasma Nutzer_innen lassen sich auch üner die Suchfunktion der App finden. Möchte ich eine universelle Aura anlegen, die sofort bei allen sichtbar wird, muss ich dafür bezahlen. Kosten dafür müssen erfragt werden.

Augment funktioniert ein wenig anders. Im Vordergrund steht hier das Betrachten von 3D-Modellen, die über die Augment-Webseite hochgeladen wurden. Hochladen kann diese jeder Nutzer/jede Nutzerin von Augment. Eine Verknüpfung mit einem bestimmten Marker ist erstmal nicht nötig. Den Marker erzeugt sich jeder Nutzer/jede Nutzerin individuell. Möchte ich eine spezielle Zuordnung eines meiner 3D-Objekte zu einem bestimmten Marker, dann lege ich im Editor einen Marker an und weise diesem eines meiner 3D-Objekte zu. Dieser Marker zeigt dann bei allen Augment-Nutzer_innen das gleiche 3D-Modell an.

Einige pädagogische Einsatzszenarien

Virtuelle Ausstellung mit Augment: Eigene 3D-Modelle werden in einer Galerie oder auch im öffentlichen Raum gezeigt, in dem große Marker auf den Boden geklebt werden. Die 3D Objekte können damit überlebensgroß im Raum platziert und von allen Seiten durch Herumlaufen betrachtet werden.

Gebäuderallye mit Augment: Ähnlich einer QR Code Rally in Gebäuden, bei denen abgescannte QR Codes jeweils Hinweise auf neue zu findecde Orte und weitere QR Codes bilden, können Marker von Augment genutzt werden um dreidimensionale Objekte in den Räumen erscheinen zu lassen, die als Wegweiser zu anderen Orten fungieren.

Interaktiver Film mit Aurasma, Layar, Wikitude oder Junaio: AR Marker werden an verschiedenen „Spielorten“ in der Umgebung platziert und mit Videoszenen eines Films überblendet. Der Zuschauer/die Zuschauerin hat die Möglichkeit die Orte in einer Reihenfolge seiner/ihrer Wahl anzusteuern und könnte dadurch z.B. bei einem Krimi verschiedene Hinweise auf die Auflösung erhalten.

Multimedia-Buch mit Aurasma, Layar, Wikitude oder Junaio: In einem Lehrbuch werden Videos über bestimmte Abbildungen gelegt. Das könnten Statements der Schüler_innen zu den Inhalten sein, Tutorials oder abgefilmte Versuche in naturwissenschaftlichen Büchern.

Fazit

Es gibt nicht den besten Dienst für image-basiertes Augmented Reality, vielmehr ist der Einsatz von einer Vielzahl von Faktoren abhängig. Am wichtigsten dabei ist wohl, wie einfach der Weg ist, damit andere meine eigenen AR Inhalte betrachten können. Eine App, die für mich hier positiv herausstach, auch wenn die Funktionen nur sehr rudimentär waren, war Stiktu, das leider im Frühjahr 2014 eingestellt wurde. Ein beliebiges Bild konnte direkt in der App mit eigenen Fotos, Text oder vorgegebenen Stickern kombiniert werden und war anschließend sofort weltweit für alle Stiktunutzer_innen verfügbar. Der Vorteil: Die Erstellung war unglaublich einfach, die Ergebnisse konnten sofort von allen betrachtet werden. Ein Projekt von Medien + Bildung.com  hatte sich das zu Nutze gemacht, in dem Streetartbilder in Mainz mit eigenen Kommentaren versehen wurden.

Aurasma ist sicher eine gute Wahl, wenn ich die Möglichkeit habe, auf Tablets oder Handys, die beispielsweise die Besucher einer Ausstellung oder Präsentation nutzen, etwas vorzuinstallieren, weil dort der entsprechende Inhalt im voraus abonniert werden kann. Ansonsten würde sich Junaio anbieten, da hier die Nutzer lediglich aufgefordert werden müssten, die kostenlose App zu installieren und einen QR Code abzuscannen, um die AR Inhalte betrachten zu können.

Die Kosten sind natürlich ebenfalls ein wichtiger Faktor. Zumeist wird man jedoch oft schon mit den Trial- oder Demoversionen auskommen, die die meisten Dienste anbieten. Oft gibt es die Möglichkeit als Bildungseinrichtung Rabatte zu bekommen oder auch gänzlich kostenlos AR inhalte erstellen zu können.

Ich freue mich über Erfahrungsberichte in den Kommentaren.

 

Übersicht über AR Editoren zum Download:

uebersicht_ar_editoren_vorschau

Download: Augmented_Reality_Editoren.pdf (PDF, 65 kB)

 

Augmented Reality Editoren UIs:

layar_creator

Layar Creator

metaio_creator

Metaio Creator Software (MacOS)

Wikitude Studio

Wikitude Studio

Aurasma Studio

Aurasma Studio

 

 

Creative Commons Lizenzvertrag Dieses Werk ist lizenziert unter einer Creative Commons Namensnennung 4.0 International Lizenz.

Eigene Google Streetview Rundgänge erstellen

Achtung: Das hier im Artikel beschriebene Verfahren zur Veröffentlichung eigener 360º-Panoramen auf Google Maps funktioniert NICHT mehr. Über das aktuelle Verfahren gibt es einen neuen Artikel, der hier zu finden ist: Eigene Google Streetview Rundgänge erstellen (neu 2016)

glienicke_360

Die PhotoSphere Funktion auf Android Handys oder in Google Maps erlaubt das Betrachten von Panorama Fotos in einer 360 Grad Rundumsicht analog der von Google erstellten Streetview Bilder. Mit einem Google+-Account kann jeder/jede Fotos mit Photo Sphere Effekt zu Google Maps hinzufügen.

Aber auch mit iPhone/iPad mit entsprechender App oder auch mit einer digitalen Kamera lassen sich solche 360 Grad-Fotos (auch als Spherical-Fotos bezeichnet) erstellen und zu Google Maps hochladen.

Mehr Informationen zur Photo Sphere Funktion in Android unter https://support.google.com/maps/topic/3189543

An dieser Stelle findet ihr eine Schritt für Schritt Anleitung, die verschiedene Möglichkeiten beschreibt, wie man mit eigenen 360 Grad-Fotos an Google Maps partizipieren und daraus Rundgänge für die eigene Webseite erstellen kann.

Das Ergebnis sähe dann so aus:

Views: SFBB von Michael Lange

A. Erstellen eines Panoramas

1. Erstellen mit der „Google Kamera“-App

Idealerweise wird eine Photo Sphere-Ansicht mit der App „Google Kamera“ erstellt. Die App ist derzeit nur unter Android 4.4. Kitkat erhältlich (bei Nexusgeräten wohl auch mit 4.3). Neben Panoramaaufnahmen können mit der App auch direkt Fotos im Photo Sphere Modus gemacht und direkt auf Google Maps geteilt werden.

google_kamera

Erklärung zur Nutzung der Google Kamera: http://artikel.softonic.de/google-camera-so-nutzen-sie-panorama-und-photo-sphere

2. Erstellen mittels einer Panorama App

Für iPads und iPhones empfehle ich die App „360 Panorama“ von Occipital (0,89 €) (https://itunes.apple.com/de/app/360-panorama/id377342622). Mit der App lassen sich wie bei der Google Kamera komplette Rundum-Aufnahmen inklusive Boden und Himmel machen. Die Fotos können als JPGs in den Fotoaufnahmen abgespeichert und dann weiterbearbeitet werden. Für Android  leistet die kostenlose App „Panorama – 360 (Free)“ (https://play.google.com/store/apps/details?id=com.vtcreator.android360) ähnliches.

3. Erstellen mit DSLR Kameras

Auch mit einer DSLR Kamera lassen sich 360 Grad-Panoramen erstellen, indem eine Reihe sich um ca. 20-40% überlappenden Fotos gemacht werden. Auf dem PC oder MAC werden die Fotos durch spezielle Programme zu Panoramen zusammengesetzt. Das macht z.B. „Panorama 360“ von haiqun deng für Mac OS 10.9 (App Store, 2,69 €). Professioneller und mit sehr viel mehr Einstellungsmöglichkeiten geht das mit PTGui für Windows und Mac (79 €) (http://www.ptgui.com)

B. Bearbeiten des Panoramas

Wichtig ist, ein Seitenverhältnis der Fotos von 2:1 einzuhalten. Eventuell muss das Panorama mit einer Bildbearbeitungssoftware durch einen weißen oder schwarzen Rand oben bzw. unten ergänzt werden. Der Horizont sollte dabei möglichst in der Mitte des Bildes bleiben.

C. Upload in das eigene Fotoalbum bei Google+

Im richtigen Format gespeicherte Fotos (JPGs, Seitenverhältnis 2:1) werden automatisch nach dem Hochladen mit „Auto-Effekt“ in 360 Grad-Ansichten (Photo Sphere) umgewandelt. Dazu muss in den Google+ Einstellungen „Auto-Effekte“ aktiviert sein. Der Vorgang kann ein paar Minuten dauern. Die erstellte Photo Sphere erscheint automatisch im Fotoalbum und wird durch ein „Auto-Effekt“ Symbol oben links und dem Google Sphere Icon gekennzeichnet.

google+fotos

Nach Aufrufen des Fotos können unter „Fotodetails“ weitere Angaben zum Bild ergänzt werden. Dazu sollten unbedingt auch die Standortdaten gehören, die sich leicht über Google Maps anlegen lassen.

D. Hinzufügen zu Streetview

Das Hinzufügen der Photo Sphere geschieht in der Google Views Community: https://www.google.com/maps/views/home. Über das Hinzufügen von Fotos werden diese nach einer Prüfung durch Google auf Google Maps veröffentlicht. Dies dauert von einigen Stunden bis zu einem Tag.
googlemaps_viewsprofil

 

Auf Goolge Maps werden die eingefügten Panoramen als kleine grüne Punkte sichtbar, sobald ich die Streetview-Ansicht aktiviere.

E. Verbinden von Panoramen

Aus den hinzugefügten Panoramabildern kann ein eigener Rundgang (bzw. eine „Panoramengruppe“) erstellt werden, dafür müssen die Panoramen zunächst verbunden werden. Dies geschieht ebenfalls in der Google Views Community.

googlemaps_panoramen_verbinden

Nach dem die Panoramen verbunden wurden, sollten sie noch so gedreht werden, dass die Pfeile im Bild auch in die richtige Richtung weisen. Bis die Bilder dann auch in der Streetviewansicht verbunden sind, kann es ebenfalls einige Stunden dauern.

Kurzes Tutorial dazu: http://google-latlong.blogspot.fr/2013/12/create-your-own-street-view.html
Ausführliche Beschreibung: https://support.google.com/maps/answer/3481809

Über den „Sharen“-Button in der Google Views Community kann der Rundgang in die eigene Webseite eingebettet werden.

Weitere Informationen zur 360 Grad-Panoramafotografie:
Panoramafotos: http://www.pano.ie/
Videotutorials (engl.): http://www.youtube.com/playlist?list=PL15B8C737F69319BE

Update 20.8.2014: Ab sofort gibt es die Google Kamera App als „Photo Sphere Camera“ auch für iOS (iPad und iPhone): https://itunes.apple.com/de/app/photo-sphere-camera/id904418768?mt=8

Update 15.9.2015:  „Photo Sphere Camera“ heißt nun „Google Street View“ und ist hier zu bekommen: https://itunes.apple.com/de/app/photo-sphere-camera/id904418768?mt=8 (iOS), https://play.google.com/store/apps/details?id=com.google.android.street&hl=de (Android)

Danke an Eike Rösch für die initiale Idee!

Creative Commons Lizenzvertrag Dieses Werk ist lizenziert unter einer Creative Commons Namensnennung 4.0 International Lizenz.