Nachdem es nach der Einstellung von Googles Augmented Reality-Brille um AR im letzen Jahr etwa ruhiger geworden ist, befeuert jetzt Apple den Hype mit der Vorstellung eines eigenen ARKit. Das ARKit soll im neuen IOS 11, das Herbst 2017 veröffentlicht wird, App-Entwicklern zur Umsetzung von AR zur Verfügung stehen, bzw. lässt sich jetzt schon in der Beta ausprobieren.

Ich bin ja schon länger von der praktischen Anwendung von AR überzeugt und sehr früh haben wir mit Metaversa verschiedene AR-Apps und Webdienste in der medienpädagogischen Arbeit eingesetzt. Dabei hat sich mit der zunehmend besser werdenden Technik der Inhalt der Projekte gewandelt. 2011 war es zunächst die Erstellung von Stadtrallyes bei denen die anzusteuernden Orte als POIs (Point of Interest) in einer AR-Darstellung bei Layar und bei Junaio (von Apple gekauft und eingestellt) angezeigt wurden. Später lag der Schwerpunkt in den Projekten auf markerbasiertem AR, bei dem Bilder, Grafiken etc. genutzt werden, um sie mit virtuellen Informationen zu überblenden. Ein Beispiel dafür ist unsere AR-Rallye Through the Looking-Glass, die die App Aurasma nutzt und die von unserer Webseite zum Ausprobirieren heruntergeladen werden kann. Die App Augment nutzten wir, um mit AR computergenerierte 3D-Objekte in der physischen Realittät darstellen zu können. Im dem mit Jugendlichen im einem Ferienworkshop 2013 gedrehten Film „Minecraft Reality“ waren das selbstgebaute Minecraft Objekte, die in die physische Realität projeziert wurden.

Zwei entscheidende Hürden standen bisher der weiteren Verbreitung von AR-Anwendungen im Weg. Zum einen musste immer ein Handy oder Tablet genutzt werden, das einen nur sehr begrenzten Ausschnitt zeigen konnte und zudem immer erforderte, Handy oder Tabelt (Google Glass war eine erste wenn auch sehr unzureichende Lösung des Problems, mittlerweile bemühen sich hier aber auch andere Firmen wie Microsoft mit der Holo Lens und Magic Leap). Zum zweiten war die Darstellung und stabile Platzierung der virtuellen Objekte im Raum abhängig von der Genauigkeit des Trackers, entweder des GPS Signals (sehr ungenau, insbesondere was die Höhenkoordinate anging) oder eines ausgedruckten Markers bzw. vorhandenen Bildes, das dann aber auch ständig in der Kameraansicht zu sehen sein muss.

Für das zweite Problem scheint Apple nun mit dem ARKit eine sehr gute Lösung gefunden zu haben. Obwohl kein physischer Marker mehr im Raum platziert werden muss, zeigen Apps, die auf das ARKit zurückgreifen, eine erstaunlich große Positionsgenauigkeit und Stabilität der eingeblendeten virtuellen Objekte. Apple erreicht diese Genauigkeit durch eine Auswertung der verschiedenen in iPhones und iPads vorhandenen Sensoren wie Kompass, Accelerometer und Gyroskop in Kombination mit Bilderkennungstechnologien, die berechnen können, wie sich der dreidimensionale Raum um sie herum darstellt. Das Handy oder Tablet erstellt eine dreidimensionale Karte der Umgebung und errechnet seine genaue Position und Lage in diesem Raum. Die Technik dazu heißt Visual-Inertial Odometry (VIO) und scheint wohl von Qualcomm entwickelt worden zu sein. Sie soll auch das in der Robotik bestehende SLAM-Problem (Simultaneous Localization and Mapping; deutsch: Simultane Lokalisierung und Kartenerstellung) lösen.

Auch Google arbeitet schon länger an diesen Technologien. Googles Projekt heißt „Tango“ und ist bereits auf einigen wenigen Smartphones verfügbar. Die Nutzung ist eingeschränkter, denn Tango setzt das Vorhandensein mehrerer Kameras voraus, die aktuell nur in wenigen Smartphones eingebaut sind. (Update 30.8.17: Google gibt die Einstellung des Projekts „Tango“ bekannt, Nachfolgeprojekt ist „ARcore“, das nun weniger Voraussetzungen mitbringt und auf mehr Smartphones laufen wird.)

Inzwischen gibt es zahlreiche Beispiele des Einsatzes von Apples ARKits von Entwicklern, die die Betaversion von iOS 11 nutzen:

Neue Gameoptionen:

Nur mit physischen Markern wäre es nicht möglich, solche Räume auch virtuell zu betreten:

Und einen extrem praktischen Nutzen gibt es auch:

Und bei dieser Killer-App sowieso:

Noch fehlt die Funktion, dass sich die virtuellen Objekte auch hinter physischen Gegenständen verstecken können, bzw. von diesen teilweise verdeckt werden, doch die Entwicklung wird dahin gehen. Aktuelle Gerüchte besagen, dass Apple im iPhone 8 3D-Laser-Sensoren auf der Rückseite verbauen wird, die den Abstand zu Objekten sehr genau berechnen können. Und schließlich wird seit einigen Jahren bereits über eine Apple eigene AR-Brille spekuliert.

Dankenswerterweise hat hat sich die Anzahl der Apps, die es erlauben, auch eigene Inhalte einzubinden, in den letzten Jahren stark erhöht, im Gegensatz zu Apps die lediglich vorgegebene Inhalte bieten. Ich bin sehr gespannt, welche Apps uns ab Herbst mit dem ARKit zur Verfügung stehen und welche neuen kreativen Möglichkeiten für die medienpädagogische Arbeit sich daraus ergeben.