Computerwoche, CIO & CSO
Apple Vision Pro. Im Juni 2023 vorgestellt ist die Apple Vision Pro nun tatsächlich verfügbar. Doch was ist so besonders an der Datenbrille? Welches Potenzial hat die Vision Pro auch im Business? Wir haben nachgefragt. Apple Vision Pro. Nach jahrelangem Warten ist es soweit. Apple hat mit der Vision Pro eine neue Gerätekategorie in seinem Portfolio. Laut Apple handelt es sich um mehr als nur um eine Brille für Augmented Mixed oder Virtual Reality. Es soll damit vielmehr die Ära des Spatial, also räumlichen Computing, eingeläutet werden. Wie man sich das vorstellen kann und welches Potential die Vision Pro auch im Business hat, darum geht es in der aktuellen Episode von TechTalk. Mein Gast zu diesem Thema ist Marc Zimmermann. Marc leitet hauptberuflich das Center of Excellence zur mobilen Lösungsentwicklung bei der INBW Energie Baden-Württemberg AG in Karlsruhe. Daneben ist der Autor zahlreicher Artikel in Fachmagazinen und ausgewiesener Experte, was Apple aber auch allgemein Mobility-Themen anbelangt. Hallo Marc, schön, dass du Zeit hast.
Ja hallo, freut mich. Haben wir ein tolles Gerät über das wir heute reden.
Ja, ja, Marc, du hast ja weder Kosten noch Mühen gescheut, um dir eine private Vision Pro in den USA zu besorgen. Und vermutlich die Brille schon fleißig getestet. Wie sind denn deine ersten Eindrücke?
Ich sag mal in der Öffentlichkeit gucken die Leute schon etwas irritiert, wenn du dich in die Straßenbahn setzt und du trägst dieses doch nicht unauffällige Gerät in deinem Gesicht. Aber wenn du mich fragst, was meine Eindrücke sind, geht es ja auch mehr darum, um die Frage hält sie quasi das, was sie verspricht. Und ich muss schon sagen, da kommen wir bestimmt gleich noch ein bisschen detaillierter drauf. Es ist faszinierend zu sehen, wie Oberflächen und Interfaces, die du früher nur von kleinen 2D... mehr oder weniger kleine oder große Displays mit Multi-Touch bedienst. Wie reagieren sie, wenn sie die Freiheit einer unbegrenzten Leinwand haben? Wenn du dir alles anordnen kannst, wenn du Multi-Tasking leben kannst, wenn du in Räumen Notizen hinterlassen kannst. Also die ersten Tage waren schon... Machen Lust auf mehr. Sagen wir es mal so.
Das ist immer nicht schlecht. Wir sind doch alle sehr neidisch. Was immer ein bisschen komisch, ich habe natürlich alle Testberichte dazu gelesen, was immer ein bisschen komisch ausschaut, ist die Bedienung der Tastatur. Das dürfte wahrscheinlich auch für Umstehende etwas komisch wirken. Wie gut ist denn die? Wie gut funktioniert sie denn?
dass das für umstehende komisch wirkt kann ich mir vorstellen weil da steht jemand oder sitzt und tippt aber man sieht nicht was er tippt also man sieht schon dass man tippt ja also wenn ich den pin meiner vision pro eingebe dann könnten leute wenn sie von draußen zugucken schon sehen wie ich den pin tippe und den pin vielleicht sogar erraten aber ich sag mal ich habe auch diese testberichte gelesen und ja natürlich was heißt natürlich ja eine normale tastatur in physikalischer Wer 10 Finger gelernt hat, meine Kinder haben in der Schule gesagt, man müsste keine 10 Finger mehr lernen, das wäre mit Touch and the Face alles irrelevant. Na ja, lassen wir das mal dahingestellt. Aber ich habe das mal gelernt mit, wo müssen die Finger ruhen, damit ich mit 10 Fingern schreiben kann. Mit diesem Wissen komme ich in der Vision Pro nicht weiter. Ich habe da zwei Finger, Adler Suchsystem. Ich kann mit meinen Fingern dann tippen auf dieser virtuellen Tastatur. Aber da muss man sich ein bisschen dran gewöhnen. Man kann auch die Buchstaben angucken. Und dann mit dieser Zwickgeste, die Apple ja als Interaktionsmedium für die Auswahl von Objekten gewählt hat,
Hm.
damit die Tastatur bedienen. Und das klappt für unterwegs sehr gut, aber ja, wenn ich in meinem Büro sitze, dann habe ich durchaus auch eine echte physikalische Tastatur angebunden mit Bluetooth.
kann ich verstehen. Ja, das haben auch andere Tester, glaube ich, gesagt. Was war denn für dich die größte Überraschung bei der Brille, wenn man es mal auf den Punkt bringt?
Oh Gott, ganz ehrlich, da war eigentlich eine ganze Menge dabei. Weil wir haben sie ja alle letztes Jahr, ich sag mal, mit Staunen gehört, was der eine oder andere Tester in den kleinen Laborern bei Apple sich hat anschauen dürfen für eine halbe Stunde Demonstrationen, was Apple so versprochen hat. Was mich am meisten beeindruckt hat, war, ganz persönlich aus der eigenen Nische gesprochen, ich hatte letztes Jahr so das Problem. mehrfach am Auge operiert worden zu sein. Ich hatte dann echt Schiss, es bringt Apple neues Gerät raus und du kannst damit nichts anfangen. Aber als ich das Gerät dann am Montag in meinen Händen hielt, ja, 8.30 Uhr, Frankfurter Flughafen, das Gerät in die Hand genommen, nach Hause gefahren, ausprobiert, musste ich sagen, das hat wunderbar funktioniert. Das hat wunderbar funktioniert. Augentracking, Handtracking, die Geschwindigkeit, mit der das Gerät, ich sage jetzt mal, einsatzbereit ist, die Genauigkeit, dass du es schaffst. Dinge wirklich mit den Augen anzupeilen, auszulösen und wie schnell du quasi drin bist in dem ganzen Kram. Das ist irgendwie, na klar, auf der anderen Seite sagt man sich für den Preis und von Apple würde man das auch erwarten dürfen. Ja, fair enough. Ich hatte auch vorher schon mal die ersten Erlebnisse, auch mit der MetaQuest 3 am Schluss. Von der Seite vielleicht ein bisschen vorgeprägt, was solche Brillen angeht, aber das ist echt um eine Karte. ganz andere Liga und es ist erstaunlich wie schnell und flüssig und wie Wie soll ich mich ausdrücken? Man sieht schon, dass man auf Displays guckt, aber wie klar die Darstellung ist von der Welt außen rum in diesem Gerät. Das ist faszinierend gewesen.
Gibt es auch Dinge, wo du sagst, da bist du jetzt eher enttäuscht, das könnte noch besser gehen?
Naja, also was heißt jetzt enttäuscht? Ich meine, ja, natürlich gibt es Dinge, von denen du dir sagst, ach, das hätte ich anders erwartet. Also zum Beispiel dieses WebXR, also die Unterstützung im Browser, dass man mit XR-Content dort interagieren kann. Das hatten irgendwie gefühlt ganz viele so interpretiert, dass das funktioniert für Filme und Inte von irgendwelchen Modellen, die man sich da mit Handsteuerung aufrufen kann. Das ist erstmal deaktiviert. Da muss man dann erstmal überlegen, wie kriege ich das hin? Ah ja, Safari Einstellungen, da gibt es ein Menü, das heißt irgendwie Advanced Feature Flex, da kann man sich das einschalten. Dann geht das, das war so ein bisschen erstmal so, hm hm hm, ok, gut. Das andere ist natürlich, wie sagen wir mal, das Ding braucht Strom. Ich finde die Idee ganz gut, dass der Akku extern ist, weil sonst hast du ja noch mehr Gewicht auf dem Kopf. Und ich bleibe auch an dem Kabel nicht hängen, zumindest nicht wenn ich sie aufhabe. Aber wenn sie, ich sag erstmal, auf dem Schreibtisch liegt. und das Battery Pack liegt auch auf dem Schreibtisch, dann muss man schon aufpassen, dass man nicht mal aus Versehen da dann am Kabel hängen Battery Pack samt mit der Vision Pro der Schwerkraft folgt. Das ist so ein bisschen was, wo ich sag, das löst sich wahrscheinlich auch dadurch, dass man sich irgendwann einfach auch mal sich dran gewöhnt. Das wäre schon ganz nett. Und was auch noch ein bisschen helfen würde, wäre sicherlich, wenn sich Apple für die Prod Ich finde die Handsteuerung sehr gut und die die Augensteuerung auch, aber wenn man für produktive Umgebung, wenn man auf Freeform arbeitet oder so, vielleicht doch zumindest mal den Support für einen entsprechenden Handkontroller ermöglicht, weil ich sag mal mit blanken Fingern auf dem Whiteboard malen, das geht schon, aber der Mensch ist irgendwie gewohnt, einen Stift in der Hand zu haben.
Mhm.
Von der Seite, das wäre vielleicht noch was, was man sich erhoffen würde. Aber ansonsten das Ding, ich kann jedem nur empfehlen, es einfach mal aufzusetzen, wenn Apple mal irgendwann das in Europa, in Deutschland. anbietet, machen die immer auch so Demo-Sessions im Store, dass man das einfach mal ausprobiert, weil das ist, das kann man schwer erklären, wie cool dieses Erlebnis ist.
Ja, das Thema war ja auch Special Computing, das habe ich ja vorhin schon erwähnt in der Einleitung. Ist das der Anfang, weil man hat ja immer noch, man hat zwar eine 3D-Umgebung, aber man hat dort ja 2D-Oberflächen quasi. Glaubst du, dass das noch angepasst wird oder ist das gar nicht so nötig für das Erlebnis?
Also wir sind am Anfang. Natürlich ist das nicht das erste VR Headset, aber Apple spricht ja auch nicht von einem VR Headset. Wie ich eben sagte, man muss das Ding wirklich mal ausprobieren, um das Gefühl zu haben, es zu verstehen. Das ist wie mit dem jetzt kommt doch der iPhone Moment. Als das erste iPhone rauskam, da hatten wir alle noch keinen echten Multitouch. Da hatten wir alle noch diese Drucksensitiven Displays, die man mit irgendeinem Stift und mit irgendwelchen Drucksystemen und irgendwas bedient hat. und die mehr schlecht als recht am Palm-Pilot Windows CE oder wie auch immer die ganzen Geräte hießen, mehr schlecht als recht gewerkelt haben. Und dann kam auf einmal Multitouch. Und da konnte man sich am ersten Tag auch nicht vorstellen, ja, mit welcher, was kann es denn da vielleicht geben? Was kann man sich denn da vielleicht vorstellen, aus, dass vielleicht irgendwie ein Spiel rauskam oder irgendwas. Aber wenn man jetzt mal zurückklickt, was alles passiert ist, weil es ein Gerät in der Hosentasche gab, dass das Internet dir in die Hosentasche brachte, dass es dir ermöglicht, mit Objekten mit Drag and Drop, mit Festhalten, mit Pinch- und Zoomgesten zu interagieren. Da ist das auch das iPhone und auch die anderen Smartphones, die es heutzutage gibt, noch mal eine ganz andere Hausnummer, als das, was man ursprünglich gesehen hatte, als Steve es aus der Hosentasche holte quasi und was war das 5000 Latte2Go bei Starbucks bestellt hatte, aus Spaß und alle gegrölt haben im Saal. Das Gerät hat sich ja ordentlich weiterentwickelt. Und wenn man sich das jetzt mal anschaut, ja, also Apple spricht ja vom Spatial Computing. Das bringt ja Stand heute im Moment, so wie es umgesetzt ist, Ressourcen, Werkzeug und Anwendung in deine aktuelle Umgebung, in dein Hier und Jetzt, das ist das, was du meintest, mit diesen 2D-Darstellungen. Aber wenn man mal überlegt, wenn das Gerät etwas mehr Verständnis von seiner Umgebung kriegt, die kontextsensitive Informationen anbietet, mehr mit der Umgebung interagieren kann, die Umgebung vielleicht auch mal, ich sage jetzt mal... erleben wir alle mit Bildgebender KI ja auch durchaus das eine oder andere Fake-Bild und das eine oder andere Wunder. Wenn das alles zusammenwächst, da bin ich mir schon sicher, dass wir wie damals beim iPhone auch in ein paar Jahren eine Inte haben, eine Anwendungslandschaft haben, die sich maßgeblich von dem abweicht, was heute zweidimensionale Fenster im Raum ist.
Stichwort Anwe Aktuell gibt es ja glaube ich etwas mehr als 600 Apps. Gibt es da schon Highlights? Und zweite Frage, wie schwer ist denn das Anfertigen einer App, das Anpassen einer App an die Vision Pro?
Also ich sag mal für den produktiven Umgang findest du eigentlich alles was du brauchst. Es ist zwar komisch, dass Apple seine eigenen Produktivitäts Apps noch nicht komplett als Vision Pro Apps veröffentlicht hat. Man kriegt ja irgendwie Keynote. Man kann sich bei Keynote dann auch in das Steve Jobs Theater beamen und dann quasi mal seine Präsentation üben, um zu gucken ob man sein Lampenfieber im Griff hat. Aber ansonsten ist sowas wie Pages und Numbers sucht man zumindest zum jetzigen Zeitpunkt noch vergebens. Microsoft hat ja seine Produktpalette da doch relativ früh integriert. Aber was tatsächlich im Arbeitsalltag hilft, zumindest mal in meiner Position. Ich mache öfter Folien, ich schreibe öfters Texte und ansonsten sitze ich ganz häufig in irgendwelchen Meetings, meistens sogar virtuell. Und das klappt damit sehr, sehr gut. Das einzige, was da auffällig ist. Du nimmst ja an diesen Meetings teilen und du hast in der Brille die Möglichkeit, diese Personas zu bauen. Das heißt, die Brille scannt dein Gesicht und versucht danach, dein Gesicht für zum Beispiel so was wie Microsoft Teams zur Verfügung zu stellen. Und mal unabhängig davon, ob das jetzt eine sehr gute Qualität ist der Persona oder nicht. Ich bin der Meinung, es ist immer noch besser als irgendein komisches Comicfigur, die da in der Ecke irgendwie mich anlächelt, sondern einigermaßen, was es einigermaßen ziemlich gut mein Gesicht darstellt. ist noch etwas auffällig, dass wenn du in diesen Konferenzen drin bist, dass das System ständig guckt, was machen deine Augen? Und wenn du an einem räumlichen Computer sitzt, dann ist das nicht so, dass du irgendwo auf deinem Bildschirm guckst und vielleicht leicht neben der Kamera vorbeischiehlst, um irgendwie dann doch noch Nachrichten zu lesen oder irgendwas, sondern du guckst halt im Raum rum. Und das merkt halt dein Gegenüber viel mehr, weil deine Person auch ständig mit den Augen irgendwo ist. An der Stelle bin ich mal gespannt, ob Apple irgendwann mal diese Aufm die sie auch für Facetime. auf den auf den Handys drauf haben, wo man den Augenkontakt quasi simulieren kann. Das sollte in
Mhm, ja genau.
der Brille ja noch viel einfacher sein. Ob die sowas auch noch mal bringen. Aber das, es fühlt es sich sehr schnell sehr gut an, dass du quasi ja ein super tolle, super tolle Displays in einem sehr leistungsfähigen Gerät sehr handlich dafür mobil dabei hast und halt zum Beispiel in diesen Konferenzen auch überall teilnehmen kann.
Schlafmodus wäre halt noch was für etwas langweiligere Sachen, wenn da immer das Auge getrackt wird, klar.
Hehehehe
Wie ist das mit der Appentwicklung? Das habe ich vorhin schon angesprochen.
Ah ja, App-Entwicklung. Das Schöne an Vision OS ist, dass es auf der Foundation von iOS und iPadOS aufsetzt.
Hm?
Das heißt, das soll keine Eigenwerbung sein, aber wenn du in meinem Store guckst, findest du für die Vision-Brille von uns eine Anwendung. Momentan im amerikanischen Store, weil die Brille ja auch nur in Amerika verfügbar ist.
Na, genau.
Und die Leute, die die App entwickelt haben, für die hat es im Simulator, in der Xcod quasi keinen Unterschied gemacht zu einem iPad oder zu einem iPhone. Warum sage ich quasi? Na ja gut, Sie müssen sich schon umgewöhnen. Weil auch wenn du mit derselben Entwicklungsobgebung arbeitest und wenn du am Anfang nur diesen Simulator zur Verfügung hast, musst du dir ja schon versuchen, einen Kopf zu machen. Wie verhält sich denn mein Anwender, der nicht meine Anwendung in der Hand hält und mit der anderen Hand darauf interagiert, sondern wenn mein Anwender quasi in meiner Anwendung drinsteht? Wir simulieren ja bei uns... wie sich landschaftsprägende bauliche Maßnahmen, wie die Erstellung eines Windrades, eines Windparks oder von Ladeinfrastruktur, von Ladeparks, auf die Landschaft auswirken. Wir teleportieren quasi digital die Anwender an Ort und Stelle. Wie sich das anfühlt, ist natürlich schon sehr spannend. Und wie sie das anfühlt, ist natürlich sehr spannend, wenn man es dann mal live sieht. Das war im Simulate immer so ein bisschen Rätselraten, weil auch den Simulate zu bedienen, das ist halt mit Maus und so dann doch nochmal anders, als wenn du dann in der Brille drin steckst. Aber die eigentliche Entwicklungsarbeit, das ist den Jungs und Mädels nicht schwer gefallen.
Das ist wahrscheinlich auch ein bisschen Spannung, also wenn man was entwickelt und das dann auch nicht direkt dann so eins zu eins in dem Gerät testen kann oder sowas. Kann das sein, dass da ein bisschen die Anwendungen noch ein bisschen auf sich warten lassen, weil die Leute keine Risiko eingehen wollen?
ja vielleicht das und zum anderen haben es vielleicht auch einige unterschätzt. Ich meine es gab ja als die Vision Pro raus kam, ist ja noch gar nicht so lange her, wir reden ja schon wie
Hm?
als ob das so ewig her wäre als sie raus kam damals letzte Woche zu kaufen. Ne lange Rede kurzer Sinn,
Damals.
da gab es ja ein großer Aufschrei Netflix und YouTube das ist ja alles nicht verfügbar, was halten die Hersteller von der Vision Pro und das ist halt besonders witzig, weil Apple hatte diesen Komp das heißt du kannst wenn du keine gesonderte App baust, deine iPad-App beispielsweise auch auf der Vision Pro laufen lassen, bzw. du musst aktiv als Entwickler widersprechen, dass du das nicht möchtest. Und die Netflix-App,
Hm.
so munkelt man, lief problemfrei und Netflix hat gesagt, wollen wir nicht. So, jetzt mittlerweile munkelt man dafür, dass YouTube und Netflix durchaus ihre eigenen Anwendungen rausbringen. Von der Seite bin ich mir auch ziemlich sicher, dass einige Firmen auch solche Fragen sich stellen. Lohnt sich dafür was speziell zu entwickeln oder nicht? Wie wirkt unsere Anwendung da drauf? Ich glaube schon, dass das ein oder andere kommen wird. Und vielleicht auch als eine Besonderheit, was die Plattform vielleicht noch ein bisschen auszeichnet. Wenn ich mich nicht sehr irre, ist zum Beispiel bei der MetaQuest zwar auch so was wie Word vertreten, aber das ist im Grunde eine Webview, ein in einem Browser stattfindendes Word.
Mh, geht auch.
Und auf der Vision Pro ist es dann halt einfach nativ. Also eine Anwendung, also eine echte App. Ich bin gespannt. Ich bin schon ziemlich zuversichtlich, dass das Thema räumlicher Computer mindestens mal von den großen Anbietern unterstützt wird. Und, naja, Apple hat ein paar Geräte verkauft, jetzt nur in den USA. Da soll es ja auch viele geben, die das irgendwie versucht haben, nach Deutschland zu bringen. Ich habe heute gerade in der Presse gelesen, dass es irgendwie in Berlin auch zig Leute vom Zoll rausgefischt wurden, die das versucht hatten, Schwarz reinzubringen. von der Seite selber schuld, Entschuldigung, kein Mitleid, aber wenn man davon ausgeht,
Ja.
wer dieses Interesse das gerade auslöst und darin ist, die Apple mit seiner Markt macht die auch immer gut ein Interesse, eine Aufmerksamkeit für eine Produktkategorie zu starten, auszulösen, dass wir da durchaus wirklich coole Apps dann sehen werden und ja, bin gespannt, bei den 600 wird es bestimmt nicht bleiben.
Das ist auf jeden Fall. Wie schätzt du das ein? Also 3500 Dollar für eine Vision Pro ist natürlich schon eine Hausnummer. Was müsste denn, ist denn eine günstige oder eine Consumer Version von der Vision, von der Vision Pro, dann wahrscheinlich Vision genannt oder sowas, denkbar? Oder ist das einfach, kann das dann nicht mehr dieses Gefühl rüberbringen, dieses Erlebnis?
Mal unabhängig davon, dass ich ja nicht bei Apple arbeite und dementsprechend glaube ich selbst bei
Hahahaha
Apple nicht jeder weiß wie das da so weitergeht, könnte ich mir schon vorstellen wenn man mal auch wieder in die Vergangenheit blickt. Es kam der iPod raus und dann kam später iPod Nanos als günstige Variante. Es kam das iPhone raus, es kam iPhone SE als günstige Variante, Apple Watch das gleiche. Von der Seite ist ja davon auszugehen, dass Apple auch an der Stelle mit einer anderen ist ja nicht so, dass sie gesagt haben Apple Vision irgendwas, sondern Apple Vision Pro und Pro hat
Hm.
halt nun mal gefühlt eine Bedeutung. Wenn man jetzt mal davon ausgeht, das Ding ist ja wirklich aus qualitiv hochwertigem Material. Es hat draußen diese Glaspaneele mit dem holographischen Display für die Augen. Es hat Aluminium. Es hat hier und da sicherlich Punkte, wo ich mir ziemlich sicher bin, dass wenn Apple sagt, ach guck mal... könnte man vielleicht auch anders machen. Vielleicht finden sie auch eine Lösung zu sagen, lasst doch den Leuten ihre Brillen, dann brauchen sie keine Zeiss Linsen und so was. Zumindest ist es ja Zeiss aktuell der einzige Haus- und Hoflieferant, der da entsprechende Sehschärfen
Ja, das ist ein bisschen anders.
liefert. Dass da durchaus Potenzial da ist, auch noch mal eine günstige Variante rauszubringen, die Frage für mich ist einfach nur wann. Ich glaube nicht, dass sie das dieses Jahr machen, weil Mein persönlicher Glauben wäre, da würden sich die Leute, die jetzt eine Vision Pro kaufen, verärgern, wenn es auf einmal eine günstigere gibt. Und außerdem würden vielleicht weniger Leute, wenn es dann weltweit ausgerollt wird, zu dem teureren Produkt greifen.
Genau, ja.
Aber zu Ende nächstes Jahr könnte ich mir da durchaus was vorstellen, um damit einfach auch in die Masse zu kommen. Weil wenn viele Anwender da sind, lohnt es sich auch für App-Entwickler, viel Neues herauszubringen. Also ein bisschen Katze Maus Spiel.
So, ja, Weihnachtsgeschäft 2025 kann man sich gut vorstellen, natürlich. Zurück zur Pro-Version. Was würdest du erwarten, was könnte in der zweiten Version noch nachgebessert werden? Siehst du da Defizite oder Sachen, wo es dann kann?
Defizit ist auch wieder ein hoch tragendes Wort.
Ich bin Eric.
Ich meine, man muss es ja auch selbst erstmal. Es ist immer schön, dass das erinnert einem ja auch so ein bisschen so manchmal den Alltag. Es gibt immer Menschen, die sagen können, was kann man alles besser machen? Das ist aus dem bequemen Sessel immer sehr einfach ausgedrückt. Aber was einem vielleicht so als erstes ins Auge fällt, wenn man sagt, was, was, was, was könnte man an einer, an einer zweiten Version? Was könnte man da verbessern?
Hm.
Das wäre für mich tatsächlich dann eher auch so ein Punkt der Autark. Autarkie. Also Stand heute hat das Gerät ja WLAN und Bluetooth. Wenn man sich überlegen könnte, dass man das vielleicht doch vielleicht in der zweiten dritten Version vielleicht doch unterwegs auch mal mitnehmen möchte, dann wäre sicherlich ein eSIM Support ganz nett. Das wäre sicherlich GPS ganz gut, wenn man das integrieren würde. Das kann man schneiden. Und ansonsten ist halt natürlich auch auffällig, ansonsten natürlich auch auffällig, dass Es ist ja ein M2 Prozessor drin. Ja, also von der Apple Architektur her und mittlerweile kriegst du ja Notebooks mit M3 und das Rendering, das sie bei Spielen und so für den M3 gezeigt haben, da kann ich mir schon vorstellen, dass sie mit dem M3 nochmal einiges mehr an Rendering in dem Gerät ermöglichen werden. Wobei, das fand ich auch ganz witzig, weiß nicht, ob du das gelesen hast, wenn du eine Kernelpanel kriegst, also wenn das System quasi abstürzt, um es mal sehr vereinfacht auszudrücken, dann kriegst du einen Hinweis. eingeblendet, dass du noch 30 Sekunden durch die Kameras gucken kannst, aber dann geht sie aus. Das finde ich sehr sympathisch, dass du nicht auf einmal im Dunkeln stehst,
dass wir auch jetzt hier haben.
mit einem fetten Fehlercode am besten noch auf der Stirn. Da merkst du halt auch an welchen Sachen,
Blue screen.
ja genau, an welche Sachen die alles so gedacht haben.
Ich kann mir auch vorstellen, dass nachdem das Thema KI auch bei Apple langsam in stärkere Rolle spielt und so weiter, dass das wahrscheinlich dann auch noch integriert werden könnte. Da gibt es sicher auch noch einige Möglichkeiten.
Es kam ja auch gerade die Woche, also das hat jetzt nichts mit der Vision zu tun, aber es kam doch gerade jetzt die Woche oder die Tage sogar,
Hm.
na gut die Woche ist noch nicht so lange her zum Zeitpunkt der Aufnahme, raus, dass Apple ein Modell veröffentlicht hat, um mit Textprompt auch Bilder nochmal zu bearbeiten und zu optimieren.
Genau, ja.
Und wenn man das jetzt mal alles zusammenbringt, und ich meine der Gerüchteflur, sagt er genügend, dass auch mit iOS 18 das ganze Thema generative AI und mehr Intelligenz in Syrii Einzug halten wird in den neuen Betriebssystemen. Das wird noch spannend, wenn das Ganze dann auf räumliche Computer trifft.
Definitiv. Wir hatten vorher schon mal davon gesprochen, es kursieren da schon einige Bilder von Vision Pro-Nutzern im Web. Ich denke da nur an den Typ im Tesla Cybertruck, der da scheinbar irgendwie im Modus irgendwelche Facebook-Posts macht oder keine Ahnung. Wie siehst du die Gefahr, dass da so was ähnliches passiert wie bei der Google Glass? Das ist ja auch jetzt zehn Jahre verändert bei den Leuten, dass sie das jetzt hier akzeptieren? Oder ist das eine Gefahr?
immer unabhängig davon, dass ich das Ding garantiert nicht im Auto anziehe. Ich fahre selbst kein Tesla, aber nach meinem Kenntnisstand hat der Cybertruck noch nicht mal dieses augenscheinliche Self-Driving. Von der Seite finde ich das dann doppelt schwerwiegend, dass da einer so tut, als ob er da irgendwie Mails oder Posts beantwortet. Auch hier gilt, was ich vorhin beim Zoll sagte, kein Mitleid. Haltet euch alle an die Regeln und dann ist gut. Aber das was du gesagt hast, das ist natürlich wahr. Mit der angestrebten technischen Perfektion, die Apple hier versucht zu verfolgen, da stellt sich diese alte Frage nochmal ganz neu. Wie reagiert denn die Gesellschaft darauf? Zum einen du selbst, man selbst, weil man ein Gerät trägt und sich quasi eine zweite Realität ins Leben holt. Stell dir einfach mal vor, du könntest später nicht nur Skins für dein Handy runterladen, du lädst ja Skins für Personen runter. Habe ich letztens ein... schönes Projekt gesehen, wo dann auf einmal wurde Gesichter und Klamotten und Körper swipes und dann
Mhm, ja, genau.
wer weiß was da alles noch rauskommt und das zweite sind natürlich auch die Begleiter am Wegesrand nenne ich sie jetzt mal die Menschen die von deiner Kamerasensorik erfasst werden, aber unabhängig davon ob du jetzt Bilder machst und Video machst und was erlaubt ist und was verboten ist rein theoretisch rennen da Menschen rum mit einer mannigfaltigen Anzahl von Geräten die Geräte die Welt erfassen, Kamerasensorik. Das wird echt spannend. Ich habe da aktuell tatsächlich noch so meine Zweifel. Also in den nächsten ein, zwei, drei Jahren wird das sicherlich noch ordentlich Probleme und Missbilligungen in der freien Wildbahn verursachen. Aber ich kann mir genauso gut auch vorstellen, auch wie die Analogie zum iPhone, bevor das iPhone da war, galt man als Sonderling, wenn man auf einem kleinen Palmpilot oder Windows-DE gerät. sich einen Film angeschaut hat. Mittlerweile in der Straßenbahn im Zug ist das Gang und Gebe Standard. Genau und von der Seite kann es gut sein, dass das mit der Zeit durchaus doch noch
Und dann ist es fertig.
ein Erfolg werden kann.
Definitiv ist alles Gewohnheitssache. Es ist wahrscheinlich schon vom Vorteil, dass das Ganze eben auch wellenartig zu uns stößt. Auch wenn man jetzt natürlich nicht die Möglichkeit hat, das außer dir die Möglichkeit hat,
Ja oder no?
das jetzt wirklich schon so zu nutzen.
Vor allem hat es ja auch noch Besonderheiten. Also dieses Alleinsein da drin, was man immer so als digitale Distanz bezeichnet hatte.
Hm.
Das ist mit der Brille. Gefühlt hat es auch Vorteile. Ich weiß nicht, wie oft du Zug gefahren bist und Flugzeug fliegst. Flugzeug fliegen ist durch die Augengeschichte ein bisschen selten geworden, aber Zug fahren dafür häufiger. Und da sitzen häufig Menschen mit Notebooks und haben irgendwelche Unterlagen der Firma. Die machen Folien, die machen Texte, die machen Mails. Ohne dass man das jetzt irgendwie absichtlich machen will. Aber wäre es ein leichtes Ding quasi über die Schulter zu gucken. An was sitzen die denn da? Was arbeiten die denn da jetzt gerade?
Hm, genau.
Und jetzt. Du kannst es dir quasi in deinen virtuellen Raum holen, da sieht keiner was du tust. Ob du Filme guckst oder produktiv arbeitest oder quasi einem Meeting folgst, ist völlig egal. Weil das Gerät kapselt dich an der Stelle. Ja, es kapselt dich ab. Aber das ist ja nicht nur Risiko, das ist ja auch Chance. Gerade mit Blick auf Produktivität.
Ideale Bürotool sozusagen.
Letztens hat ein Kollege mal zu mir gesagt, das ist quasi, ähm, wer in der nächsten Ausgabe von Schöner wohnt, egal wie es bei dir zu Hause aussieht, du machst es dir hübscher.
Ja, genau, das geht auch ratzfatz. Genau. Ja, vielen Dank, Marc. Das war auf jeden Fall ein spannender Einblick. Wir sind jetzt alle noch neuer geworden. Dankeschön dafür. Dann werden wir schauen. Ich weiß nicht, wann das Ding nach Deutschland kommt. Wahrscheinlich wird noch ein bisschen Zeit vergehen, bis da entsprechend alles vorbereitet ist und so weiter. Wahrscheinlich Weihnachten und so was in der Art möglicherweise. Da kann man dann auch schon ein bisschen sparen bis dahin. Ich danke euch auf jeden Fall. Man weiß, Apple macht immer großes Geheimnis.
Man weiß es noch nicht.
Ich weiß schon, dass es wieder irgendwann geleakt wird. Claro. Ja, ich bedanke mich auf jeden Fall für das Gespräch und wir hören uns. Vielen Dank.
Ich freu mich. Danke schön.
Das war Marc Zimmermann von EMBMW und privater Vision Pro Nutzer. Mein Name ist Manfred Bremmer, ich bin Redakteur bei der Computerwoche.