IDG TechTalk | Voice of Digital

IDG TechTalk | Voice of Digital

Computerwoche, CIO & CSO

Transkript

Zurück zur Episode

Manfred Bremmer (0:1.526)

Die World Wide Developer Conference ist nicht nur ein Highlight für alle Apple -Fans, sie ist auch eine wichtige Informationsquelle für alle, die beruflich mit Apple -Produkten zu tun haben. Wir versuchen in dieser Tech Talk -Episode die wichtigsten Neuverstellungen für diesen Bereich aufzugreifen und zu bewerten.

Manfred Bremmer (0:19.030)

www .dz.

iOS 18, Mac OS 15, WatchOS 11, Genmojis und sogar eine etwas schlauere Serie auf der World Wide Developer Konferenz gab es auch in diesem Jahr wieder einen ganzen Strauß in Ankündigungen. Dabei wird häufig vergessen, dass die WWDC nicht nur aus der Keynote besteht. Fünf Tage lang werden eine ganze Reihe von Themen behandelt, die oft nur indirekt die Nutzer von Apple betreffen. Premier sind es eher App -Entwickler, Security -Experten, IT -Teams etc.

die Ohren spitzen. Nachdem sich der Staub jetzt etwas gelegt hat, soll hier versucht werden, die business -relevanten News etwas zu bewerten. Unterstützt werde ich dabei von meinem Studio -Gast Marc Zimmermann. Marc leitet hauptberuflich das Center of Excellence zur mobilen Lösungentwicklung bei der INBW Energie Baden -Württemberg in Karlsruhe. Daneben ist der Autor zahlreicher Artikel in Fachmagazinen und ausgewiesener Experte, was Apple, aber auch allgemein Mobility -Themen anbelangt. Hallo Marc.

Mark (1:22.478)

Hallo Manfred, schön da zu sein.

Manfred Bremmer (1:24.502)

Ja, danke dir für die Zeit. Du hast es sehr leid in diesem Jahr nicht persönlich nach Cupertino geschafft. Macht das einen großen Unterschied, die Informationen nur digital aus zweiter Hand und teilweise mit Verspätung wahrzunehmen?

Mark (1:36.878)

Die Informationen selbst sind ja großteils die gleichen wie vor Ort. Das stimmt schon. Aber was hier natürlich fehlt, ist all das, was durch das alleine durch das Publikum und das persönliche Treffen von Apple Engineers, die halt durch die Lappen geht. Die Menschen, ich meine, da ist ja eine ganze Schar von Leuten, wo dann auch nicht nur die Fachlichkeit, sondern auch der Hype, der da rum entsteht, auf die zu dir überschwappt, wo Menschen Ideen haben, was man damit machen kann, wo Menschen Gedanken äußern.

was sie sich vielleicht gedacht haben bei der Bereitstellung von Features. Also das sind dann weniger die Besucher, das sind dann mehr die Kollegen aus dem Abfüllkonzern in Cupertino. Und das ist natürlich schon etwas, was dir als Rand verloren geht. Ich bin aber ganz glücklich. Ich hatte einen Mitarbeiter, der rüberfliegen konnte, der in der Lotterie gezogen wurde und die Freigabe bekommen hat, rüber zu fliegen, der viele spannende Gespräche auch abseits der Keynote geführt hat, viele spannende Veranstaltungen noch besucht hat, auf dem Campus und außenrum. Da ist ja auch ein

Ökosystem, wo sich dann Menschen treffen, die nicht eingeladen sind, sich über iOS und ähnliches auszutauschen und von der Seite war das ein bunter Blumenstrauß, aber ja, es ist schade, nicht selbst persönlich vor Ort gewesen zu sein bei dem schönen Wetter, aber ich gönn's meinen Mitarbeitern trotzdem sehr.

Manfred Bremmer (2:52.918)

Wunderbar. Es wurde doch eindliches angekündigt in der Kino, aber auch in den zahlreichen Sessions. Was ist denn dein persönliches Highlight der WWDC? Also aus Business Sicht natürlich.

Mark (3:4.334)

Also das meine bisheriges Highlight ist etwas, was die, wie hat man mir letztens gesagt, nach der Generation Z kommt die Generation Alpha, dass man jetzt mit dem kriegstischem Alphabet weitermacht, dass die Generation Alpha, wenn sie nach AI sucht, dass sie nicht Artificial Intelligence finden wird, sondern Apple Intelligence, nicht nur diesen Marketing -Schachzug, finde ich, faszinierend, sondern dass wir, du hattest es in der Einleitung erwähnt, eine schlaue Serie kriegen, dass wir Möglichkeiten bekommen,

weit über das hinaus durch das Kontextwissen, das Apple hat, was ein JetGPT mit Weltwissen bereitstellen kann, dass wir da wirklich vielleicht das erleben, was wir uns schon immer von Siri erwünscht haben, einen digitalen Assistenten, der uns zur Seite springt, im Alltag hilft, Herr zu werden über Mails, über Nachrichten, sei es beim Erstellen, sei es beim Lesen, beim Zusammenfassen und uns einfach wieder mehr Zeit für uns gibt. Da bin ich mal sehr gespannt drauf.

Manfred Bremmer (3:57.590)

Mehr als zehn Jahren waren wir da auch sehr geduldig, muss man sagen.

Mark (4:1.198)

Das stimmt, das stimmt. Und wenn man mal genau ist, die erste Siri, als sie vor 14 Jahren von diesem anderen Konzern von Apple aufgekauft wurde, konnte schon mehr als Siri heute vor der Ankündigung von Apple kann. Von der Seite bin ich sehr gespannt, wie es weitergeht. Aber ich bin voller Hoffnung und Zuversicht.

Manfred Bremmer (4:17.398)

Generell ist es so, dass gerade diese Partnerschaft mit OpenAI doch etwas überraschend kam. Also, abgesehen davon, dass es zuvor schon ein paar Tage zuvor geleakt wurde. Es deutet aber doch irgendwie so ein bisschen an, dass Apple in Sachen GenerA etwas hinterherhinkt. Wie siehst du die Sache?

Mark (4:35.822)

Also ich war am Anfang, dachte ich auch, als die Gerüchteküche durch den Flur huschte nach dem Motto, OpenAI rettet Apple die Welt. Nach dem Motto, wir machen eine Partnerschaft mit OpenAI und dann wird alles gut. Wenn man sich jetzt aber anhört, was die dort machen, dann ist das ja gefühlt was anderes als das, was alle vorher vermutet haben. Ja, OpenAI wurde auf der Bühne erwähnt, aber erst als letztes Bindeglied von all den Funktionalitäten, die Apple darlegt. Wenn man mal einen Blick drauf wirft,

hat Apple ja nach meiner Meinung angetan. Sie können auf einer gewissen Auswahl von Geräten ein Large Language Model ausführen, das sie selbst bereitstellen, das dadurch Vorteile erlangt, weil das Kontextwissen, kein Weltwissen nach dem Motto, was am 24 .07. in Deutschland passiert, aber Kontextwissen, nämlich was hat der Anwender für Mails, was hat der Anwender für Kalender, was hat er für Kontakteinträge.

dass sie mit diesem Kontext wissen, auf den Geräten, on device, ohne dass sie das Gerät verlässt arbeiten können. Und wenn sie dann merken, das Modell, das wir da haben, das ist nicht gut genug, dass sie dann zurückgreifen auf ihre als private KI Cloud dargelegte Variante, wie sie dann Datenschutz und Informationssicherheit sicherstellen, haben sie ja ausführlicher versucht zu erklären, dass dort dann Modelle gerechnet werden, immer noch im Kontext einer Apple.

nur in der Zeit, wo sie berechnet werden, danach sofort alles wieder wegwerfen und die Ergebnisse ans Gerät rübergeben. Und erst dann, wenn auch das nicht weiterhilft, dass sie dann erst dem Anwender anbieten, möchtest du eigentlich Chat -GPT fragen? Und entweder hat der Anwender ein Chat -GPT -Konto, dann gelten halt die Datenschutzbestimmungen wie mit Chat -GPT abgeschlossen. Und wenn er kein Chat -GPT -Konto hat und trotzdem Apple die Daten weitergeben soll, selbst dann geht ja Apple noch hin und sagt, okay, wir anonymisieren die IP -Adressen oder ...

Einfachstes Beispiel, wenn ich sage, ich sage jetzt nicht das Codewort, sonst gehen 1000 Handys an und sagen, ich habe dich leider nicht verstanden. Irgendwann nennt sie immer Iris. Ich sage mal, Hallo Iris, was ist eigentlich an dem Geburtstag meiner Frau, als sie geboren wurde, in der Welt passiert? Das ist, ich sage mal, Apple AI weiß, wer meine Frau ist. Apple AI weiß, wann meine Frau Geburtstag hat und anstelle der Kanoneeinträge. Aber Apple AI weiß nicht, wahrscheinlich nicht, was in der Welt passiert ist an dem Tag. Schon ein paar Tage her.

Mark (6:56.014)

Also würde diese Frage dann mir wahrscheinlich angeboten werden. Wahrscheinlich angeboten, weil es kann nur noch keiner praktisch testen, dass das an OpenAI übermittelt wird, also an Chatchipiti. Und dann würde Chatchipiti nicht die Frage kriegen, man hat den Markt seiner Frau Geburtstag und was ist da passiert, sondern Chatchipiti würde dann über eine randomisierte IP -Adresse die Frage kriegen, was ist eigentlich am so und so vielten in Deutschland passiert. Und dann würde die Antwort kommen und Chatchipiti würde der Kontext fehlen. Und...

Allein an solchen einfachen Beispielen kriegt man mit, dass Apple sich wirklich sehr viel Gedanken gemacht hat. Das ist ja nur das Beispiel, wie sie mit OpenAI sprechen. Wie sie mit ihrer eigenen Cloud sprechen, ist ja auch nochmal mass sehr komplex, wie wir sie da so beschrieben haben. Dass ihnen Datenschutz wichtig ist und das, was sie quasi on -device nicht hinkriegen, dass sie trotzdem alles tun, um auch das, worauf auch diese Marke lebt, weiteren aufrechtzuhalten.

Manfred Bremmer (7:47.670)

Das hast du schon erklärt, das ist eben das Thema Gen .AI KI Nutzung durchdacht, bis zu Ende gedacht, nicht eben nur ich stelle da ein Chatbot bereit und der macht das alles für mich.

Mark (7:57.422)

Ja genau. Es ist nicht einfach nur eine Promptmaschine, die irgendwas ausspuckt und nicht damit, ich sag jetzt mal, ein Feuerwerk der Emotionen in der Fachpresse erreiche, sondern es ist halt wirklich okay, wie könnte ich das Ding so weit bringen, dass es dem Anwender wirklich hilft, dass Halluzinationen auch zum Teil ausgeschlossen werden. Die haben zum Beispiel angekündigt, dass sie eine Validierung über so einen Webcrawler machen nach dem Motto, sind denn die Antworten irgendwie grundsätzlich theoretisch valide oder sind die vielleicht komplett öngesponnen?

und dass sie da einfach mehr Verlässlichkeit, Zuverlässigkeit und halt auch Datenschutz reinbringen.

Manfred Bremmer (8:28.470)

Du hattest ganz am Anfang noch dieses lokale LMN erwähnt. Da stellen sich mir zwei Fragen. Die erste, die wahrscheinlich auch Consumer betrifft, brauche ich schon wieder ein neues iPhone. Die zweite Frage, die wahrscheinlich noch komplexer ist, wie kriege ich denn so ein Ding auf mein Device? Ist das dann Aufgabe von Entwicklern? Ist das dann wirklich eher so eine Geschichte im Business -Kontext, wo dann eben die IT -Abteilung, die sowieso schon...

Mark (8:32.878)

Ja.

Mark (8:39.406)

Hehehe.

Manfred Bremmer (8:57.302)

dann irgendwann bereit ist, dabei ist, eigene Modelle auszurollen, das dann eben auch auf das iPhone portiert.

Mark (9:5.806)

Ich gehe jetzt erstmal auf das zweite ein und dann auf die Frage, brauche ich ein neues iPhone? Grundsätzlich hat Apple vorgestellt, dass ich als App -Entwickler, jetzt mal unabhängig ob wir als ENBW oder jeder andere App -Entwickler, in der Lage, wie diese Entwickler in der Lage sind, ihre Anwendungen Apple AI zu ertüchtigen. Das heißt jetzt nicht, dass wir Apple AI einbauen werden, das heißt aber, dass wir ein Handwerkszeug an die Hand gegeben bekommen.

Wie können wir Funktionalitäten unserer Anwendung bereitstellen? Das OpMayEye, äh OpMay, jetzt bin ich selbst auf den Vorpaar reingefallen. Das App, ja es gibt so viele Abkürzungen. Wie gesagt, die Generation Y wird mit Artificial Intelligence auch nichts mehr anfangen können. Für die ist das dann Apple Intelligence. Egal, Entschuldigung. Dass Apple Intelligence damit was anfangen kann. Also wer sich mit der Programmierung beschäftigt, objektorientierte, funktionale, prozessorale Programmierung.

Manfred Bremmer (9:40.790)

Da kommen wir auch durcheinander mittlerweile.

Mark (9:59.438)

Der wird vielleicht sich mit dem Begriff wiederfinden, dass man motiviert wird, Funktionen, die eine App hat, von der man der Meinung ist, dass die die Allgemeinheit interessieren könnte, dass man die bereitstellt mit verpflichtenden optionalen Parametern, nach dem Motto, gibt es an einem bestimmten Standort, ich sag mal, was ich jetzt in der Lade soll, ja oder nein, gib mir mal die nächste zu dem Standort. Und wenn ich jetzt noch, ich sag jetzt mal, Wetter mitgebe und Uhrzeit mitgebe, dass man dann vielleicht prüfen könnte, ist die überhaupt verfügbar um die Uhrzeit und ...

wenn das Wetter an dem Tag schlecht ist, dann vielleicht eine mit Dach zurückzuliefern. Und dass man sich solche Szenarien zusammenbauen kann und sagen kann, guck mal, wie könnte man dann auf Basis dieser Plattform Mehrwerte für den Anwender bereitstellen, was könnte den Anwender interessieren? Und die Magie bei Siri ist dann quasi, dass sie aus diesen ganzen Funktionsbausteinen, die da möglicherweise angeboten werden, wobei man da auch prüfen muss, was decken diese Funktionsbausteine, die Apple bietet dort ab, quasi diesen Mehrwert für den Anwender, der vor dem Gerät sitzt.

So bietet, dass der wirklich, ich sage jetzt mal, am besten noch gestammelt in sein Telefon reinspricht, was er eigentlich für eine Herausforderung hat und das Telefon mit einer Lösung kommt und alles darunter so schlau gebaut wurde, dass die Bausteine zusammenpassen. Ob das am Tag Null funktioniert, wird sich zeigen. Ob das einige Zeit später gut funktioniert, wird sich auch zeigen. Schließlich und ergreifend einerseits muss Apple sicherlich auch lernen. Startet ja auch erst mal nur in Amerika oder im US -amerikanischen Sprachraum.

heißt, man kann es auch wahrscheinlich in Deutschland starten. Man muss ein Handy halt auf US -Amerikanisch stellen, so die Vermutung. Von der Seite haben wir alle, sowohl wir App -Entwickler als auch Apple, noch eine gewisse Zeit vor uns, um zu lernen, damit umzugehen, was mich dann zu der Frage der Geräte bringt. Ich habe mich gefragt, warum Apple das gesagt hat. Apple hat ja gesagt, dass die M -Architektur, Macs und iPads, dass die unterstützt werden und dass die iPhones erst ab dem iPhone 15 Pro, war es glaube ich, unterstützt werden.

für Apple Intelligence? Warum habt ihr mich da stutzig gemacht? Zum einen, sie haben sich jetzt schon mal festgelegt, zu sagen, wer es wahrscheinlich nicht kriegt. Nämlich ein iPhone 15, das wir letztes Jahr vielleicht gekauft haben. Das finde ich ein bisschen schwierig, weil wenn Firmen, ich meine, wenn ja auch ein bisschen Menschen aus Firmen hier zuhören, jetzt sagen, ich investiere morgen in 3000 Geräte oder in 10 .000 oder in 20 .000, ja, kaufe ich mir dann Geräte, die auf Apple AI können oder kaufe ich mir.

Mark (12:19.086)

Geräte, die das nicht können, weil ich eh davon ausgehe, dass das noch Jahre dauert. Ja, also das wird noch, das wird noch mal eine spannende Frage sein. Und meine persönliche Meinung ist halt, dass Apple an der Stelle diese Wahl auf die Geräteeinschränkung deswegen getroffen hat, weil sie zum einen auf den Geräten rechnen wollen. Gut, das können die Prozessoren, die sind leistungsstark. Das sind aber leider ältere iPhones auch. Wenn man dann aber näher in die Hardware guckt, wird man merken, die Geräte vor dem iPhone 15 Pro hatten weniger RAM.

Und scheinbar, so sagt man zumindest hinter vorgeschobene Hand, brauchen die KI -Modelle irgendwas um die 2 GB RAM. Und wenn die Geräte früher weniger RAM hatten als 8 GB, dann könnte das für mich ein Grund sein. Und der letzte Grund, Entschuldigung, die möchte ich schon zum besten geben. Apple hat ja gesagt, sie bauen Rechenzentren auf. Und diese Rechenzentren, die müssen ja auch erst mal entstehen. Die machen es ja auch nicht mit dem Fingerschnick und dann stehen die da. Und dass die sich quasi selbst die Sicherheit geben wollen.

Manfred Bremmer (12:59.862)

Dann geht es halt nicht.

Mark (13:15.182)

Wenn die Kunden auf das System gelassen werden, wie gut verarbeiten die Systems, wie gut halten die das? Und dass sie sich durchaus noch in der Hinterhand halten, wenn sie wissen, dass sie, ich sag mal, die Datenströme nicht inhaltlich, aber von der Masse in Griff haben, dass sie sich dann auch darüber Gedanken machen oder dann kommunizieren, wie geht es mit dem Homeport, wie geht es vielleicht doch mit älteren Telefonen oder mit älteren iPads oder wie auch immer weiter. Und dass sie lieber die Strategie der vorsichtigen Schritte gehen.

als voreilig vorzubreschen und dann zu merken, oh, zu viele Kunden, auf zu wenig Systeme von uns, Systeme nicht verfügbar, weil das skalierst du nicht über Nacht. Also, genau.

Manfred Bremmer (13:50.998)

See ya!

Manfred Bremmer (13:58.902)

bisschen unfertig ist die Lösung trotzdem. Ich habe vor kurzem gelesen, dass es zum Beispiel noch keine MDM -Funktion gibt, um Apple Intelligence zu deaktivieren. Das setzt dadurch die Frage, wie hoch der Aufwand ist, aber das spricht schon ein bisschen dafür, dass es dann doch irgendwie so eine Übernachtaktion ist.

Mark (14:19.086)

Also da habe ich eine andere Meinung. Entschuldigung. Meine Meinung basiert darauf, dass ich sage, erstens, wir reden davon, dass Apple etwas angekündigt hat. Apple Intelligence kannst du noch nicht ausprobieren. Da kannst du dich wahrscheinlich irgendwann mal auf eine Warteliste oder vielleicht auf eine Beta einschreiben. Das wird sich dann zeigen. Aber darum würde ich jetzt auch verstehen, warum ich jetzt Status Quo in der aktuellen Beta von den neuen Betriebssystemen von Apple.

Schalter als Firma habe, das auszuschalten, weil es gibt nichts, was ich ausschalten könnte, weil es gar nichts gibt, das ich nutzen kann. Dass das ausschaltbar sein soll, ist natürlich, ich sag mal, Administratoren schalten gerne aus oder haben gerne die Kontrolle über etwas. Ich hatte letzte Woche Freitag in der Schule meiner Kinder einen Vortrag über, wie man mit Apple -Geräten so arbeiten kann und da habe ich auch ein bisschen über iOS 18 und Apple Intelligence gesprochen und die Lehrer haben die Hände über den Kopf zusammengeschlagen, wie ...

Dann haben die Kinder, die das höherpreisige Gerät haben, KI im Zugriff. Können wir das abschalten? Nee, erst mal stand heute nicht. Aber erstens, es kommt erst im amerikanischen Raum. Zweitens, Rollout ist gar nicht geklärt. Drittens, bis dahin wird Apple garantiert einen Schalter haben. Und letzter Satz dazu, es gab in der Vergangenheit, erinnere dich beispielsweise, Apple hat mal eingeführt, dass man eine private Mac -Adresse bei WLAN -Verbindungen nutzen kann und dass man diesen Schalter als Anwender beeinflussen kann oder nicht.

in Unternehmensinfrastrukturen. Das hat Apple auch erst später in späteren Versionen implementiert und noch nicht in der ersten Beta beziehungsweise nicht in der Punkt -Null -Version des Betriebssystems. Von der Seite ist Apple da nicht, ich sag mal, weiter vorne oder weiter hinten als sonst. Sie gehen gefühlt ihren vorsichtigen Stiefel und manchmal haben sie halt einen Schalter frühzeitig drin, manchmal haben sie den Schalter nicht und ob der Schalter da ist oder nicht, daran würde ich jetzt nicht festmachen, ob sie überrumpelt wurden. Sollten sie überrumpelt worden sein, dann ...

würde ich das vielleicht an dem Punkt festmachen, den ich eben sagte, wenn der RAM des Gerätes wirklich entscheidend ist über die Funktionalität von KI, dann haben Sie letztes Jahr mit dem iPhone 15 echt ins Klo gegriffen, falls das der Grund ist, weil Sie jetzt den Kunden, die ein iPhone 15 oder jetzt in den Laden gehen, was sagt mir denn der Apple Store Mitarbeiter, wenn ich mir ein iPhone 15 kaufe, sagt der mir, du, pass mal, obacht, das könnte sein, dass das nächstes Jahr mit KI nicht geht? Das passiert ja nicht.

Manfred Bremmer (16:34.422)

Warten wir lieber? Ja, das macht er aber nicht.

Mark (16:37.870)

Also von der Seite, ich glaube, an der Stelle merkt man, dass Sie so ein bisschen in Druck waren. Aber ich hoffe schwer, dass Sie diese Grenze noch ein bisschen aufweichen werden, wenn Sie ein bisschen mehr Erfahrungswissen haben. Wie verhält sich das auf den Büchsen, sowohl in der Hosentasche als auch im Rechen?

Manfred Bremmer (16:54.870)

Es gibt auch ein gewisses Entwicklungszyklen. Das geht ja auch so eine iPhone -Entwicklung ist jetzt nicht eine Sache von einem halben Jahr oder sowas. Oh, und noch ein bisschen mehr Remreihen, ja genau. Ja, anderes Thema. Da bin ich gespannt, wie du das siehst. Die Apple Vision Pro kommt nach Europa. Glaubst du, dass das die Verbreitung jetzt beschleunigt, macht das die Nutzung einfacher?

Mark (17:1.134)

Ist nicht auf Zuruf, ne? Da sagt ja keiner, mach rein! Hoff ich zumindest.

Ah ja, das Ende.

Mark (17:21.870)

Also auf jeden Fall verändert es zwei Dinge. Erstens mal, man selbst ist kein Sonderling mehr, wenn man mit so einer Brille rumläuft, weil rein theoretisch mal abgesehen vom Geld, kann jetzt jeder dann in den Store laufen und sich das Gerät holen. Und außerdem brauche ich nicht mehr aufpassen wie auch ein rohes Ei. Gut werde ich wahrscheinlich trotzdem noch, weil ein bisschen höherpreisig ist sie ja. Aber ich hätte zumindest mal die Hoffnung, dass ich eine Anlaufstelle hätte, falls sie mir runterfällt, dass mir jemand das repariert, ohne dass ich da irgendwie in die Staaten fliegen muss.

Manfred Bremmer (17:27.862)

Ich bin ein bisschen schlau.

Mark (17:50.926)

Die Durchdringung selbst. Ich meine, wir haben ja die Cases gesehen, die Apple gezeigt hat. Und wir haben auch gesehen, dass sie auf der Keynote erwähnt haben, dass sie beispielsweise auch APIs, also Programmier -Schnittstellen, ganz speziell für Firmenkunden implementiert haben und freischalten können für Firmenkunden. Dass sie meiner Meinung nach, auch wenn immer wieder mal Fernsehwerbung gezeigt wird, nach dem Motto, guck mal, wie immer sie Filme sind und so, dass sie doch einen sehr starken Company -Aspekt adressieren.

Und ich glaube nicht, dass die Vision, so wie sie heute, so wie das erste iPhone ja auch nicht, ein Milliardenmarkt wird. Aber natürlich hilft es auch Entwicklern, wenn ihre Produkte nicht nur im kleinen Amerika, sondern am besten weltweit genutzt werden könnten, weil sich dadurch einfach die Grundmenge der Personen erhöht. Das ist wahrscheinlich nicht vergleichbar mit der Installationsbasis eines iPhones. Aber wenn du da, ich sag mal, frühzeitig Flagge zeigen willst, hast du jetzt die Möglichkeit, du kommst an die Geräte.

Es ist nicht nur die Theorie aus Übersee. Du kannst wirklich bei dir auch mal was ausprobieren. Du kannst dir mal ein Gerät holen und gucken, wie wirkt es. Und wenn du dann Cases identifiziert hast, kannst du nach oben skalieren oder halt auch sagen, naja, gut, es ist zwar schön, aber wir warten, bis es ein bisschen preissensitiver wird oder keine Ahnung was. Aber die Menschen werden jetzt handlungsfähig und müssen nicht warten, wie die Schlange wieder vom Hasenloch. Ach, keine Ahnung.

Es kommt jetzt wirklich nach Europa und ich freue mich auch darauf. Wir haben unsere Anwendungen auch schon, die wir im Store haben, schon angehakt, dass nach dem Motto sie dann auch in Deutschland konsumiert werden kann, wenn dann die Brillen dann hier verkauft werden. Also ich finde das sehr, sehr, sehr gut.

Manfred Bremmer (19:31.254)

Also ich habe auf Veranstaltungen schon irgendwie den Eindruck bekommen, dass die Vision Pro schon relativ weit verbreitet ist. Allerdings ist das natürlich dann schon nochmal ein gewisser Multiplikator, wenn das dann auch wirklich hier in den Apple Stores und so weiter erhältlich ist. Das auf jeden Fall.

Mark (19:48.974)

Vor allem darfst du eins nichts vergessen. Du sagtest gerade Veranstaltung. Natürlich ist das, ich sag jetzt mal, Marketing cool, wenn du auf einer Veranstaltung etwas zeigst, das eine gewisse Verknappung hat. Ich meine, Apple ist mit Verknappung ja ein Meister, ne? Nach dem Motto, früher Schlangen vor Apple Stores erzeugt, um in den Nachrichten zu erscheinen. Aber so ist das heute ja auch. Ich meine, wenn du irgendwo hingehst und du sagst, ich kann Ihnen das auf einer MetaQuest oder auf einer Oculus oder auf einer Vision Pro zeigen.

Manfred Bremmer (20:5.814)

Hm.

Mark (20:16.046)

dann ist es egal, ob jemand sagt, ich mag den Apple -Konzernen oder nicht, aber die Neugierde, etwas zu sehen, was nicht jeder, der in die Stadt fährt, in einen Laden geht und sagt, ich kaufe sie mir nicht, aber gucke sie mir mal an. Diese Besonderheit der Exklusivität, den darf man ja auch nicht außer Acht lassen und das erklärt mir natürlich, warum dann auf verschiedenen Veranstaltungen erstens mal Firmen mit so was aufschlagen und zweitens auch das Interesse da ist, so was mal zu sehen.

Manfred Bremmer (20:24.854)

Hm.

Manfred Bremmer (20:42.134)

Definitiv, ja. Es wurde ja auch eine neue Softwareversion vorgestellt, Division OS 2. Bringt die denn wahnsinnig neue, tolle Features? Wie ist da dein Eindruck?

Mark (20:54.606)

Also mal unabhängig davon, dass der, ich meine, jeder, der den Podcast hört, der kann zur Not sich auch jede Zusammenfassung anhören, was AlgoWise, WatchOS, keine Ahnung, was Neues zum Besten bringt. Was ich persönlich, als ich Vision 2 installiert habe, als erstes ausprobiert habe, war, meine verstorbene Oma mal nochmal das 2D -Foto mir mal anzuschauen, wie das jetzt in Spatial Reality aussieht, in 3D. Und das war, ich nenne es jetzt mal in mehreren Punkten erstaunlich, wie gut das geklappt hat und was das in dir triggert, wenn ...

Du wirklich dieses Gefühl hast von Räumlichkeit in Bildern. Ich kann mich da auch nur wiederholen, einer der Division Pro oder ein Headset nicht aufhatte, dem fällt es schwer darüber zu urteilen, was cool ist und was nicht, weil dir einfach wirklich sowohl der emotionale als auch der Erlebnismoment fehlt. Was ich an den Neuerungen, ich sag jetzt mal gut finde, ist, die sie gebracht haben, war das, was ich vorhin erwähnte, diese Enterprise -Harpies. Also...

Wir haben als Firma ja durchaus, auch wir, wir haben ja auch eine App im Store für die Apple Vision Pro. Es gibt Dinge, da stößt du einfach an Grenzen. Du kannst zum Beispiel nicht auf die Kameras zugreifen. Apple hat es als Datenschutz deklariert im privaten Umfeld. Jetzt kann ich als Firma beantragen, da muss ich ein Entitlement beantragen, eine Berechtigung quasi erbitten, dass ich mit meinen Anwendungen darauf zugreifen darf. Und dann kannst du mit deiner Anwendung auf den Kamerafeed zugreifen. Du kannst...

darauf zugreifen, dass ich sehe, was der Anwender sieht. Du kannst darauf zugreifen, dass deine Anwendung befähigt wird, zu erkennen, ob Division Pro ein oder mehrere QR -Codes, Barcodes sieht. Du kannst beantragen, dass du Machine Learning Modelle, jetzt nichts mit Apple AI, aber eigene Machine Learning Modelle, die du früher schon mit Core ML trainieren konntest, dass du die auf der Brille ausführen darfst. Das ging vorher nicht, weil wahrscheinlich ging Apple davon aus, vielleicht ist die Performance und ...

Manfred Bremmer (22:32.950)

Hm?

Mark (22:45.678)

darf ja nicht ruckeln und lieber langsam freigeben als zu viel zu schnell erlauben. Lieber mal gucken, ob wir das performenstechnisch alles verarbeiten können. Oder auch so was wie, wenn ich sage, ich mache komplexe Berechnungen und ich habe besonders viele Objekte, die ich verfolgen will, dass ich dann sage, gut, okay, der Lüfter darf jetzt doch ein bisschen höher drehen, weil der Prozessor noch ein bisschen mehr gefordert wird. Und auch dafür kann ich mir jetzt Berechtigungen beantragen. Und weil wir vorhin gesagt haben, wen adressieren wir denn mit dem Ganzen, da wurde auch nochmal

gefühlt sehr klar, dass sie das nicht nur Firmen freigeben, weil Firmen das beantragen, sondern dass sie auch sagen, na ja, wenn du das in deine Apps integrierst und diese Apps als Pro Apps verteilst, dann kannst du diese Apps nicht dem Standardanwender zur Verfügung stellen, sondern das geht dann nur, wenn du eine App baust, die auch eine Firma nutzt. Im App Store wird unterschieden zwischen B2C und B2B. Bei B2B kommen sowas wie Apple Business Manager oder so ein MDM Zeug zum Tragen.

Nur über diesen B2B -Kanal kann ich Apps verteilen oder werde ich Apps verteilen können. Vision OS ist ja nur als Beta, die Version 2, und nicht als Produktiv zurzeit verfügbar. Damit Apps diese Funktionalitäten nutzen können. Da merkst du schon, Apple, also meine Meinung, Apple möchte enterprise attraktiv sein. Und wenn sie dann zusätzlich noch für Endkunden attraktiv sind, weil sie ein cooles Video zeigen, nehmen sie es gerne mit.

Manfred Bremmer (24:7.094)

Warum nicht?

Mark (24:7.310)

Und vielleicht geht es ja auch zukünftig weiter, dass Sie sagen, okay, wir haben so viel Erfahrung gesammelt mit der Freigabe der Kamera, mit der Freigabe der Rechenleiste, mit der Freigabe des QR -Kurtscanners, dass Sie das vielleicht auch für Endkunden -Apps irgendwann mal erlauben. Aber das haben Sie nicht angekündigt, von der Seite würde das in den Stern stehen. Aber das fand ich sehr beeindruckend. Wir haben es auch beantragt und ich freue mich sehr darauf, die ersten Sachen mal auszuprobieren und zu gucken. Zu was uns das befähigt?

Manfred Bremmer (24:29.302)

Das ist natürlich optimal für Demos. Man wird es wahrscheinlich dann noch häufiger auf Veranstaltungen sehen, weil man dann noch genau steuern kann, was der Betrachter, die Betrechterin dann anguckt gerade im Moment.

Mark (24:41.518)

Na ja gut, du kannst ja nicht, also Steuern ist ein anderes Thema, aber du kannst halt mehr Cases umsetzen. Also wenn du jemanden sagst, keine Ahnung, ich stelle mir zum Beispiel vor, ich habe mal ein Case gesehen, damals war das noch ein iPhone Case, von einem Lager Mitarbeiter, der Schuhkartons sortieren musste. Und dann haben die das iPhone hochgehalten und dann hat man alle Schuhkartons, wurden ausgelesen, die QR -Codes und es wurde gezeigt, welche Schuhkartons in der Position geändert werden müssten, um eine aufsteigende Größenreihenfolge der Schuhe zu bekommen.

Das ist mit einem iPhone in der Hand natürlich blöd, wenn du dann versuchst, irgendwie den Karton zu schieben. Mit einer Vision Pro auf dem Kopf wäre das wahrscheinlich ein Case. Ob das jetzt die Vision Pro rechnet, ist eine andere Frage, aber so kann man sich das vielleicht vorstellen. Wäre das vielleicht ein ganz spannender Case, weil du auf einmal mit deiner Umgebung viel mehr interagieren kannst. Das wird echt spannend zu sehen, was da für Cases rauspurzeln.

Manfred Bremmer (25:29.814)

Jo, das klingt auf jeden Fall super. Machen wir noch einen kurzen Ausflug im Bereich MDM. Das ist ja auch immer so ein Punkt. Ich glaube, da ist auch eines meiner Steckenpferde, muss ich zugeben oder sowas. Da wird ja auch immer regelmäßig was angekündigt, was die Verwaltung, speziell auch von Apple Watch und Vision Pro, glaube ich, gibt es auch schon einiges angeht. Was wurde da denn so angekündigt?

Mark (25:35.886)

Ah!

Mark (25:41.262)

Okay.

Mark (25:50.574)

Mhm.

Mark (25:53.966)

Also der Blumenstrauß ist sehr groß. Das würde ich sage jetzt mal, da kann man sehr, sehr lange drüber schwatronieren. Den Rahmen sprengen heißt es immer so schön. Aber was hat mich besonders gefreut, beziehungsweise was ist mir besonders hängen geblieben? Bleiben wir noch mal kurz bei der Vision Pro. Abgesehen davon, dass sie die Möglichkeiten, was kann ich konfigurieren auf dem Gerät? Das hatten sie ja mit 1 .2 von Vision und es schon angefangen, dass sie das erweitert haben, dass wir da

Manfred Bremmer (25:58.006)

Den Rahmen springen.

Mark (26:21.166)

quasi nahezu auf iPhone Niveau sind. Das ist schön, weil nichts ist blöder, als wenn du als Administrator irgendwo sitzt und überlegst, greift die Regel auf diesem Gerät oder greift die Regel nicht. Das ist ja irgendwie, das ist ja nervig. Also von der Seite, das ist schön. Was auch sehr schön ist, ist die Einschreibeverfahren. Also wie mache ich eine Vision Pro an einem Mobile Device Management System? Bekannt. Das war ja

in den Versionen vor 1 .2 so, dass man sich ein MDM -Profil von Hand installieren konnte. Mit 1 .2 haben sie es dann umgestellt, dass man mit Hilfe einer verwalteten Apple ID entweder das Gerät in Gänze bekannt machen kann oder dass man sich, weil es eine private Vision Pro ist, einen kleinen dienstlichen Bereich freischalten kann. Das ist ganz nett gewesen, aber das hat noch andere Herausforderungen gehabt, weil...

Auch die MDM -Systeme mussten das dann unterstützen. Und das war bei Jamf zum Beispiel war das verbreitet bei Simple MDM nicht. Und das war so ein bisschen schwierig. Und jetzt haben sie halt angekündigt, dass sie auch die automatische Geräteregistrierung unterstützen. Die automatische Geräteregistrierung war oder ist, dass ich sage als Firma, ich kaufe bei einem entsprechend autorisierten Händler Hardware. Und weil ich diese Hardware kaufe, erscheint die Hardware meinem Apple Business Manager. Der Business Manager macht das.

Manfred Bremmer (27:16.342)

Dauert er wieder.

Mark (27:40.270)

einfach nur, weil ich gekauft habe, meinem MDM -System bekannt. Und so kann ich quasi Geräte einschreiben in meinem MDM -System, nur weil ich einen Kaufprozess ausgelöst habe. Und weil die dann im MDM -System sind, kann ich auch schon mal anfangen zu konfigurieren. Und wenn der Anwender das Gerät dann einschaltet, dann kommt da ein Rechnerassistent, wo man dann Internet kriegt und alles. Ab dem Moment, wo es Internet hat, greifen dann die ganzen Regeln. Die Apps werden ausgerollt. Und das ist ein sehr schönes Erlebnis. Und das integrieren Sie jetzt auch, haben Sie angekündigt, für die Apple Vision Pro.

Das fand ich ziemlich cool, weil das meiner Meinung nach auch den ganzen Onboarding -Prozess noch mal ein bisschen vereinfacht. Was ich ansonsten spannend fand, war, dass es ja die Aktivierungssperre auf den verschiedenen Apple -Geräten gibt. Die greift, wenn die Geräte, ich sag mal, mehr Handlung kommen bzw. Regelverstöße haben. Das kann ich jetzt über den Apple Business -Mensche auch deaktivieren. Ich habe die Möglichkeit, dass ich vereinzelte oder ich werde wohl die Möglichkeit haben.

Manfred Bremmer (28:13.398)

Hm.

Mark (28:36.302)

muss ich immer so ausdrücken. Man weiß ja nie, ob Apple das am Tag Null bereitstellt oder vielleicht schon mal sogar einige Sachen stellen die manchmal ja auch früher bereit und einige Sachen auch später von der Seite, sage ich mal, sollte. Das ist auch das ganze Thema, wie komme ich an eine verwaltete Apple ID, also an eine Apple ID, die nicht dem Anwender persönlich gehört, im Eigentum ist, sondern die der Firma gehört, weil die Firma dann auch sagen kann, Kennwort reset, die Apple ID zuweisen kann.

Manfred Bremmer (28:37.494)

Hahahaha.

Mark (29:3.054)

Da gibt es neue Möglichkeiten, wenn ich Apple -IDs anlege, dass ich auch sagen kann, naja, 99 Prozent meiner Apple -IDs, die kommen halt aus, was weiß ich, Microsoft Azure Active Directory, Google Workspace oder irgendwie sowas. Aber es gibt noch irgendwie eine Handvoll Apple -IDs, die sind historisch, die sind vor Jahren von Anwendern mal angelegt worden, auf meiner Firmendomäne, aber privat angelegt worden. Die möchte ich übernehmen, für die soll diese komische Authentifizierung gar nicht gelten.

Manfred Bremmer (29:27.254)

Überführen.

Mark (29:30.606)

dass man die da wohl ausnehmen kann. Das ist eigentlich ganz nett. Was auch nett ist, ist, dass wir jetzt mehr Durchgriffsmöglichkeiten haben beim Betriebssystem -Update, wenn dann alles kommt, dass ich mehr Durchgriffsmöglichkeiten habe, dass wirklich auch Updates vom Betriebssystem auch wirklich installiert werden. Umgang mit Safari. Also ich kann beim Safari, da gibt es ja Erweiterungen, also Plugins, wo ich jetzt mehr Kontrolle darüber habe, welche Plugins erlaube ich, welche Plugins blockiere ich, welche Plugins installiere ich.

Wir haben von Apple vorgestellt bekommen, dass man Anwendungen sperren und verstecken kann als Anwender. Das kann ich dann auch wohl über Konfigurationsparameter scheinen sich abzuzeichnen, dass man das darüber auch verteilen kann. Oder auch solche Geschichten, dass ich einstellen kann, wenn ein Anwender einen Screenshot macht. Ob dann nur die Anwendung gescreenshotted wird oder falls andere Anwendungen als Fenster im Hintergrund, ich denke da mal an Mac, dass dann vielleicht auch nur diese Anwendung gescreenshotted werden kann. Da scheint sich auch was abzuzeichnen.

Das habe ich aber noch nicht ausprobiert. Darauf bin ich an dieser Stelle noch etwas schwammig. Was leider noch nicht drin ist, aber gut, das hatten wir eben angesprochen, ist ein Schalter für Apple AI. Aber gut, Apple AI ist, ich sag mal standenmäßig aktuell gerade eh aus von der Seite. Ich habe ja nur die nicht ganz so schlaue Siri gerade, da mache ich mir gerade wenig Sorgen, dass da zu viel aktiviert ist.

Manfred Bremmer (30:29.878)

Hm.

Manfred Bremmer (30:46.742)

Ja, das war jetzt schon ein ganzer Strauß. Appl .id heißt künftig Apple Account.

Mark (30:53.454)

Ja, nahmen.

Manfred Bremmer (30:55.094)

Weißt du, warum das so ist, aber spielt keine Rolle.

Mark (30:57.774)

Also gefühlt spielt es keine Rolle. Man merkt halt, dass ganz viele Dinge über die Zeit hinweg halt auch so ein bisschen zurechtgerückelt werden müssen. Mal spricht man von der Gerätebasierten Registrierung, von der Accountbasierten, von der Konto gesteuerten, profilbasierten. Apple tut sich wahrscheinlich auch schwer, manche Begriffswelten aufrechtzuhalten, manche sorgen für Irritation, manche sind eine Irritation. Von der Seite glaube ich, dass sie dieses

Manfred Bremmer (31:7.286)

Hm.

Mark (31:25.390)

Wir geben den Tierchen andere Namen oder vereinheitlichen Namen für zukünftig besseren Sprachgebrauch. Das ist weniger aus der Perspektive im Hier und Jetzt, sondern eher so, wir gucken, weil ich in zwei, drei Jahren auf das Thema, dass das da eigentlich mehr eine Rolle spielt. Und ob das Ding jetzt Apple Account oder Apple ID oder wie auch immer heißt, am Ende vom Tag, unterm Strich ist iTunes auch nur ein SAP -System. Also, ja.

Manfred Bremmer (31:50.326)

Ja, wir sagen ja auch immer noch MDM und nicht, wie es jetzt auch immer heißt und so weiter.

Mark (31:55.342)

Ja gut, aber da möchte ich einen Einwurf bringen. MDM -System ist das System und das Deklarative Device Management ist ein Protokoll, das das System unterstützt. Also von der Seite sprechen MDM -Systeme durch DDM, aber da... Ich hatte auch letztens jemanden, der zu mir gesagt hat, Herr Zürmann, Sie sprechen von MDM -Systemen, Sie müssten eigentlich von UEM -Systemen sprechen oder sowas, wo ich mir dann dachte, es geht doch um den Inhalt und nicht darum, welches Namensschild auf den Tierchen klebt, solange ich nicht inhaltlichen Quatsch erzähle.

Manfred Bremmer (32:7.318)

Das ist jetzt.

Manfred Bremmer (32:25.782)

Ne, das machst du auf keinen Fall. War jetzt auch, glaub ich, ein ganzer Strauß von Sachen, Neuankündigungen, die die Hörer jetzt hören und Hörer jetzt in Ruhe verdauen können. Marc, ich bedanke mich für das Gespräch, war sehr aufschlussreich. Demnächst dann bei der Vorstellung neuer Geräte nehme ich an.

Mark (32:41.102)

So geht's.

Mark (32:45.966)

Oder wenn Apple AI konkreter wird oder jederzeit gern.

Manfred Bremmer (32:48.726)

Genau, ja. Herzlich willkommen, auf jeden Fall. Liebe Zuhörerinnen und Zuhörer, das war es auch schon wieder. Vielen Dank fürs Zuhören. Mein Studiogast war Marc Zimmermann von der INBW. Mein Name ist Manfred Bremer, ich bin Redakteur bei der Computerwoche.

Mark (33:11.534)

sagen, schmerzfrei.

Manfred Bremmer (33:12.118)

Stopp.

Über diesen Podcast

Der IDG TechTalk | Voice of Digital Podcast wird präsentiert von den etablierten B2B-Medienmarken Computerwoche, CIO & CSO. Alle zwei Wochen diskutieren Chefredakteur Martin Bayer und sein Redaktionsteam jeweils mit renommierten Vertretern der ITK- & Technologiebranche.
Sie wollen sich auf unterhaltsame Weise über die großen Veränderungen im digitalen Wandel informieren? Dann sind Sie hier genau richtig: Anspruch unserer Podcasts ist es, den digitalen Wandel in den Unternehmen kritisch zu begleiten und zu kommentieren. Dabei sollen nicht nur technologische Entwicklungen, sondern auch gesellschaftliche und wirtschaftliche Aspekte sowie Fragen der Unternehmensorganisation diskutiert werden.

von und mit Computerwoche, CIO & CSO

Abonnieren

Follow us