IDG TechTalk | Voice of Digital

IDG TechTalk | Voice of Digital

Computerwoche, CIO & CSO

Transkript

Zurück zur Episode

Manfred:

Manfred: Die Zukunft des Smartphones. Schon seit Jahren wird das Ende des Smartphones prophezeit. So wirklich absehbar ist es aber noch immer nicht. Oder? Wie steht es um die vermeintliche Konkurrenz, also etwa Smartglasses und Wearables? Und was haben Smartphones künftig zu bieten?

Manfred: Das Interesse am Smartphones lässt nach. Nicht nur wegen der Konjunktur sind deutlich weniger Verbraucher bereit, sich jedes Jahr oder zumindest jedes zweite ein neues Top-Gerät zu kaufen. Gleichzeitig wird seit Jahren prophezeit, dass Smartglasses oder ähnliches an ihre Stelle treten. Ist die Goldene Smartphone-Ära vorbei?

Manfred: Ich habe heute zu diesem Thema zu Gast Mark Zimmermann. Mark leitet hauptberuflich das Center of Excellence. zur mobilen Lösungsentwicklung bei der ENBW, Energie Baden-Württemberg AG in Karlsruhe. Daneben ist der Autor zahlreicher Artikel in Fachmagazinen und ausgewiesener Experte, was Apple aber auch allgemein Mobility-Themen anbelangt.

Manfred: Hallo Mark! Wer unterwegs produktiv und informiert bleiben will, kommt auch heute um Smartphones nicht rum. So zumindest meine Empfindung. Wie ist es bei dir?

Mark:

Mark: Das ist eine spannende Frage, weil dadurch wird einem deutlich, wie dieses Smartphone tatsächlich das Leben mittlerweile von vielen Menschen umso auch von mir beherrscht. Das Smartphone ist tatsächlich mein mobiles Büro, aber es ist nicht mehr alleine mein mobiles Büro.

Mark: Damit meine ich jetzt nicht, dass ich dann doch wieder in ein echtes Büro fahre und dort ein Notebook aufklappe, sondern vielmehr das Smartphone wird bei mir in meinem beruflichen Alltag ergänzt um ein Tablet. wenn ich in Konferenzen sitze, auch wenn ich in einem Büro sitze mit anderen Menschen, zum Beispiel für Whiteboard-Aktivitäten, kurz mal am Tab etwas skribbeln, aber auch um die Apple Watch, wenn es mal darum geht, ich muss jetzt zum Zug, ich muss jetzt nochmal irgendwo hin auf dem Weg zwischen Meeting-Räumen, zu gucken, wo muss ich hin, was steht an, welche Nachrichten habe ich bekommen. Und so ist wirklich so dieser Berufsalltag, der früher vielleicht mit einem stationären Monitor, mit einem stationären PC geprägt war, jetzt doch... ziemlich mobil geworden. Bei mir und auch bei meinen Kollegen.

Manfred:

Manfred: Aber das andauernde Starren auf Bildschirme, auch wenn sie jetzt kleiner geworden sind, wenn man auf die Smartwatch, Apple Watch guckt, kann auch nicht die Zukunft sein. Was meinst du?

Mark:

Mark: Das wird einem ja auch deutlich, wenn man sich anschaut, jetzt am Beispiel vom iPhone, wenn man merkt, dass Apple das Thema Bildschirmzeit eingeführt hat. Ja, das ganze Thema Bildschirm, blaues Licht, wie viel Energie ist da drin, wie gut oder schlecht ist das für die Augen, wie gut oder schlecht ist das für die Konzentration im Gespräch mit Kollegen. Das ist das eine und das andere ist, aber da kommen wir auch gleich bestimmt noch tiefer ins Gespräch. Diese zweidimensionalen Bildschirme, auch wenn das damals sehr modern war, ich kann mit Touch mit ihnen interagieren, ich kann individuelle Informationen darstellen, die haben ja doch durchaus ihre Beschränkungen eben genau dieser Bildschirm. Und das macht ja das Leben gerade so spannend. Wenn man mal einen Blick auf Wearable, sei es jetzt Glasses, sei es Watches oder auch andere Geräte, die wir nachher noch ansprechen, dass die Technik damit immer weiter in den Hintergrund geht, uns ganz neue Möglichkeiten bieten wird und ich finde das extrem spannend.

Manfred:

Manfred: Also ganz neu ist die Geschichte ja nicht. Du hast gerade das 2D, die 2D Darstellung gemeint. Die ersten Anläufe waren ja zum Beispiel, Google hat schon 2012 sein Google Glass rausgebracht,

Mark:

Mark: Ja.

Manfred:

Manfred: aber die waren wahrscheinlich zu früh dran oder was denkst du? War die Technik nicht so weit oder die Leute?

Mark:

Mark: Ich glaube tatsächlich, Google war einfach, also unter anderem war Google zu früh. Das ist so wie dieser Newton-Moment von Apple. Der Newton kam damals raus, hat irgendwie geworben. Man macht jetzt mit Handschrifterkennung und allem und alles, was nicht geklappt hat, war dieser ganze moderne Kram. Und wenn man sich die Google Classes anschaut in der Zeit, als sie rauskamen, hast du ja gesagt 2012, da war das gefühlt aus meiner Wahrnehmung revolutionär. Und ich war extrem auch überrascht als ein jemand. Ich war in San Francisco drüben. dann dort durch die öffentliche Welt gelaufen ist, mit so einer Brille auf.

Mark: Man hat es erkannt, es war in der Presse, es war irgendwie gerade der hippe Kram, der heiße Scheiß, um das mal ganz plump auszudrücken. Und dann kommt jemandem so ein Ding entgegen und man war sich überhaupt nicht bewusst, was heißt denn das, nimmt er jetzt alles auf? Bin ich jetzt hier morgen gleich quasi auf Facebook? Damals war ja auch Facebook und Twitter noch richtig hip. Heute wäre das ja TikTok und ähnliches.

Mark: Und da war natürlich die Reaktion von mir und auch von vielen anderen Menschen natürlich sehr, ich sag mal, negativ, wenn man nicht weiß, was passiert denn da, was macht denn der da eigentlich. Und der zweite Punkt, ich glaube Google hat da einen extrem coolen Case damals gezeigt. Wir springen aus dem Flugzeug, landen mit dem Fallschirm auf der Entwicklerkonferenz und zeigen alles mit der Brille live mit, das ist das eine.

Mark: Aber zumindest nach meinem Kenntnisstand hat sich das Ding ja auch nicht wirklich technologisch weiterentwickelt. Irgendwo bei Android Version 4 ist das Ding ja soweit ich weiß stehen geblieben. Das heißt, rein von der Technologie ging es auch nicht weiter. Von der Seite auch hier. Der Newton-Moment. Das war seinerzeit voraus. Gleich wäre die Geschichte anders geschrieben worden, wenn Google ein bisschen konsequenter, sowohl in der technologischen Umsetzung als auch in dem ganzen Thema Datenschutz, was passiert mit den Daten, woran erkenne ich, dass ich aufgenommen werde, was ist überhaupt mit so einer Brille wirklich möglich, etwas mehr drangeblieben wäre.

Manfred:

Manfred: Apple arbeitet ja auch schon seit Jahren eigentlich an einer eigenen Brille, so heißt das zumindest, genau. Hat man da aber nicht den Einblick. Da meine ich jetzt nicht so sehr die Vision Pro, die ja im nächsten Jahr rauskommt, sondern eher eine Art, Entschuldigung, Apple Glass, die man dann wirklich Consumer oder Prosumer praktisch wie eine richtige Brille tragen und durchsehen können. Warum dauert das so lang? Das wurde ja auch zuletzt verschoben, hieß es. bis das wirklich dann irgendwie mal an den Start kommt, verkauft wird.

Mark:

Mark: ich meine, es geht's ähnlich. Hinter die großen Hallen und Türen oder was auch immer von Apple lässt sich schwer blicken, dass wenn etwas der Konzern aus Cupertino ganz gut hinkriegt, ist das Thema Geheimhaltung vor allem über zukünftige Produkte. Auch wenn du jetzt speziell auf die Klassik gehst, die in der Gerüchtewelt kursieren, finde ich ja schon mal sehr gespannt, dass Apple überhaupt das Terrain der Geräte, die man sich ins Gesicht schnallt oder auf die Nase setzt, betritt, dann halt... anscheinend wahrscheinlich nächstes Jahr mit der Vision Pro. Und wenn man sich anschaut, was das Werbeversprechen ist, mit welcher Genauigkeit und optischen Finesse man dort quasi an der Welt teilhaben kann, dann ist das sicherlich ein ziemlich spannendes Gerät.

Mark: Aber du hast schon recht, die Apple Glasses, was man sich davon immer erhofft hat, hat ja auch mit Blick jetzt mal zum Beispiel auf dem Meta-Konzern. Da gab es ja auch jetzt Brillen, die mit Ray-Ban und irgendwelche Ergänzungen mir auf die Nase schnallen, um mir Übersetzungen, Informationen, Videoaufnahmen zu ermöglichen. Das ist schon ziemlich spannend.

Mark: Ich denke aber, dass Apple an der Stelle, das hört sich vielleicht komisch an, sehr konservativ vorgeht. Vor allen Dingen auch, wenn man mal guckt, wie die halt ihre Produkte gebaut haben. Also der erste iPod hat das Problem gelöst. Wie nehme ich Musik mit? Das erste iPhone hat das Problem gelöst. Wie mache ich mobile Kommunikation? Bei der Apple Watch kann man sagen, gut, das ging jetzt ein bisschen hin und her, vom Modeaccessoire bis zum Gesundheitswesen.

Mark: Aber was löse ich denn mit der Brille? Und da die ja auch nicht Produkte heute sich überlegen und morgen rausbringen, glaube ich, dass die an der Stelle schlicht und ergreifend auch noch nicht so wirklich den Case haben, den sie sich mit der Brille lösen wollen, weil und damit komme ich dann zum Schluss für dieses Statement, wieder auf die Vision Pro bezogen. Wenn du dir die Präsentation der Vision Pro anschaust, dann wurden da viele Sachen gezeigt, aber so wirklich jetzt der BÄM, das ist das Neue, das ist jetzt nur möglich.

Mark: Das, was Steve damals gebracht hat, ein revolutionäres Internetkommunikationsgerät, ein Musikplayer, ein Telefon, so lange bis der Saal brüllte, das blieb ja ein bisschen aus. Von der Seite kann ich mir gut vorstellen, dass Apple die Vision Pro jetzt auch erst mal nutzt, um das Thema AR. wieder ein bisschen mehr Schwung zu geben, kriegt man ja auch allgemein Mitgefühl, dass das gerade so ein bisschen wieder am Gas geben ist und ich kann mir schon gut vorstellen, dass wir da aus dem Apfelladen aus Cupertino in den nächsten Jahren da durchaus auch etwas Schlankeres kriegen. Allein aus der Tatsache, ich möchte ja auch etwas haben, das ich vielleicht nicht nur zwei, drei Stunden tragen kann, sowohl vom Akku als auch vom Gewicht. Ich weiß nicht, wie schwer die Vision Pro ist, aber ich glaube, so steige ich nicht in die Straßenbahn.

Manfred:

Manfred: Nein, bestimmt nicht. Da bleibst du sicher nicht lange drin.

Mark:

Mark: Bin ich mir ziemlich sicher.

Manfred:

Manfred: Ja, du hast das, ja, auf jeden Fall, das ist etwas auffälliger als selbst die Google Glass natürlich.

Mark:

Mark: Ja, auch die Blicke der Leute wird bestimmt spannend. Ja genau.

Manfred:

Manfred: Du hast vorhin die Anwendungen angesprochen. Also ich, wenn ich jetzt so nachdenke, so ein paar Sachen gibt es natürlich schon. Ich meine, ein iPhone, ein Smartphone ist auch ein Universalgerät, mit dem man verschiedene Aufgaben löst. Und Ähnliches könnte natürlich auch mit Augmented Reality gelöst werden. hands-free nutzen kann, als Brille trägt.

Manfred: Ich denke da zum Beispiel an 3D Navigation mit Google Maps. Das gibt es ja heute schon, bloß dass man das Smartphone vor sich hinhalten und durch das Display schauen, was ziemlich blöd ist. Es ist zwar praktisch und funktioniert, aber es schaut ziemlich dämlich aus. Es gibt Lösungen in Produktion und Wartung, professionelle Lösungen. Und ihr habt ja auch AR-Anwendungen entwickelt, eben zum Beispiel die...

Mark:

Mark: Das ist komplett richtig.

Manfred:

Manfred: Visualisierung von geplanten Windkraftanlagen und solche Sachen. Also das gäbe es schon auch im Gemischtbereich sowohl im Business als auch für Konsumer, denke ich mal.

Mark:

Mark: Also wir schauen da auch mit großem Interesse drauf. Weil du es eben erwähnt hast, wir sagen ja, wir uns immer Großes einfach sichtbar machen. Das Visualisieren von Erfolgsanlagen, von Umspannstationen, von Freileitungen, von Ladeparks. Das sind ja genau die Dinge, wo man mit Augmented Reality dann draußen im Feld zusammen mit Bürgermeistern oder anderen Stakeholdern stehen kann und zeigen kann, guck mal, so kann das aussehen, so würde das aussehen.

Mark: Und man halt nicht über irgendeine Theorie spricht, sondern den Leuten halt wirklich darlegt. Wie groß ist etwas? Wie wirkt sich etwas auf ein Landschaftsbild aus? Aber AR haben wir auch in solchen Bereichen wie Vermessen von Baugruben, Aufschüttungsvermessungen, wie viel LKW Ladung hat wohl dieser Erdhügel, der da aufgeschüttet wurde, um es abzutransportieren möglichst effizient. Da gibt es schon spannende, spannende Einsatzszenarien. Und natürlich sind wir da auch sehr gespannt, wie sich dann so eine Vision Pro damit verhält. Funktioniert das genauso wie, ich sag erst mal, als im Werbekatalog versprochen wird? wie praktisch ist das dann im Einsatz, wenn man die Powerbank per Kabel in der Gesäßtasche mit sich führt. Das ist schon spannend, aber eine Sache muss man halt auch im Klaren sein. So wie wir damals alle von Tastatur und Maus auf einem 2D-Bildschirm waren und von Touch überrascht waren und sich über die Zeit spannende Interaktionsgesten durch Multitouch ergeben haben, so fängt halt die Musik, diese... Musik von UI, UX, wie kann ich Menüs bauen? Wie kann ich mit Anwendungen interagieren?

Mark: Ich habe ja auf einmal keinen 2D-Bildschirm mehr. Ich habe ja eine räumliche Tiefe. Den räumlichen Computer, wie Apple das nennt, egal ob es die Vision Pro ist oder irgendwelche Glasses in Zukunft oder was auch immer. Ich glaube, das wird noch sehr spannend, was daraus kommt, weil die Leute dann etwas haben, das nicht mehr theoretisch betrachtet wird, sondern im praktischen Alltag da ist. Ich kann es aufsetzen, ich kann es erleben und daraus entstehen wieder neue Ideen.

Manfred:

Manfred: Das kann auch ganz komisch wirken, wenn ich nur an die Hololens denke, zum Beispiel Hololens 1 zumindest, wo man dann komische Gesten machen muss, die dann wirklich in der Öffentlichkeit wirklich sehr seltsam wirken. Kann ich mir nicht vorstellen, dass ich sowas durchsetzen würde.

Mark:

Mark: Ich glaube, jede Brille, die du mit Gesten bedienst, wirkt in der Öffentlichkeit erst mal, sagen wir mal, befremdlich.

Mark: Aber auch da wird die Zeit zeigen, wie das dann irgendwann ist. Ich vergesse nie die Bilder, wo es immer heißt, um Gottes willen, die Leute gucken heute und gucken morgens in der Straßenbahn immer alle aufs Handy. Und dann geht ja zumindest auf Social Media auch gerne mal so ein Foto rum, von allen Menschen, die haben vor Jahren in ihre Zeitung geguckt.

Manfred:

Manfred: Hm.

Mark:

Mark: Vielleicht haben wir tatsächlich keine Ahnung, in ein paar Jahren dann alle so irgendwelche... KI-Geräte, mit denen wir dann reden oder irgendwelche Gesten machen oder auch Brillen auf, wo dann, ja, es ist spannend, wo uns die Zeit dahin bringt.

Manfred:

Manfred: Das Sprechen, ohne einen direkten Gesprächspartner vor sich zu haben, hat sich ja auch schon ziemlich eingeprägt. Also wenn ich in öffentlichen Nahverkehr gucke und so weiter oder auf den Straßen Leute, die ihre Airpods anhaben und mit jemandem telefonieren offensichtlich und wild gestikulieren etc. Das ist ja auch schon fast gesellschaftsfähig.

Manfred: Man stutzt noch ein bisschen, aber wenn man erkennt, der die will nichts von mir, sondern telefoniert da gerade, dann gewöhnt man sich auch dran.

Mark:

Mark: Das ist ja auch ein Prozess, ne? Ich meine, da vergeht halt nicht eine Woche oder einen Tag, da vergehen halt Monate und Jahre und dann so schleicht sich das dann halt ein in die Gesellschaft.

Manfred:

Manfred: Das Thema Spracheingabe ist natürlich auch wieder ein guter Punkt, um weiter zu lenken und zwar es gibt ja auch noch eine andere Entwicklung, die auch das Potenzial hat zumindest jetzt in der Zukunft der Smartphone ein bisschen Konkurrenz zu machen. Ich weiß nicht der eine oder andere, die eine oder andere hat das schon mitbekommen. Das ist der AI-Pin von Humane. Du wolltest dir sogar so einen Teil in den USA bestellen, Mark. Kannst du kurz vielleicht mal erklären, um was es sich dabei handelt?

Mark:

Mark: Ich wollte nicht nur, ich bin da kräftig dran. Ich habe so einen kleinen Prioritätslink. Das Problem ist immer noch, wo er ist. Amerikanische Lieferadresse, das ist mittlerweile gelöst, aber er ist noch nicht verschickt. Ja, also was ich daran total spannend finde, du hast recht, erstmal muss man vielleicht noch mal ganz kurz abholen, in was es sich dabei handelt. Im Grunde ist das quasi der Traum eines jeden Star Trek Fans, eines jeden Trekkies, nämlich ich hänge mir was ans Revere, mit dem ich dann interagieren kann.

Mark: Das Ding ist nicht größer als und haftet mit einem Magnetismus an meiner Kleidung. Wenn man sich jetzt denkt, meine Kleidung ist doch gar nicht magnetisch, wie soll das gehen? Naja, das Hauptgerät halte ich von außen an die Kleidung und von innen kann ich mir etwas, das nennen die Battery Booster, kann ich mir per Magnetismus dran klicken. Das bedeutet, naja, das ist quasi die Stromversorgung für das Gerät und durch die magnetische Verbindung zwischen den beiden Teilen kann ich mir das an Pulli, T-Shirt und so weiter dran machen.

Mark: Bin da zum Beispiel auch schwer gespannt, wie sich das dann verhält, wenn man dann mit schönem dicken Wintermantel steht, ob das dann magnetisch dann immer noch so klappt. Aber im Grunde dafür, dass es das Smartphone ersetzen sollte, ist es halt Nummer eins. Es ist halt irgendwie auch ein Smartphone. Es hat halt nur kein Touch-Display. Es hat kein großes Display zum Darstellen von Sachen. Es interagiert hauptsächlich durch Gesten, die man vor der Kamera, die das Gerät hat, macht. Es reagiert durch Berührung, weil man das Gerät erstmal antippen muss, bevor es überhaupt aufmerksam auf Sprache oder Gesten reagiert. Und damit es mir was zeigen kann, mit dem was es so als Antwort hat, hat es einen Laserprojektor, um mir Informationen in die Hand zu übertragen.

Manfred:

Manfred: Brennen.

Mark:

Mark: Brennen, Brennen ist ein schönes Wort, ich hoffe doch nicht, ja. Also ich mag meine Hand dann doch sehr.

Mark:

Mark: Und wenn man sich überlegt, was ich vorhin sagte, Apple mit klaren Zielen damals, das iPhone für Kommunikation, der iPod für die Musik, würde ich mal sagen, ist diese AI-Pen von Humane etwas, das quasi künstliche Intelligenz, was wir alle mit ChatGPT und Co. hören, in einen Alltag bringt, der wirklich von jedem bedient werden kann. ChatGPT ist ja nicht schwer und Bard und wie das alles heißt, ähm...

Mark: Aber es ist immer noch ein Unterschied, ob ich mit einem Text prompt, mit Interaktionen und ich versuche mir da was zu überlegen, muss etwas schreiben, ich muss mich irgendwo anmelden, interagieren muss, oder ob ich mir ein Gerät ankenne, es antippe und dem Gerät sage, du, pass mal auf, wann ist die nächste Mondfinsternis, wie komme ich von A nach B, ich kann mir dann in der Hand zeigen lassen, dass ich die nächste Straße links muss, ein Gerät zu haben, das quasi Live-Übersetzungen in Gesprächen für mich macht. ein Gerät zu haben, das die Kamera nutzen kann, um wieder zusammen mit KI und Bilderkennung versucht zu erkennen, okay, das ist der Kontext, in dem der Marc gerade unterwegs ist.

Mark: Und wenn der Marc eine Nussallergie hat und ich halte ihm eine Nuss entgegen in der Kamera und das er mir dann sagt, ne, du ess die mal lieber nicht. Das ist schon, das hört sich ein bisschen nach Science Fiction an. Und was ich daran total spannend finde, ist, das fällt mir gerade ein, wenn du mal überlegst, wann Humane gegründet wurde. Das ist ja viele, viele Jahre her. Das ist so eine Zeit, da kamen gerade solche Sprachassistenten wie Siri oder so auf den Markt. Und kurze Zeit später kamen dann Humane.

Mark: Und jetzt, wo das Produkt quasi kurz vor der Tür steht, zumindest in der hauptsächlichen US-Amerikanischen Raum, wann es dann offiziell nach Europa kommt, wird sich ja zeigen, mit welchem Vorausblick die sich an dieses Produkt gesetzt haben und welch glücklicher Umstand da jetzt gerade entstand. dass man auch so etwas wie eine Partnerschaft mit Microsoft und OpenAI, was Chatchi-BT angeht, setzen kann, um so ein Gerät überhaupt nach draußen zu bringen. Das finde ich schon mega spannend. Also ich freue mich total auf das Teil und bin gespannt, was wir damit alles noch so bewerkstelligen können.

Manfred:

Manfred: Ich hatte mir eigentlich vermutet, dass zuerst einfach nur diese Geschichte mit dem Laser im Vordergrund stand und sie dann gemerkt haben, dass das nicht so richtig funktioniert und dann kam Gott sei Dank Gen.AI in den Weg und

Mark:

Mark: Das kann sein.

Manfred:

Manfred: …weil diese Laser-Darstellung auf der Handfläche ist ja nicht wirklich zukunftsfähig. Die Frage ist, wie beurteilst du die Chat-Funktion? Wie viel kann das schon leisten? Beziehungsweise auch wenn man ein bisschen nach vorne blickt. wie viel wird später möglich sein. Ist das ein gängiger Ersatz oder nur Spielerei?

Mark:

Mark: Ich glaube auch hier ist zum einen natürlich das Erfahren nochmal was anderes als das, was man in irgendeinem Video mal präsentiert bekommt. Und natürlich muss das Ding sich, ich sag jetzt mal im Alltag, besser beweisen, als es vielleicht im Produktvideo passiert ist. Ich weiß nicht, ob dir das aufgefallen ist, aber im Produktvideo, da merkt man schon, dass an der Ein- oder Anstelle geschnitten wurde, damit die Antwortzeiten etwas kürzer sind.

Mark: Und die Angaben, die das Gerät gemacht hat, über Nährwerte waren es halt, die nächste Sonnenfinsternis, die vorausgesagt wurde, war die vergangene Sonnenfinsternis. und die Einkaufsfunktion, was kostet dieses Buch im Internet, bestelle es mir. Ich fände es spooky. Also ich meine, egal bei welchem Online-Dienst ich irgendwas kaufe, die Tatsache, dass dasselbe optische Cover verwendet wird, spricht noch lange nicht davon, dass ich das Buch in der richtigen Sprache und wirklich diese richtige Version und keine Ahnung was bekomme.

Mark: Den Laserprojektor, von dem du gesprochen hast, der hat natürlich auch so seinen, ich sag mal, das ist natürlich fancy. Du hältst deine Hand hin und dann wird da was reinprojiziert und du kannst... mit Tab-Gesten versuchen zu interagieren. Das ist sicherlich fancy. Aber ich möchte jetzt nicht für deine Hände sprechen. Wenn ich in meine Hände schaue, ja, mein Kopf ist leicht graumeliert. Wenn ich in meine Hand schaue, würde ich sagen, also wenn mein Display diese, diese Falten hätte, dann hätte ich damit ein Problem.

Mark: Und da bin ich schwer gespannt, wie funktioniert das? Ja, du wirst die Hand wahrscheinlich nicht in beliebiger Entfernung halten können. Das heißt, das wird immer irgendwie eine relativ unnatürliche Haltung meiner Meinung nach sein, die ich da vor meinem Körper habe. Dann auch die Frage, wie gut ist es zu sehen? Ich meine, es gibt ja nicht nur bedeckte Tage, es gibt Regen, es gibt Sonnenschein. Wie funktioniert denn das? Und wenn das dann halt nicht funktioniert, dann wird das auch schnell schlecht.

Mark: Und vielleicht auch das Thema, ich projiziere mir ein Menü in die Hand. Das ist sicherlich ganz nett. Aber jetzt stellen wir uns mal vor, du schwingst dich auf so ein E-Scooter. Ich mache es nicht. Mich hat es da mal hingehauen. Ich habe da keine Lust mehr drauf. Aber jetzt stell dir vor, du schwingst auf dem E-Scooter. Und dann sagt das Ding dir so, ja du musst jetzt irgendwann links und du musst deine Hand vom Lenker nehmen, damit du sie dir vor deinen Körper halten kannst, damit du sehen kannst, wo du abbiegen sollst. Da bin ich mir auch noch nicht ganz sicher.

Manfred:

Manfred: Hmm, dann doch lieber eine Brille.

Mark:

Mark: Trotzdem finde ich das Ding, ja genau, da trotzdem finde ich das Ding ein mega Durchbruch, dass du jetzt wirklich KI in die Hände der Leute kriegst.

Manfred:

Manfred: Es gibt ja schon andere Assistenten. Ich denke jetzt nur an Siri und Google Assistant. Alexa ist auch weit verbreitet. Das, was jetzt GenAI bietet, das geht ja deutlich über das hinaus, was diese Assistenten in Petto haben. Woran liegt das, dass sich da nichts tut? Weil das wäre ja auch eine Chance im Prinzip von Google und Apple zum Beispiel.

Mark:

Mark: der Ansatz, mit dem damals die Hersteller die Sachen herausgebracht haben. Apple mit dem iPhone 4S 2011, Google Design Assistent, das war 2016 irgendwie auf der Google I.O. und dann auch Alexa, das war sogar noch zwei Jahre vorher, 2014 von Amazon. Die hatten ja alle ihre unterschiedlichen Ansätze, wie sie mit Sprache interagieren wollen. Apple hat da... Ich sag mal versucht, nach dem Motto, ob ich sage, spiele Musik, gebe wieder, da sehr viel Varianz reinzubringen. Alexa hatte das Thema, ich musste da Skills programmieren.

Mark: Das waren die unterschiedlichsten Ansätze. Und ich würde einfach mal behaupten, das lief nicht so, wie sie sich das erwartet haben. Dann wurde das Ganze ein bisschen stiefmütterlich. Und dann kam auf einmal ChatGPT. Ich erinnere mich noch selbst an eine Diskussion, auch bei uns in der Firma, wo ich mit jemandem darüber diskutiert hatte. hatte so nach dem Wort, das wird doch niemals passieren, dass ich irgendein KI-System, also ein Chatbot, nicht KI-System, ein Chatbot, irgendwas schreibe, damit er mir eine Antwort gibt. Das möchte ich nicht. Und dann kam OpenAI mit GPT. Das war 35, ne? Das heißt, damals ist es auch nicht her. Und da kommen wir ihm Sachen schreiben und es kam eine Antwort.

Mark: Ja, die halluzinieren, ja, man muss die Quellen manchmal noch mal prüfen und so. Aber... Man hat auf einmal das Gefühl, die Technologie hat einen Sprung gemacht. Und wenn man das jetzt wieder auf die Softwareentwicklung überführt, bin ich der Meinung, auch hier keine tiefen Einblicke zu haben, aber dass solche Firmen wie Google, Apple und Amazon mit ihren Sprachassistenten einfach eine Softwarearchitektur verwenden, die mit so etwas Stand heute nicht klarkommt. Und ich bin schwer gespannt, ob auch Apple an dieser Stelle, ich sag mal, die. häufig versprochene Intelligenz in Siri reinbringen wird. Ich meine, wir kennen alle die Stimme von Siri. Was für ein System dahinter steckt, ist ja quasi egal.

Mark: Hauptsache, es funktioniert gut. Und ich hoffe schwer, dass Apple an der Stelle, und auch Google und Amazon, an der Stelle die neuen Möglichkeiten von den Large-Language-Models, von den KI-Modellen bei sich auch implementieren, sodass ich nicht nur sagen kann, stillen wir einen Becker. oder ein Timer für ein Frühstücksei, sondern dass ich halt wirklich sagen kann, so ich brauch dies, ich brauch das, fasse mir meine Mail zusammen, weil technologisch geht es und es ist mittlerweile ja schon peinlich, wenn ich die heutigen Assistenten um etwas bitte und das dann vergleiche mit dem, was die neuen Spieler am Markt, wie gesagt Bard, GPT-4 und was nicht, wer nicht alles oder der neue Gemini, die neue Gemini-KI, was, was, wo, die in der Lage sind. Das ist der Wahnsinn.

Manfred:

Manfred: Es könnte aber auch sein, dass der Fokus ein anderer war. Wenn ich das beobachte, lag der jüngste Fokus eher darauf, zwar schon KI in den Geräten zu verankern, aber eher so, dass man eben nicht auf die Cloud zugreifen muss, sondern dass das Ganze on-board funktioniert. Sehe ich das so richtig?

Mark:

Mark: Also gerade bei Apple, die werben ja auch sehr lange schon seit vielen vielen Jahren damit, dass sie ihre Neural Engine, die KI Schaltkreise, um es mal ganz plump auszudrücken in ihren Prozessoren, immer huldigen, was dann halt alles auf den Geräten geht. Und natürlich, auch wenn Apple nicht schreibt, hallo, hier gibt es, ich sag jetzt mal, Apple GPT oder sowas, haben die einen ganzen Sack KI drin.

Mark: Das kriegst du mit an den Stellenausschreibungen, das kriegst du mit. an den Äußerungen, das wo auch Tim Cook sich quasi genötigt fühlte, mal vor Analysten zu sagen, ja wir haben KI drin, was Bildanalysen angeht, was die Bearbeitung von Live-Fotos angeht, was Siri on Device angeht, ich finde das, Siri ist zwar jetzt nicht gut in der Beantwortung von Fragen, aber sowas wie Transkriptionen, seitdem das bei meiner Apple Watch lokal ohne Internet geht, ist das tatsächlich richtig gut. Ich kann da lange Texte diktieren und da passieren auch Dinge.

Mark: Aber ich bin schon der Meinung, dass alle auch hier überrascht waren, zu welchen Möglichkeiten beispielsweise Microsoft mit seiner Copilot Anbindung in allen möglichen Produkten zumindest mal in den ganzen Ankündigungsversprechen in der Lage ist. Und da schaut natürlich Android, iOS noch ein bisschen traurig aus der Wäsche, aber die holen auf.

Manfred:

Manfred: Du rechnest also schon eher damit, dass das dann auch noch auf den Smartphones kommt und nicht, dass das quasi schon so ein verzögerter Übergang ist, weil einfach natürlich eine Menge Geld dranhängt. Jetzt speziell für Apple, Google natürlich auch mit ihren Pixelphones. Weshalb sie halt momentan noch gucken, dass sie einfach ihre Smartphones an den Kunden bringen.

Mark:

Mark: Also wie du schon sagtest, bei denen hängt ja natürlich viel Geld da dran, weil sie ihre Systeme natürlich am Markt halten wollen, aber ich finde das ist auch kein Widerspruch. Wenn wir mal gucken, damals als der iPod, ich sag mal, den Nachfolgerkund getan wurde durch das iPhone, hat Apple sich ja auch selbst kannibalisiert und aus der damaligen Sicht kann man sich schon denken, warum haben sie jetzt eigentlich damit quasi den iPod zu Grabe getragen. Da konnte ja auch noch keiner absehen, dass das iPhone so ein Erfolg wird. Das war ja auch das allererste iPhone, war ja in dem Sinn... technisch geil, aber kein... es war ein iPod, ja, mit einem Touch-Display.

Manfred:

Manfred: ein iPod.

Mark:

Mark: Und da konnte keiner absehen, wohin sich das entwickelt, dann wäre es für einen Milliarden-Geschäft und welche Umsätze die mit Services und Apps machen. Ich glaube aber vielmehr, dass auch noch ein paar andere Sachen da ein Faktor spielen. Wenn jetzt wieder mal, bleiben wir mal bei Apple. Die haben die Apple Watch, die haben die AirPods, die haben dann demnächst die Brille, die haben das Handy. Wenn man mal überlegt, was brauchst du denn?

Mark: Also was ich persönlich mir nicht vorstellen kann, ist, dass jedes meiner Geräte, auch wenn beim Humane Pin, das beispielsweise der Fall ist und bei der Apple Watch auch möglich wäre, eine eigene Mobilfunkverbindung aufmacht. Alles hat einen Datentarifvertrag. Das finde ich ein bisschen schwierig.

Mark: Von der Seite kann ich mir schon vorstellen, dass solche Geräte wie Smartphones eben dadurch, dass sie, ich sag mal, eine bekannte Technologie sind, wo es vielleicht nicht mehr so viel innovative Kraft passiert, aber immer noch. stetige, weite Evolution, was Chip-Technologie, Akku, Speicherplatz angeht, dass man da sehr viel, was sonst in Rechenzentren stattfindet, in die Hosentasche verlagern kann. Und dass dann die Wearables sein, dass ich mir die auf die Nase schnalle, an die Hand schnalle oder mir einen Pin an die Brust stecke oder einen Ring trage.

Mark: Es gibt ja die verschiedensten Dinge, die man sich da vorstellen kann, dass die sich quasi daran bedienen und dass Apple so auch versuchen wird, um wieder auf Apple zurückzukommen. auch ihr Ökosystem zu stärken, zu erweitern, nach dem Motto, guck mal, du hast ein Telefon und das kommt noch und das passt noch dazu. Und dann wird es vielleicht noch einige Jahre dauern, bis dann diese Dinger, die dazukommen, sich so weit emanzipieren, dass sie wieder ja autark arbeiten können. Aber ich denke, das wird noch eine ganze Zeit dauern. Das Telefon wird es noch brauchen.

Manfred:

Manfred: Ja, Marc, das hat es, glaube ich, sehr gut zusammengefasst. Ich glaube, man kann auch sagen, die Smartphones bleiben uns noch eine Weile. Und gleichzeitig arbeiten die Firmen aber daran, dass die Intelligenz der Geräte zunimmt, auch durch den Druck von ChatGPT und Co., die Erwartungen der Consumer natürlich. Und gleichzeitig lauern natürlich auch Wearables, wie Smartwatches, Pins und Smartglasses schon auf ihre Chance.

Mark:

Mark: ganz genau.

Manfred:

Manfred: Und damit würde ich mich auch schon verabschieden von dir. Danke, Mark, für das Gespräch. Das war Mark Zimmermann von der ENBW. Und mein Name ist Manfred Bremer, Redakteur bei der Computerwoche. Vielen Dank.

Über diesen Podcast

Der TechTalk | Voice of Digital Podcast wird präsentiert von den etablierten B2B-Medienmarken Computerwoche, CIO & CSO. Alle zwei Wochen diskutieren Chefredakteur Martin Bayer und sein Redaktionsteam jeweils mit renommierten Vertretern der ITK- & Technologiebranche.
Sie wollen sich auf unterhaltsame Weise über die großen Veränderungen im digitalen Wandel informieren? Dann sind Sie hier genau richtig: Anspruch unserer Podcasts ist es, den digitalen Wandel in den Unternehmen kritisch zu begleiten und zu kommentieren. Dabei sollen nicht nur technologische Entwicklungen, sondern auch gesellschaftliche und wirtschaftliche Aspekte sowie Fragen der Unternehmensorganisation diskutiert werden.

von und mit Computerwoche, CIO & CSO

Abonnieren

Follow us