Spezialfolge 176 –
Google Cloud Next aus Las Vegas
14.04.2025
- // Podcast
- // Spezialfolge 176
Shownotes
Das Team der programmier.bar meldet sich direkt aus Las Vegas!
Jan, Sebi und Garrelt schildern ihre Eindrücke von Google's Cloud Next Konferenz und berichten was sie alles über Google Cloud, Gemini, AI Studio und viele andere Technologien erfahren haben.
Außerdem mit am Start: Unser AI News Host Philipp - der ebenfalls nach Las Vegas gereist ist, um als Teil des Google Deep Mind Teams vor Ort zu sein, wenn Google neue Ankündigungen zu AI bekannt gibt.
Foto von Hamidreza Ardalani auf Unsplash
/transkript/programmierbar/spezialfolge-176-google-cloud-next-aus-las-vegas
- Jan
- Hallo und herzlich willkommen bei 1 neuen programmier.baren News Folge heute in 1 Kalenderwoche, die gar nicht mehr weiß, weil wir schon zu lange unterwegs sind und ich jegliches Zeitgefühl verloren hab zwischen diversen Anreisen und Jetlags. Man sagt ja immer, aber nicht bei der Programmierer, Denn bei der Programmierer erzählen wir euch, was in Vegas happenend. Und deshalb sind wir heute hier und haben uns in Zebis Hotelzimmer versammelt direkt nach der Google Cloud Next, euch einmal von unseren Highlights zu erzählen. Und vielleicht bevor wir inhaltlich einsteigen, einmal die kurze, schnelle Frage in die Runde. Wie hat's euch gefallen?
- Sebi
- Supercool. Also megakroß, megaviele Leute, mega gute Talks. Also eine, Daumen hoch. Daumen hoch.
- Jan
- Mega viele Leute. Weißt Du noch, wie viele Leute da waren? Ich hab
- Garrelt
- 15000, oder? 30.
- Jan
- 30000 hab ich auch gehört, ja.
- Garrelt
- Was? Ja. Okay.
- Sebi
- Krass. Oder Kamifornien noch von
- Garrelt
- Aber das das passt eigentlich zu meiner Einschätzung, weil für mich war sie zu kurz. Also es gab so viele Stände und Dinge zu erleben. Und eigentlich hätt ich noch gern viel, viel mehr gemacht und zweieinhalb Tage hat einfach nicht gereicht, das alles abzuraten. So, und ich find's schon ganz cool, dass wir alle unterschiedliche Talks gesehen haben so und dass es eure Erfahrung von den anderen Talks mitnehmen konnte. Aber auch allein für diese dieses Messegelände hätt ich gern viel mehr Zeit gehabt. Aber mein Fazit ist dementsprechend so, es war richtig
- Jan
- geil. Wunderbar. Nachdem alle gesagt haben, dass es richtig geil war, fangen wir mit dem Zeug an, was nicht so geil war.
- Sebi
- Fertig. Logisch.
- Jan
- Bester Spannungsrollercoaster hier,
- Sebi
- weil er Programmierer war. Ja.
- Jan
- Nein, fangen wir mit den Sachen an, die auf der Keynote genannt worden sind, die vielleicht aber für uns im Tagesgeschäft nicht unbedingt relevant sind, aber vielleicht für viele Leute da draußen interessant sein können oder peripher interessant sein können. Was mich am meisten überrascht hat oder womit ich, glaub ich, nicht gerechnet hab, war diese Ankündigung von diesem Cloud White Area Network, glaub ich, haben Sie das genannt, Cloud Warn so. Sie haben gesagt, Google hat irgendwie 20000000 Meilen Glasfaser auf der Erde verteilt, die ganzen Rechenzentren, die sie haben, so miteinander zu vernetzen. Und ist ja voll schade, wenn nur Google das nutzt. Und dementsprechend kann man sich jetzt in Googles Glasfaser Infrastruktur einkaufen. Und wenn man den Bedarf hat, große Datenmengen von a nach b zu schieben und das nicht über das öffentliche Internet machen kann oder will, kann man jetzt direkt in Googles Infrastruktur das eben tun. Und das fand ich krass, hat mich son bisschen an diese Lösung von AWS erinnert, wo man sich in Satellitenstationen einkaufen kann und so Daten ins Weltraum schicken kann, wenn man will.
- Sebi
- Ja. Ich
- Jan
- frag mich bei so was immer, wessen Use Case ist das und wer braucht das? Aber ist ja offensichtlich cool, dass das gibt so. Und es wird das ja Ja. Nicht machen. Ich mein,
- Sebi
- Sie hätten gesagt, 40 Prozent Performance
- Jan
- Ja, es ist 40 Prozent schneller und 40 Prozent billiger. Wobei billiger da natürlich mit sonem supergroßen Sternzeichen, weil Sie haben ja gesagt, billiger als eigentliches, also billiger als sein eigenes Glasfaser Mhm. Zu unterhalten, nicht billiger als das normale Internet zu nutzen, so.
- Garrelt
- Jetzt muss man die Sternchen, die das Kleingedummte ist.
- Jan
- Ja. Aber gut. Ich glaub, wer sein eigenes Glasfasernetz unterhält, der weiß schon, was da so an an Kosten auf einen Da
- Sebi
- dann nehm ich doch, dann nehm ich doch lieber Googles.
- Jan
- Arctisonal Glasfaser, nicht dieses öffentliche Internet. So. Was auch kam, waren natürlich irgendwie Hardwarevorstellung, neue Tänzerflow, Prozedoren, das ist so was, wo ich ehrlicherweise so halb den Überblick verloren hab, dass ja sowohl bei Apple, wenn's irgendwie Neuroengine geht, als auch bei Microsoft und Intel, wenn irgendwie Protzoren vorgestellt werden und jetzt bei Google, weil halt nur noch mit so Extraflop Zahlen die Gegend geschmissen werden und das ja überhaupt gar nicht mehr vergleichbar ist Ja. Mit dem, was wir von, also von von CPUs kennen ja sowieso schon mal nicht, aber auch das, was man von klassischen GPUs kennt ja irgendwie nicht mehr vergleichbar ist, weil das alles nur noch Floating Point Operations irgendwie am Ende sind. Sie haben krass damit angegeben, dass son son ganzer Serverpott von ihnen jetzt irgendwie 40 Extraflops kann und damit irgendwie stärker ist als der größte Supercomputer, den es irgendwie vorher gab. Aber halt auch nur, wenn Du komische Floating Bowl machst, was ja, weiß nicht, wie aussagekräftig und repräsentativ das dann ist. Aber hey, neue Prozessor, alles billiger, alles schneller.
- Sebi
- Ich glaub, für die Leute, die die es wirklich nutzen wollen, so das also Ironwood TPUs kommen ja, glaube ich, auch erst Mitte des Jahres, Ende des Jahres raus und sie schreiben mir, das ist zehnmal schneller
- Jan
- als
- Sebi
- das als wenn auch immer, wer auch immer davor TPUs benutzt hat. Aber zehnmal ist auf jeden Fall schon krasser als jetzt von diesen C4 Prozessoren, die Sie vorgestellt haben. Die neuen, die von Ja. Sechsundachtziger auf ARM gegangen sind. Ich glaub da, also ja, da ich glaub, diese TPUs sind schon eine coole Sache.
- Jan
- Ja, also und grade bei Google muss man ja auch immer sagen, sind ja da selber ihr größter Kunde. Ja. Also dadurch, dass sie ja selber so viel AI Infrastruktur auch betreiben, brauchen sie ja selber am allermeisten. So, also bauen sie's ja für sich.
- Garrelt
- Ich mein, alles, was wir was wir so für über AI und so auf dieser Conference gehört haben, alles, was Jaminar eingeht und so, wird ja einfach dadurch nur noch schneller so in eurem Kopf.
- Jan
- Und vor allen Dingen halt billiger für sie.
- Garrelt
- Ja, das glaub ich noch die DDR von, weil
- Jan
- ich glaub, wahrscheinlich ist es für sie gar nicht so relevant, dass es jetzt zehnmal schneller ist und Jaminar dadurch direkt besser wird, sondern sie können einfach auf derselben Infrastruktur zehnmal so viel Jaminar betreiben und damit wird es billiger.
- Sebi
- Sollen wir, sollen wir das grade mal sagen, so, hey, der Main Point von dieser ganzen Konferenz war AI?
- Jan
- Ja. Na ja, eigentlich heißt es ja Google Cloud Next und es geht alles, was Cloud und Infrastruktur ist, aber es ist halt gut viel, aber vielleicht bevor wir zu dem iPhone kommen, der einzige Cloud Punkt, den ich mich mitgenommen hab aus der Keynote. Mhm. Wir hatten da vorher, ich weiß nicht, mit wem von euch darüber gesprochen hatte. Es wurde so Multi Cloud ja auch erwähnt im Sinne von, ja, ihr müsst ja nicht nur irgendwie bei Google hier rumhosten und auch nicht nur in Amerika. Und dann stand der Google Cloud CDO auf der Bühne und seine Formulierung war so geil so, wegen in Europe and America so, in dieses ganze Zoll- und Steuerdebakel da reingekrätscht und sozusagen so, ja, es wird schon alles irgendwie wieder gut und wir kriegen das hin, weil die Leute jetzt Angst haben, dass sie nicht mehr lange Google Services nutzen können. Ja, offensichtlich für sie doch kritisch und zeitnah genug, als dass sie da irgendwas noch zu sagen mussten oder das Gefühl hatten, was zu sagen.
- Garrelt
- Aber ich mein, so insgesamt, ja, es war supererlassig, aber ich glaube, wir haben uns auch die Sachen Also Du hast ja auch zum Beispiel 'n paar Fall Base Sachen gehört, die wahrscheinlich nicht so r waren. Es gab auch relativ viel Security Talks, die ich gesehen hab, die ich auch spannend fand. Aber ich glaube, wir haben uns alle relativ viel auf AI Themen konzentriert. Aber es gab halt auch sehr viel Auswahl in diese Richtung.
- Jan
- Also es gab, also es war schon aber auch schwer, AI zu entkommen. Ja. Also selbst in diesen so, hey, jetzt hosten wir was auf Google Cloud. Und boah, guck mal, da ist 'n AI Button, der irgendwie dein Cloud Environment einrichtet oder Fehler in deiner Infrastruktur für dich beheben kann oder so. Also es gab ja keinen Talk, also ich hab keinen gesehen.
- Garrelt
- Ich war
- Jan
- in keinem Talk drin, wo das nicht irgendwie peripher noch noch mit erwähnt worden ist. Ja.
- Sebi
- Ja. Also AI war omnipräsent. Dann lass mal irgendwie gucken, was Also was war jetzt nicht so interessant, hast Du gesagt?
- Jan
- Nee, ich wollt nur diese ganzen Hardware Sachen halt irgendwie ausm Okay. Augenblick kriegen. Hardware und Infrastruktur, lass ja eigentlich schon
- Sebi
- Hardware ausklammern. Okay. Dann mal so die die klassischen Headlines, die auch Google uns die Ohren wirft. Also Germany 2 5 Pro, Lyria, Custom Engagement Suite, sowas.
- Jan
- Ja. Was Lyria? Lyria ist nämlich neu. Für Lyria gab's auch keinen Vorgänger. Ja. Also es gibt, ne, irgendwie mehr und mehr, aber Lyria gab's vorher nicht.
- Sebi
- Text to Music.
- Jan
- Ja, und so wie ich es verstanden hab, aber auch nur akustisch, also kein Gesang und so was, ne, sondern das nur so Geräusche oder Beats oder so was, ne. Aber nur, wenn Du was zum Unterlegen irgendwie brauchst.
- Garrelt
- Ja. Sie haben's auf jeden Fall sehr angepriesen, dass Sie, ich mal, das ganze Paket mitbringen, so, dass man mit allen ihren Modellen so den ganzen Workflow, den man hat, für zum Beispiel für eine für eine Filmerstellung oder so was.
- Sebi
- Du Du
- Jan
- nimmst Gemini, lässt dir die Idee irgendwie machen. Dann nimmst Du Imagine und Beo und machst irgendwie dein Storyboard und deine Videoclips damit. Und dann nimmst Du noch 'n bisschen Lyria und machst Musik und dann nimmst Du noch Chip und was jetzt da auch kommt, dieses Voiceclown Modell und machst noch son bisschen Voice Over da rein. Und schon hast Du einen ganzen Film, einen Werbeclip, einen irgendwas. Du brauchst halt irgendwie gar nix mehr außer Google Cloud natürlich. Ja.
- Garrelt
- So. Sie denken schon alles irgendwie ab. Aber ja, also insgesamt hab ich aber trotzdem auch das Gefühl gehabt, okay, sie versprechen sehr viel, aber hat dann 'n paar Stellen dann auch schon Bedenken so, können Sie das auch halten? Also Code is jetzt zwar auch 'n Riesenthema. Hab ich zumindest sehr viele Talks gesehen und hab sehr viele Versprechungen bekommen. Und bin 'n bisschen real Talks, so bin bisschen dran enttäuscht gewesen zu sehen, okay, Webstorm integriert das auch. Also es gibt 'n Plug in für Webstorm, aber die Bewertung davon ist extrem schlecht. So. Es es funktioniert dann halt, glaub ich, im Alltag an der Stelle nicht so gut. Und das, ich glaub, das das ist wird jetzt für mich auch so im Nachhinein 'n großes Thema sein. Die Versprechungen, die sie gemacht haben, das, was sie gezahlt haben, kann ich das im Alltag auch so verwenden. Ist Codes jetzt wirklich das, was es was es verspricht eigentlich?
- Jan
- Aber ich glaub, da haben sie schon son bisschen was gelernt. Weil wenn man sich anguckt, wie es letztes Jahr hier war, wo ja superviel so Proputäres und eigenes Zeug irgendwie im Vordergrund stand, ging's ja heute eigentlich in oder die vergangenen 3 Tage eigentlich in jeder Session immer nur so, ja, wir wollen halt da sein, wo die Developer sind und wir kommen halt dahin, wo ihr seid. Und, ne, wir bieten jetzt unsere Plug ins für Visual Studio Code, für Jet Braines, für Cursor, selbst für so und so was, also für Zeug, was nur im Browser läuft, ja, nicht mehr sone lokale ID irgendwie ist. Da wollen wir überall am Start sein. Sie haben dieses Agent Development Framework vorgestellt so mit, mach dein eigenes Zeug und betreib es irgendwie selbst mit unserem Modell oder mit anderen Modellen. Sie haben Agent to Agent Protokoll vorgestellt, wo es auch ging, na ja, Du kannst mit unseren eigenen Agents reden, Du kannst aber auch mit Agents von anderen Herstellern irgendwie reden. Ja. Sie haben viel auf Protokoll irgendwie erzählt so, hey, Ja. Wird, da wollen wir auch irgendwie mit am Start sein. Also ich glaube, sie haben schon verstanden, dass sie das alleine halt nicht gewinnen können. Ja. Und selbst wenn Du, glaub ich, voll in diesem Google Ökosystem drin bist, kannst Du gar nicht tief genug drin sein, als dass nur das dir reichen kann, ne. Also die Beispiele, die sie da gezeigt haben mit irgendwie Integration zu, also waren natürlich alles sehr Enterprises hier, ne, aber so Integration in deinen in deinen Salesforce rein oder in dein ERP System oder so was, das halt, also dann wird es halt superwert worden. Das können sie ja gar nicht alleine abbilden. Also haben sie, glaub ich, einfach gemerkt so, es muss mit den anderen zusammen gehen.
- Garrelt
- Das fand ich auch extrem zu dem Thema fand ich auch extrem cool, dass sie so viel Open Source Modelle oder auch Modelle von Meta zum Beispiel so anbieten in ihrer Cloud. Also dass es möglich ist, das zu nutzen und da Zugriff drauf zu haben und sie das auch promoten so. Das find ich schon nice. Also das hat mich gefreut, das zu sehen.
- Sebi
- Was sind denn so eure coolsten Dinge, die man jetzt auch direkt, also wenn man jetzt hier so zuhört bei dem Podcast, direkt ausprobieren kann, weil sie neu sind und geil. Neu und geil.
- Jan
- Boah, da ich glaub, da würd ich das Agent Development Framework Estcator mal probieren wollen. Das Agent Space dazu. Ja, aber das Agent Space kriegst Du noch nicht öffentlich. Also Agent Space ist ja dieses, da kannst Du deine Agenten hochladen und für dich quasi laufen. Also für alle, die jetzt nicht in der Keynote gesessen haben, kannst Du deine Agent quasi reindeployen. Ja. So und dann kannst Du ihn connecten mit all deinen anderen Agenten und mit deinen anderen MCP Quellen und hast alles nicht gesehen. Aber das ist grade nur 'n Preview und auch nur für Enterprise Kunden. Ja. So. Und es klang, also ich bin aus der Keynote gekommen mit 'nem großen Fragezeichen, weil ich gar nicht wusste, ob das überhaupt für mich als Privatkunde jemals irgendwie zu haben sein wird oder ob das 'n reines Enterprise Produkt ist. Ich hab's gesehen und dachte, boah, ich will das eigentlich auch haben. Weil so mit Zugriff auf meine Bilder und E-Mails und alles an meinen Dokumenten und bla und mach damit mal bitte was, find, das ist ja schon cool so, ja. Und vor allen Dingen auch, es läuft dann in der Wolke, ich mach meinen Rechner zu und irgendwann kommt er wieder zu mir, wenn er seinen Job fertig hat und pinkt mich an und so. Dann ist ja schon irgendwie nice. Aber keine Ahnung, ob's das für uns irgendwie jemals gibt. Aber vom, also wir sind beide von der UX, war das megacool.
- Sebi
- Ja. Sollen wir vielleicht kurz irgendwie noch mal zu erläutern irgendwie, dass dieses Agent Thema irgendwie sehr groß war und was das ist?
- Jan
- Also ironischerweise wissen sie ja selber nicht so ganz, was das ist. Also jeder, ich weiß nicht, in was für Sessions ihr so wart, aber bei mir war es so, in jeder Session, wo es irgendwie das Thema Agent und Gentic Development und so was ging, hat jeder Speaker erst mal angefangen, ja so, meine Vorstellung oder meine Definition 1 Agents ist irgendwie dieses und jenes so. Und es war selten deckungsgleich zwischen den unterschiedlichen Zeiten.
- Sebi
- Was ist
- Garrelt
- denn deine Definition davon? Also was fandest Du die Beste? Oder wie würdest Du es betiteln?
- Jan
- Also ich fand das cool, wo jemand gesagt hat, na ja, es ist halt irgendwie ein ein Prozess auf 'nem LLM basierend, der selbstständig Tools verwendet und so lange iterieren kann, bis er halt 'n vorgebenes Ziel erreicht. So. Mhm. Das das fand ich okay, so. Ja. Und was jetzt seine Definition ist von, er kann andere Tools benutzen, ne. Das kann sein, das kann andere sein, die er triggert. Das kann eine API sein, whatever und so. Aber es ist halt im Prinzip, ich geborene dir 'n Ziel vor und Du ackerst da jetzt bitte so lange dran rum, bis Du das erreicht hast. Und Du kannst sämtliche Werkzeuge, die dir zur Verfügung stehen, halt eigenständig nutzen und selbstständig entscheiden, wann Du die halt benutzen sollst. Und das das fand ich okay als Definition. Ja.
- Sebi
- Weil ich hab 'n Talk gehört, die haben das ganz schön gemacht, weil da war der CEO von Langchain da. Und da hat er einfach nur gesagt, so hey, Langchain bedeutet ja eigentlich, Du hast sone Kette irgendwie so, wo Du von von deinem prompt anfängst und normalerweise gehst Du dann einfach zu deinem zu deinem Output mit 'ner Frage. Und Langchain bedeutet ja, Du hast dann noch son Zwischenstab, weil Du irgendwie Informationen reinsammelst.
- Garrelt
- So und
- Sebi
- das wär diese Chain, also dass Du diese einzelnen Punkte durchgehst. So, Du stellst eine Frage, dann holst Du dir Infos, dann wird die Antwort generiert und dann bekommst Du sie. Und bei bei 'nem Agenten ist es halt so, Du stellst die Frage und der Agent sucht sich dann die Informationen und ist dann in sonem Loop, so wie Jan gerade gesagt hat, so. Der iteriert so lange drauf rum, bis er eben die Antwort hat. Und das fand ich irgendwie irgendwie ganz cool, weil irgendwie Langchain ist ja auch so son Buzzword,
- Jan
- wo man sagt so, hey, da geht man irgendwie durch. Und bei bei den Agenten ist das jetzt halt so, ja, da
- Sebi
- geh ich halt, beliebig lange durch, dass ich halt zum zu der Lösung gekommen bin.
- Garrelt
- Ja. Und ich glaub, Agenten wird für mich auch noch einziehen, okay, er kann halt auch Aktionen tätigen. Also er kann für mich Das
- Jan
- ist ja das, was ich mit Tools so meinte, ne?
- Garrelt
- Ja, genau. Er kann halt Tools nutzen, sich noch bestimmte Informationen zu holen, aber auch, eben bestimmte Dinge für dich zu erledigen, so. Das
- Jan
- Ja. Aber da, also das ist ja in Anführungszeichen egal. So, man kann halt irgendwas triggern, was außerhalb von diesem Model stattfindet. Ob das jetzt was Lesendes ist, was Schreibendes, was bla, das hat halt irgendwie Nebeneffekte. Fertig. Ja, genau. Könnt man so sagen, ja. Da ist halt irgendwie dieses Agent Space dann so die Umgebung dafür, wo Du deine ganzen Agenten am Laufen lassen kannst, wo sie miteinander reden können, wo Du dann halt auch im Enterprise Umfeld irgendwie verschiedene Agenten selber bauen kannst, deinen Mitarbeitern zur Verfügung stellen kannst, et cetera, et cetera. Und ja auch, es gab ja diese Preview zu dem neuen, oh Gott, ich, den Namen sag ich irgendwie immer falsch, irgendwie haben sie, hat jeder das son bisschen anders genannt. Der
- Sebi
- Kurs In der Oberfläche. Ja.
- Jan
- Wo sie diese Preview gezeigt haben, wo Du jetzt quasi in deiner IDI nicht mehr nur so mit mit dem Code Agent dann redest, sondern eben halt auch einfach nur so Ziele und Vorgaben machst und dann quasi in diesem Kann beim Board siehst, wie er quasi, ja, das Ziel runterbricht und einzelne Schritte, wie er die Einzelnen abarbeitet. Du kannst in dem Kann man Board noch sagen, okay, dieses Ziel ist aber irgendwie anders und formulier es hier noch mal und bla. Aber im Prinzip guckst Du eben nicht mehr im Code zu, also kannst Du natürlich auch immer noch machen. Aber die jetzt irgendwie präferierte Übersicht ist halt dieses, wo Du halt siehst, okay, in was für Schritte bricht er das für sich runter und was von den Schritten ist schon fertig? Wo braucht er noch mal Input, ne? Gab's ja auch so diese diesen Slot im, so, hey, hier brauch ich noch mal Input Board so, hey, hier brauch ich noch mal Input vom vom User, wo sie quasi so human in the Loop irgendwie abbilden wollen, damit sie nicht versuchen, irgendwie immer nur zu raten, was Du wohl meinst, sondern einfach 'n sehr pragmatischen Platz haben, wo Du wo dein Agent noch mal Rückfragen stellen kann und ansonsten halt an den anderen Teilen des Projekts schon irgendwie weiterarbeiten kann. Das fand ich irgendwie ganz nice. Aber das war ja noch so, na, dann kommen wir wieder auf den Punkt, den Garic gemacht, das war ja noch alles sehr frühe Beta und Preview und so. Wer weiß, wie das dann aussieht, wenn das wirklich mal fertig ist.
- Garrelt
- Aber das fand ich krass, ne. Weil ich mein, das ist ja genau der Workflow, den wir zum Beispiel auch haben mit Socanman Boards und ich glaube, viele andere Leute auch. Und das dann zu nutzen, zu sagen, okay, darüber definieren wir, was eine oder 'n Agent macht, find ich total sinnvoll, weil das genau praktisch der Workflow ist, den wir schon haben. Und wenn das dann irgendwie die AR übernimmt so und sich ihre Aufgaben daraus zieht, das find ich total gut. Also
- Jan
- Da war ich in der Session mit und und der Mitarbeiter meinte so, na ja, die Leute, die sie sehen, die so tendenziell am besten im Prompton sind, sind die Leute, die so ehemalige und Projektmanager sind, weil halt für die so dieser Flow mit, hey, ich schreib son Ticket und mein mein mein Dev macht dann irgendwie was. Damit das ist halt für die quasi schon so, wie sie jetzt arbeiten, ja. Und ob das dann 'n Dev macht oder oder 'n LLM oder 'n Agent oder keine Ahnung was, ne, ist für die wahrscheinlich son bisschen bisschen zweitreißig. Aber die ist halt schon sehr gut darin zu formulieren, was sie so so haben wollen. Und immer wenn ich son Coach Agent benutzt, kann ich auch sagen, bei mir klappt das halt nie. Weil ich mach halt so sehr verkürzte Anweisungen, weil ich mir denk so, ja, ist ja klar, was da irgendwie gemacht werden muss, ja. So wie Devsite tendenziell schlecht im Ticket schreiben sind, aber wo bin ich auch schlecht im Ticket schreiben. Ja. Und da leidet dann auch irgendwie mein mein Codeoutput manchmal dann drunter. Mhm. Oder meine meine Codegenerierung zumindest.
- Sebi
- Ich würd ganz gern den Bogen schlagen zu Jamini Media Studio. Das fand ich relativ beeindruckend. Irgendwie haben wir ja schon son bisschen angefangen, also dass hier Google jetzt eben das Videomodel, Musikmodel, was auch immer noch. Sprachtrip. Also alles Mögliche. Ja. Als dass man wirklich irgendwie sone komplette Werbung einfach mithilfe von Google machen kann. Und dass man auch einen Video hochladen kann, was man dann bearbeiten lässt von Gemini. Irgendwie, dass man einfach Sachen irgendwie weg wegtüdelt.
- Jan
- Das war schon krass. Also das haben wir alle irgendwie schon mal so gesehen mit so Magic Eraser in in Bildern und so. Aber das jetzt halt auch in Video zu haben, wo, hey, hier läuft jemand hinten durchs Bild, mach den mal da bitte weg. Und Du hast einfach nichts mehr da. Also das das fand ich eine krasse Demo irgendwie. Das war krass, ja.
- Sebi
- War ziemlich cool, ja. Das war das war 1 der Highlights für mich. Ich hab noch 2 Sachen, die jetzt kommen werden, die ich eigentlich cool fand für mich persönlich. Das war einmal von Firebase App Hosting. Also oder sollen wir grad mal über Firebase Studio sprechen? Das muss man so ein bisschen
- Jan
- rein machen, aber da war ich überhaupt gar keine Session zu.
- Sebi
- Dann machen wir das gleich. Also ich sag erst mal so, die dass wir da da 'n Haken dran machen können. Firebase App Hosting sone super convenientmäßige Git Integration, wie ich irgendwie Apps deploylen kam. Und ging bisher nur mit Next und Angela.
- Jan
- Ach krass, das stimmt.
- Sebi
- Und haben sie jetzt auch für Nuxt vorgestellt, was ja für uns für uns son bisschen bisschen relevanter ist.
- Jan
- Für uns schon krass, aber immer noch nur 2, also 3 Frameworks dann eigentlich.
- Sebi
- Und noch 'n viertes, was ich vergessen hab?
- Jan
- Ja, okay, aber ist halt immer noch nicht agnostischer am Ende. Das dann kann ich sagen, nimm dieses NPM Command und starte irgendwas, sondern es muss son ganz Stückchen Genau,
- Sebi
- weil Google versucht ja da an der Stelle auch das das Framework so weit aufzugreifen, dass die ganzen Sachen dann irgendwie ideal hoch hochbejüdet.
- Jan
- Das ist eine sehr Managed Lösung sozusagen. Ja,
- Sebi
- genau. Also NUXT gibt's bald, fand ich cool irgendwie für was auch immer, wer das auch immer hören möchte da draußen.
- Jan
- Hallo, die Programmierer läuft auf NAXT. Hallo.
- Sebi
- Und das andere, was ich ganz cool fand, ist, dass Firestore einen MongoDB Kompatibilitätsabfrageding bekommt.
- Jan
- Oh, nice. Ist wahrscheinlich nicht richtig.
- Sebi
- Ja, und das ist, glaube ich, noch mal 'n vielleicht son kleiner Gamechanger, weil man dann eben auch Aggregationen machen kann, irgendwie Dokumente counten kann und mit regulären Ausdrücken Sachen abfragen kann.
- Jan
- Mhm. Aber haben Sie also Komplexeste bei Mongo und diesen ganzen Adaptern, die ich sage immer, gibt es so das Aggregation Framework nachzubauen? Ist es so 100 Prozent da?
- Sebi
- Also Sie haben gesagt, Sie haben 120 neue Abfragemethoden in die Engine eingebaut. Ja. Also das fand ich schon so, boah, cool. Deswegen kann man sich kann man sich darauf auf jeden Fall freuen.
- Garrelt
- Wo freust Du dich am meisten darauf hin von dem, was Du gehört hast?
- Jan
- Ich hab so 3 Haupttake, weißt Du, 3 Sätze, die ich mir aufgeschrieben hab, die ich irgendwie megainteressant fand. Bei einem war Sebi mit dabei. Und zwar, als wir in der Long Context Session waren. Ihr lacht einfach, weil das für euch so lustig ist, aber ich ich find das eigentlich ziemlich beleuchten, diesen Satz. Also wir waren in 'ner Session zu langer Kontext, ist halt irgendwie cool und wichtig, dass Google mit Germany, das sagt, das hat auch irgendwie klar, weil sie die Einzigen sind, die halt irgendwie so millionenfach Millionen Tokens anbieten im im Kontext. Und im Prinzip hat der Speaker da erzählt, so, na ja, viel, was früher mit Drag gemacht werden musste, kannst Du halt jetzt mit Kontext machen. Viel, was früher mit Feintuning gemacht werden musste, kannst Du jetzt Multishot in 'nem langen Kontext irgendwie machen. Ist alles cool und macht vieles einfacher.
- Sebi
- Wissen die Leute alle da draußen, von was Du redest?
- Jan
- Das ist eine sehr gute Frage, aber die hören doch die hören doch alle regelmäßig die AI News, oder? Okay, also einmal im Kurzabriss so. Also Du musst kein Model mehr feintunen, damit das ein bestimmtes Verhalten oder einen bestimmten Skill erlernt. Du kannst ihm einfach mit deinem Prompt so viele Beispiele mitliefern sozusagen, damit das einfach daraus direkt schon gelernt hat und direkt weiß, was Du eigentlich von ihm haben möchtest. Weil eben das Kontext Window so so lang ist bei Gemini. Und der bemerkenswerte Satz, der da eigentlich gefallen ist, weil halt jemand gefragt hat, na ja, jetzt gibt's 1000000 und dann bald 2000000 Tokens in Gemdenight 2 5 Pro, wann ist denn damit noch mehr irgendwie zu rechnen? Und und dieser Speaker stand halt irgendwie vorne und meinte halt nur so relativ trocken, na ja, also intern haben wir das schon getestet und das geht auch eigentlich bis 10000000 hoch. Das ist halt nur zu teuer und das würde keiner bezahlen wollen. Und da dacht ich so, krass, also wie viel mehr eigentlich schon gehen würde und wie sehr wir eigentlich noch aus so wirtschaftlichen noch zurückgehalten werden, ja. Wo wir uns immer irgendwie riesig gefreut haben, als damals Jamelin mit 1000000 die Ecke kam, dann mit 2000000. Und technisch offensichtlich ja schon so viel mehr möglich wär. Und er hat das jetzt nicht mal erzählt mit krass viel Euphorie. Also wahrscheinlich haben die intern noch viel mehr irgendwie am Laufen, ja. Und er hat das einfach so gedoppt, ja. 10 Mille geht schon. Wenn ihr alle irgendwie die davon überzeugen könnt, dass ihr das auch bezahlen wollen würdet, dann drehen wir da morgen den den Schalter sozusagen, ja. Und das das fand ich halt irgendwie son bisschen bisschen interessant.
- Garrelt
- Aber das sind nämlich auch direkt an das, was Du gesagt hast, dass Du in 'nem Talk mal gehört hast.
- Jan
- Das wär jetzt der zweite Satz. Was mich zum Beispiel Zitat erzählt. Das fand ich der, mein mein zweiter war aus dem Talk mit auch und zusammen den Talk gemacht. Also, ja diese Cloud IDI promptte mir hier meine meine App zusammen. Und da war ein interessanter Ratschlag, den ich gesagt hab, na ja, wenn Du jetzt grade ein AI Produkt baust, dann ist er damit zu rechnen, dass Du so 3 bis 12 Monate brauchst, um's irgendwie fertigzustellen. Und dann musst Du eigentlich gegen ein LLM entwickeln, was es jetzt grade noch nicht gibt, weil er damit zu rechnen ist, dass bis Du quasi mit deinem Produkt fertig bist, ist schon eine neue Generation von Gemini, von Lama, von GPT, was auch immer irgendwie alles gibt. Und da willst Du ja eigentlich sein. Also musst Du dein LLM eigentlich in der Entwicklung immer so benutzen, dass Du irgendwas von ihm verlangst, was er grade so vielleicht hinkriegt oder noch nicht gut genug oder so. Und musst einfach sehr hohe Konferenz darin haben, dass bis Du mit deinem Produkt fertig bist, dass LLM auch so weit ist, dass es das dann nicht mehr nur zu 20 Prozent kann, sondern zu 80 oder zu 90 Prozent oder so was. Und das meinte er, ist halt so, da willst Du irgendwie grade sein in diesem Space. Die jetzt Sachen suchen, die grade so noch nicht funktionieren oder noch nicht gut genug, dadrauf eine Lösung entwickeln. Und bis Du fertig bist, ist dann auch das LLM so weit. Und der Deep mind Typ meinte dann auch noch, ihren der nennt man meinte dann auch noch so dazu, na ja, im Prinzip sind alle diese Models, die wir ja grade haben, aber auch noch, wie hat er gesagt, so. Also alles, was da draußen an Produkten gibt, ist eigentlich, also nutzt das Potenzial von den bestehenden Models grade noch nicht mal weit genug aus. Und sie könnten jetzt aufhören mit Modelentwicklung. Und trotzdem würde die Produktentwicklung da draußen noch irgendwie 2, 3 Jahre weiter funktionieren. Es würde trotzdem immer noch cooles neues Zeug kommen, weil sie halt einfach immer noch besser darin werden, die Models, die es jetzt grade schon gibt, halt erst mal sinnvoll auszunutzen. Ja. Er hat dann direkt hinterhergeschoben, dass die natürlich nicht aufhören mit der Entwicklung so, ja. Aber er wollte halt son bisschen so in die Dev Community reingehen, so, mach doch mal was richtig Cooles mit diesen Modellen, oder? Mhm. Ja. Und das waren meine 3.
- Garrelt
- Aber ich glaub, das wird ja halt auch noch lange dauern, weil ich ich hab halt mir relativ viele Talks auch angeguckt, wo es darum ging, wie bringt man das, was er schon kann und das, was vielleicht dadurch besser wird, auch in ein Unternehmen rein? Oder wie bringt man die Kollegen oder Mitarbeiter dazu, das auch zu nutzen? Und das ist das ist ein Challenge. Also da geht's viel darum, auch sich Zeit zu nehmen, noch mal 'n Schritt zurückzugehen und Dinge auszuprobieren. Aber sie wissen schon auch, dass das nicht so einfach ist. Also dass dass es viel Überzeugung braucht, auch andere mit ins Boot zu holen. Und eine coole Sache, die ich mir irgendwie mitgenommen hab, war das, was Google macht. Sie machen eine Sache, die nennt sich. Ich bin mir nicht sicher, warum sie's so genannt haben, aber was sie da eigentlich machen, ist, dass sie so Dinge, die sie irgendwie rausfinden mit der Erde, die cool sind, auf son a-vier-Blatt irgendwie drucken und dann in die Cafés legen und sich Leute diese dann mitnehmen, das sehr snackable ist und dann viele Dinge ausprobieren. Also Warum heißt das tollit?
- Jan
- Ich weiß es nicht. Ich weiß es nicht. Ich hab's dir, dass es im Café ausgelegt wird und nicht in den in den
- Garrelt
- Er hat's genauso erzählt. Also Takea on the Tollit war auf der Folie und er hat gesagt, dass sie's halt im Café auslegen. Aber ich ich glaube, es geht darum, dass man das vielleicht auch auf Toilette aufhängen kann. Vielleicht machen sie's auch, keine Ahnung. Aber das fand ich 'n coolen Ansatz sozusagen, halt Leuten was was mitzugeben, was sie wo sie Lust haben, das auszuprobieren und da da dadurch sehen, okay, das ist cool, das das funktioniert so, das kann ich mir vielleicht mitnehmen. Und ich hab nicht so ganz verstanden, was genau auf diesen Zettel steht. Aber ich glaube, dass da noch viel Arbeit notwendig ist, alle irgendwie mit ins Boot zu holen. Und für alle, die skeptisch sind, kommt gerne auf diese Konferenz. Die Next macht einen, glaube ich, sehr euphorisch über diese Dinge, was alles so möglich ist und ja, was was was man da überhaupt bauen kann. Ich glaub, vor vor der vor der NEXT war ich auch skeptischer, als ich jetzt bin.
- Jan
- Super. Sibi, was war dein Highlight?
- Sebi
- Schwierig, aber ich hab, ich würd gerne noch 2 Sachen erwähnen, die ich beeindruckend fand. Und zwar, wenn man jetzt heute an denkt,
- Garrelt
- Mhm.
- Sebi
- Weil also. Genau. Also dass ich Dokumente in überführe und dadurch mehr oder weniger viel, viel mehr Informationen mit meinem LLM abrufen kann als der Kontext
- Jan
- kann. Mhm.
- Sebi
- Und das ist ja son Konzept, was einem eigentlich so eingängig ist. Ja, okay, wenn dann dann muss ich halt irgendwie diese diese Vektordatenbank fragen. Und was ich interessant fand, war, dass sie jetzt in Big Query Methoden eingeführt haben und in AlloyDB, was die Postgres gemanagte Dot Postgres Datenbank von Google ist, Mhm. Die das out of the box schon können. Also Du musst nicht mehr irgendwie den Weg machen über deinen eigenen Code, sondern Du kannst in SQL direkt sagen, so ich das ist eine URL auf einen Bild. Und ich stell ihm eine Frage in meiner SQL Query in Big Query über, weiß ich nicht, wie viele Peter Byte an Daten. Und das fand ich schon so irgendwie so mind blowing, aber auch so sinnvoll einfach, dass es funktioniert.
- Jan
- Da fühle ich mich zurückerinnert an die an die Deep Dyl Folge, die wir mit Christian Bayer aufgenommen haben. Ich glaub, AI Integration ohne Hype oder so haben wir das damals genannt oder pragmatische AI Integration, wo wir auch darüber gesprochen haben, na ja, dieses Ganze, da ging's Vektordatenbanken und so was, ja. Und der meinte und er hat offensichtlich recht gehabt, das war vor anderthalb Jahren oder so.
- Sebi
- Und er
- Jan
- meinte, ja, jetzt wollen grade alle irgendwie Vektordatenbanken haben und werden und überhaupt. Aber er glaubt halt, dass über kurz oder lang diese diese Vektorsuche und Embeddings halt einfach son Standardfeature in jeder Datenbank sein werden. Ja. So, ja. Und offensichtlich ist das genau das, was Google grade da haben.
- Sebi
- Genau. Also Du Du kommst Das
- Jan
- ist ja recht gehabt.
- Sebi
- Du kommst quasi mit diesen Embeddings gar nicht mehr so wirklich in Kontakt, sondern das ist alles weg abstrahiert. Sondern Du kannst wirklich, ne, Du hast halt deine Das
- Jan
- hat eine Feature nur noch.
- Sebi
- Eben. Du kannst nur noch deine Fragen stellen und die Antwort puzzelt raus.
- Garrelt
- Also ich war bei sonem Workshop, wo wir ungefähr das gemacht haben. Und ich ich bin mir sicher, ob das das Gleiche ist, was Du meinst, aber zumindest haben wir halt Appadix on the fly generiert. Also Du musstest nicht mehr die Appadix generieren von irgendwie in 'nem Text oder in 'nem Bild, sondern Du kannst halt in dem SQL Statement die generieren und die dann wieder in in die zurückführen sozusagen. Meinst Du das? Oder? Nee, nee,
- Jan
- das ist schon noch ein Level einfacher, was Zabi meint.
- Garrelt
- Krass, okay.
- Sebi
- Ja. Also Du hast wie wie sone SQL Funktion, die heißt AI Punkt Boulian. So und dann stellst Du da einfach deine Frage rein so. Ist ist ein Schaden an dem Gerät auf diesem Bild zu erkennen? So, und jetzt bitte gruppier mir alle alle Absolut,
- Jan
- ich hab
- Sebi
- Alle Bilder, die einen Schaden haben.
- Garrelt
- Krass.
- Jan
- Ja. Also ist halt schon auch sauteuer so, ja, von der von der Suche so. Aber cool, dass es halt überhaupt geht. Ja, wie krass.
- Sebi
- Also das fand ich richtig beeindruckend. Ja. Und die andere Sache war mit der Wiven API von Gemini. Da war 'n Das hatte ich dir ja schon erzählt, gerade der gesagt, also der hat halt gesagt, so ja, wir können Boxes von Elementen, was auch immer. Wir können Segmentation machen.
- Jan
- Dann musst Du kurz erklären, was das bedeutet für Leute Also
- Sebi
- Segmentation, dass
- Jan
- wir mit
- Sebi
- der Damen
- Jan
- gearbeitet haben?
- Sebi
- Genau, also wenn ich jetzt 'n Bild hab von 'nem Footballspiele oder so, dass ich halt sagen kann, gib mir bitte alle also alle Hüte und alle Baseballschläger und den Ball und die Schuhe oder so was. Wenn Du
- Jan
- Footballspiel meinst, sagst Du, meinst Du Baseballspiel? Ja, richtig. Ja. Okay. Ich hab grad überlegt heute, welche
- Sebi
- Irgendwelche, ja genau. Also den Kram. Also, also, sag mal, ich hab halt irgend 'n Bild und dann sage ich so, hey, gib mir bitte irgend 'n bestimmtes Element aus diesem Bild.
- Jan
- Also wie so Freistellen quasi. Genau.
- Garrelt
- Aber das das genau mit der Rede. Du hast das dann ja ausprobiert und warst bisschen enttäuscht, oder?
- Sebi
- Moment. Ja. Und was ich interessant fand bei dem Talk war, dass er gesagt hat, so er also Jaminei 2 Punkt 5 bereitet das so weit vor, dass man keine spezialisierten Modelle mehr dafür nehmen muss. Weil ich glaub, es gibt von Facebook so 1, was irgendwie Segment Anything oder irgendwie keine Ahnung, wie das heißt. Und ja, also dass man die nicht mehr braucht und dass sie mit Gemini eigentlich auch son bisschen die Grundlage schaffen wollen für Roboter, die dann irgendwie gucken und
- Jan
- Ja, da kamen sie auch noch 2 Stände, wo sie 'n bisschen gezeigt haben, wie sie Roboter bewegen mit dem, was sie sehen.
- Sebi
- Und das das fand ich eigentlich irgendwie ganz cool. Ich glaub, wenn wir irgendwie nächstes Jahr oder übernächstes Jahr noch mal die gleiche Folge aufnehmen, dass da 'n bisschen mehr auf dem Gebiet irgendwie passiert ist. Und er meinte jetzt nur so, dass die also das Erkennen von Objekten und das Bewegen und so weiter, das funktioniert ganz gut. Aber dass die Steuerung, also dass dass man dann irgendwie die, weiß ich nicht, son Arm bewegt oder so, da sind sie jetzt ungefähr, wo man mit LLMs vor 5 Jahren war.
- Jan
- Mhm. Und Gut, ist ja auch vielversprechend. Genau. Wenn man sich die Entwicklung seit 5 Jahren anguckt.
- Sebi
- Aber ich find's zumindest ganz interessant, dass sie jetzt mehr oder weniger so diesen diesen Samensähen in ihren LLMs, dass spätere Roboter dann nicht irgendwie 25 verschiedene Modelle irgendwie laufen lassen müssen, sondern 1 haben und damit alles abbilden können.
- Garrelt
- Du meintest grad, wo NLMs vor 5 Jahren waren, aber Du meinst Machine Learning Modelle, oder? Weil jetzt, weiß
- Sebi
- ich nicht, weil's vor 5 Jahren noch keine LLMs gab. Also ich mein ich mein so, er meinte, dass so da, wo irgendwie GPT 2 oder so
- Garrelt
- Ja.
- Sebi
- War, da sind Sie aktuell mit der Steuerung von Robotermotoren oder so.
- Garrelt
- Ah, okay, das meinst Du.
- Sebi
- Und er ist sehr zuversichtlich, dass das superschnell vorangeht. Aber Sie sind halt noch nicht noch nicht da, wo es cool ist.
- Jan
- Cool. Aber 'n guter Abschluss, weil wenn wir nächstes Jahr wiederkommen oder in 5 Jahren, kommt ihr nächstes Jahr wieder? Oh, ich hab schon Bock. Gar hatte morgen Bock. Ich bin nicht dabei.
- Garrelt
- Ich kann
- Sebi
- auf jeden Fall Bock.
- Jan
- Wunderbar. Dann sehen wir uns wahrscheinlich am, oh Gott, jetzt muss ich kurz überlegen, zweiundzwanzigsten April nächstes Jahr in Vegas. Hört ihr wieder von uns. Oder vielleicht trifft man sich ja dann auch mal, wenn ihr jetzt auch Lust bekommen habt. Okay, bis bald.
- Garrelt
- Find ich richtig cool.
- Jan
- Wir freuen uns, wenn wir hier noch mehr Leute mit Programmierbescheid rumlaufen.
- Sebi
- Das war
- Jan
- super nice, ja. Wunderbar. Dann viel Spaß. Schön, dass ihr zugehört habt hier aus Vegas. Wir gehen jetzt ins Abendprogramm und damit verabschieden wir uns.
- Sebi
- Finde ich jetzt zu stehen, ne.
- Jan
- Ja, also, ist das so. Dann bis bald und tschau tschau.
- Sebi
- Bis dann. Tschau.
- Jan
- Macht's gut.