News 16/23 –

AutoGPT und Scaffolded LLMs // Flutter 2023 // Google Magi // Node.js 20 // VueUse 10

19.04.2023

Shownotes

KI kann aktuell natürlich nicht fehlen: Fabi führt uns in den neusten Trend der Scaffolded LLMs ein. Neben dem AutoGPT-Hype der letzten Tage gibt's den Hinweis auf den Blogartikel von Beren Millidge, das Paper zu HuggingGPT (Microsoft nennt es Jarvis) und einen Link zum HuggingGPT Playground.

Google verliert 55 Milliarden an Wert, weil Samsung erwägt, per default auf Bing zu wechseln – vermutlich auch wegen der KI-Vorzüge. Vielleicht kontert Google schon sehr bald mit Magi

Jojo gibt uns heute einen Überblick über die vor kurzem veröffentlichte Strategie für Flutter 2023.

Node.js kommt in der nächsten Version 20 und führt unter anderem ein Zugriffsmodell ein. 

VueUse bringt einige Neuheiten mit Release 10 an den Start und macht die Arbeit mit Vue noch angenehmer.

/transkript/programmierbar/news-16-23-autogpt-und-scaffolded-llms-flutter-2023-google-magi-node-js-20-vueuse-10
Also herzlich Willkommen zu einer neuen programmier.bar News Folge. 16 23. Ich wollte heute mal wieder mein IT Frontend ändern. Habe heute gesagt Herzlich willkommen! Nicht nur Hallo und herzlich willkommen. Aber es war direkt auch angenehmer als ein Urlaub. Wo man versucht. Etwas weniger aufgefallen ist, weniger negativ. Aufzufallen. Danke. Wer bist du? Der Fabi? Der Sebi? Hi. Ich bin Dennis. Wir freuen uns heute nicht nur ein Team zu haben. Wir freuen uns auch sehr Era Timo rüber zu bringen, weil das ist halt das Ding, was im Moment überall durchs Netz geht und wo man dran sein muss, was jeden Tag an News überall kommt. Von daher machen wir das auf jeden Fall, auch indem wir über Agentllems sprechen. Und ein bisschen ja Gerüchte, was Google da noch gerade macht, weil sie sich ein bisschen angegriffen fühlen durch all das, was passiert. Aber haben zusätzlich die Flatter Roadmap für 2023 uns angeguckt und es gibt auch dazu Hughes und Not. Habt ihr Lust zu starten oder nicht? Okay, du darfst anfangen mit dem Update zu Wie du es schöner machst. Ist das überhaupt was Gutes? Das sind die richtigen Fragen, denn das Virus ist von. Ist nun ein Paket an Compose Builds für das Framework und was versteht man darunter? Also Compose Builds ist immer ein Code Paketchen, was ein spezielles Problem löst. Am Beispiel Ich möchte gerne auf meiner Fugu Website einen Intersektion Listener registrieren, um irgendwas zu detektieren, ob das vielleicht gerade aus dem Bildschirm rausgerutscht ist oder zu wie viel Prozent das sichtbar ist. Und die intersektionalen PI APIs kann ich auch manuell bedienen. Aber Virus? Verpackt das irgendwie noch mal ganz angenehm, dass ich das im Kontext reaktiv verwenden kann. Ein Miniaturbeispiel oder das ich den Request Animation Frame reaktiv benutzt kann. Also im Google Storage. Google Storage genau und aller möglichen Beispiele bis. Sondern noch mal gerappt. Auch die Push API. Auch die Push API. Ich glaube ich kenne ein paar Sachen, sind aber ein paar Sachen sind auch als Integrations noch mal rausgezogen. Die sind ein bisschen zu groß für den Scope. Zum Beispiel am Firebase ist jetzt auch mit aufgehängt. Jedenfalls dieses ganze Paketchen hat ein Update bekommen, ist jetzt in der Version zehn verfügbar und hat jetzt auch die Möglichkeit einen Komplex zu bekommen, um auf die Web Animationen API zuzugreifen. Coole Sache und eine Möglichkeit CreateTemplate Promise zu erstellen. Und dabei geht es darum, dass ich manchmal ein Template anzeigen möchte, wie modal das Fenster oder irgendwie eine Rückfrage, die beantwortet wird und dann wieder verschwindet. Also das ist eigentlich wie so ein Thomas, was auf das ich warte. Dann klickt der User irgendwas und dann ist das Resolve. Kann man jetzt damit formulieren und sonst eigentlich nichts. So Feedback das jetzt aber also auf jeden Fall updaten. Ist das so, dass man Virus eigentlich standardmäßig benutzt, wenn man Vuex benutzt oder sollte man es schon benutzen? Oder gibt es da irgendwas, was dagegen spricht. Dass es dagegen spricht, es nicht zu kennen? Es ist auf jeden Fall optional, was es ist. Letztendlich basiert natürlich auf diesen Prinzipien von View, was natürlich auch sinnvoll ist zu verwenden, weil es hat einfach, wie es eben gesagt hat, viele Sachen im kapselt und finde ich schon bereitstellt in der gleichen Art und Weise wie du halt viele Komponenten dann selber bauen würdest. Aber ja, es bietet einfach sehr viel, aber du musst das nicht machen. Und der Nachteil ist, dass ein bisschen größer, das man ein bisschen größer macht. Oder was wäre ein Nachteil? Alles was so einen Code schreibe ist noch der andere. Doch das sind alles optionale Komponenten. Also es gibt sozusagen nicht so ein Base Framework oder so, dann glaube ich brauchst und dann einbinden musst, sondern. Das ist das, was ich sage, aber importierst nur die Funktionen, die du gerade brauchst. Und von daher spricht in meiner Welt eigentlich nicht so viel dagegen, das zu verwenden. Und wir nutzen es in all unseren Projekten oder. Zufällig hier zufügen. Das wollte ich wissen oder das wollten vielleicht unsere. Hörerinnen Benutzer auch oder dann das in dem hier ist das Ding für unsere Gameshow äh. So hat es schon. Immer so. Das könnt ihr ab und zu ab und was die Gamescom war. Das wir haben so was eigentlich oder im Rahmen der Weihnachtsfeier oder ein Geschenk glaube ich war das am Ende für die für die Gründer von Lotum haben wir eine Game Show inszeniert und da war die Herausforderung, dass wir praktisch verschiedenste Spiele zusammenbringen können inhaltlich und dann so Sachen wie, dass wir ein, dass wir Bluetooth Base haben, wo man dann Fragen beantworten kann, dass eine Lichtanlage parallel damit gesteuert wird, über was waren das noch MIDI, Midi Controls usw. Und dafür haben wir eine kleine WWW gebaut, die das wandelt und man strukturierte Sachen. Und Punkte anzeigt, Punkte anzeigt. Genau. Schön, was man als Arbeitszeiten ja, das kenne ich ja gar nicht oder nicht live gesehen. Aber es war sehr cool. Könnte das ganze noch mal ein Revival geben von dem Denken, dass es wiederverwertet wird und einfach nächste Weihnachtsfeier sich nicht neues überlegt wird, sondern einfach das machen mit meinen neuen Inhalten. Ich auf jeden Fall. Und ansonsten haben wir noch ein Update bei dir. Aber das kannst du dir auch sparen. Was gibt es Neues bei dir? Das kannst du dir auch sparen oder das kannst du dir sparen. Kann es dir aufsparen für. Das Thema am Ende. Genau. Was gibt es Neues bei Flattr? Also Flattr hat da ein Strategiepapier herausgegeben und man sieht eigentlich, dass dieses offizielle Papier eine Abwandlung ist zu dem, was sie intern mal kommuniziert haben. Also sehr viel darauf eingehen, warum letztendlich Google irgendwie in Flattr investiert, was es für Vorteile für Google hat, letztendlich da in dem Bereich aktiv zu sein. Und ja, es ist ganz interessant, so ein bisschen natürlich irgendwie auch den aktuellen Stand zu erfahren und auch so den Ausblick, was jetzt so der Fokus ist. Zum einen geben sie halt erst mal so einen Überblick, was halt momentan State of the Markt ist und das es momentan ja. Jede fünfte App wird eigentlich mit Flattr entwickelt, die im Play Store veröffentlicht wird. Also ist es so ein bisschen weniger und das heißt, es war im letzten Jahr oder insgesamt sind es über 700.000 Apps, die halt eben auf Later basieren. Und das ist natürlich aber auch die Adaption jetzt auf die neuen Plattformen, also ist ja ein bisschen länger schon da, denke ich später noch bisschen drauf, aber gerade der Desktop Support auch sehr aktiv genutzt wird und wohl auch überraschend viel genutzt wird, also die Adoptionsrate deutlich höher war, als sie eigentlich in. Approximiert haben. Und das liegt aber auch daran, dass eben Flutter, also die die Desktopversion sehr oft von Flattr Entwicklern genutzt werden, um halt einfach eine App zu bauen. Wenn sie auch eine andere Plattform wie zum Beispiel oder Mobile eigentlich bauen, dann trotzdem eine Desktop App letztendlich mit aufsetzen, um dann schnellere Entwicklungszyklen letztendlich auf diesem Weg abzufangen. Das machen wir zum Beispiel für unsere Plattform genauso, weil doch sozusagen diese Updates dann, obwohl es dann Reload gibt, ein bisschen langsamer sind und auch dort man immer den State verliert, ist es so, dass die max App letztendlich diesen State behält, sodass wir eigentlich lokal immer mit der Mac OS App entwickeln und dann eigentlich nur für den Release dann eigentlich ein Webbild erzeugen, was halt einfach so die Entwicklungsfahrt eben einfacher macht. Aber dafür wird es eben sehr viel genutzt. Und ich glaube, das heißt, da ist jetzt komplette Feature und so hält sich auch alles so, dass man sich da ziemlich drauf verlassen kann. Wenn das. Ja, also sie arbeiten immer noch daran, natürlich das eins zu eins irgendwie zu unterstützen und das ist auch etwas, wo sie letztendlich in dem Web dieses Jahr noch in diesem Jahr noch mehr investieren wollen, um diese Feature auch im Blick zu haben. Wir haben eigentlich so den Eindruck, wir hatten nur so zwei, drei Stellen, die sich unterschiedlich verhalten haben, wo man auch spezielle Web APIs ansprechen muss, wo man dieses spezielle Feature dann noch mal im Web testen muss. Aber alles andere soll man für eine recht grobe DOI und aber. Die Engine wird uns im Web Version diese kennen wir es. Genau diese kennen das Kind genau. Und wenn ihr die meckert, ist es eigentlich eine andere Engine. Also man geht davon aus, dass sie einfach alles sehr gut entwickelt haben und man. Es ist halt schon so, dass das kennen wir eigentlich die gleiche Zeichen hier eigentlich man geht dann zu Web Assembly kompiliert und runter verwendet wird so dass dann das Look and entfiel und das Aussehen eigentlich identisch ist. Wir können es noch nicht ändern, dann wäre es natürlich schon deutlich unterschiedlicher. Aber ja, so ein bisschen geben wir natürlich auch den Ausblick, wie verhält es sich mit anderen Cross-Platform Frameworks, dass also da, wenn man die Apps überliest von auf later in Summe dass dem entsprechen, was in allen anderen Cross-Platform Frameworks eigentlich entwickelt wurde und dass man da auch sieht, dass entweder mit der Interest zurückgeht oder vielleicht geblieben ist, also sich nicht weiterentwickelt hat, also dass eigentlich alles von dem, was jetzt in Cross-Platform geht, eigentlich von Flattr eigentlich aufgegriffen wird. Was Sie aber auch hier ganz klar sagen, dass natürlich der Websupport eben das ist, wo sie momentan noch den die größten Baustellen haben, was am meisten noch nicht ausgewickelte entwickelt ist. Es gibt einige große Hersteller, die inzwischen darauf setzen, dass hier wieder die Flattr Flow formuliert worden oder auch Google Family genannt und sie werden aber sehr viel dieses Jahr drin investieren, dass sie, weil sie natürlich kennen, was nutzen und auch Web Assembly sehr viele APIs nutzen, die jetzt gerade in der Webentwicklung sind. Also ein etwas, was zum Beispiel fehlt. Was sehr interessant wird, ist was am Garbage Kollektoren, dass man sozusagen aus einer anderen Sprache was ansprechen kann und letztendlich solche Collection Features aus dieser Haussprache nutzen kann und das dann letztendlich auf der Seite dann unterstützt wird und das ist ein Feature, was es noch gar nicht gibt, was aber sozusagen momentan als traf existiert und was einfach eine Grundlage sein wird, um halt viele Features, die momentan nicht händischer gelöst sind, eigentlich dann für den Websupport zu unterstützen. Und genau was jetzt 2023 Strategie ist, die werden sich weiterhin letztendlich auf den Groß von Nutzern fokussieren. Zum einen, dass sie halt sagen okay, sie müssen halt weiter das Ecosystem aufbauen, das eben dort Bibliotheken zur Verfügung stehen, die die Entwickler unterstützen. Sie haben ja grundsätzlich so diesen Ansatz. Okay, wir fokussieren uns eigentlich auf die Developer Experience. Da wollen wir, sagen wir, das bestmögliche System für die Entwickler bieten, um Pakete zu nutzen zu können, einen schnellen Entwicklungszyklus fahren zu können oder auch eine gewisse Sicherheit natürlich der App zu gewährleisten. Und alles andere wird eigentlich danach kommen und arbeiten mit sehr vielen Partnern zusammen, um genau das zu unterstützen. Und das Thema Nummer eins, worauf Sie fokussieren, ist eigentlich Performance. Da ist es letztendlich so, dass sie im Desktop Bereich natürlich auch die Performance weiter verbessern wollen und alles das, was sie mit Impeller begonnen haben, das man jetzt wegen diesem an die meisten denkt, nicht mehr irgendwie diese Integration Tests fahren muss, Das werden sie weiter ausbauen. Sie haben momentan die erste, die erste Version draußen, werden aber auch da sicherstellen, dass es eben für Android eben genauso gut funktioniert und das eben auch für den Support verschiedenste Themen angegangen werden. Zum einen natürlich der bessere Web Assembly Support, das Multi Transit Rendering unterstützt, das auch die Kommunikation zwischen JavaScript und dadurch eben vereinfacht wird. Und auch das die Bande ist deutlich reduziert. Wenn man es, indem man zum Beispiel bestimmte Codezeile abschnitten kann, das insgesamt letztendlich das Web Assembly Wandel deutlich kleiner wird. Und das ist natürlich auch ein Thema für uns gewesen, mit dem wir uns sehr lange beschäftigt haben, wie wir sozusagen es der Initial Start up Zeiten eben verbessern können. Also das ist ein großer Fokus für 2023, dem Web Support zu verbessern, was für uns natürlich sehr spannend wird von unserer Werbeplattform auf. Der zweite Hauptaspekt ist die Interoperabilität. Also zum einen wollen Sie sagen, es gibt neue. Architekturen wie zum Beispiel ARM oder auch die Architektur, die, glaube ich, im asiatischen Markt sehr stark aufkommt, dass sie dort Support bieten für den Web Support, eben eine einfache Kommunikation für iOS. Letztendlich, dass man einfacher mit Swift und objektiv sie Code von über DatFay kommunizieren kann. Und als dritten Punkt geht es darum, die Portabilität letztendlich zu gewährleisten, also letztendlich mehrere Plattformen genau zu unterstützen. Dass man da ein Feature hat, was man wirklich auf allen Plattformen nutzen kann, so dass letztendlich da nicht so ein Cross-Platform Framework sein wird, wo man für jedes Framework, für jede Plattform einen einzelnen Ansatz nehmen muss, sondern wirklich ein gemeinsames Framework, ein gemeinsamer Ansatz, der wirklich auf allen Plattformen dann dann funktioniert und die gleiche Experience bietet. Beim Ecosystem werden Sie eben sehr viel investieren. Letztes Jahr waren wir auch Partner davon, dass Sie so ein Game Toolkit Game Thought aufgesetzt haben. Und da haben Sie jetzt eben auch die Erfahrung gemacht, dass es sehr gut angenommen wurde, das letztendlich immer weiter genutzt wird. Ich glaube, es waren 15.000 Spiele, die letztes Jahr entwickelt und veröffentlicht wurden. Und so was Ähnliches werden Sie zum Beispiel auch für den NFC Bereich machen, also dass bestimmte Arten, wie letztendlich News Distributoren ihre Information veröffentlichen können, dass das gebündelt wird, dass es da standardisierte Komponenten gibt, sodass Newsseiten, News, Apps letztendlich dann einfach diese STANDARD Komponenten, diesen Ansatz wählen können, um dann Ihre App darauf aufzubauen. Ein wichtiges weiteres Thema ist Security. Wir merken es natürlich bei MM, wie viele Supply Chain Angriffe da inzwischen stattfinden und das natürlich vielleicht momentan noch so ein bisschen ausgenommen ist, weil das noch ein bisschen neuer ist. Aber mit der wachsenden, mit dem Wachsen erfolgt natürlich das auch immer. Immer interessanter wird da vor allem letztendlich diese SLSA Security vier Standards, dass es vollständig unterstützt wird. Da wird Google auch entsprechend Hauptaugenmerk darauf setzen, das weiter zu verbessern. Und so ein bisschen ist es halt so, dass man am Ende halt liest oder was so ein Ja, ich will nicht sagen, es ist ein komisches Gefühl, dass Sie sagen also momentan letzten Jahr wurden 10.000 Fuß auf auf GitHub geöffnet und dass sie es nicht schaffen, letztendlich alle diese Shows wieder zu schließen. Also momentan natürlich viele Sachen entstehen und das natürlich auch bei den Kunden so manchmal diesen dieses Gefühl hervorruft. Hey, Sachen, die wir adressieren, die wir bei uns vielleicht auch in unserem Produkt wirklich behindern, die werden nicht irgendwie zeitnah adressiert und das ist etwas, wo sie mehr investieren wollen, was auch immer das heißt. Also Sie sehen schon natürlich, dass das eine gewisse Gefahr ist, wenn die Entwickler feststellen, es fühlt sich nicht so an, als ob dieses Produkt eigentlich mit der Entwicklungsgeschwindigkeit standhalten kann, dass natürlich dadurch das Interesse so ein bisschen abflachen kann. Also das macht einem natürlich, ich will nicht sagen, so ein bisschen stutzig, aber ist natürlich so die Erfahrung, die wir auch gemacht haben. Also gerade jetzt, Anfang des Jahres gab es so eine Platte, drei, drei Versionen, die wir gar nicht nutzen konnten, weil in der Bibliothek hatten sie irgendwas verbastelt haben, Also da gab es eine Änderung in der API, die wir verwendet haben in einem Paket, was wir verwenden, die sie nicht bewusst geändert hatten, wo wir dann lange darauf warten mussten, bis wir wieder eine Version hatten, wo dieses gefixt war. Also man merkt einfach, es braucht ein paar Zyklen, um dann vielleicht solche Zustände wieder aufzulösen. Und das wollen sie jetzt zumindest zu Beginn des Jahres deutlich stabilisieren, sodass ich zum Ende des Jahres wieder mehr auf neue Features konzentrieren können. Aber ja, man merkt zum einen Natürlich kommt es durch die hohe Adoptionsrate natürlich auch einen breiten Fokus, die natürlich vielleicht abdecken will, wirklich alle Plattformen anzusprechen, dass da so viel reinkommt. Aber es ist natürlich auch eine große Herausforderung, letztendlich dieses Aufkommen dann irgendwie zu meistern und da auch eine neue Features und Verbesserung einzubringen. Also ich würde sagen, es bleibt spannend für uns immer natürlich noch ist es wieder cool, damit zu arbeiten, auch mit den Ankündigen, die jetzt gerade im Flutter Bereich erfolgt sind. Das weiter zu verwenden, zu beobachten, was da kommt und schauen, wo die Reise hingeht. Sehr cool. Danke dir. Weißt du, wie groß das Team ist? Also das Phazer Team bei Google? Nein, da habe ich noch nie eine Information drüber gefunden. Also es war mal so, als wir auf der Vikings waren, sagten sie, es ist in dem Viertel von dem Team da. Wie viele Benutzer es waren. Vielleicht 20, Also es könnten so vielleicht 80 sein, aber das ist wirklich nur eine Schätzung. Also habe ich überhaupt kein Gefühl, für wie viele Leute da wirklich involviert sind mit Marketing. Wenn es 10.000 wäre, dann müsste nur jeder eine schließen. Ja gut gerechnet, aber das ist noch nicht alles erklärt. Wahrscheinlich habe ich es gemacht. Ich glaube, es ist auch viel drum herum, was einfach das ganze Ökosystem, Betreuung und Testing überprüft hat. Die zufällige Auswahl von die Statistik genannt hat es, dass jede fünfte App Flutter App ist ihm gesagt, was die anderen so sind. Das gibt es noch. Also, wie stehen Sie da im Vergleich zu anderen Cross-Platform Framework? So ist der Rest zum Großteil. Dann werden wir. Abstimmen. Ich ist so, dass alle anderen Cross Framework kombiniert in Summe weniger als Flotte haben. Danke sehr gerne auch. Für euch wiederholt. Das sind Ihre eigenen Aussagen, die vielleicht auch immer ein bisschen mit Vorsicht zu genießen, aber ja. Auch wohl relativ gut tracken können. Ich glaube, da gibt es auch nichts. Wir werden einfach den Link mal mit reinpacken. Könnt ihr euch das alles irgendwie selbst durchlesen? Und da gibt es glaube ich auch den Link dazu, wo sie diese Information über diese Liste gezogen haben, dass man das noch mal nachvollziehen könnte. Cool. Fabi, hier reden wir über es ist die nächste. Würdest du es als nächste Iteration von Generative? Ja. Ja, auf jeden Fall. Wenn schon, okay. Ich glaube gerade sehr sehr interessante Entwicklung, glaube ich gerade. Du hast ja glaube ich vorhin gemeint, das Thema was wie wir es diesem Agent MS und oder und ich glaube, dass der Begriff den die meisten aktuell gerade kennen im Umfeld des Auto gibt es glaube ich, gerade eine ziemliche Welle schlägt und Autos nutzt. Im Prinzip also eines einer, auf das ich gleich mal eingehen will. Aber was Autodiebe am Ende macht ist es nutzt als Kernstück auf jeden Fall ein gutes Modell. In dem Fall gibt es 3.5 und man, wenn man es mal ganz grob beschreibt, man kann Auto gibt ein Task geben und Autodiebe geht ganz selbstständig durch den iterativen Prozess und bedient sich dabei des guten Modells, einen Task zu lösen. Also wenn man mit gibt interagiert, so dann sagt man einfach okay, es gibt einen prompt, man promotet das und kriegt eine Antwort darauf, sondern ist dann weg. Man muss selbst so ein bisschen rausfinden, was man tun muss, um zum Ziel zu kommen. Lautet mein Ziel. Zum Beispiel Das könnt ihr Python geschrieben, könnt ihr das Open Source, könnt ihr euch auch selbst installieren. Habe ich mal gemacht. Ich habe die Aufgabe gegeben, es soll für die Programmier.bar nach neuen Themen suchen und einen passenden deutschsprachigen Speaker für diese, für diesen, für dieses Thema und gegebenenfalls ihn auch noch zur Folge ihn oder sie zur Folge einladen. Und was macht es also? Es hat als sozusagen das Kernstück, mit dem es es immer wieder iterativ gibt und probiert, sozusagen dort den Task zu lösen hat. Eine eigene Task ist weiß. Okay, diese Schritte muss ich wohl durchgehen, ist das erste was es tut. Also man gibt ihm die Aufgabe. Dann habe ich noch so ein paar Unterpunkte gegeben, habe gesagt, so Ziele sind fallen, finde ein neues Topic, such nach einem deutschsprachigen Speaker und Speaker und dann nutze es gibt um eine Task Liste zu erzeugen und sagt okay, ich glaube diese Schritte muss ich ungefähr durchgehen und probiert sie dann zu lösen. Und um diese Schritte zu lösen, kann einerseits immer wieder das Prompting, also immer wieder selbst repetieren, um irgendwie den nächsten Schritt zu erfahren. Kann aber auch entscheiden. Okay, jetzt macht es Sinn, zum Beispiel den den Browser zu nutzen und es hat zum Beispiel eine Schnittstelle, um mit einem Browser zu interagieren, um das Web zu schreiben als Information und es hat aber auch andere Möglichkeiten, wie Code auszuführen oder ähnliches für mein Task, was eigentlich immer den Wechsel zwischen CPT und und und einem und einem Browser und es wird dann immer noch ein Chromium Instanz da aufgemacht. Genau und so witzigerweise. Man kann dann dann dem dem Ganzen verfolgen und immer wieder sagen okay, als nächstes würde ich das machen. Darf ich? Dann kann man sagen ja, mach diesen Schritt oder mach einfach mal die nächsten fünf Schritte erlaube ich dir, mach einfach mal und was da rauskam, da war es, wurde es wurde dann evaluiert, verschiedene Webseiten gelesen. Am Ende war Autor gibt sich nicht ganz sicher. Drei Themen standen zur Auswahl Artificial Intelligence and Healthcare, The Future of Remote Work und Cybersecurity in the Age of IoT Auto gibt, hat dann vorgeschlagen Sie glauben, der Future Remote Work ist das Thema, was wir als nächstes machen sollten. Und als Speaker wurden uns ein Paar vorgeschlagen, und zwar als erstes. Dr. Johannes Droghac, Futurist und in Digitale Transformation das Brocken extensiv wie Topic of Remote Work hieß, also in Kombination noch mehrere vorgeschlagen, dass wir uns mal überlegen, ob wir, die man Auto gibt vorgeschlagene Folge machen können oder bis zum Einladen kam ich dann der jetzt gar nicht hat dann irgendwann manchmal endet es einfach im Leeren. Also was nicht geschafft hat war am Ende den irgendwie zu machen. Da war ich mal gespannt, weil es gab wohl auch schon Beispiele wo Auto gibt, dann Pizza bestellt und so für ein. Genau. Aber grundsätzlich kann ich eine Aufgabe geben. Es kann durch den iterativen Prozess mithilfe von einem Large Language Model probieren, diese Aufgabe zu lösen und verschiedenen, sagen wir mal Plug in. So, und wenn man das beschreibt, ich glaube viele reden, wenn man über Auto Cockpit oder ähnliches spricht, wird auch gleich noch mal über von Microsoft. Es. Von diesen Agent Elm. Ich fand ganz interessant Es gibt einen Blogartikel von Baron Milligan. Der arbeitet aktuell als Research Icon CQRS al Research Unternehmen war irgendwie an der University of Oxford als Postdoc dran, Research Computational Science und der hat einen Beitrag darüber geschrieben und gesagt okay, das Ganze, ich weiß es jetzt den Begriff geprägt hat, aber er würde Agent Lems sind für ihn ein bisschen zu eingeschränkt. Er sagt, er spricht von CFM, weil eigentlich spricht man davon, dass man einen Natural Language Computer bauen kann mit der Hilfe von eben diesen Lems. Und Lems beschreibt eigentlich einen Architekturprinzip, was eigentlich das ähnlich Architektur Prinzip ist, wie Computer funktionieren. Also ich glaube, er vergleicht es mit dieser ursprünglichen Von Neumann Architektur, die ich selbst nicht ganz genau kenne. Aber wenn man es mal vergleichen würde, könnte man sagen, in all diesen neuen Generative oder LEMs ist so, im Kern steckt immer ein Latsche Language Model und Language ist wie beim Computer eigentlich die CPU, also die CPU auf der Ebene Bits in Bits outs oder wird auf einer Ebene mit interagiert und bei dieser CPU, was dann ELMS ist String in string out, also immer natural language. Gebe ich rein, gebe ich raus. Aber das ist meine CPU, die probiert alle Aufgaben zu lösen ist. Das ist das Herzstück und dann gibt es verschiedene andere Komponenten, weil es halt so ist, wie man ja auch beim Computer auch hat, gibt es irgendwie verschiedene Memory Units. Also ich habe den ich habe im CPU einen sehr, sehr kleinen Speicher, ich habe den RAM, was für die alle alle Informationen, auf die schnell zugreifen möchte, sozusagen zur Verfügung steht und dann habe ich noch die Festplatte usw. Und wenn man dann vergleicht, was aktuell so ein gutes Modell als wirklichen Speicher, auf den es direkt zugreifen kann, gibt es ja eigentlich nur den Kontext oder das, was im Prompt ist. Und das ist durchaus durchaus beschränkt, also wenn man es hat verglichen. Aktuell kann ich vor ich glaube acht Kilobyte konnte oder 8000 Token Kontext mitgeben was ungefähr entspricht so acht Kilobyte RAM der vergleicht den Kontext, den ich eine Einheit mitgeben kann. Ist es eigentlich, wie der RAM sehr schnell zugreifen kann? So, die CPU kann sofort damit interagieren und vergleichen. Okay, wir befinden uns damit ungefähr im alter Zeitalter von Commodore 64 so, wenn man wenn man vergleicht, wie viel RAM ich da gerade habe und dazu ist dann bei diesen ganzen generativen Modellen okay, außerhalb des Rams brauche ich natürlich irgendwo noch mehr Kontext in die Speicher muss so acht Kilo reichen nicht aus, um Podcast Speaker zu finden. Deswegen haben all diese Probleme noch irgendeinen weiteren Memory Layer. Also ich glaube bei Otto gibt kann man verschiedene Memory Layer anbinden, da kann man einen Redis nutzen. Ich glaube, wenn man es einfach so aufsetzt, hat man einfach lokal auf jeden Fall System abgelegt. Aber das heißt, er speichert sie eigentlich immer vom Grundprinzip. Wenn man sich vorstellt, er fragt eigentlich immer an, sozusagen okay, was sind meine nächsten Taste, probiert auch mit Yep, entweder man gibt oder so was wie dem Browser also was diesen Task auszuführen speichert sich den Kontext in dieser in dem Memory und probiert dann immer in jedem Prompt den Teil des Memory zu nutzen, der für den nächsten Stepp wichtig ist, weil er nicht gibt, einfach den gesamten Memory mitgeben kann. So ist einfach reicht nicht aus. Und genau gesagt, wir haben, wenn man es mit dem Computer vergleicht, CPU ist es gleich Language Model. Wir haben irgendeine Memory Schicht, was dann irgendwie so was ist wie die die Festplatte oder so was, was dann bei Auto Redis wäre oder irgendetwas anderes. Und wir haben Input Output. Also so in einem Computer brauchst du irgendwie kann auch wie Drucker ansprechen willst denn du willst den Bildschirm ansprechen und was Input Output bei beim bei der von Neumann Architektur sind sind bei diesen im Endeffekt ist jetzt noch gibt es auch keinen perfekten Begriff dafür aber zum Beispiel ChatGPT oder OpenAI eines Plugins also dass ich irgendwie eine Form hat, mit der Außenwelt zu interagieren, wie beispielsweise einem Browser oder oder dass ich Code ausführen kann oder ähnliches genau beschreibt und er meint, dass es wahrscheinlich ein bisschen ist. Super interessanter Blogartikel, dann können wir mal auf jeden Fall teilen, aber auch darüber, ob es jetzt ein bisschen so wie dem muss Law so ein bisschen sich jetzt gleich entwickeln irgendwie exponentielles Wachstum man der jetzt sieht und so und er glaubt dass die nächsten Jahre wahrscheinlich so weitergehen wird dass die sehr viel schneller, sehr viel mehr Kontext haben können und sehr viel mächtiger werden, aber wir schneller an irgendeine Grenze geraten werden, weil es halt viel, viel teurer ist, als so ein CPU weiterzuentwickeln, weil sie sagen kann, dann, wenn es halt irgendwann soweit ist, dass ein neues Modell zu trainieren 10 Milliarden kostet, dann wird, selbst wenn er jetzt so ein bisschen, dass es so wie bei den Chip Herstellern ein paar Oligopole geben würde also ein paar Firmen die sozusagen den Chip herstellen, wird wahrscheinlich auch bei den Large Language Models ein paar Firmen geben, die sozusagen einfach, dass es wieder wie Chip Hersteller sagen, die das ist das Corporate Language Model auf das alle zugreifen und alle drumrum bauen sozusagen dieses Element nutzen die als als CPU so und auf jeden Fall super interessant. Artikel kann man sich mal durchlesen und in dem Zuge dann auch noch. Was ich ganz interessant fand so eine Alternative Auto gibt wäre eine eine Variante von Holmes. Gibt doch nicht Baby. Egal. Und so habe ich mir das gar nicht genau angeguckt. Interessant fand ich noch Microsoft Chaves. Das ist nämlich. Also basierend auf einem Paper, das ich auch gelesen habe. Fand ich auch sehr interessant. Also eigentlich heißt es Hacking CPT. Angelehnt an Hacking Fake. Am letzten Freitag mit Phillip Schmitt geredet von dem Technik LED von Hacking Fake. Übrigens hier auch wieder Philipp. Wenn wir irgendwas falsch sagen, bitte korrigieren. Wahrscheinlich hören und super interessantes Topic oder Paper, weil Jarvis oder Hacking gibt es auch eines? LM Nur was das Auto gibt. Also beide nutzen Chat, GPU oder CPT 3:00 5als als CPU sag ich jetzt mal, aber die input output sind bei Auto gibt der Browser und was wie einen Code in. Und aber bei Hacking gibt ist die haben es überlegt okay es wäre ja super cool wenn wir ne LM als CPU haben, aber dann um diese etwas auszuführen, wie ganz viele andere AI Models nutzen können und okay. Aber wie soll es funktionieren? Wie ist der Input Output? Also so eine LM spricht ja auf Texsbasis. Wie kann man rausfinden, welches Modell jetzt genutzt werden soll haben kann? Okay, Hacking Face hat ja eine super große Library von allen Modellen, die alle super deskriptiv beschrieben sind. Genau was sie machen, was sie als Input Output benötigen usw. und haben gesagt, sie nutzen Hacking Face als Informationsplattform, um die Daten zu skippen. Was gibt es für Modelle? Können die an die LAB füttern? Dann kann die LAB die CPU entscheiden. Okay, ich habe einen bestimmten Task. Welche Models brauche ich denn? Man kann hier auch auf Hacking Fake ausprobieren und das Beispiel ist also das coole ist das diese einmal das hat super viel Image Processing zum Beispiel machen können. Sie haben es für ein Task wo dann irgendwie gesagt wird hier sind irgendwie drei Bilder als man gibt drei Bilder, nimmt Text mit und sagt okay, analysieren wir diese drei Bildern, sagt man, In wie vielen der Bilder sind Zebras? Also wie viele Zebras siehst du in diesen Bildern und so? Und dann werden halt verschiedene Modelle genutzt zum Objekt Detektion zu machen. Am Ende wird das Bild auch wieder zurückgegeben. Es wird ein Modell genutzt, um über die Rotratings über die Zebras zu zeichnen und so am Ende wird es dann noch an einem anderen Modell gegeben, das dann das Ausgabebild beschreibt, sozusagen analysiert und wieder in Text formatiert. Und dass da ganz viele verschiedene Modelle genutzt werden können, um dann ein anderes war. Hier ist ein Bild von einem Jungen auf einem Roller. Bitte erzeuge mir ein Bild von einem Mädchen in derselben Pose, was ein Buch liest und dann wird halt ein Modell genutzt, um die Pose aus dem des Jungen aus dem ersten Bild zu extrahieren. Diese Position mit einem anderen Modell gegeben, um ein neues Bild zu generieren. Es gibt dann so einen wie heißt es hier? Facebook det REST .NET Modell, den man so einen, den man so einen, eine Position, eine Pose mitgeben kann und erzeugt dann einen Bild daraus. Und was auf jeden Fall supercool ist, wo man merkt, okay, da sind schon viele neue use gestern dabei. Damit kann man wie gesagt auch rumprobieren. Also Hacking gibt Playground auf Hacking Facebook, weil man die schon hat. Fand ich auch sehr sehr interessant. So hast du das Synonym verwendet Hacking, CPT und Chaves. Genau. Also dass das das GitHub Repository ist von Microsoft und heißt Chaves. Aber wenn du die Redme von Jarvis liest, sprechen wir nicht immer nur von Hacking. Gibt hier das Paper auf dem es basiert, Heißt Hacking. Gibt es etwas was ChatGPT friends in Hacking fake? Also es ist weiß genau warum sie es jetzt gab ist wahrscheinlich, weil Microsoft das irgendwie das Produkt als Produkt vermarkten vermarkten will, aber eigentlich immer nur von Hacking gibt gesprochen. Das Paper da heißt auch das Produkt Hacking gibt also Jarvis ist. In der gesamten Reden habe ich kein einziges Mal mehr Chavez irgendwo gelesen, sondern immer Hacking Fake aber auf jeden Fall super. Also super spannende Entwicklung auf jeden Fall. Was ich echt empfehlen kann ist, dass es dieses Paper von Hacking gibt es relativ kurz, kann man gut lesen und auch diesen Beitrag, den ich jetzt nur sehr rasch skizziert hat von Baron Millage. Ich glaube, was ja auch viele bei mir angesprochen hatte, ist, dass man ja auch sehr gut lenkt. Scheint, das ist ja genau dieser Ansatz zu sagen Hey, ich möchte irgendwie verschiedene Modelle verknüpfen, die Eingabe von anderen ein anderes Modell weitertreiben, das es natürlich auch ähnlich geht. Also es gibt Leute, die zu einem Baby Agi mit langem Training verbunden verknüpft haben, um genau solche Modelle zu bauen und so was ähnliches wie Chavez oder Hacking zu bauen. Da hat man sehr viele Möglichkeiten und natürlich auch sehr spannende Optionen, die sich da entwickeln. Es gibt ja so ein Bereich, wo das ja auch genutzt wurde. Habt ihr von Kaos CPT mitbekommen? Das ist ja letztendlich einfach so ein modifiziertes Fork von Authority, wo er letztendlich dem Betrag gegeben hat, er soll die Menschheit zerstören und der darf sich drum kümmern wie er das macht, was in die entsprechenden Ansätze. Dann hat die dann irgendwie gesucht im Internet. Was sind so die tödlichsten Waffen? Und gibt es dann irgendwie einfach nur auf Twitter aus. Manche haben es für herausgestellt Hey, das kann man auch schon machen. Wenn jetzt die Armee losgelassen wird, wird das immer passieren. Aber es ist vielleicht einfach nur so ein ganz interessanter Test. Ich weiß nicht, wie man das so für voll nehmen kann. Zumindest war das aber ein anderes Thema, was auch sehr aktiv in Twitter kommuniziert wurde. Und ja, ich habe es jetzt nur als ich habe im Internet gelesen und den Titel und irgendwie das, dass das probiert wurde aber so richtig habe mich nicht damit beschäftigt. Na und? Genau wenn ihr das auch ausprobieren wollt und ich glaube, dass man das mit Python zu installieren, weil man kann dann so wie ich, so wie du gesagt hast, immer noch Ping Pong anbieten, um dann auch Readers. Also das braucht man glaube ich nicht. Wenn ich das alles direkt ausprobieren will, dann bietet sich Agenti an. Das könnte nämlich direkt im Browser ausführen. Sonst lehnt euch direkt im Browser bietet das nicht lokal ist in unserem Eindruck zu bekommen Wieso arbeitet. Man nicht schon Nutzen? Ja, aber wie gesagt, ansonsten war auf installieren relativ easy. Wenn man jetzt keinen Redis oder so was einbinden will, ist es eigentlich nur installiert. Auf jeden Fall interessante neue Welt. Ja, das ist verrückt, wenn man das Gefühl hat, man hat meinen Artikel nicht gelesen. Da sind schon 1000 neue Sachen. Aber ich finde ganz gut. Ich finde aber jetzt, dass es wieder ich näher an dem, was man. Wenn man sich generell ein bisschen als Entwickler das kann man wieder viel besser verstehen was da jetzt gemacht wird so diese SMS. Philipp hat sehr sehr viel mehr Licht ins Dunkel gebracht am letzten Freitag. Also hört euch gerne die Folge an.. Trotzdem fehlt man dann noch weiter. Das ist jetzt der Part, den man auf jeden Fall jetzt wieder für mich besser greifen kann. Du würdest aber schon sagen, das ist jetzt eigentlich nur der erste Schritt von Hasi ist, dass jetzt schon egal was wir dort haben oder sind, sozusagen die ersten Prototypen diesen Bereich gehen. Also da wird einfach. Wahrscheinlich nicht, oder? Ich glaube doch. Also das ist jetzt nur eine Kombination von von vielen dieser Funktionalitäten, die man hat, aber ich glaube es nicht damit beschrieben. Eher noch das eine Modell eben sich so weit über Nacht trainieren kann und so weit sich anpassen kann auf einen Task. Weiß ich nicht. Also ich kann mir schon vorstellen, dass es auch in Zukunft so sein wird, dass es eigentlich immer eine Kombination aus verschiedenen Systemen ist, was wie auch im Gehirn natürlich viele verschiedene Bestandteile hat, um Information abzubilden. Das hat letztendlich vielleicht auch die Zukunft. Ist das eigentlich nicht dieses große MongoDB modul? Alles kann oder Natürlich haben wir vielleicht in Zukunft multimodale Modelle, die natürlich eher so diese Bild und Text, Information oder auch andere Informationen zusammenführen, aber das Drumherum irgendwie auch etwas bestehen muss, was das alles verbindet. Ich kann mir schon vorstellen, dass gerade diese Architektur. Etwas auf jeden Fall multimedial dieses Jahr wird. Also die Idee ist ja schon multimodalen. Dem kann ich auch Bilder und Text mit rein geben. Also das ist schon multimedial, aber ich bin auch mal gespannt. Aber ich kann schon sagen, ich kenn mich zu wenig mit Edge in dem Fall aus. Aber es könnte, wenn wir es interessant. Und ich fand auch noch interessant, das was in dem Blogartikel genannt wurde von Baron, dass so die Problematik aktuellen auch noch so ein bisschen ist, dass es halt alles sehr proprietär irgendwie zusammengebastelt und dann die prompt die dann die das muss man ja schon ein bisschen vorher beschrieben werden oder wie baust du prompt auf um dich selbst zu promoten halt sehr spezifisch dann zum Beispiel genau diese Point of View Modell sind und irgendwie dann noch so ein bisschen ja auch das Problem ist bei einem bei einer CPU hast du bist in Bits out und wenn du die gleichen also gleiche gleiche Anfrage gibt, wird immer zum selben Ergebnis. Wobei man sagen muss, bei den bei den Eis oder die Elon Musk da draußen und aktuell, selbst wenn man die gleiche Temperatur nimmt mit demselben Input, heißt das nicht, dass man immer den gleichen Output gibt. Und auch bei so einer Aufgabe wie anpassen wir folgenden Text zusammen gibt es ja nicht eine richtige Antwort, sondern es kann auch viele Wege zusammengefasst werden. Das ist eigentlich kann. Es gibt viele richtig so und das heißt so, dass da im Endeffekt sich die SKMs dann auch mit den Modellen weiterentwickeln und sich nicht zu sehr dann an das Modell, für was es entwickelt wurde, wenden, sondern wir auch noch mal sehr interessant wie viel Abstraktion kriegen wir da drüber? Weil aktuell sind wir noch super in den Kinderschuhen, da wird einfach nur irgendwas zusammenzubasteln, damit es irgendwie funktioniert. Aber so was wie schöne Abstraktionsschichten, die wir da, die wir heute in unserer Programmierung mit unseren Computern haben, so was gibt es ja absolut noch, noch gar nicht so wirklich super, aber bei uns so aber es wird spannend, weil ja durchaus die CPU jetzt eine etwas andere ist und man viele der Abstraktionen ja machen kann, weil man davon ausgeht, dass alles was darunter passiert, dass man darauf vertrauen kann, dass es immer gleich funktioniert. Und das ist halt, wenn das nicht der Fall ist, auch erst mal gespannt wird, wie viel Abstraktion man dort oben drüber bekommt. Ja, aber vielleicht ist das der Anfang davon. Also wenn ich Google wäre, da hätte ich ja jetzt ordentlich Muffensausen. Oder Dennis. Sie. Samsung jetzt Bing einführt. Oder wollte das so fantastisch überleiten an die Themen, die ich habe. Ich wollte jetzt aber. Ich ich halte mich glaube ich kurz Fabi hat das heute so schön sein Thema aufbereitet, was super interessant war. Von daher nur noch so ein paar Headlines, ein bisschen mitreden können, wenn er jetzt mal hört und dann im Zweifel recherchiert, wenn es euch tiefer interessiert. Ja, also wie gerade angesprochen viele Gerüchte rund um Google, dass da ganz schön was los ist. Tatsächlich auch irgendwie hat Alphabet, also Googles Mutterkonzern, mal schnell 55 Milliarden US Dollar Börsenwert verloren, weil Samsung gemeint hat, so vielleicht jetzt, wo Bing ja irgendwie mit Chat und so da drin ist es vielleicht eine Alternative. Vielleicht machen wir das mal zu unserer STANDARD Suchmaschine. Das hat nicht nur an der Börse, sondern auch intern bei Google zu vielen Fragezeichen und und auch einer gewissen Panik letztendlich geführt. Nur Gerüchte oder Es war nicht so, das ist offiziell. Ja, es gibt nichts, es gibt noch nicht so richtig was offizielles. Es soll wohl ein Projekt, also im Deutschen, was man hier aussprechen. Aber Maggie? Maggie. Maggie. Oder als Projekt Maggie von Will wo sie wo es um eine KI Suchmaschine geht. Also eben genau diesen diesen Schritt zu gehen. Und auch da angeblich soll schon im Mai. Irgendwie lesbar sein. Ja klar. Wenn aufgrund solcher Entwicklungen dann ein großer Player wie Samsung auf einmal sagt, wir wechseln unsere Standardsuchmaschine, dann ist das natürlich schon zeitkritisch. Und dann kommt natürlich auch wieder die berechtigte Kritik. So soll man das alles möglichst schnell alles raushauen und auf dieser Lust lassen oder vielleicht erst mal noch einen Schritt mehr nehmen, um das einigermaßen abzusichern und zu gucken, dass es gut benutzbar ist. Aber ja, das werden wir weiter beobachten, was wir auch weiter beobachten werden. Auch Elon Musk. Unser Maskottchen, das Maskottchen. Hat jetzt eine Firma, die sich Xamarin nennt. Er hat 10.000 Jobs gekauft. Und ja. Ich habe eine Frage. Ist das viel? 10.000 Fuß wüsste ich jetzt einzuschätzen. Ich weiß nicht, wie groß die diese Riesenrechner, also die Supercomputer waren, mit denen die anderen Modelle trainiert waren. Deswegen frage ich Ich kann es nicht abschätzen. Es ist schon wahrscheinlich so eine Größenordnung, die man braucht, um so was zu machen. Aber findet sich schon immer Bescheid? Ist das okay? Es kommen mir ja auch nicht so wenig vor. Und er will sie teilen. Und es geht gerade darum. Dieser Kritikpunkt, also das ist so eine Information, die ich noch gefunden habe, ist, dass ich bei irgendeinem Podcast mich dazu geäußert habe. Es geht darum, gerade diese Modelle so abzusichern, also diesen, diese Kritik, die da so geäußert und man kann halt gar nicht mehr nachvollziehen, was das Modell eigentlich macht, woher die Informationen sind, wie sicher eigentlich die Informationen belastbar sind, dass das irgendwie besser integriert wird. Ja, mittlerweile muss man da ja immer alles tatsächlich mit einem leichten Augenzwinkern betrachten. Auf der einen Seite möchte er die Forschung pausieren, dann möchte er aber mit anderen Firmen auf mindestens den Stand kommen und er gibt gerade ist. Deswegen möchte ich ihm. Gerade eine politische. Twitter Meinungsfreiheit und so. Und ja, da jetzt wirklich die die Truhe suchen, die er auch in seiner Vergangenheit nicht immer gesucht hat in den Aktionen. Anyway, ja, spannend das ganze zu beobachten. So, das reicht dann Headlines. Jetzt kommt endlich noch echtes Developer Wissen. Nein, es kommt ja nicht nur so hey, nur 20 jetzt draußen schön damit. Da gibt es ja nur irgendwie interessant. Die haben ja so ein Vermissen, oder was? So wie bei Deno ist allerdings standardmäßig aus. Aber kann man jetzt also da geht die Entwicklung hin, die wollen ein bisschen sicherer werden. Was heißt bekommen würde. Aber ich kann es auch so sagen wie bei denen so ja dieses Update auf Teilsysteme Einkäufe Netzwerk zugreifen bisschen ich wusste nicht, dass Notizen Performance Team hat irgendwie seit letztem Jahr und da so ein bisschen an den Schuhen mir auch die Fälle weg was betrifft also natürliche Entwicklung bei Forschungsthemen so es wird ein bisschen schneller weil Pasing ein bisschen schneller ähm ja und das ist die ältere Version für den Herbst. Also 21 klingt einfach cool. 26 vor der Fashion Forks. War doch erst 19? Wie schnell Zeit? Zwei Versionen pro Jahr oder eine Version zwei? Das hatte ich. Auch jetzt schon. Dann haben wir die Dekaden Versionen dann immer in den geraden Jahren. Wenn ich. Sage Version pro Jahr, dann wäre es ja. Eher so jeweils ein ganzes Jahr. Aber wenn dann die ich bin, dann halten die immer zwei. Nein, egal. Also ja, es ist auf jeden Fall 2000. Vielleicht mal ein bisschen vorsichtig sein, hm. Yes. Gebt uns Feedback, ob wir weiter so viel schwafeln sollen an Podcast Programmier.bar oder überhaupt eine separate. Format nur für ein Thema. Oder ob wir einen komplett neuen Man Podcast Strang aufmachen? Nur mit Ja. Gib mal ein bisschen Feedback, ob euch das interessiert oder ihr lieber mehr über Not und Bann. Und was ist deine Themen? TypeScript Design Review und Wandfarben? Wieso fragt eigentlich nach Feedback? Können wir auch einfach so laut fragen? Ja, das stimmt. Und nutzt mal, aber das habe ich immer schon gesagt. Hat keiner gemacht. Auf Spotify soll es angeblich so eine Funktionalität geben, dass ihr danach in so ein Textfeld eingeben könnt, je die Folge fandet. Und das wurde. Jetzt schon gemacht. Reinschreiben hatte ich schon letztendlich bei Spotify vom Podcast aus gesehen, dass wir Feedback bekommen haben zu den letzten Folgen zu Freitag. Und Samstag Morgen wird. Es auch hier. Fallen. Genau das war die. Frage mit Ja, ja, ich habe zufällig da geschaut. Es wurde gesagt, dass unsere Podcast überall genau die richtige Tiefe hatte. Zu dem Thema. Also zu der News elf haben wir einmal das Feedback bekommen, dass wir eine schlechte Tonqualität hatten und dass wir ein bisschen zu langsam waren an ein paar Stellen. Das ist gut, das werden wir noch mal reinhören und gucken. Und das, was du gerade gesagt hast zu Folge, ist auch richtig. Okay, dann hat das gesagt. Es war die Newsfolge, die, weil der Carlo krank war, die ich einfach nur über Sendcaster exportiert habe und wir in Kauf genommen, dass sie vielleicht ein wenig schlechter ist. Aber dann lohnt sich doch alles. Arbeit ist doch schön. Das ist gut. Aber mehr davon, das müssen wir ja erfahren. Also sehr gut auch zu dieser Folge gerne auch direktes Feedback. Oder wenn ihr nicht über das Wort hört, was ja ein Großteil von euch macht, dann gerne per Mail. Vielen Dank, dass ihr dabei ward. Danke, danke, danke Fabi. Und bald macht das gut bezahlt. So.

Verwandte Podcasts

  • Lotum News Asset 46

    News 46/24: Oasis // Arc 2.0 // M4 MacBook Pro // DORA Report

  • News Asset 44

    News 44/24: JavaScript Features // Flutter Fork // GitHub Universe // Internet Archive // Neue Macs

  • AI News 2023 24 (2)

    News AI #30: Aleph Alpha Strategiewechsel // Virtual Try On // Claude for Enterprise

  • Lotum News Asset 34

    News 34/24: Google Pixel AI // Crowdstrike Nachlese // Alternative App Stores

  • News Asset 32

    News 32/24: Google Monopol(y) // porffor // TypeScript in Node // Imports in Deno // Stack Overflow Developer Survey

  • AI News 2023 24 (3)

    News AI #26: Kyutai Moshi // Aleph Alpha Series B Fake // OpenAI Security Whoopsie

  • News Asset 28

    News 28/24: Ladybird // Cursor // Google I/O Connect // dotenvx // window.ai

  • 151 Ig Fb Christian Mühle

    Deep Dive 151 – Game Development mit Flame mit Spieleentwickler Christian Mühle

  • Ai News 2023 24 (2)

    News AI #23: OpenAI-Drama // Google AI Overview // Golden Gate Claude // Perplexity Pages // Hugging Face FineWeb

  • News Asset 20

    News 20/24: GPT-4o // iOS 17.5 // Neue iPads // Bun 1.1.8 // Node.js 22

Feedback