News 03/23 –

State of JS 2022 // Copilot Code Brushes // VALL-E // Apple KI Audiobücher // Microsoft investiert in OpenAI

18.01.2023

Shownotes

Die Ergebnisse zum State of JS 2022 sind veröffentlicht und wir schauen uns die wichtigsten Eckdaten gemeinsam an.

Der Rest der Folge ist wieder sehr von KI geprägt: GitHub Copilot hat ein experimentelles Code Brushes Feature für Visual Studio Code veröffentlicht, womit unterschiedliche Änderungen "über den Code gemalt werden können".

Apple Books bietet nun die Möglichkeit für Autor:innen, ihre Bücher von einer KI vorlesen zu lassen. So sind heute schon einige dieser Hörbücher bei Apple Books verfügbar. Im Bereich Text-to-Speech bringt auch Microsoft eine neue Technologie an den Start. VALL-E reicht eine hochqualitative dreisekündige Tonaufnahme einer Stimme aus, um diese im Anschluss nachzustellen.

Microsoft investiert weiter in OpenAI. Ein noch nicht bestätigter Bericht deutet darauf hin, dass Microsoft 10 Milliarden US-Dollar investieren will, um sich die Pole-Position in der KI-Entwicklung zu sichern.

/transkript/programmierbar/news-03-23-state-of-js-2022-copilot-code-brushes-vall-e-apple-ki-audiobuecher-microsoft-investiert-in-openai
[musik]. Und 20 wie gegenüber sitzt der wundervolle. Sich wie. Rechts von. Mir sitzt der jojo und. In unserem bildschirm. Der fabi hallo. Sehr gut wir reden heute mal wieder wie so häufig über einige item die sich hier reingeschlichen haben das stimmt aber auch mal die news ein bisschen aus der apple welt die am jetzt irgendwie. Apple books die sie. Mit stimmen hinterlegen wollen und generell einfach ein bisschen was zu sprache Wie dann haben wir eine neue Funktionalität von Copilot, die sich Codebrushes nennt. Ich rede mal ein bisschen darum, wie Microsoft da jetzt noch mehr einsteigen will in das Ganze. Und State of JS ist das Thema, was Jojo sich ausgesucht hat. Fangen wir doch da mal mit an. Da haben wir den ganzen AI Kram hinten raus. State of JS. Was ist das beliebteste Framework 2022 gewesen? Das soll ich jetzt gleich verraten hier mit der großen Informationen. Ist auch CSS dabei? Css ist nicht dabei. Da gibt es ja eigentlich noch State of CSS. Das ist ein separates Survey, was dann irgendwie aufgeschlossen wird. Ja, genau. Ich weiß nicht, seit wann es das gibt, seit wann das so getrennt ist, aber die State of CSS guckt sich eigentlich wirklich nur die JavaScript Welt an. Und ja, ist ein Hinweis von Fabian Hinnern gewesen, dass dieser Report jetzt eben verfügbar ist. Und es gibt wieder mal sehr viele kleine und große interessante Erkenntnisse. Vor allem ist es wieder sehr schön aufbereitet, die Information. Also wir haben da so ein bisschen noch wieder an der Optik irgendwie gearbeitet und auch so bestimmte neue Charts reingenommen, um bestimmte Informationen dann besser abbilden zu können. Erstmal, wenn man sich anguckt, was so die Demografie ist, also welche Leute letztendlich an der Umfrage teilgenommen haben, dann ist eine Sache, die auffällt, dass halt viele Leute angeben, dass sie letztendlich auch für umsonst arbeiten, um mit JavaScript, das ist natürlich so, dass sie gerade letztendlich, wenn sie in Open Source Bereichen Beiträge leiten, dann natürlich auch nicht bezahlte Arbeit machen. Aber das ist so, dass sie wirklich auch länger als ein Jahr daran arbeiten. Und je höher sie bezahlt werden, desto weniger machen sie das. Dann haben sie vielleicht auch weniger Zeit, sich an Open Source Projekten zu beteiligen. Also gerade wenn Leute mit sehr wenig Erfahrung in JavaScript einsteigen, ist es so, dass sie sich sehr häufig an Open Source Projekten beteiligen. Und je länger sie letztendlich dabei sind, desto mehr schwindet diese Teilnahme, diese aktive Unterstützung. Wie viele Leute haben teilgenommen? 39.472. Mit 7,65 Prozent eben schon Deutschland und auch Frankreich ist irgendwie ziemlich dahinter und insgesamt sind es über 20 Länder, aus denen halt die Leute teilgenommen haben. Aber eigentlich, Entschuldigung, nicht mehr unterbrechen, können wir an der Stelle abbrechen, oder? Fabi, auf der Introduction Seite steht 39.472 und da wo du bist, Demographics steht 39.471. Das heißt, die Daten sind nicht valid. Ja, dann können wir es lassen. Also völlig inkonsistent, ja. Abbruch. Gut. Nächstes Thema. Und man sieht auch, dass vom Altersdurchschnitt eben die Leute so 24, 25 bis 34 Jahre, die haben sich am meisten beteiligt mit fast 48 Prozent. Also kann man sich natürlich überlegen, sind die einfach mehr interessiert letztendlich an solchen Servers teilzunehmen oder sind das auch wirklich die Nutzer von JavaScript eher in dem Bereich zu verorten? Das ist so ein bisschen eine Fragestellung, die man auch so in den Foren liest, dass es nicht ganz klar ist, wie man das zu deuten hat. Was vielleicht auch noch ganz interessant ist, so ein bisschen vielleicht auch, sagen wir mal, die Salary Struktur anzugucken, also was die Leute in dem Bereich verdienen, die mit JavaScript irgendwie arbeiten. Da sieht man, dass es einen großen Bereich gibt, die sagen wir, ja, im Unterbereich verdienen, aber sagen wir, der große Schnitt mit 30 Prozent, eigentlich so zwischen 50 und 100.000 Dollar, glaube ich, dann eben verdient. So um die 20 Prozent sind im Bereich auch da oben drüber von 100.000 bis 150.000. Man sieht aber grundsätzlich, wenn man das im Verhältnis irgendwie zu den Ländern setzt, dass, sagen wir, das Einkommen von JavaScript Entwickler im Verhältnis zu dem Nominal, also zum Durchschnitt letztendlich des Landes immer deutlich höher ist. Also dass man schon in dem Bereich in die Entwicklung mit JavaScript auch gut verdienen kann in allen Bereichen. Und bevor jetzt hier in Deutschland wieder die Leute sagen, was 100.000, dann muss ich meinen Job wechseln. Also gerade die amerikanischen Gelder kann man eben nicht eins zu eins mit unseren Deutschen im Vergleich setzen, einfach weil dort die Sozialleistungen nicht inklusive sind. Genau, wenn wir uns jetzt ein bisschen die Features was angucken. Da ist es doch auch ein sehr schöner Aufschluss, was sind so die Features, die die Leute am meisten nutzen, am meisten kennen. Da fällt vor allem letztendlich auf, dass die Temporal API, das ist so etwas, die ich gar nicht kannte, vielleicht eins dieser vergessenen APIs, die wir per JavaScript noch ein bisschen genauer analysieren sollten, dass es diejenige ist, die es am wenigsten genutzt wird und auch am wenigsten bekannt ist. Liegt vielleicht auch daran, dass sie gerade erst als ES Stage 3 Feature in ES 2022 verfügbar ist, da kaum Browser Unterstützung eigentlich vorhanden ist. Das ist immer so das Gefühl, wenn man schon zu JavaScript zurückkommt, dass das auf jeden Fall broken ist, die Date API. Das. Was am meisten. Genutzt wird, ist der nullish coalescing operator. Auch etwas, was uns vielleicht auch ein bisschen später erst irgendwie so zu Ohren gekommen ist. Zumindest war es etwas, was ein Kollege jetzt gerade eben geteilt hatte, dass dieser auch nicht nur in Dart, sondern auch in JavaScript unterstützt ist. Der Operator ist ja nur Fragezeichen, Fragezeichen. Ich glaube, unser Kollege hatte dieses Fragezeichen, Fragezeichen, ist gleich. Also dieser. Nullish coalescing. Ah, mit der Zuweisung. Stimmt. Genau, nullish coalescing war es nicht. Aber das ist etwas, was am häufigsten genutzt wird. Genauso auch eben das Top Level Await, was es ja auch noch nicht so lange gibt, ist aber etwas, was auf jeden Fall sehr viele Nutzer seitdem deutlich intensiver nutzen, was nämlich deutlich an der Nutzung auch gewonnen hat. Ich finde es total interessant, dass sie das abfragen. Also dass man... Die einzelnen Features meinst du? Ja, das so "Hey, was. Nutzt du eigentlich? Machst du noch eine Klammer ums If oder sowas?". Also so lustig. Ja, aber vielleicht auch so ein bisschen natürlich, weil es mit der Evolution der Sprache jetzt das nächste Thema, was ich angesprochen habe, beim Private Fields ist ja auch recht neu, hat aber auch eine rasante Verbreitung gefunden, weil natürlich die Entwickler merken, dass sie halt dadurch deutlich sicheren Code, bessere APIs definieren können, was man ja dann auch sehr schnell zu einer weiteren Nutzung gekommen ist. Also das ist enorm gestiegen um fast 250 Prozent im letzten Jahr, seitdem es eingeführt wurde. Genau, das sind so die Features und dann gibt es natürlich auch noch einen großen Bereich, der sich mit den Bibliotheken rund um JavaScript beschäftigt, was ich da so ganz schön finde, Ich finde, es ist so eine Grafik, die man direkt in der Übersicht sieht, diese "Changes over time", wo sie auf der einen Seite aufschlüsseln, wie häufig wird eine Bibliothek verwendet und wie ist letztendlich die Opinion zu einem Framework. Und da sieht man, dass alle Frameworks eigentlich so eine Kurve machen. Okay, sie bekommen immer mehr Verbreitung, aber am Ende kippt letztendlich so die Opinion irgendwie zum Negativen mehr. Also das, sagen wir mal, gerade in den letzten Jahren da irgendwie für viele Frameworks irgendwie so der Eindruck, ob es gut ist oder nicht, irgendwie stark abgenommen hat. Auf jeden Fall heraussticht, ist da Galp, was eigentlich von der Wendung her sehr gut ist, aber was gerade im letzten Jahr eben eine Überführung letztendlich von, die finden es eigentlich gut, man hat eine positive Einstellung zu einem Tool, zu einem eher negativen Tool eben geschafft hat. Und auch Webpack hat da eben eine gewisse Abnahme jetzt in den letzten zwei Jahren zu vermelden. Einfach weil es wahrscheinlich auch so viele neue Tools gibt, die natürlich eine ähnliche Richtung wie Webpack geben, ist das natürlich verständlich. Man sieht, dass solche Sachen wie Swell oder auch Vue eigentlich und auch Viet Ja, deutlich gestiegen sind. Die Zufriedenheit der Benutzer da in die großen auch sagen wir sich die Verbreitung, der sehr stark verbreitet. Und ja, der nächste Bereich ist eigentlich, dass man sich auch natürlich angucken kann, wie also wenn ein Benutzer, dass es die Library Tierlist, die findet sich irgendwie direkt unten drunter. Wenn ein Benutzer eine Bibliothek verwendet hat, würde er sie wiederverwenden. Die haben das dann so in vier Tiers unterteilt. Und da sieht man, dass zum Beispiel Beat und Beat Test eben etwas ist, wo alle Leute sagen, dies einmal verwendet haben. Sie würden es wiederverwenden, aber dass gerade bei den Frameworks das Welt heraussticht, die haben nämlich gerade letztendlich den Transition geschafft, dass sie aus diesem AT in den ST gewandert sind. Also Leute, die einmal jetzt mit Svelte gearbeitet haben, sagen, sie würden es auf jeden Fall gerne wieder nutzen. Bei den Frontend Frameworks ist das Bild ähnlich wie in den letzten Jahren. Wenn man sich anguckt, was die Usage ist, ist es immer noch so, dass eben React eben deutlich dominiert, dass in die 81 Prozent oder 82 Prozent Prozent der Benutzer sagen, dass sie aktiv React nutzen. Danach folgen ein bisschen weiter abgeschlagene Angular mit 48,8 Prozent, was immer noch genutzt wird, aber auch so ein bisschen abnehmend ist. Und Vue kommt eben dann in der Nutzung auf 46,2 Prozent und hat auch ein bisschen abgenommen im letzten Jahr. Genau beim Interest ist es so, dass dort eben in 2021 und 2022 ein neues Framework eigentlich aufgetaucht ist, Solid JS. Svelte ist noch davor, aber auch da ist letztendlich das Interesse sehr groß, letztendlich das zu lernen. Danach kommt Solid eben mit fast 66 Prozent und Vue.js mit 50 Prozent eben auf dem dritten Platz. Und bei den Rendering Frameworks, also wenn ich eher sozusagen dann eben meine Webseite im Backend eben rendern möchte, ist eben auch so, dass Next.js damit fast 50 Prozent eben so der Platz hier ist. Und Gatsby teilweise auch ja gleichauf mit Next.js war, aber da in den letzten Jahren irgendwie doch deutlich verloren hat, also das Interesse da deutlich zurück die inzwischen nur noch bei 24 Prozent sind und NUXT eben als Viewpoint zu Next.js mit 18,1 eigentlich da recht stabil im Mittelfeld eigentlich liegt. Vom Interesse ist eben so, dass Astro eben da eine enorme Aufmerksamkeit bekommen hat im letzten Jahr, also dafür viele Entwickler eben sehr interessant geworden ist, sich zumindest damit mal auseinanderzusetzen und direkt danach kommt eben Sweltkit, was auf Swelt dann basiert. Also ist eigentlich in einem ähnlichen Bereich, dass viele Entwickler sich mit diesen beiden Technologien miteinander setzen wollen, um ihre Webseite im Backend rendern zu können. Sieben Prozent und es gibt alles so drumherum. Aber es tendiert schon deutlich letztendlich von den Graphen her, dass TypeScript da eben wie dominiert und JavaScript nur an einzelnen Stellen genutzt wird. Und auch das ist natürlich dann in den letzten Jahren immer weiter gestiegen. Ja, das waren für mich ebenso die wichtigsten Erkenntnisse. So vielleicht nur eine Information, wofür wird JavaScript eigentlich genutzt? Und natürlich ist es eben so, dass 98 Prozent der Entwickler eben die JavaScript für die Frontend Entwicklung nutzen. Da hat es natürlich auch seine große Stärke. Aber auch in der Backend Entwicklung ist die Verteilung bei 65 Prozent der Entwickler, also nutzen das wirklich viele Backend Entwickler und für Mobile Apps sind es 26 Prozent der befragten Entwickler, die das in irgendeiner Form eben über hybride App oder auch natürlich React Native dann für Mobile Apps nutzen. Ich finde das auch interessant, irgendwie bei den Frameworks. Ich hätte erwartet, dass Viewer, hat irgendwie gefühlt, wenn man sich diese Grafen anguckt, so ein bisschen Abwärtstrend, so was, was would use again und ob die Leute interessiert sind, das zu nutzen und so, dass da React echt ziemlich gut dasteht. Also 67 Prozent, die es wieder nutzen würden. Bei Blue sind es irgendwie aktuell in dem Jahr nur 35 Prozent und das Gefühl, das so ein bisschen abnimmt gerade, wo ich eigentlich von der eigenen Wahrnehmung ist, ich hätte es anders eingeschätzt. Ihr seid in der View Bubble. Ihr müsst erkennen, dass View nicht mehr das Ding ist. Das heißt jetzt erstmal die Projekte, genau, das ist eigentlich ein klares. Rewrite. Von allem, oder? Wir verlassen das sinkende Schiff. Ich glaube, da. Ist die Aufmerksamkeit und natürlich auch so die Verbändbarkeit von React natürlich noch einmal deutlich gestiegen. Ich meine, eigentlich dieses ganze Konzept von komponentenbasierter Schreiber, was Vue 3 eigentlich eingeführt hat, gibt es ja mit den Hooks in React schon deutlich länger. Und das ist auch das, was natürlich jetzt so offiziell so ein bisschen natürlich angekündigt und verlautet wird, dass man sagt, man nutzt eigentlich diese funktionale Art, wie man mit React programmieren kann. Und was es auch schon im letzten Jahr gegeben hat, das waren einige massive Performance Improvements beim Rendering, bei der Rendering Pipeline von React, die es irgendwie deutlich performanter gemacht haben. Und da sind wohl noch einige Sachen, die auch da noch in der Pipeline sind, die dann noch kommen werden. Also da passiert viel und scheint auf jeden Fall interessant zu sein. Vielleicht gucken wir uns dieses New Kid on the Block React mal an. Vielleicht ist das ja. Was für uns. Nee, dann lieber eins, was irgendwo raus schießt und dann, wo man schon den Trend erkennen kann und in den nächsten Jahren wieder eine Kehrtwende nimmt in der Popularität. Ja, das wäre auch wieder eine Chance, noch etwas zu rewriten. Ja, gut. Sollte ich mir vielleicht mal anhören. Und zwar. Die Folge 78. Aber das ist ein anderes Solid. Das ist die des Solid Projects. Das ist. Nicht. Solid.js. Die Hauptsache ich habe eine Folge zu. Solid.js. Das ist ja auch Funkreding. Da genau. Ja, das müssen wir nachholen. Okay, dann machen wir wohl bald eine Folge zu Solid. Gute Idee. Fertig? Fertig. Dann machen wir doch ein bisschen weiter mit lustigen AI Tools, die unser Leben verändern werden. Vielleicht brauchen wir bald gar keine Frameworks mehr, weil AI macht das alles für uns. Das wäre schön. Puh. Fabi? Ja, bitte? Wollen wir. Mal anfangen mit den, die uns Entwickler noch am nächsten sind. Die Copilot Codebrushes sind rausgekommen. Was ist. Das denn? 11. Januar. Und ich glaube, ich habe beim letzten Mal schon bei der GitHub Universe erzählt, es gibt ja diese Seite githubnext.com. Wir können uns auf jeden Fall immer mal bookmarken, shortcutten und gucken, was da so für neue Tools von GitHub kommen. Da sind auch eigentlich immer alle Betas und sowas, bei denen man sich anmelden kann, sind da aufgeführt und unter anderem seit dem 11. Januar ein Test, und zwar die Codebrushes, die den GitHub Copilot erweitern. Die sind nutzbar, indem man sich die Copilot Labs Extension für Visual Studio Code installiert. Also da könnt ihr nicht mit der normalen Copilot Extension arbeiten, sondern müsst euch die Copilot Labs Version herunterladen, die Extension. Und dann habt ihr die Möglichkeit, Brushes zu nutzen. Ist sehr inspiriert wohl von den Photoshop Brushes. Also ich schreibe in der Introduction auf der GitHub Next Seite, dass wirklich da inspiriert war und so gedacht hat, wie wäre es denn, wenn man wie in Photoshop einfach Pinsel hat, mit denen man sozusagen über seinen Code drüberfahren kann und verschiedenste Dinge tun kann. Und diese Brushes lösen dann verschiedenste Probleme. Sie haben, ich glaube es sind jetzt gerade neun an der Zeit, die vordefiniert sind, die man sozusagen nutzen kann. Man hat aber auch immer die Möglichkeit, Custom Brushes zu definieren. Können wir gleich nochmal drauf eingehen. Und die Beispiele, die Sie dafür haben, sind beispielsweise, es gibt die Readable Brush, da kann man über die Code Part drüber fahren. Also ich hab's jetzt ausprobiert, aber es läuft immer so, dass ich den Code einfach geheiltet hab und dann auf eine dieser Brushes, die es dann in der Extension zu sehen gibt, einfach geklickt hab. Es gibt die Readable Brushes, die sozusagen dafür sorgen, dass der Code lesbarer ist. Es gibt die Add Types Brushes, um Typen herzustellen, hinzuzufügen. Es gibt aber auch zum Beispiel die Fix Bug Brush, wenn es einen Bug im Code gibt, um den Bug zu fixen. Und eine Brush, die ich ganz cool eigentlich finde, bin ich mal gespannt, wie häufig man sie einsetzt, die Debug Brush. Also wenn man irgendwie sagt, man will irgendwie den Bereich debuggen, wo einfach alles ein bisschen vermint wird mit Console Statements, wenn es JavaScript jetzt in dem Fall wäre. Genau, ansonsten gibt es dann zum Beispiel den Code Make Robust. Da bin ich mal gespannt, ob man den wirklich nutzt, wo wirklich dann gerade JavaScript irgendwie alles geprüft wird, was da irgendwie null und defined oder irgendwas sein kann. Aber auch zum Beispiel, es gibt die Document Brush, wo man einfach sagen kann, okay, bei dem Code schreibst du nochmal Dokumentation dazu. Also am Endeffekt und dann ist nämlich, ich hab mich auch gefragt, was sind denn jetzt diese Custom Brushes so? Wie definier ich denn, wie bringe ich denn dem Copilot eine Custom Brush bei? Das ist eigentlich, also Custom Brush bedeutet, ich habe einfach ein Freitextfeld, wo ich einfügen kann, was soll diese Brush jetzt machen? Die kann man aber jetzt auch nicht, also ich habe jetzt nicht gefunden, wie ich mir die so definieren kann, dass ich sie reusen kann. Ich muss dann jedes Mal wieder den Text eingeben. Im Endeffekt, wenn man Brushes mal runter bricht, ist es die Funktionalität, die es jetzt auch schon gibt, nur eben ein bisschen einfacher an manchen Stellen, die ich häufiger nutze, einfach wirklich in so einer kleinen Brush zusammengepackt. Aber im Endeffekt, ich könnte auch alles über einen Kommentar machen, den ich dann oben schreibe und vertextliche. Aber so eigentlich die Sachen, die ich vielleicht häufiger mache, wofür ich dann keinen Kommentar schreiben möchte oder ähnliches, das sind jetzt in Brushes gepackt. War jetzt erstmal. Interessant. Relativ einfach auszuprobieren, mal gucken, wie viel Adaption das Ganze jetzt findet. Aber dieses Readable fand ich auf jeden Fall readable und Debug waren jetzt die, die ich erstmal interessant fand und Documentation, die man bestimmt häufiger mal nutzen wird. Mal schauen, wie viel Einzug sie halten werden. Gibt es da nun Unterstützung für Visual Studio Code oder auch für die ganzen IntelliJ Tools? Momentan noch nicht. Sie sprechen in der Dokumentation von der VS Code Extension. Sie haben gesagt, dass sie sich dieser. Metapher. Bedienen mit diesen Brushes, obwohl es eigentlich... Ach, irgendwie... Find ich doof. Man hat auch noch nicht mal eine Brush, mit der man eigentlich... Das fand ich auch so ein bisschen schade. Ich hab eigentlich erwartet, dass wir wirklich eine Brush bekommen, mit der ich so draufklicken kann, aber es ist eigentlich wirklich Highlighten und dann links im Brushes Menü eine der Brushes anklicken. Also man hat noch nicht mal wirklich eine Brush. Also das hat mich auch ein bisschen... Find ich auch sehr schade. Wo dieser ganze. Artikel irgendwie so sagt, so "Ach, das ist wie in Photoshop und die Aktion von malen, dass du tupfst deinen Pinsel in die Farbe und dann gehst du auf die Leinwand und ich habe gedacht so, als ich den Anfang gelesen habe, was kommt jetzt, gucken was der Fabi vorstellt, jetzt habe ich markiert Text. Also da ist genau, die Brushes kannst du in der Preview Seite, da hast du eine Brush mit der du hovern kannst. Das Exampel ist sozusagen ein Klick und hast eine Brush. Na gut. Also es. Ist ein nettes Enhancement, kann man mal ausprobieren. Nichts weltbewegend, ist aber ganz cool. Gut, CBS dann weltbewegend. Ich. Wollte gerade sagen, zu nicht weltbewegend, das habe ich auch noch was. Erstmal zu Microsoft mit dem Wally als Voice Synthesizer Text to Speech. Und zwar, das hatten wir schon ein paar Mal. Es geht darum, ich habe irgendeine Person, die hat ein Audio Sample und das Audio Sample wird dann, damit wird irgendwas trainiert und dann kann ich in der Stimme der Person Text abspielen lassen. Ich glaube das hatten wir irgendwann mal bei Amazon, wo sie irgendwie tote Leute erwecken wollten oder so. Dennis, da bist du ja immer noch auf irgendeiner Waitlist für Google, oder? Genau. Ja, genau. Also so und jetzt kommt als Dritter hier ins Rennen Microsoft und sie haben als USP gesagt, dass sie einen wahnsinnig kurzen Audioschnipsel brauchen. Falls ihr euch erinnert, bei Google war es Da musste man Sachen vorlesen. Genau, da muss man vorlegen und hier sind. Es, was? Drei Sekunden. Das ist ein bisschen spooky. Auch nicht Spezifisches, sondern. Einfach nur irgendwas. Also Sie sagen, Sie ziehen da irgendwie Charakteristika raus und versuchen dann irgendwie zu predikten, wie andere Worte mit diesen Charakteristika sich anhören. Obwohl Sie auch sagen, je näher das an dem Sample Data ist, was man da reingebt, desto besser ist natürlich das Ergebnis. Aber leider noch nicht auszuprobieren. Leute. Kopiert und schabernacktreibt und wir würden das auch machen. Von daher kann ich gut verstehen. Podcast aufhören, drei Sekunden einsprechen am Anfang. Genau, Chat. Chat, Chat. Die Text schreiben lassen und let's go. Ja, ist halt so. In die gleiche Kerbe schlägt was, was ich Anfang des Jahres gelesen hatte und zwar gibt es von Apple. Gibt es ja auch Hörbücher und die haben auch in englischer Sprache und die haben jetzt eine Funktion rausgebracht, dass sie diese Hörbücher nicht von Leuten vorlesen lassen, sondern von der AI. Das heißt, man kann jetzt schon auf deinem Telefon kannst du in der Books App nach einem Hörbuch suchen und das dir von der AI vorlesen lassen. Und zwar geht man da in die Books App von Apple und sucht mal nach AI Narration. Und dann bekommt man eine ganze Latte an Englischen Hörbücher. Und man kann dann mal auf Preview drücken. Und es ist ziemlich beeindruckend. Also es hört sich schön an. Und ich glaube, es ist halt so, dass Leute, die die Bücher eingestellt haben, haben tendenziell die Option, die einzureichen. Damit könnt ihr es machen. Also weil da muss auch die Rechte man selbst für haben, dass man ein Hörbuch daraus erstellen kann. Aber es ist letztendlich für die Creator eine einfache Möglichkeit. Und da wir ja ein Podcast sind, wo das Audio Erlebnis ein ganz besonderes ist, bin ich diese Folge Ich schaute hoch und runter. Ich schloss meine Augen und spürte die coolen Stille all um mich herum. Ich schaute hoch, um. Eine. Treppe zu finden, die sich. Vor uns ausmaterialisiert hatte. Ich hatte es nicht bemerkt, weil ich. An. Meinen Füßen geschaut hatte. Ich konnte nicht. Glauben, dass die Flächen tatsächlich ein Ende hatten. Es war weiter entfernt, als ich es hätte möchten. Aber wenigstens hatte ich jetzt etwas Tangibles, dorthin zu fliehen. Ich habe. Mir gesagt, dass ich es schaffen könnte. Ja, ganz cool. Das war gut. Man hat nicht wirklich einen Unterschied, würde ich jetzt mal behaupten. Finde ich schon sehr beeindruckend. Und da habe ich eben schon ein kommentar zu Sie gemacht. Wenn man das alles gerade hört mit Chatshubity und diesen tollen Stimmen, fragt man sich noch mehr, warum Alexa, Siri und Google sich so scheiße anhören. Das man. Nicht schnell mal einfach ein Update machen könnte und das sich einfach richtig gut anhört alles. Ist ja jetzt eine Frage der Zeit eigentlich, oder? Ich denke auch. Ja, aber warum nicht? Also wollen sie es dann als Feature auf der I/O präsentieren und nicht einfach mal so? Wahrscheinlich schon, ja. Kann sein. Ios 17 Headline. Ja, also. Das ist cool. Das ist auf jeden Fall cool. Danke. Ja, gut vorbereitet, Dennis. Danke, danke. Letzter Punkt geht auch nochmal um OpenAI und Microsoft. Da steht im Moment das Gerücht, also es ist noch kein ganz festes Ding, aber es gibt wohl schon relativ viele Details. Zu diesem Deal, dass Microsoft nochmal 10 Milliarden in OpenAI hinein pusht. Sie haben ja ganz oder ziemlich am Anfang eine Milliarde investiert bereits und irgendwie so ein bisschen weird an dem, oder was heißt weird an dem Deal, also Sie besitzen aktuell glaube ich 49 Prozent ja schon an OpenAI oder an diesem Tool. Oder kriegen Sie dadurch. 49 Prozent? Nee, Sie haben glaube ich jetzt 49, haben Sie jetzt schon und dann ist es so, dass. Sie jetzt. Neu investieren und in der Zeit danach gehen 75 Prozent der Gewinne an Microsoft, bis die 10 Milliarden wieder reingespielt worden sind und dann geht es aber zu den ursprünglichen Verhältnissen wieder zurück. Und das ist irgendwie, also von außen betrachtet irgendwie so ein bisschen seltsam, von wegen, okay, das wird einfach reingesteckt und man kriegt nur das gleiche wieder raus und man hat dann gar nicht mehr Prozent oder irgendwas, was eigentlich sehr unüblich ist in einem in solchen Aber die Vermutung dahinter ist einfach, dass Microsoft mit diesem Investment und dann halt der Möglichkeit der Nutzung dieser ganzen Dienste sich in eine Stellung bringen will, wo sie halt gegen die anderen großen Vorreiterrolle hat und da dann auch am Ende egal ist, was was da noch kommt, sondern was einfach in allen anderen Produkten irgendwie Einzug erhält. Das heißt, finanziell scheint da recht viel Luft zu sein. Für OpenAI das ganze weiter zu machen. Ich glaube die Zahl hat nochmal gedroppt. Das, was man im Moment so sagt, dass JetGPT aktuell so drei Millionen ungefähr am Tag verbrennt an Serverkosten. Da hast du doch schon ausgerechnet, wie viele Tage man mit zehn Milliarden dann betreiben kann oder? Mit zehn Milliarden kann man das eine ganze Weile machen, ja. Und wie viele Nullen sind das? Oh Gott, das sind aber viele Nullen. Das passt nicht in meine Taschenrechnung. Dann musst du querdrehen, iPhone Hack, zack, hast du mehr Stellen. Du kannst ja einfach zehn Millionen durch drei rechnen. Nein. Ja. Kommt einer drauf? Ich habe mich vertippt. Okay. Drei. Millionen. Okay. Drei geteilte ich 365. 9 Jahre. Na. Gut. Dann können Sie ja noch ein bisschen mehr Geld ausgeben. Und was auch noch so ein bisschen ungeklärt ist, also weil aktuell läuft das ja alles auf Microsoft Servern in der Cloud von Microsoft. Die ganzen, also ob die Serverkosten praktisch einfach gegengerechnet werden. Wer sind nochmal die anderen Beteiligten? Also ich meine, Musk hat es irgendwie mitgegründet. Weißt du, wem die anderen Prozent gehören? Ne, es sind so verschiedene. Also dieses Andresen, wie heißt es? Diese A6, A7, Z oder was, die sind da mit drin und ein paar andere Investmentfirmen, die mir aber alle nicht so viel sagen. Okay. Das waren die News 3/23. Wenn ihr Feedback habt zu dieser Folge oder anderen Folgen, dann schreibt uns gerne an podcast@programmier.bar. Hinterlasst uns mal wieder ein paar Bewertungen auf Spotify, auf Apple, iTunes, wo auch immer ihr diesen Podcast hört. Das pusht ihn immer ein bisschen und bringt uns neue Hörerinnen, da würden wir uns darüber freuen. Sonst wünschen wir uns, euch, eine und uns, eine schöne Woche und hoffentlich hören wir uns nächste Woche wieder. Macht es gut. Bis dahin. Bis dann. Tschüss.

Verwandte Podcasts

  • Lotum News Asset 46

    News 46/24: Oasis // Arc 2.0 // M4 MacBook Pro // DORA Report

  • News Asset 44

    News 44/24: JavaScript Features // Flutter Fork // GitHub Universe // Internet Archive // Neue Macs

  • News Asset 42

    News 42/24: Browser Security // WordPress // void(0)

  • News Asset 40

    News 40/24: OpenAI Dev Day und mehr // Wordpress und Open Source // Meta Connect 2024 // Deno 2.0

  • AI News 2023 24 (2)

    News AI #30: Aleph Alpha Strategiewechsel // Virtual Try On // Claude for Enterprise

  • I Phone Event 2024

    Apple iPhone 16 Lineup // Apple Watch 10 // AirPods Update

  • Lotum News Asset 34

    News 34/24: Google Pixel AI // Crowdstrike Nachlese // Alternative App Stores

  • 155 Ig Fb Luca Casonato

    Deep Dive 156 – JSR mit Luca Casonato

  • News Asset 32

    News 32/24: Google Monopol(y) // porffor // TypeScript in Node // Imports in Deno // Stack Overflow Developer Survey

  • News Asset 30

    News 30/24: Apple Vision Pro // WeAreDevelopers // CrowdStrike // Chrome 3rd Party Cookies // Flutter Day

Feedback