Hallo und herzlich willkommen zu einer weiteren Folge der Programmierbar AI News. Mittlerweile sind wir bei der Nummer zehn. Philipp, wir zwei sind jetzt hier zweistellig bei unserem diensttäglichen Date alle zwei Wochen. Ich bin der Fabi und wie ich es gerade schon gesagt habe, nehmen wir immer dabei der Philipp. Hi Philipp.
Hi. Bedeutet das, dass die Probezeit dann offiziell beendet ist?
Ich gucke noch mal rein, was wir in den Vertrag geschrieben haben, ob es wirklich nur nach Folgen ginge. Aber ich glaube zehn...
Man könnte jetzt schon fast schon... Wir haben einen Vertrag, ich habe nie was erhalten.
Ach, dann muss ich die auch zuschicken. Ich dachte, ich muss den einfach nur irgendwo aufschreiben und damit ist er rechtsgültig. Da können wir vielleicht im Nachgang noch was aufsetzen. Von mir aus können wir Probezeit bei Folge 10 beenden. Finde ich klingt fair. Hat sich bewährt. Wie so immer haben wir einen Latten an Themen dabei. Und heute ist es ja gefühlt sind wir eher so ein Krimi Podcast für heute würde ich sagen. Es gab den Open AI Krimi übers Wochenende, den wir mal probieren aufzurollen und hier True Crime mal zum True Crime Podcast werden. Genau, aber bevor wir euch da über diese ganze Liason bei Open AI erzählen, gibt es noch ein paar kleinere Themen oder ein paar viele Themen, die wir kurz halten, uns auf den Krimi zu konzentrieren. Genau. Wir haben im EU neues Modell von Meta. Deep Mind hat zwei Dinge rausgebracht. Es gibt einen neuen Chip von NBDR rund X und GROK und Elon Musk gibt es was Neues. Und die EGNID von Microsoft hat stattgefunden und es gibt in Europa ein neues AI, sagt man, eine Unternehmung nenne ich sie mal, und dazu gleich Qitei oder wie auch immer man es ausspricht.
Lass mal mit den Deep Mining Themen anfangen. Zwei Dinge zusammen. Und zwar gibt es einerseits GraphCast von Deep Mining. Deep Mining hat ein neues Modell rausgebracht, Wettervorhersagen zu machen und haben nichts weniger gesagt, als dass sie das akkurateste Modell rausgebracht haben für eine zehn Tage in die Zukunft Wetter Prediction. Also nicht nur die akkurateste, sondern auch noch einiges schneller als das bisherige Modelle so tun. Wobei man sagen muss, dass bisherige Modelle eben keine oder zumindest die, mit denen sie es hier vergleichen, keine Maschine Learning Modelle sind, sondern der Goldstandard, der so aktuell benutzt wird, ist der H-RES und das im Endeffekt sind einfach physische, physikalische Gleichung, die einfach benutzt werden, auf Supercomputern zu berechnen und im Endeffekt physikalische Gleichung auf Basis der Wetterlage erstellt wurden und darauf die Wettervorhersage gemacht wird. Und das ist relativ rechenintensiv und sind sozusagen erarbeitete physische Formeln, physikalische Formeln. Und jetzt ist es so, dass es hier ein Modell gibt, das einfach auf den letzten 50 Jahren von Wetterdaten trainiert ist und dann eine Prediction in die Zukunft machen kann, indem man als Input das Wetter vor sechs Stunden mit rein gibt, so wie den aktuellen Wetterzustand. Und dann kann das Modell bis sechs Stunden in die Zukunft Predigten, also mit sechs Stunden aus der Vergangenheit plus heute oder jetzt, kann sechs Stunden in die Zukunft Predigten.
Und diese Prediction Daten können dann weiter in die Zukunft einfach immer in sechs Stunden Windows Predichtet werden, bis hin zu zehn Tagen, wo sie einiges akkurater sind als das, was da jetzt aktuell so da draußen ist und auch viel schneller berechnet werden kann. Sie haben, glaube ich, hier ein Beispiel auf so einer.
Standard Maschine. Ja, eine.
Minute schreiben Sie. Eine Minute.
Und das... Auch auf TPUs wie vier, also keine TPUs, sondern TPUs.
Nutzen die dafür. Ach sogar TPUs, ja. Und das dauert jetzt halt aktuell mit den Goldstandard Models irgendwie eher im Stundenbereich und das auf viel größeren Computern. Also es klingt schon ziemlich vielversprechend, was sie da rausgebracht haben.
Ja, und was noch ganz interessant ist, was sie am Schluss schreiben. Also sie haben zum einen den Code Open Source dazu und man kann es sozusagen selber trainieren, wenn ich den Zugang zu diesen Wetterdaten habe. Und es ist kein Transformer Modell. Also gegen jeglichen Trend, den wir in den letzten Wochen, Monaten und Jahren gesehen habe, dass alles zu Transformers geht, ist Graph Cast und Graph Neural Network. Und was ich mit am interessantesten finde, ist das ECMWF, welches für European Center for Medium Range Wetter Forcasting steht oder Europäisches Zentrum für mittelfristige Wettervorhersage, experimentiert bereits mit Graphcast. Also wer weiß, vielleicht sehen wir bald in der Tagesschau unsere Wettervorhersage, Predichtet bei dem neuen Modell.
Ja, das wäre auf jeden Fall, wenn es dann auch noch genauer ist, wer weiß vielleicht, wenn es auch innerhalb von einer Minute geht, auf so kleinen Maschinen, haben wir es vielleicht auch gleich schon in irgendwelchen Apps mit drin, was Graphcast da auf jeden Fall macht. Das ist hoffentlich auch.
Nicht mehr alles. Also kleine Maschine jetzt nicht. Also so ein TPU4 ist jetzt nicht etwas, was ich auf einem PC stehen habe und kostet auch schon ein bisschen, aber definitiv interessant dazu.
Ja, aber gut, er müsste ja auch nicht für jede Anfrage, die das Mobile Device macht, dann sozusagen separat berechnen, sondern das wird einfach irgendwo ablegen. Aber zumindestens könnte ein Anbieter das wahrscheinlich auch privat machen. Also was heißt daraus ein Produkt zu bauen?
Genau. Also was noch vielleicht interessant ist, Sie prädikten es auf 28 mal 28 Quadratkilometer Schnipsel sozusagen. Das heißt, ich weiß jetzt... Ich weiß nicht genau, wie die Fläche von Deutschland ist, aber man würde mehr oder weniger 28, also man muss immer diese Quadrate prädikten.
Also 28 Kilometer, weil du Quadratkilometer gesagt hast.
Also ja, ja sorry.
Ja, 28. Genau.
Und dann, wenn ich halt ganz Deutschland habe und Deutschland keine Ahnung wie viel Millionen Quadratkilometer hat, dann dauert das halt nicht nur eine Minute, außer ich mache es parallel natürlich, aber trotzdem sehr, sehr interessant und cool.
Was hatten Sie gesagt? Das macht irgendwie die Welt in einer Million Punkte, teilt das, glaube ich, auf, haben Sie glaube ich irgendwo geschrieben? Ich glaube, so was in der Richtung. Ja, aber wie viel Quadratkilometer auch immer. Ach hier haben wir es. Deutschland hat 357000 Quadratkilometer. Also wenn wir bei 780 sind, dann sind das ein paar, wir können es mal kurz eingeben.
460 ungefähr.
460, ja, 460, in 460 Teile wird Deutschland aufgeteilt und auf der Basis geforcastet. Genau. Aber die Gemeint hat neben, neben Graphcast noch was anderes rausgebracht, und zwar das Modell Liria, ein Music Generation Model zusammen in Zusammenarbeit mit YouTube und haben das wohl auch direkt in die YouTube App zum Teil eingebaut. Also grundsätzlich können auch hier wieder Musik erstellt werden mit verschiedenen Inputs. Und sie haben zwei Beispiele gezeigt. Das eine, was man in YouTube Shorts ausprobieren kann, was ich aber jetzt selbst noch nicht gefunden habe. Ich weiß nicht, inwiefern das jetzt gerade, also sie nennen es auch im Experimental State, wahrscheinlich sind es nur ein paar und wahrscheinlich auch nur wieder USA dafür freigeschaltet. Aber da haben sie mit verschiedenen Creatorn zusammengearbeitet und das Feature Dream Track daraus gebaut. Und dann kann man per Textinput einen Sound-Schnipsel 30 Sekunden von einem der bekannten Künstler erstellen lassen, zum Beispiel Charlie Puth, der ja sehr TikTok-mäßig viral geht, kann man einfach sagen: „Okay, im Stil von Charlie Puth machen wir mal einen 30 Sekunden Track mit folgendem Input und kann es als Hintergrundmusik für seine YouTube Shorts nutzen. Und sie daraus aber auch ein Set aus AI Tools bauen wollen.
Sie haben zum Beispiel ein Beispiel gezeigt, wo man sowohl einen Sound-Schnipsel als auch Text als Input macht und ein Produzent eine Melodie für ein Saxophon vor gesummt hat und dann per Text Input gesagt hat, das soll ein Saxophon sein und dann aus der gesummten Melodie dann eben eine von einem Saxophon gespielte Melodie wurde und haben so ein paar Beispiele auch in einem Blogbeitrag gezeigt, wie so eine UI aussehen könnte rund das Liria Modell, wie man sozusagen Musik dann damit generiert. Aber das klingt schon auf jeden Fall sehr, sehr mächtig und ich hätte gerne mal einen Dream Track ausprobiert. Also falls ihr da draußen Zugriff in YouTube Shorts zu Dream Track habt, lasst uns mal wissen.
Ich glaube, was ganz Interessantes. Ich weiß jetzt nicht, ob jetzt YouTube die ersten damit sind oder ob Spotify auch schon was macht, aber sie arbeiten ja jetzt offiziell mit Künstlern zusammen und es nicht so wie, sage ich mal, Eleven Labs oder andere AI Start-Ups, die einfach die Stimme klauen oder die Kunst von diesen Künstlern und neue Songs generieren. Das gibt es ja schon ein bisschen. Und das ist, glaube ich, jetzt so das erste Mal, wo offiziell Künstler mit, sage ich mal, AI oder mit Partnern in dem Fall YouTube Music zusammenarbeiten, neue Kunstwerke und Lieder zu generieren. Und bleibt definitiv spannend, ob dann in der Zukunft die Künstler überhaupt noch ganz viel selber Musik machen. Oder ist es dann wirklich einfach nur so okay, ich habe irgendeinen coolen Prompt, der was beschreibt, habe vielleicht irgendwie einen Song Text und plötzlich erstelle ich ein Lied oder lasse Eminem rappen oder irgendwie sowas. Und er bekommt dann halt, sage ich mal, eine Marge dafür.
Ja, also da bin ich immer gespannt. Dazu haben wir jetzt nichts geschrieben. Sie schreiben nur auf jeden Fall, sie haben gepartnert mit den Künstlern und haben wir zumindest nichts zu Vergütung oder ähnlichem geschrieben. Ja gut, aber in der Zukunft, da sind wir auf jeden Fall sehr weit in der Zukunft, wenn am Ende die Künstler gar keine Tracks mehr selbst erzeugen, sondern das alles sogar ihre eigenen Tracks erzeugen lassen. Ich bin mal gespannt, wie gut das Ganze wird, wie kreativ und ob es das später mal komplett ersetzt. Aber zumindest den Styl-Input von Charlie Puth braucht das Modell ja irgendwo her. Also zumindest einen Track sollte Charlie Puth erstellt haben.
Und.
Vielleicht auch noch, was übrigens bei diesem Dreh-Track erstellt wird, also es wird nicht nur die Stimme, also sowohl die komplette Musik als auch die Stimme als auch die Lyrics für den Track erzeugt. Also wirklich der komplette Track kommt, ist AI generiert, da ist nichts irgendwie mit Samples oder ähnlichem. Wir haben noch ein paar andere Themen. Wir hatten letzte Woche über Rock geredet von XAI, Elon Musk. Was gibt es da Neues?
Genau das kommt frisch aus dem Internet, sag ich mal vor zwei Stunden ungefähr, hat jemand darüber getweetet oder eine Vorschau gezeigt, dass GROK, ist ja das Modell, welches von XAI trainiert wurde, was so ähnlich ist wie, sage ich mal, eine Chat-GPT Alternative sein soll, welches in Zukunft direkt über Twitter X, wie man auch immer es nennt, erreichbar sein wird. Also aktuell hat man auf Twitter in der linken Navigation Home, Explorer, Notification, Messages und dort soll so ein CROK Button dazukommen, wo ich dann drauf klicken kann und direkt innerhalb Twitter mit CROK chatten kann, so ähnlich wie ich jetzt mit ChatGPT chatten kann.
Auf jeden Fall. Damit bringt es auf jeden Fall wieder mal ein Lerche Language Model näher an die Enduser. Sie haben auf jeden Fall. Sie haben keine schlechte Plattform dafür, eine große Audience zu erreichen.
Was noch interessant ist, ist, dass Rock ja Zugriff auf das Internet und auf Twitter hat, via API auch. Aber ich kann mir nicht vorstellen, dass es kostenlos sein wird. Also aktuell, wenn man sich auf die Rock Wartelist schreiben lassen möchte, braucht man irgendwie den Premium Plus Plan oder irgendwie so etwas. Der kostet 17 Dollar im Monat. Also ich gehe mal stark davon aus, dass dieser Plan oder eventuell noch teurer dann auch benötigt wird, wenn ich sozusagen mit CROG dann innerhalb von Twitter chatten möchte.
Ja, also irgendein Payment Modell wird hinten dran sein, ob es irgendein Free Tier gibt mit irgendwie ein paar Messages pro Zeiteinheit. Mal schauen, aber dazu haben sie ja glaube ich auch gar nichts geschrieben. Es war nur dieses Video, wo sie einfach nur.
Die Integration gezeigt haben. Ja, das war mir so ein Leak, sag ich mal.
Cool. Die Microsoft Ignite war, glaube ich. Hast du irgendwie mitbekommen, was da erzählt wurde auf der Microsoft IGNite?
Genau. Also Microsoft hat auch einen super Blogpost veröffentlicht, den wir definitiv in die Shownotes packen. Ich denke, wir picken einfach nur die Highlights raus. Definitiv steht der IGNite im ganzen Sinne von CoPilot. Und was ich persönlich interessant fand, ist Microsoft hat das erste Mal ein paar Zahlen und Fakten veröffentlicht zu CoPilot für Microsoft 365, also der CoPilot, in dem man Zugriff auf GPS4 von, sage ich mal, allen Office Produkten hat. Und dort sagen 64% der User, dass CoPilot ihnen hilft, weniger Zeit zu, brauchen weniger Zeit, E-Mails sozusagen zu verarbeiten, also schneller E-Mails schreiben oder lesen. 87 Prozent der CoPilot User haben gesagt, dass es einfacher ist, ein First Draft zu erstellen. Also schwierig einzuschätzen, ob das jetzt für eine E-Mail gilt oder für ein Dokument, aber definitiv dieses Gaffolding oder die erste Version Zero, sage ich mal, zu erstellen für ein Dokument, für irgendeine Zusammenfassung. Und was noch ganz interessant ist, dass 97 Prozent sagen, dass sie Co-Pilot nicht wieder ergeben wollen würden. Also man sieht definitiv, dass es einen Mehrwert liefert. Die Frage ist dann natürlich, wie viele haben sie gefragt? Hat man jetzt nur intern irgendwie bei Microsoft gefragt? Und ich sage mal, der Zugang zu Co-Pilot ist aktuell auch noch limitiert.
Also kann man, ich würde jetzt nicht unbedingt von der objektivsten Recherche ausgehen, aber es ist trotzdem sehr, sehr interessant oder bestätigt auch das, was wir von GitHub Co-Pilot gesehen haben, dass es wirklich die Produktivität von Mitarbeitern steigern kann. Und dann muss man halt selber, sage ich mal, für sich ausrechnen. Okay, lohnt es sich für mich, wenn ich 40, 60 € im Monat dafür zahle oder habe ich dadurch noch keinen Mehrwert aktuell? Und dann sage ich mal noch was ganz Interessantes in den AI Themen. Zum einen wurde ja ein Dev Day von Open AI, GDP4, Turbo und GDP4 Vision sowie Dali3 vorgestellt. Die gibt es jetzt alle in Azure AI. Also wenn ihr Azure-Kunden seid und OpenAI nutzt, könnt ihr jetzt auch GPS4 Turbo nutzen. Es gibt ein neues Vektor Search Feature direkt in Azure AI Search, welches ermöglicht Vectors, also Embeddings, welche ich mit dem Modell erstelle, speichern und dann sage ich mal für eine Retrieval Augmented Generation Pipeline nutzen möchte, direkt verwenden, dann muss ich nicht irgendwie zu V VAide oder zu Pinecode gehen. Das kann ich jetzt alles in Azure machen. Und sie haben für das Azure AI Studio Models as a Service vorgestellt, was so ähnlich ist wie Amazon Betrock, wo man direkten API Zugang auf Open Source Modelle erhält, wie Mistrel, Falken, Lama und ich glaube auch Stability AI Modelle.
Das heißt so ähnlich wie bei Open AI kann ich dann in der Zukunft token-based diese Open Source Modelle nutzen und zahlen nur für die Requests, die ich sende.
Muss mich dann komplett gar nicht ums Hosting kümmern.
Genau. Cool.
Ich war erst, als du über die Zahlen für den Co-Pilot erzählt hast rund Microsoft 365, war ich erst überrascht, dass nur 65% sagen, dass sie weniger Zeit für die Verarbeitung von E-Mails brauchen. Wo ich dachte, da hätte ich eine höhere Zahl erwartet. Aber ich meine klar, aber das wahrscheinlich, wenn jetzt eine neue E-Mail irgendwie reinkommt, dass ich trotzdem irgendwie die selbst lesen und irgendwie beantworten muss. Klar, beim Draften hilft es mir dann wieder. Aber ich hatte ja mal selbst, zumindest hatte ich ja schon mal erzählt, die Co-Pilot 365 ausprobiert. Und da, wo es halt wirklich glänzt, ist halt einfach so Anfragen über historische Daten der E-Mails oder so. Also wenn ich dazu irgendwas wissen will, dass wahrscheinlich beim jetzt Reinkommen von E-Mails vielleicht der Mehrwert erst mal gar nicht so riesig ist, weil ich die Zahl relativ, ich fand sie gering erst als ich.
Es gehört habe. Ja, was vielleicht noch viel geringer ist, nur 29 Prozent aller Nutzer sagen, dass sie generell, also overall 29 Prozent schneller waren für Aufgaben wie Suche, Schreiben und Zusammenfassen. Also es ist jetzt nicht so alles geht schneller, sondern aber halt explizit Suchen zuzusammenfassen und schreiben. Das sind die Dinge, die man am meisten macht mit Office Produkten. Und da sehen sie in den 29 Prozent die Produktivität Verbesserung, was auch jetzt nicht so viel klingt, aber wenn ich drüber nachdenke, wenn du halt sechs Stunden am Tag nur in Word Office rumhängst und dann 30 Prozent davon ist halt über eine Stunde und das ist halt schon sehr viel Zeit, wenn man davon ausgeht, dass man eigentlich einen Stundenlohn über 10 Euro hat, sage ich mal, und dann kommst du bei den 40 Euro relativ schnell raus, was Co-Pilot kostet.
Ja, aber auch da vom Gefühl her, dass doch eigentlich da noch mehr drin sein müsste. Wahrscheinlich kommt es auch echt auf den Use Case so ein bisschen an, weil allein die Features, die ich gehört habe, rund Transkription von irgendwie Meeting und Meeting-Notes rumschicken und so. Also ich denke mal, je mehr du es in deinen Arbeitsalltag integrierst, desto, desto, ja, ist wahrscheinlich Anwendungsfall spezifisch. Und wenn man es jetzt wirklich auf alle betrachtet, die da irgendwie Access zu bekommen, ist wahrscheinlich trotzdem eine gute Zahl. Aber vom Gefühl her, wenn du mich vorher gefragt hättest, so was ich darüber gehört habe, hätte ich höhere Zahlen erwartet.
Ja, aber ich glaube, was ganz wichtig ist für Microsoft und alle ist jetzt die Haben-Zahlen. Das heißt, du kannst ganz einfach für einen Unternehmens-Use-Case rechnen, was du sozusagen, was du sparen könntest. Auf jeden Fall. Und einfach irgendwie intern im Team, okay, wie viel Zeit verschwenden wir damit, Emails zu lesen und zu schreiben, irgendwelche Dokumente zu erstellen und irgendwas zu suchen oder zusammenzufassen? Wenn ich da auf drei, vier Stunden am Tag komme oder zwei Stunden am Tag pro Person, kann ich runter rechnen, was kostet mich das im Monat? Und wenn es nur die 29% sind, wie die hier schreiben, kann ich halt den ersten Case rechnen und sagen okay, vielleicht können wir mal Co-Pilot testen für sechs Monate und schauen dann, ob unsere Produktivität gesteigert wird oder nicht. Und das finde ich halt immer ganz wichtig, wenn du irgendeine Grundlage hast. Weil bisher haben sie immer nur gesagt, es verbessert die Produktivität. Aber was bedeutet verbessern im Ganzen?
Ja, das stimmt wahrscheinlich. Wie gesagt, 29 Prozent reichen aus, den Business Case zu rechnen. Bei wahrscheinlich so gut wie jedem Cool. Lassen wir uns gerade mal die letzten drei Themen, bevor wir auf den Open AI Krimi kommen. Es gibt noch einen neuen Chip von Nvidia und wir haben über Kui Tei gesprochen.
Genau, Nvidia hat ihre H200 vorgestellt. Es ist das Nachfolge Modell von dem aktuellen CPU H100. Und das Interessanteste ist eigentlich, es hat oder diese Grafikkarte oder eine Grafikkarte hat fast bis zu doppelt so viel CPU Memory. Anstatt 80 Gigabyte haben sie jetzt 141 und sie schreiben im Verhältnis zu A100 2,4 bessere Memory Bandwift. Also keine Ahnung was das genau bedeutet. Auf jeden Fall ist es schneller im Sinne von Lesen und Schreiben in die Memory. Und sie sagen, dass die Inference Speed für 70 Milliarden Parameter Modelle, ich denke die gehen hier von Lama 70B aus, fast doppelt so schnell ist zu H100. Also H200 ist ungefähr fast doppelt so schnell wie H100 und hat fast doppelt so viel Memory wie A100.
Und ich glaube sie haben geschrieben, sollen die ersten verschickt werden im Q2 24, also irgendwie zweites Quartal nächstes Jahr habe ich irgendwo gelesen.
Das weiß ich nicht. Kann aber sein.
Ja, war glaube ich auf dem Original-NvdA Blog haben sie geschrieben. Expacted Q224. Ah ja, ja.
Zuerst denk Secondquarter 2024. Genau. Und dann noch ganz kurz zu QAI.
Qai, so soll es ausgesprochen werden. Weil ich dachte noch, das klingt so gar nicht europäisch.
Es klingt.
So asiatisch.
Ja, das ist so die Aussprache, die ich mitbekommen habe. Also Q3 AI wird geschrieben K-Y-U-T-A-I und ist ein AI Open Science Lab in Frankreich jetzt, welches 300 Millionen Funding Investment bekommen hat von Eliad Group, CMCA, CGM Group und Schmidt Futures und sollen mehr oder weniger das machen, wofür Open AI eigentlich da gewesen ist. Also ein Research Lab mit 300 Millionen Funding AI an AI zu forschen, alles zu veröffentlichen und Modelle zu open sourcen. Und das Founding Team ist auch, sage ich mal, besteht nicht aus irgendwelchen Menschen. Vor allem Niel zum Beispiel, Niels Siegfried, kommt von Google Deep Mind und auch die anderen Forscher sind, sage ich mal, keine Unbekannten in dem AI Space. Und es ist definitiv sehr cool zu sehen, dass wir in Europa jetzt auch mehr oder mehr Geld in, sage ich mal, Open Science Projekte fließt, die dann wirklich auch, wo alle am Ende davon profitieren können, wenn, sage ich mal, Paper und Modelle und Datensätze veröffentlicht werden.
Ja, und ich glaube, Sie haben auch explizit, dass Sie auch fürs Trainingvon, also für das für das Anlernen von AI Experten da sind, so dass Sie sagen, sie geben auch Praktika für Master Studenten als auch für Phd, also für Studenten von Postdocs, was an, was ja auf jeden Fall dem ganzen Geist entspricht, unter dem es gegründet wurde, war immer cool, dass es so explizit geschrieben wird. Und wie du sagst, was Europäisches ist ein cooles Zeichen auf jeden Fall. Und auch 300 Millionen ist ja kein kleines Investment dafür.
Ja, ich meine, wenn man 200 Millionen schon wieder für CPU ausgeben muss, dann sind die 300 Millionen gleich weg. Aber ist definitiv.
Sehr, sehr cool. Apropos, hat eigentlich ein Video irgendwas dazu gesagt, was die H200 kosten sollen und kein gab es.
Aber es gibt, sage ich mal, was ich gehört habe, ist 50 Prozent teurer, aber da es doppelt so viel besser ist, ist es dann wieder.
Sozusagen am Ende besser. Dann ist noch die Frage, wie viel sie liefern können.
Bleibt spannend.
Bleibt spannend. Meta hat auch noch ein neues Modell rausgebracht. Wir haben uns ja schon über das EMO Modell von Ihnen zur Bildgenerierung unterhalten. Sie haben jetzt EMO Video und EMO Edit rausgebracht. Vielleicht rückwärts das ganze, EMO Edit ist ein Modell, präziser das Image Editing für die Bilder zu machen, also dass man per Textinput ein Bild verändern kann und es darauf wirklich spezialisiert ist, dass eben nur die Pixel, die von dem Prompt getargeted werden, also wenn man sagt, okay, verändere den Hintergrund oder verändere, was in diesem Glas ist, falls ein Glas angezeigt wird, verändere den Text, der auf dem Bild angezeigt wird, dass eben nur diese Teile des Bildes auch wirklich verändert werden. Das heißt, da haben Sie mit EmoEdit auf jeden Fall ein Modell rausgebracht, was das einiges besser können sollte als was da bisher so draußen verfügbar ist. Und mit EmoVideo haben sie eine Pipeline rausgebracht, was auch auf Emo basiert, wo man ein vier Sekunden langes Video erzeugen kann mit 16 Frames per Second und mit einer Auflösung von 512 Pixel. Und das Besondere ist, dass das alles nur auf Basis von Diffusor Modellen ist und man zuerst das Bild mit Emo erzeugt.
Also es wird erst mal per Text-Prompt ein Bild erzeugt und dann wird dieses Bild zusammen mit dem Prompt als Input für das Video-Modell genommen, dann das vier Sekunden langeVideo zu erzeugen. Was wohl, ich meine ich bin nicht so drin in dem Video Generation Pipelines, aber zumindest eine sehr viel kleinere Pipeline sein soll als bei zum Beispiel wo fünf Modelle für das Make a Video Modell benutzt wurden, was auch ein Meta Modell war. Da wurden fünf verschiedene Modelle in Serie benutzt. Scheint wohl eine neuere Architektur zu sein, das Ergebnis zumindestens, wenn es irgendwie zumindestens auf Basis von menschlicher Bewertung ist, haben sie verschiedene Tests gemacht, soll wohl einiges besser sein als alles, was da so sonst da draußen stattfindet. Okay, Philipp, kommen wir zum Krimi, oder? Jetzt gehen wir mal nach...
Vielleicht noch ganz kurz zu EMO. Es ist aktuell nichts bekannt, ob Meta die Modelle open sourcen wird oder nicht. Es gibt zwar so eine Projekt-Page, wo man sich so verschiedene Promps anschauen kann und auch nach Promps suchen kann, aber dass man das Modell jetzt selber wie Stable Diffusion oder sowas ausführen kann, ist aktuell nicht bekannt.
Sam Erlmann letzte Woche Freitag. Philipp, du hast es dann auch, glaube ich, direkt bei uns in unserem internen Channel geschickt. Wir haben auch diskutiert, wie nehmen wir früher eine Folge auf? Gefühlt hätte man zu jedem Zeitpunkt eine Folge aufnehmen können und wäre immer ein paar Stunden später wieder Out of Date gewesen. Deswegen mal schauen. Wir sind jetzt Dienstag 13.30 Uhr, wenn wir aufnehmen, werden die Folge auf jeden Fall sehr zeitnah live bringen. Und ich bin mal gespannt, ob schon dann uns eine Information, eine aktuelle, fehlen wird. Wir probieren das Ganze mal so ein bisschen aufzurollen, beginnt am 16. November, was der Donnerstag letzte Woche war.
Ja, ich glaube, es nicht ganz richtig. Am Freitag ging es los. Das ist wahrscheinlich ein Schreibfehler. Genau. Am Freitagmittag, mehr oder weniger, oder Freitagnachmittag, Freitagmorgen, amerikanische Zeit an der Westküste, wurde plötzlich ein Blogpost von Open AI veröffentlicht mit Changes in Open AI Leadership und in dem stand, dass Sam Altmann, bisheriger CEO, gefeuert wurde von dem Board und ebenfalls wurde Crack Procman, welcher der CERMEN of the Board war, entfernt. Und dass der oder die aktuelle oder damals aktuelle CTO Mira Morati nun Interims CEO wird. Und das ist so, das war so, ich weiß nicht genau wann, es war drei, vier Uhr mittags und das war so alles, was wir damals wussten. Und jeder, sag ich mal, der irgendwie im AI Space aktuell unterwegs ist oder auf Twitter unterwegs ist, war so ein bisschen geschockt. So zum einen warum wurde Sam Altmann gefeuert so wirklich aus dem Nichts? Weil vor zwei Wochen haben wir ja noch über den Open AI Dev Day geredet. Sam Altmann hat einen Tag davor noch als CEO von Open AI auf einer Konferenz geredet und alles hat eigentlich den Eindruck gemacht, dass da sag ich mal kein irgendwelches Problem existiert bei Open AI intern?
Und vor allem lag es einfach am Ende wirklich daran, was wir auch gesagt haben. Er hat einfach zu schlechte Fragen gestellt bei der Präsentation. Weil genau was wir gesagt haben, wir waren auch nicht nicht pleas mit seiner Performance da.
Ja, und dann gingen ja auch definitiv die Spekulationen auf Twitter los und überall, da man halt nichts wusste und auch sozusagen der Blogpost von Open AI nicht irgendwie besonders freundlich formuliert wurde. Also man hat nicht irgendwie Sam ultra krass gedankt oder halt nicht gesagt, dass Sam sich mehr Zeit für seine Familie nehmen möchte, was so normalerweise immer typische Indikatoren sind, dass irgendwas im Busch ist, sondern man hat sich wirklich mehr oder weniger richtig krass von ihm distanziert, was natürlich zu sehr viel Spekulationen auf Twitter und überall führt, weil wenn sich ein Unternehmen so krass von einem CEO distanziert, wo bisher eigentlich alles gut gelaufen ist nach außen, muss irgendwas Schlimmes vorgefallen sein. Und dann weiter am Freitagabend hat Crack Brockman und Sam das erste Mal was dazu getweetet, dass sie mehr oder weniger am Freitag eine Einladung von Ilia, welcher Chief Science Officer, glaube ich, bei Open Air ist und auch Board Member ist.
Und auch Founding Mitglied gewesen.
Genau. Eine E-Mail bekommen mit Hey sorry, eine Google Meet Einladung bekommen für ein Gespräch. Und dann ging es eigentlich Schlag auf Schlag, so im Sinne von, dass das Board entschieden hat, dass Sam nicht länger tragbar wäre für die Mission und deswegen sozusagen sie entschieden haben, ihn zu entlassen. Und das Gleiche gilt für Crack Brockman. Crack Brockman hat daraufhin auch auf Twitter geschrieben. Okay, aufgrund von den ganzen neuen Situationen kündigt er bei Open AI. Also er war noch aktuell angestellt, aber er war nicht mehr der Chef of the Board, sondern er war nur noch, sage ich mal, angestellt bei Open AI. Genau.
Er hat aber dann gesagt... Er wollte direkt berichten, sozusagen. Und sie wollten auf jeden Fall, so wie es klingt, das Board wollte auf jeden Fall nur Sam Erdmann loswerden und eigentlich alle anderen behalten.
Genau. Und das war so der Stand Freitagabend und alle dachten okay, was passiert jetzt? Warum? Dann ging es weiter.
Vielleicht noch ganz kurz nur für die Geschichte, weil du vorhin meintest November 16, da ist ein Scheibfehler. Also was sie geschrieben haben, also am Donnerstagvormittag, es war ja für uns überraschend, Freitagabend die Nachricht zu bekommen. Aber selbst Sam Oudman hat am Donnerstag, am 16 November eben diese Nachricht von Eliasus Kiva, dem Chief Scientist bei Open AI, eine Nachricht bekommen für: „Hey, morgen Mittag gibt es einen dringenden Call und hat einen Google Meet Link rumgeschickt. So, komm mal da rein. Auch er wusste scheinbar erst Donnerstag davon, dass über … Also da wusst ihr auch nicht, was der Grund ist, aber da wurde er dazu eingeladen. Das ist Donnerstags passiert. Und Murati, also die Interim CEO, die musst du wohl auch Donnerstags davon, oder Donnerstag davon Bescheid bekommen, mit dem Vorhindern, dass sie dann Interim CEO wird. Das sind die Sachen, die wohl Donnerstags passiert sind.
Genau. So, das ist der Stand Freitag. Daraufhin wurde aber auch noch gesagt, weil Microsoft und Open AI hatten ja eine sehr enge Partnerschaft und am Freitag hieß es noch von Microsoft Seite aus, we have a long term Agreement with Open AI, with full access to everything we need to deliver on our Innovation Agenda, an exiting Product Roadmap and we are in committet to our Partnership and to Mira and the team. So das ist so der Stand Freitag. Dann hieß es plötzlich, also es gibt ganz, ganz viele News Spekulationen und ganz, ganz viele sag ich mal News Seiten, die das Thema aufgenommen haben. Dann kam so Anfang Samstag Nachts, Samstagmorgen ein bisschen raus. Okay, Sam Altman wurde scheinbar entfernt, nicht weil irgendwas Schlimmes passiert, sondern weil einfach nicht mehr die Mission sozusagen richtig vorangetrieben wird. Und die Mission von Open AI ist ja, HCI oder SAFe HCI sage ich mal zu entwickeln. Und scheinbar hat das existierende Board nicht gesehen, dass es damit weitergeht. Aber es gibt aktuell bis heute immer noch nicht keine genaue Dokumentation über das Meeting, wieso Sam Altmann entlassen wurde. Und dann Samstag und Sonntag. Ich habe es nicht mehr so ganz verfolgt.
Ich war dann erst wieder am Montag, sage ich mal, oder Sonntagabend mit drin. Aber es ging, sage ich mal, Schlag auf Schlag, dass andere Open AI Mitarbeiter gesagt haben, sie kündigen, vor allem auch der Lead für GPS4 zum Beispiel gesagt hat, er kündigt. Dann hieß es wieder am Samstag, dass das Board sich überlegt, Sam und Crack zurückzubringen, weil halt doch, sage ich mal, so viel Druck ausgeübt wurde. Dann kam aber bis Samstagabend nichts, dass Sam oder Crack zurückkamen. Dann gab es ein Bild am Sonntagmorgen von Sam, welcher mit einem Guest Pass bei Open AI im Büro war und scheinbar auch Menschen von Microsoft sozusagen an den Terminen mit teilgenommen haben, mehr oder weniger, damals dachte man okay, die kommen zurück zu OpenAI und eventuell wird etwas an der Struktur verändert. Und dann hieß es aber Sonntag, ich weiß nicht, Abendnachmittag, dass Sam nicht als CEO von OpenAI return wird, und dass Emet Scheer, der neue CEO von OpenAI ist, Emet Scheer war bis vor kurzem der CEO von Twitch. Und dann kurze Zeit später hat auch Satya Nadala, also Microsoft CEO, getwittert, dass Sam Altmann, Crack Brockman und andere Mitarbeiter von Open AI Microsoft Joint und eine Art neue Entität gründen und, sage ich mal, die Mission von ADI und AI weiterführen.
Und das war, glaube ich, so der Stand nach dem Wochenende.
Ja, und ich glaube, M&C wurde ja auch irgendwie schon ein bisschen, dann wurde auch schon direkt viel spekuliert über wie geht es weiter mit Open AI und so, weil zumindest Statements von M&A ja eher darauf schließen ließen, so okay, das was Open AI da bisher getan hat, irgendwie mit Vollgas durch die Dunkelheit zu rasen, ist vielleicht nicht der richtige Weg, wenn sie Safe ADI bauen wollen und so ein bisschen gesagt hat, wenn Open AI bisher mit KMH von 10 gefahren ist, sollten sie jetzt vielleicht eher eins oder zwei, was den Speed angeht, machen und eher gucken, dass sie es also sozusagen safe hinbekommen. Von daher wurde da auch schon ein bisschen auf Basis der Statements herrissen. So okay, mal gucken, ob das jetzt die richtige Setting ist für Open AI. Viele haben schon, glaube ich, Grabrenner gebaut.
Genau. Und dann, das war so der Stand Sonntag und danach hat man dann sozusagen auch von anderen Seiten gelesen, okay, Microsoft hat so schnell agiert oder darüber auch geredet, dass sie einfach die Nachricht rausbringen wollten, bevor der die Börse am Montag öffnet. Nicht, dass es halt irgendwie der Kurs weiter nach unten geht, weil am Freitag, als die Nachricht schon rausging, welche Forb-Börsen Schluss rausging, hat Microsoft minus 2% oder irgendwie sowas bekommen, was ja bei dem Marktvolumen sehr viel war. Und dann geht es weiter mit Montag, was sehr interessant war, dass plötzlich Ilia, auch Board Member, welcher scheinbar der Initiator war am Freitag für die Entlastung von Sam.
Getötet hat. Ja, die hat die Mail geschrieben. Das war der, der Donnerstag geschrieben hat: „Hey, lass am Freitag müssen wir reden.
Genau. Und er hat am Montagmittag getwittert: „I deep deep Request my Partizipation in the Board Action. I never intended to harm Open AI. I love our thing we are building together and I will do our thing I can reunite the company. Und dann ging es weiter. Dann wurden plötzlich E-Mails und Screenshots veröffentlicht auf Twitter, dass interne Open AI Mitglieder angefangen haben. Ich weiß nicht, es ist glaube ich nicht ein Survey, aber halt sozusagen zu unterschreiben, dass sie kündigen, wenn das Board nicht zurücktritt und nicht Sam Altman wieder und Crack Progman wieder zurückkommt.
Ja, wie so ein offener Brief.
Genau. Und der aktuelle Stand bis gestern Nacht war, glaube ich, dass ungefähr zwischen fünf und 600 von den 700 Open AI Angestellten diesen offenen Brief unterstützt haben.
Ich glaube, die 650 von 770 war der letzte Stand.
Und das ist sozusagen der Standpunkt, den wir bis gestern Nacht heute Morgen hatten. Was noch dazukommt, natürlich haben ganz, ganz viele von anderen Unternehmen jetzt natürlich geschrieben: „Hey, wir hiern zum Beispiel der CEO von Salesforce hat angeboten jedem Open AI Researcher das selbe Gehalt und die selbe Equity bereitzustellen, wenn sie Salesforce Joint wollen. Ich glaube, Ähnliches gilt für andere, sage ich mal, AI Startups, die auch sehr offen sind, das Talent von Open AI zu bekommen.
Und Microsoft hat es ja auch gesagt. Also Microsoft hat ja auch gesagt, dass sie jeden nehmen. Die haben jetzt glaube ich nichts zu irgendwie Gehalt und Equity gesagt, aber zumindest jeder, der bei Open AI gehen sollte, hat einen Platz bei Microsoft zusammen mit Sam und Grak.
Genau. Und jetzt, also ich bin mal gespannt. Eigentlich persönlich dachte ich so okay, Samstag, okay, er kommt zurück, war halt so, sage ich mal, eine schlechte Aktion und eventuell ändert sich so, sage ich mal, die interne Struktur von Open AI. Man hat halt gemerkt, über das letzte Jahr, dieses initiale Open AI, Open Research, Safety, AGI ging halt ein bisschen verloren mit sie machen ganz enge Partnerschaften mit Microsoft, bauen eine Plattform für Cloud, haben einen Dev Day, was ja sehr weit weg von der initialen Mission ist und dass es eventuell dazu führen kann, dass einfach okay, sie fordern ihn, aber es funktioniert nicht ohne sie. Und das ist nicht das, was eigentlich die Open Air Mitarbeiter wollen und dass es dann, sage ich mal, umstrukturiert wurde. Dass es aber dann plötzlich hieß, dass Sam und Crack zu Microsoft gehen, dachte ich wirklich okay, ist untergraben das Thema ist irgendwie durch. Aber gestern ging es dann wieder los, dass sie eventuell doch wieder zurückkommen. Und ja.
Also ich weiß nicht. Man weiß ja nicht, es gab ja irgendwie dann auch noch, also auch irgendwie Open AI Intent, irgendwie gab es Gerüchte darüber, dass das Open AI Board probiert hat, einen Merger mit Anthropic zu machen, sodass der CEO von Anthropic dann auch CEO von Open AI wird. Also es ist ja glaube ich super viel da einfach noch in der Zwischenzeit passiert, was man gar nicht so ganz mitkommt, was dann eher in Richtung Rumer irgendwie geht oder Gerüchte. Und mal schauen, was irgendwie noch passiert. Aber auch rund Open AI. Ich meine, eine ist ja die Mission, die sie haben, SAFe ADI, das Beste der Menschheit. Aber sie waren ja eigentlich auch Non-Profit, haben dann ja das Subunternehmen mit einem gewissen Profit-Limit, was sie jetzt ja sozusagen haben. Also sie können Profit machen, aber nur bis zu einer gewissen Grenze. Und mein Sam Altmann hat dann ja auch angefangen, Geld einzusammeln für die Chip-Firma und überlegt, eigene Chips herzustellen, was ja auch dann wieder sehr Profit getrieben ist. Wo auch die Frage ist, wo auch die Frage ist: Wie hängt das eigentlich mit Open AI zusammen und wo gibt es... Wo gibt es da Interessenskonflikte?
Also ich meine so ein bisschen Gründe, die das Board da vielleicht hatte, kann man sich ja irgendwie zusammenspinnen, wenn ihre Hauptaufgabe ist, diese Mission sicherzustellen. So sind bestimmt einige Dinge passiert, bei denen die es jetzt vielleicht schwierig machen, ob das jetzt der richtige Weg war, wie sie das Ganze jetzt gemacht haben und damit irgendwie ein gewisses Ziel erreichen? Man kann ja eigentlich nur, also ich glaube, sie konnten nicht antizipieren, was passiert, wenn sie das tun. Also hätten sie das, glaube ich, antizipieren können, wäre es definitiv anders gelaufen. Sieht man ja auch an dem Statement von Ilia, der Part des Teil des Boards ist und dann gesagt hat, er wollte das Ganze so nicht. Aber trotzdem, es kommt einem so kurzsichtig vor dieser Move, wenn man so von außen draufbetrachtet, man kann doch nicht wirklich meinen, dass das gut läuft beim aktuell heißesten Startup der Welt mit irgendwie so einer Gallionsfigur wie Sam Elkman, dem ihn zu enthaupten.
Ja, ich verstehe esWir haben ja auch nicht. Also wie gesagt, wenn man halt irgendwie tiefer in der AI Bubble drin war, hat so keiner davon oder keiner damit ein bisschen gerechnet. Viel habe ich gesehen, vergleichen es auch ein bisschen mit Steve Jobs, als er damals bei Apple gefeuert wurde und dann ja wieder zurückkam. Ich glaube, das Thema damals war noch ein bisschen anders im Sinne von wie viel Zeit auch da dazwischen war. Wir hatten jetzt ja innerhalb von vier Tagen mit Sam Altmann geht, Sam Altmann kommt zurück, Sam Altmann ist bei Microsoft, Sam Altmann geht vielleicht doch nicht zu Microsoft und kommt zurück. Und das ist halt, lässt schon sehr viel zweifeln auch daran irgendwie, ist das Management dort richtig aufgestellt und natürlich auch für andere Investoren okay, ist das schon ein sehr großes Risiko, welches dort eigentlich besteht, dass die überhaupt diesen Move haben machen können. Also schon allein der Gedanke, dass das Board, welches ja aus sechs Personen bestand, welche nicht direkt Equity in Open AI halten, Entscheidungen oder Entscheidungskraft haben über das ganze Unternehmen und mehr oder weniger egal wie gut es bei Open AI lief, was wir gesehen haben, gesagt haben Nee, das passt nicht zu unserer Mission.
Unddeswegen mehr oder weniger töten wir es gefühlt.
Ja, ich meine natürlich auch die Frage ist, wie es halt einfach zusammenpasst. Du bist irgendwie eine Non-Profit und bist aber jetzt aktuell irgendwie eines der heißesten Startups der Welt und hast eigentlich ein Produkt, mit dem du potenziell auch viel Geld verdienen kannst. Und irgendwie ich glaube, es hat ein super großer Interessenskonflikt. Halt einfach. Ich meine, wenn sie ihren Job, vielleicht haben sie ihren Job einfach zu ernst genommen und so und hätten einen besseren Mittelweg dafür finden müssen. Vielleicht haben sie keinen anderen Ausweg gesehen als das irgendwie zu tun. Aber ich meine auch selbst, wenn jetzt Admin und Jack Brokman nicht zurückkommen und sagen wir mal, das ganze Open AI Team geht mit oder ein Großteil. Alle 650 würden wirklich mitgehen. Ich meine, dann hast du das komplette Knowledge aus der Firma rausgezogen und bringst das jetzt, wo auch immer es hingeht, zu Microsoft oder irgendwo anders in ein neues Umfeld, wo sie nochmal neu drüber nachdenken können, haben wir überhaupt Lust, Non-Profit zu sein? Oder sagen wir einfach, wir sind komplett Profit getrieben und gehen von diesem Gedanken vielleicht Safe ADI auch einfach ein bisschen weiter weg und sagen einfach, wir wollen erst mal ADI machen, gucken, dass wir es so safe wie möglich machen und gucken aber erst mal, dass wir ein Profit getriebenes Unternehmen aufbauen.
Also ich meine, das war es ja eigentlich schon. Also ich meine.
Ja, im Endeffekt, imEndeffekt schon, aber immer noch halt mit gewissen Einschränkungen, denen sie sich halt unterlegen müssten, weil sie halt solche Unternehmen sind. Ist ein halbherziges Non-Profit schlechter oder besser als ein, sie gehen raus und den Non-Profit-Ansatz wird einfach komplett gestrichen. Ist halt jetzt etwas einfacher als Open AI umzuwandeln zu so etwas.
Ja, egal wie es nachher ausgeht. Außer sie gehen alle wieder zurück zu Stand Freitagvormittag, sag ich mal, wird es definitiv irgendwelche Implikationen haben für, sei es die Geschwindigkeit, die Open AI aktuell hatte mit neuen Features und Produktentwicklungen und GPS5 und was auch immer. Weil selbst wenn du alle mitnimmst und woanders hingehst, hast du neue Strukturen, hast du neue Prozesse. Dinge sind neu und anders. Das heißt, du weißt nicht, wie lange es wirklich dauern kann. Darüber hinaus wissen wir ja auch aktuell noch gar nicht, wie diese neue Entität von Microsoft aussehen könnte. Wäre es dann wirklich direkt Microsoft oder ist es dann so ähnlich wie GitHub? Aber ich glaube auch bei GitHub haben die doch neue Regeln, da sie zu Microsoft gehören, dass du halt einfach Dinge nicht mehr so schnell entscheiden kannst, weil du halt eine public getradete Company bist und gewisse Regeln einhalten musst, sage ich einfach mal. Wenn jetzt sage ich mal nur Sam Altmann geht und man hier bei Open AI bleiben, manche nicht, dann ist halt auch dieses ganze Thema okay, kann ich dann noch weiterhin auf Open AI bauen und vertrauen, wenn sage ich mal der GPS 4 Lead nicht mehr da ist?
Wer übernimmt das? Wird das ganze Thema entschleunigen? Und dann vor allem als Kunde, wenn ich jetzt sage ich mal bei Asher nach OpenAI investiert habe oder mich für Azure entschieden habe, weil die OpenAI bereitstellen, was passiert mit den Kunden? Wird dann der OpenAI Service nicht mehr weiterentwickelt und es gibt einen neuen Sam und Crack Azure Service oder wird es dann soSie sagen, sie werden viel tun. Sie werden trotzdem unter Azure OpenAI weiterlaufen?
Ja, ich meine, ich denke mal, sie werden parallel, wenn es so läuft, dass Sam und Crack da sind, parallel einen Service aufbauen, der dann das Produkt wird das Microsoft oder wie auch immer diese neue Entität dann heißt, Produkt wird, was der Konkurrenz von Open AI ist und Open AI wird so lange noch unterstützt, bis das Ganze so weit ist. Und dann wird es wahrscheinlich an der langen Hand lassen sie es verhungern so ein bisschen.
Ja, aber das kann ich mir auch nicht vorstellen, weil ja wirklich das Ganze, ich sage ich mal, die ganze Co-Pilot-Infrastruktur und alles geht ja auf diese APIs. Das ist ja auch auf Microsoft-CIOs haben die ja sehr viel investiert, diese Modelle zugänglich zu machen. Klar kann man es eventuell eins zu.
Eins gleich zu bauen.
Ja.
Ich glaube nicht, dass das ein … Ja, egal was das ist … Also ich glaube am Ende gefühlt mit dem Moof, also außer Sam und Jack entscheiden sich immer komplett anders hinzugehen, ist es für Microsoft erst mal, habe ich nicht das Gefühl, dass es ein schlechter Moof ist. Es kann sie halt nur langsamer machen, eher so halt im ganzen Konkurrenzkampf. Ich glaube, schneller sind sie dadurch jetzt gerade nicht geworden. Also sie, sie hängen, kann sein, dass sie jetzt gerade mal kurz gefault wurden und deswegen nicht mehr so an der Speerspitze sind, was die Produkte angeht.
Ja, ich habe noch einen ganz interessanten Tweet von Mathieu Prints gesehen. Mathieu Prins ist der CEO und Co-Founder auf Cloudflare, der auch auf die negativen Punkte eingegangen ist von der Partnerschaft oder dass mehr oder weniger eventuell Microsoft jetzt ja komplett Open AI for free bekommt, weil was er zum Beispiel genannt hat, aktuell war das Thema für Microsoft zum Beispiel Halluzinierungen oder irgendwelche Outputs, die eventuell nicht super harmlos sind. So okay, das ist Open AI das Thema, Open AI arbeitet daran. Aber jetzt stehen sie ja sie gewissermaßen dafür, gerade weil es ja dann ein offizielles Microsoft Produkt ist und nicht Power bei Open AI. Und auch generell ist es manchmal besser, schreibt er, nicht den Asset direkt zu besitzen, sondern nur sozusagen die Anteile oder die Partnerschaft mit dem Asset Provider zu besitzen, weil es halt doch viele, sage ich mal, andere Risiken bietet oder auch dadurch Open AI einfach viel schneller agieren kann. Also ich weiß es zum Beispiel von dem Lama Release, muss man ja aktuell auf Azure, sorry, auf Azure MEL so eine Art Formular ausfüllen und bestätigen wegen Safety.
Das.
Gibt es bei Open AI ja, sage ich mal nicht. Wenn du Open AI Plattformen nutzt und das Modell, dann schickst du halt deine Prompts hin und das geht halt zurück. Und dasselbe Thema gibt es bei Amazon, dass du sozusagen, die haben andere Richtlinien intern und extern, zu denen sie Complient sein müssen, die eventuell Dinge sehr entschleunigen können, welches dann natürlich wieder einen Vorteil für alle Konkurrenten bietet, für Open Source, für Anthropic, für KURIER, für MISTUELL, ist ja nicht so, dass Open AI der einzige Player war, sondern dadurch kann es sein, dass Open AI halt ihre drei zu null Führung, die sie aktuell haben, ein bisschen.
Verspielt hat. Ja, ich glaube auch, wenn man einfach nur Open AI betrachtet, glaube ich auch, dass es einen Nachteil bringt. Und ja, für Microsoft hast du schon recht, gibt es noch viele Aspekte, die man da auch noch mit einfließen lassen kann. Aber zumindest sind sie nicht der große Verlierer, wie es vielleicht Freitagabend auch noch ausgesehen hat, was der Börsenkurs auch gesagt hat. Aber ich meine, ich bin mal gespannt. Vielleicht kommen ja auch Simon Graeck zurück zur Open AI und dann bin ich mal gespannt, was das für ein Board heißt. Heißt ja, das muss ja einmal komplett ausgetauscht werden. Mit dem Board Member gibt es dieses Szenario in der Zukunft ja nicht. Und ich meine, ein Teil eines Boards zu sein, bei dem das Board dann mal so einen Verlust einstecken muss und weiß Okay, wir haben scheinbar nicht die Option, auch wenn wir sie theoretisch haben, noch mal Sam Elton zu kicken, was auch immer er tut, damit kommen wir nicht weit. Was ist soDas.
Einzige, was ich mir so vorstellen kann, aber es halt auch reine Spekulation ist, wenn die wirklich zurückgehen, heißt es, dass das aktuelle Board ja resignieren muss. Das heißt, du hast von den aktuellen oder alten Board Member, die wieder zurückkommen können Sam, Crack, eventuell Ilia. Das weiß ich allerdings nicht, wie die dazu stehen. Und ich würde davon ausgehen, dass Microsoft oder Satya Nadala dann mit in das Board kommt oder eventuell noch einer von Microsoft. Einfach, dass sie sozusagen das Stimmrecht, welches sie aktuell nicht haben, dann in der Zukunft haben, so etwas zu vermeiden und das dann eventuell marketing-und kommunikativ-technisch so hintreten können, dass die Aussage von Sonntag mit „Hey, die fangen bei Microsoft an, gedreht werden kann zu „Hey, man hat sich noch mal zusammengesetzt und die beste Lösung ist, man fängt doch nicht an, sondern das Board hat sich entschieden zurückzutreten. Aber Microsoft geht jetzt mit in das Board mit rein, einfach sicherzustellen für die Microsoft und Azure Kunden, dass so etwas in der Zukunft nicht mehr passieren kann und dass das Risiko einfach minimiert wird.
Ja, also wie auch immer, ich glaube, dass das Ziel irgendwie die Mission damit zu retten oder irgendwie zu sichern, egal in welchem Szenario gefühlt haben sie das mit dem Move auf jeden Fall nicht geschafft. Egal was der Outcome ist, es wird die Ist-Situation ein bisschen verschlechtern, das Board so autonom zu haben, dass sie wirklich diese Mission sichern können.
Die andere Frage ist halt, ob diese Situation eh schon vorher bestimmt war, weil Open AI in den letzten zwei Jahren, sage ich mal, ab JGPT so von Außenwahrnehmung ja immer weiter weggegangen ist von dem, was sie initial mal machen wollten oder gemacht haben. Und dass vielleicht dieser Zeitpunkt, den wir jetzt haben, überhaupt gar nicht vermeidbar war. Aber nur, dass durch diese Dev Day und alles, was in letzter Zeit passiert ist, einfach so das Fass zum Überlaufen gebracht hat, dass das Board halt einfach diese Aktion oder halt diesen diesen Entschluss gefasst hat und eventuell dasselbe passiert hätten können in einem halben Jahr von jetzt. Und das stellt sich halt auch wieder die Frage okay, wenn Open AI als Company, also Mitarbeiter plus Sam Altmann, Crackrockman mit der Partnerschaft von Microsoft gar nicht mehr das wollen, was sie am Anfang hatten, ist es keine... Kann es auch eventuell besser sein, dass es jetzt passiert ist und nicht in einem halben Jahr. Das weiß man natürlich auch nicht.
Genau, dass besser oder schlechter ist, ist immer eine Frage des Blickwinkels wahrscheinlich, ob es aus dem Board und die dann ihren Job in Wahrung der Mission sehen oder aus Sam Alpman und Open AI Profitabilitätssicht einführen. Wieder irgendjemand wird dabei wahrscheinlich verlieren. Mal schauen wer und wer gewinnt. Ja spannend. Dann so, heute war es schwierig, wenn wir in einem Krimi Podcast sind, dann schaffen wir es nicht, bei einer halben Stunde zu bleiben. Also vielleicht hört ihr ab jetzt jeden Mittwoch oder heute dann ja Dienstag, damit wir möglichst schnell live sind von uns eine kleine Krimi Story. Auf jeden Fall wird es beim nächsten Mal ein Recap dazu geben, was seitdem passiert ist.
Ja und auch nächstes Mal nächste Woche ist Reinvent, also die Amazon Konferenz in Las Vegas. Bin ich auch schon gespannt. Ich kann auch erwarten, dass da einiges Neues kommt noch.
Ja, cool. Dann Philipp, dir vielen Dank. Danke. Bis in zwei Wochen. Vielen Dank fürs Zuhören. Schickt uns wie immer Feedback an podcast@programmier. Bar oder nutzt die Spotify Funktion. Und bis in zwei Wochen. Ciao.
Ciao.