News AI 05/25 –

Deepseek r1 & Markt // OpenAI Tasks // OpenAI Operator / UI-TARS / browser-use // Trae // Gemini 2.0 Flash Thinking

29.01.2025

Shownotes

Wow, es ist viel los im AI-Umfeld. Unsere vollgepackte Folge starten wir heute mit dem heißesten Thema der Woche: DeepSeek. Dazu gibt’s Philipps LinkedIn-Post als TL;DR;, einen Blog-Beitrag, der thematisiert, wie DeepSeek R1 trainiert wurde und noch eine weitere Zusammenfassung der Lage.

Aus dem Business-Bereich gibt es folgende Updates: ByteDance investiert $12 Milliarden in KI-Chip und Google investiert $1 Milliarde in Antrophic.

Neue Produkte gibt es auch. OpenAI hat Tasks rausgebracht – eine Möglichkeit, sich mit ChatGPT (regelmäßig) an Dinge erinnern zu lassen. ByteDance, die TikTok-Mutter, hat eine AI-First IDE rausgebracht mit Trae. Perplexity hat eine API rausgebracht, über die man auf die KI-Websuche zugreifen kann.

Gleich drei Firmen kommen in den News zu Computer-nutzenden Agenten vor: OpenAI Operator ist gerade nur für ausgewählte Nutzer:innen verfügbar, bietet aber die Möglichkeit, mit ChatGPT auf das gesamte Web zuzugreifen. Eine Open-Source-Alternative dazu bringt UI-TARS mit (wieder ByteDance), die lokal den gesamten Rechner steuern kann und browser-use ist eine weitere Möglichkeit, eine AI auf den Browser zugreifen zu lassen, die in Benchmarks vor OpenAI liegt.

An neuen Modellen oder Updates dazu haben wir Kokoro-Web, ein Text-to-Speech-Modell, das komplett lokal im Browser läuft und dafür wirklich beeindruckend ist. Gemini 2.0 Flash Thinking hat ein Januar-Update erhalten und ist in allen Benchmarks besser geworden. In der API von Anthropic können nun Quellenangaben mit abgefragt werden.

/transkript/programmierbar/news-ai-05-25-deepseek-r1-markt-openai-tasks-openai-operator-ui-tars-browser-use-trae-gemini-2-0-flash-thinking
Dennis
Hallo und herzlich willkommen zu den AI News der programmier.bar. Wir haben ja 'n neues, hast Du vielleicht auch gar nicht gesehen, Philipp. Wir haben eine neues, wie nennt man das? Numbering? Wie, was ist 'n richtige Wort für? Auf jeden Fall, wir sind jetzt auch an die Kalenderwochen angelehnt. Ich glaub, das war vorher anders. Das heißt, das sind hier die AI News null fünf vierundzwanzig, an dem heute uns befinden. Ich bin Dennis, seit dem letzten Mal dabei und die bekanntere Stimme in diesem Format ist Philipp. Hi Philipp.
Philipp
Hallo. Das heißt, wir verwirren jetzt alle mit null fünf anstatt, dass wir, es ist Mai ist, es ist jetzt plötzlich die fünfte Kalenderwoche.
Dennis
Die fünfte Kalenderwoche. Aber die Programmierhörer*innen, die haben das drauf durch die anderen News. Das ist so
Philipp
da glaub ich noch nie darauf geachtet, wenn die Folge noch maliert ist.
Dennis
Ist auch egal. Ihr habt das auch im Feed, ihr kriegt das rein, Ist nicht so wichtig, was da drin ist. Was viel wichtiger ist, dass Fabi sich nicht gemeldet hat, also Okay. Kein ein gutes Zeichen, dass er letzte Folge schon mal nicht gehört hat. Trotzdem natürlich liebe Grüße an ihn. Und was auch noch wichtiger ist, sind die ganzen Inhalte. Wir sammeln ja immer über die zwei Wochen hinweg einiges an Themen und heute mussten wir tatsächlich einiges rausstreichen, weil einfach so viel passiert ist die letzten zwei Wochen, dass wir nicht über ganz alles reden können. Aber kleine Vorschau auf das, was kommt. Ich glaube, wir starten mit dem vielleicht spannendsten Thema aktuell, was zumindest viel auch in normalen Medien angekommen ist. Deep SEK, alles drum rum, also was da veröffentlicht wurde, was mit den Aktienkursen passiert ist, was unser Eindruck und unsere Themen darauf sind. Genau und dann gibt's eigentlich von allen großen Playern auch wieder son bisschen einfach Updates, es gibt Investments, die veröffentlicht wurden. Es gibt product seit ich 'n paar Sachen, Open AI Task, Open Eye Operator, ein paar Models, die neu rausgekommen sind oder Updates bekommen haben. Aber da arbeiten wir uns jetzt Schritt für Schritt durch und ich würde sagen, Philipp, wir machen erst mal einen kleinen, ja, keine Übersicht über das, was da mit Deepsieg passiert ist. Erzähl mal.
Philipp
Viel wichtigere Frage, besitzt Du NVIDIA Aktien?
Dennis
NVIDIA Aktien besitze ich nicht, nee. Okay. Nee.
Philipp
Dann hattest Du gestern nicht so einen ganz traurigen Tag, sag ich mal.
Dennis
Das ist richtig. Ja, also
Philipp
für alle, die's nicht mitbekommen haben, irgendwie gestern war die US Börse oder generell die Weltwirtschaft und alles, was mit Tech zu tun hatte von jedem Semikonaktorunternehmen, das irgendwie existiert. Es ging stark ins Minus. Und Nvidia hat, ich hab's heut morgen auf Twitter gelesen, irgendwie viermal Intel verloren. Also die haben 'n Börsenwert von Intel, also was Intel aktuell wär, das viermal gestern verloren, waren irgendwie siebzehn Prozent. Und für uns alle, die son bisschen, sag ich mal, mehr im KI Umfeld unterwegs sind, ist wir verstehen's alle son bisschen ganz nicht. Aber man munkelt, dass das alles auf DeepSeak und DeepSeak a one zurückzuführen ist. Und DeepSeak ist 'n, ich würd's jetzt nicht Start-up nennen, aber es ist eine Company aus China, die Teil eines Hedgefonds ist, die sehr, sehr gute und sehr viele Open Source und Open Research Arbeit geleistet hat in den letzten zwei Jahren. Und die haben letzte Woche ihr neues Reasoning Modell A1 veröffentlicht und in dem Fall heißt wirklich veröffentlicht die Wates Release. Das heißt, man kann sich die runterladen und wenn man genug GPUs und Comput Power hat, kann man die selber ausführen. Wenn man das nicht hat, kann man Deep Siege a one auch kostenlos auf Chat Punkt Deep Siege Punkt com testen, was 'n sehr, sehr große Unterschied ist zu Open Eye, AI und O One Pro. Also noch mal ganz kurz, Deep Siege a One ist 'n Restling Modell, das heißt, es kommt in dieselbe Familie wie Open AI o One oder Gemini Air Flashwinking von Google. Und das bedeutet so viel, dass das Modell erst mal 'n Art Denkprozess hat, bei dem es sehr, sehr viele Tokens generiert und mehr oder weniger darüber spricht, wie man den den User Input jetzt lösen kann. Und am Ende wird dann eine Antwort generiert auf Basis diesen dieses Gedankenprozesses. Und das verbraucht oder braucht sehr viel Computer, deswegen ist es bei OpenAI auch nicht kostenlos aktuell verfügbar. Und ich mein, wir hatten's, glaub, mit Fabi in den letzten Monaten oder auch in dem, okay, was kommt, zwanzig fünfundzwanzig war dieses, sag ich mal, Resing Modell Prediction ganz weit oben mit dabei. Und Teamseak mit A1 hat jetzt mehr oder weniger das 'n bisschen beschleunigt, weil es ist nicht nur öffentlich verfügbar. Es ist auch genauso gut wie Open A1. Das heißt, sie haben Benchmarks mit veröffentlicht und auch mittlerweile ist die Community jetzt getestet und ist sehr, sehr davon überzeugt. Also 'n sehr, sehr gutes Modell. Jetzt muss man dazu sagen, dass ganz, ganz viel zusätzliche Informationen auf Social Media, LinkedIn, ich glaub mittlerweile auch auf normalen Nachrichtenseiten wie dem Handelsblatt oder auch ich hab irgendwas von OAM heute Morgen gelesen, kursieren. Und ich würd mal sagen, nicht alles davon ist korrekt. Und das Ganze, da es aus China kommt und USA, USA ist China und Exportkontrollen hat 'n bisschen dazu geführt, dass da ganz viele interessante Meinungen, sag ich mal, kursieren und auch einige Informationen eventuell falsch interpretiert werden oder auch falsch geteilt werden. Das heißt, wenn ihr irgendwie in die letzten Tage ganz viel darüber gelesen habt, nicht unbedingt alles glauben, was man im Internet sieht. Wir haben versucht, das 'n bisschen einzuordnen. Und eine Gerücht, sag ich mal, was was rumging, dass das A1 Modell nur sechs Millionen US Dollar gekostet hat zum Trainieren. Und alles, was OpenAI da in den letzten Monaten und Jahren gerast hat und mit US und mit den VIDIIA, dass man zu viel Computing braucht. Das stimmt alles gar nicht und ich würd mal ganz stark vorweg sagen, das ist auf jeden Fall nicht der Fall. Also es kostet nicht nur sechs Millionen son Modell zu trainieren. Das Gerücht, sag ich mal, ist 'n bisschen dadurch entstanden, dass bei 'nem vorherigen Modell beziehungsweise dem Base Modell von DeepSeak a one, welches DeepSeak V3 ist, haben's in ihrem Paper Zahl veröffentlicht, dass das finale Training GPU Stunden, also im Wert von fünf Komma fünf Millionen US Dollar verwendet hat. Aber ganz wichtig, dabei ist halt alles ausgeschlossen, was A1 betrifft, alles ausgeschlossen, was Du brauchst für die Entwicklung. Das heißt, ist nicht so, dass da irgendwo Code rumliegt und ich einfach son Modell trainieren kann. DeepSick hat da wirklich viel Innovation vorangetrieben. Das heißt, man braucht unendlich viel Computing und weitere Ressourcen, überhaupt mal so weit zu kommen. Das heißt, man kann davon ausgehen, dass nicht nur das V3 Base Modell 'n Vielfaches mehr davon gekostet hat. Man weiß auch gar nicht, was a one gekostet hat. Und sag ich mal, generell im Bereich alles, was mit zu tun hat, ist normalerweise signifikant teurer, weil es viel langsamer ist und man viel mehr Daten mehr oder weniger on the fly generiert, was auch ganz viel Computing braucht. Das heißt, man ist nicht supergünstig und ich bin mal gespannt, wie der Markt sich entwickelt in den nächsten Wochen. Ich kann mir gut vorstellen, dass jetzt das son bisschen eine eine eine Korrektur war von NVIDIA. Ist super gehypt. Und jetzt hatte man wie son Art Punkt gehabt, dass es mal dagegen korrigiert wird. Aber ich geh stark davon aus, vor allem in zwanzig fünfundzwanzig, dass die Nachfrage nach GPS und Computing weiter steigt, auch wenn das jetzt, sag ich mal, veröffentlicht wurde das Modell. Vor allem, man hat halt in der Vergangenheit gesehen, okay, wenn etwas mehr zugänglicher wird, bedeutet das nicht, dass das weniger nachgefragt wird, sondern eher, dass mehr Leute das nutzen und nutzen wollen. Beim beim Deep Siege Beispiel vielleicht gerade, okay, man weiß jetzt, wie man, sag ich mal, die Trainingsmethode anwenden kann und man weiß, wie sie's gemacht haben. Das heißt, ich kann mir vorstellen, dass ganz, ganz viele Unternehmen jetzt hergehen werden und versuchen, das zu replizieren auf ihre Domäne oder für ihren Daten. Und ich mein, man weiß, dass DeepSeek aus China, sag ich mal, ein bisschen limitierter oder restriktiver ist, was sie generieren. Also man kann, glaub, nicht irgendwelche Schimpfwörter oder Witze über den chinesischen Präsidenten machen oder wenn man irgendwas zu Hongkong fragt, dann ist ist, glaub, das Modell son bisschen zurückhaltender, würde ich mal sagen. Aber dadurch, dass man halt jetzt einfach weiß, wie sie's gemacht haben und man auch schon erste Erfolge von anderen Research Gruppen gesehen hat und dass es wirklich funktioniert, gehe ich stark davon aus. Oder ich bin mir eigentlich sicher, dass wir mehr Computing brauchen anstatt weniger. Und genau, das macht so Chrom und Ganzen.
Dennis
Mhm. Mehr Computing in Summe meinst Du dann aber wahrscheinlich, ne?
Philipp
Ja.
Dennis
Genau. Also ich glaube, ein Teil auch des Hypes oder warum es dann den, ich weiß nicht ob man's mal hinstream nennen kann, aber was ja auch dazu geführt hat, dass die ja auch eine App releast haben und die eben in dem im App so Charts auf den auf Platz eins ist, das heißt genau nicht irgendwie nur ein paar Freaks irgendwie das Modell ausprobiert haben, sondern eben auch die die Zugänglichkeit dann so schnell so hoch war und es so gehypt wurde, dass es die die meist runtergeladenste App ist und das hat natürlich dann schon noch mal einen Eindruck hinterlassen. Wenn Du sagst, natürlich braucht es da auch dann für das Reasoning Modell einiges an Comput. Im Moment ist es ja kostenlos und oder sehr günstig. Wie ist das denn? Ist das subventioniert oder wie erklärst Du dir das?
Philipp
Weiß man nicht. Also genau, also man hat die Möglichkeit, das Deepsieg one Modell auf Chat Punkt Deepsieg Punkt com kostenlos zu nutzen. Das heißt, man muss sich 'n Account machen und kann es nutzen. Vorsicht allerdings, ja, sie speichern eure Daten. Das heißt, wenn ihr es testet, vielleicht nicht irgendwie Sozialversicherungsnummern irgendwie da reinschreiben oder so was. Da kann man es kostenlos testen. Ich hab gesehen, dass auch manche Schwierigkeiten hatten bei 'nem Account erstellen. Ich hab damals einfach meinen Gmail Account genutzt. Das hat ganz einfach funktioniert. Und man es kann auch sein, dass halt, wenn zu viel Last ist, dass man einfach dann 'n Fehler bekommt. Zusätzlich haben Sie eine API, die Open AI kompatibel ist. Das heißt, man kann einen Open AI Client nutzen mit 'nem API Key und mit 'ner der Deepseak API URL. Das kostet allerdings. Aber es ist sehr, sehr günstig, was auch son bisschen die ganze Kontroverse und die Diskussion angeheizt hat, weil es ist glaub vierzigmal günstiger als OpenAI o One und kostet unter einem Dollar pro eine Million Output Tokens. Man ist sich 'n bisschen unsicher, wieso das der Fall ist. Definitiv haben sie sehr, sehr gute und besondere Innovationen, sag ich mal, vorangetrieben. Ein Teil davon, was sie jetzt umgesetzt haben, sind sich Multi Token Prediction. Das heißt, man bei einer Generierung predict man nicht nur das nächste Token, sondern mehrere Token gleichzeitig, was dazu führen kann, dass man bis zu zweimal mehr Fruithut hat auf demselben Comput. Sie haben nutzt natürlich Quantisierungstechniken und sie haben auch die eine Mixedoff Expert Architektur. Das bedeutet, das Modell hat zwar über sechshundert Milliarden Parameter, aber wer nicht generiere, sind nur siebenunddreißig aktiv. Das heißt, die Generierung von Text funktioniert viel schneller und zusätzlich haben sie ihre Architektur auf die CPU Chips angepasst. Das heißt, bei GPUs, wenn man, sag ich mal, über mehrere GPU Server hinweggeht, hat man natürlich so Network communication Overhead und das haben sie einfach reduziert, indem sie genau abgestimmt haben mit dem Mixed of Expert Architektur und wie die GPUs oder wo was verteilt ist, dass sie sozusagen diesen Kommunikationsoverhead reduzieren. Und zusätzlich, ich mein, man weiß nicht genau, wie viel GPUs sie haben. Es ist definitiv nicht nur 'n Paar und es kann auch einfach sein, dass sie die aktuell nicht brauchen oder einfach mal schauen, wie es funktioniert. Ich mein, in der Vergangenheit waren Deep Sieg Modelle schon immer sehr, sehr günstig. Also es gab auch 'n Deep Sieg V2, was 'n bisschen kleiner war, aber auch nur die Hälfte davon gekostet hat. Also es ist jetzt nicht neu, dass sie in den Markt reingehen mit supergünstigen Preisen, sondern sie waren immer schon sehr, sehr günstiger Anbieter.
Dennis
Mhm. Okay. Das heißt, so zusammenfassend würdest Du sagen, Du die die Reaktion des Marktes war vielleicht ein bisschen übertrieben gestern, aber die Innovation, die dort passiert ist bei Deep Sieg, die ist schon irgendwo beachtlich, oder? Ja, man kann
Philipp
definitiv den Hut davonziehen und es ist auch nicht so, dass sie das jetzt aus out of Knowhere kommen. Das heißt, wenn man 'n bisschen mehr, sag ich mal, im Open Source oder Open Research Space unterwegs ist, hat man schon öfters und schon länger davon denen gewusst und dass sie auch komplett geisteskrank sind, also im Sinne von Dinge umsetzen und entwickeln können. Definitiv unter den Top zehn, sag ich mal, Model Creators. Und es ist nicht so, dass sie jetzt erst, also die Methode, die sie nutzen, haben sie vor über 'nem Jahr gepublished. Die ganzen Innovationen mit Multitoken Prediction, die kommen, sag ich mal, zwar vor 'nem anderen Labs, aber haben sie mit umgesetzt. Ihre auf Expertarchitektur haben sie auch weiter innoviert, also weiterentwickelt über die letzten drei Jahre hinweg von DeepSeek V1 bis zu V3. Also man kann definitiv sagen, dass sie sehr, sehr gute Arbeit in dem Bereich leisten. Klar ist das aktuelle Bild mit China versus USA, mit Konflikten, mit Exportkontrollen halt auch 'n bisschen gefundenes Fressen für die News und für alle, die irgendwie 'n bisschen Aufmerksamkeit erregen wollen. Und ich hab auch 'n Video gesehen, dass Donald Trump gestern über Deep Sieg geredet hat und dass es doch 'n Weckruf für die US Unternehmen ist, dass man wirklich sich mit aller Kraft darauf fokussieren muss, dass man konkurrenzfähig bleibt. Der große Unterschied ist halt wirklich, dass Deep Sieg den Open Ansatz fährt und wahrscheinlich damit sehr, sehr viel Goodwill von den normalen Nutzern bekommt und auch sehr, sehr viel Weiterentwicklung getrieben wird, weil als Unternehmen oder als Forschungsinstitut, wenn ich einfach auf Wissen oder Technologien und Modelle bauen kann, die schon existieren, kann ich ja mehr Fortschritt auf langer Sicht machen. Und ich bin mal gespannt, was das, sag ich mal, mit dem US Market macht und ich wär mir jetzt Also es ist definitiv nicht so, dass wir irgendwie in ins Unheil stürzen in zwanzig fünfundzwanzig. Okay.
Dennis
Ja, ich finde, man verliert so schnell die diese Dimension, wenn's immer diese Beträge geht, weil wir unterhalten uns immer diese ganzen Investments und da ist irgendwie ja eigentlich son so was wie eine Milliarde irgendwie eine Schwelle, die schwer zu greifen ist und darum geht's jetzt ganz, ganz häufig. Ich hab das eben auch gesagt, ne, viermal, viermal Intel, also vierhundertsechzig Milliarden US Dollar, glaube ich, in der Spitze gestern runtergegangen. Wenn man da jetzt zwar gleich mit dem Investment, was die USA mit den, ne, vielen zusammen machen wollten, so, das ist letztlich, was sie gestern in einem Tag verloren haben an an Wert, was sie was sie da investieren wollten. Aber ja, spannend auf jeden Fall und genau, also Deepsy könnt ihr ausprobieren im Appstore oder eben unter der Webseite und
Philipp
genau, und vielleicht noch für alle, die sich 'n bisschen mehr interessieren, wie sie's genau trainiert haben. Ich hab das mal versucht, in 'nem superkürzen fünf Minuten Blogpost zusammenzufassen. Einfach, dass man sieht, okay, welche verschiedene Schritten vorm Trainieren sind jetzt notwendig. Also es ist nicht länger so, dass ich einfach irgendwie 'n Dattenset hab und dann halt Feintuning darauf mach mit 'nem Input und 'nem Output. Ich glaub, das können wir auch in die Shownotes packen. Ist 'n bisschen technischer, würd ich sagen, aber vermittelt alles ganz gut und wenn man vor allem nicht das Paper lesen möchte.
Dennis
Ja, werden wir auf jeden Fall verlinken. Vielen Dank dafür. Und was wir auch verlinken, ist dein viral gegangener LinkedIn Post. Aber wie viel Impressions bist Du jetzt da?
Philipp
Ich weiß nicht, über eine halbe Million.
Dennis
Okay, sehr gut. Genau, wo Du eben auch noch mal 'n bisschen einordnest, was was deiner Sicht nach, ja, da grade ein bisschen vielleicht oberhyppt in der Reaktion war von Liebsig. Gut, machen wir mal zwei kleinen Themen weiter, wo es einfach auch ein paar Milliarden und ein bisschen Investment geht. Zum einen TikTok beziehungsweise ByteDance, also die die Mutterfirma von TikTok investiert zwölf Milliarden in neue AI Chips. Hast Du dir eben auch in 'nem Seitensatz gesagt, so, China ist ja limitiert son bisschen. Also das heißt, wenn in NVIDIA darf durch Exportregelungen nicht die besten Chips und die anderen, glaub ich, irgendwie gedrosselt oder so was nur nur rausgeben. Das heißt, sie sind einfach son bisschen künstlich limitiert im Computer, ne. Dein Gesicht sagt was anderes.
Philipp
Ja, ich hab einen ganz interessanten Post gesehen. Man kann auf eBay H-einhundert-Grafikarten bestellen, ganz normal und irgendwie neunzig Prozent davon kommen aus China. Also ich mein, es gibt diese Exporte, aber scheinbar sind sie nicht zu wirkungsvoll, wie man das vielleicht annehmen kann.
Dennis
Okay. Auf jeden Fall, sich da ein bisschen unabhängiger auch zu machen, also ein Teil dieser dieser zwölf Milliarden soll eben auch in die Weiterentwicklung von Lokalen in Anführungsstrichen, also chinesischen Chipanbietern gehen. Also auch da sieht man, da ist weiterhin viel Geld dahinter, ebenso wie von Google. Das da da erscheint fast eine Milliarde wenig, aber sie investieren eine Milliarde in Anthropic, also die Firma hinter Claywed. Ja, also sieht es glaube ich weiterhin so als eine der stärksten Rivalen zu Open AI, die aktuell da draußen unterwegs sind und da Freunde zu bleiben und 'n bisschen mit dran zu sein, stecken sie eben eine Milliarde in Anthropic. Ja, ja, wenn man ein paar davon hat, kann man noch mal eine ausgeben. Wir hatten schon mal in den AR News, bin ich relativ sicher oder in den normalen News über Devin kurz gesprochen, was son AI Coach Assistant, also ein wirklich ein ein Assistant oder ein Agent, der parallel in deinem Team mitentwickelt und da gibt's jetzt erste Blogpost, die 'n bisschen die Erfahrung damit schildern. Was hast Du darüber gelesen, Philipp?
Philipp
Genau, aber vielleicht ganz kurz, der Vin war 'n AI Autonomous Coding AI Agent und würde, ich glaub, vorletzten Monat oder so, GA Release. Das heißt, kann jeder kann hingehen und unterschreiben. Ich glaub, wir hatten's mit Fabi drüber. Du kriegst so Credits und jedes Mal, wenn Du zu Davans sagst, geh und mach irgendwie eine Aufgabe, dann werden diese Credits halt geost für lange oder wie lange er's braucht. Und das User Interface ist komplett über Slack, das heißt, ich füge dem zu Slack hinzu. Und klar, ich muss halt freigeben, GitHub und alles. Und dann sag ich, hey, er noch mal in meinem Frontend den Button von grün auf gelb und dann geht er los und macht das so mehr oder weniger selbstständig. Und Antword oder AI ist 'n eine Organisation oder 'n Start-up mit Jeremy Howard, kennt man vielleicht. Der hat die Fast a I Kurse damals gemacht und Sie haben Davin einen Monat lang getestet auf ihre, also anhand von wirklich Reworld Tasks, die Sie machen oder selber hätten machen müssen. Und das Ergebnis war 'n bisschen ernüchternd, weil vierzehn von zwanzig Aufgaben, die sie getestet haben, sind fehlgeschlagen und nur drei waren so richtig erfolgreich. Und die drei, die erfolgreich waren, waren wirklich sehr, sehr einfache Aufgaben. Also nicht jetzt irgendwie, ich ersetze den Entwickler, sondern wirklich halt dieses, hey, änder mal hier das Label von Text zu Content oder irgendwie so was. Und halt sehr einfache Aufgaben, wo viel, sag ich mal, Beispielcode auf GitHub irgendwie verfügbar ist, aber wenn's dann mehr an individuelle Aufgaben geht, ist der werden eigentlich komplett gescheitert. Und Sie haben auch noch dazu geschrieben, dass die sehr unvorhersehbar ist. Das heißt, man kann im Vorfeld nicht sichergehen, obwohl Aufgaben relativ ähnlich definiert sind, dass es funktioniert und auch scheinbar tendiert Davin dazu überkompliziert überkomplizierten Spaghetti Code zu generieren für einfache Probleme. Und dass sie sagen, dass Tools wie CursOR oder andere AI Coding IDIs, die mehr den Entwicklern, sag ich mal, enhanzen anstatt zu ersetzen, viel, viel besser funktionieren als diese komplett autonomen Assistance.
Dennis
Noch, würde ich denken. Abwarten? Abwarten, aber okay. Ja. Ist schade, finde ich. Ich fand das schon, war schon 'n schönes Promis irgendwie, so wenn man das gelesen hat.
Philipp
Ja, ich ich hätte's wie gesagt, ich find's verdeutlicht halt ganz stark, wo wir es sind, so auf GitHub gibt es ja wahrscheinlich eine Milliarde Applikationen, ein Beispiel. Das heißt, wenn ich irgendwie an meinem Company intern oder bei meinen Aufgaben eine To do Anwendung baue, dann bin ich mir sicher, dass der Vin großartige Arbeit leistet. Aber wenn ich halt mal in wirklichen Unternehmensalltag schaue, was Entwickler da umsetzen, ist es doch sehr, sehr spezifisch zu meiner Umgebung und auch sehr komplex und man hat sehr, sehr schnell sehr viele
Dennis
Abhängigkeiten. Und ich glaub,
Philipp
bis wir halt dahin kommen, dauert's noch 'n bisschen, weil woher sollen die Daten und dieses Verständnis kommen, wie Du damit umgehst? Und mal schauen, vielleicht bekommen wir eine Mischung aus beidem.
Dennis
Ja. Machen wir vielleicht kurz weiter mit einer neuen IDI, weil Du sprachst nämlich eben Ja. Ja von die Alternative vielleicht zu einem voll autonomen Agenten, der dann nebenher läuft, ist eben eine IDE, die einen dauerhaft mit AI unterstützt. Und auch hier wieder ByteDance als Name, denn ByteDance hat eine neue IDE rausgebracht. Unsicher, wie man sie ausspricht, muss ich grade sagen. Ich hätte jetzt Trade,
Philipp
Trade gesagt,
Dennis
Trade, also t r a e, heißt sie, Trade Punkt a I, kann man sie finden, ist für macOS verfügbar. Und man kennt das letztendlich schon son bisschen von CursOR, also einfach eine IDE, die sehr darauf getrimmt ist, ja, verschiedenste AI Hilfen, Unterstützung anzubieten. Für mich so eigentlich die, also ich hab's noch nicht selbst ausprobiert. Für hattest Du die Zeit mittlerweile? Nee. Nee. Eine der, was großen Unterschied ist vielleicht nicht übertrieben, eine der Features, die ich interessant finde, dass auch sone Bilderfunktionalität drin ist, das heißt, dass ein komplettes Projekt auch gebootstrappt werden kann. Also ein bisschen was und V-Zero vielleicht son bisschen machen als als Webseiten ist da eben auch in der IDI integriert und ja, ich kann mir vorstellen, wenn das Set-up gut ist und man kann son bisschen dann eben selbst als Entwickelnder da noch drauf mit umbauen und an verschiedenen Stellen aber eher dann zur Hilfe nehmen, dass das eine ganz coole Kombination und vielleicht Zwischenlösung in Anführungsstrichen sein kann, mit der man dort entwickelt.
Philipp
Genau. Vielleicht doch ganz kurz, das ist auch wieder 'n DS Code, also relativ ähnlich zu Cursor und Windsurf und allen anderen Code Editors. Man weiß, kein Preis, also ist aktuell einfach Freeman kannst dies runterladen nutzen. Man bekommt auch kostenlos Zugang zu drei Punkt fünf. Das heißt, wenn ihr das irgendwie immer gern testen wollt, aber irgendwie keinen Zugang zu Cursor habt oder kein Geld ausgeben wollt, dann einfach mal testen. Vorsicht aber, welche ihr opened, weil es wird dann doch euer Code zu geschickt. Also man hat jetzt nun erst, ich weiß nicht genau, was genau dazwischen hängt oder ob die da irgendwie was machen. Man hat auch keine terms of Service oder irgendwie sonst was, Mhm. Was die dann auch genau tun. Das heißt, vielleicht nicht irgendwie euren supersecret Code damit öffnen, sondern einfach mal vielleicht 'n Side Project, das ihr irgendwie testet, runterladen, wenn ihr 'n Mac Nutzer seid und dann einfach mal 'n bisschen rumprobieren. Was ich sagen muss, optisch, also wie der Editor aufgebaut ist, gefällt mir besser als bei Cursor. Und Sie haben es irgendwie besser geschafft, dass man den Unterschied zwischen, okay, hier ist mein zu meinem Codeditor und irgendwie den AR Bereich, wo ich chatten kann und mein Agent hab. Sieht für mich zumindest angenehmer aus.
Dennis
Mhm. Ja. Nee, spannend. Da ist auf jeden Fall auf meiner To do Liste, es auch mal für das ein oder andere kleine Projekt mal zu testen. Gut, kommen wir ein bisschen zu, ja, obwohl, ist ja auch 'n Produkt letztendlich, aber noch weitere Produkte, die released wurden, eins von nennt sich Open AI Tasks. Und letztendlich, im Namen steckt schon relativ viel drin, mit ChatGPT kann man jetzt eben Task erstellen, die einen zu verschiedenen anderen Zeitpunkten dann entweder an was erinnern. Und das kommt dann dann erst mal vielleicht 'n bisschen einfach vor, aber ich glaube, was dann halt das Spannende ist, dass man dann ein LLM halt nutzen kann, spezifische Dinge dann dort zu machen. Also beispielsweise kann ich sagen, schick mir jeden jeden Morgen acht Uhr eine Zusammenfassung der News zu x y oder so was, wo dann eben auch was ausgeführt wird, was einfach über die Kapazität eines einer normalen To do- oder App irgendwie ein bisschen zugeht. Und gleichzeitig fühl ich son bisschen, also ich find's interessant, dass sie sich dafür irgendwie entschieden haben. Und ich weiß noch nicht so ganz, welche Richtung es geht, also ob das dann son bisschen persönlicher Assistenz immer mehr und vielleicht dann noch Kalender irgendwann mit drin und sich sich diese Route so OpenAI dort sucht. Ja. Ich kann mir ja
Philipp
das vorstellen, das ist wie sone Art Vorprodukt oder Feature, andere Features hinzuzufügen. Also ich hab's mal getestet und vielleicht, man funktioniert, man hat wie son Art Chat und dann kann man sagen, hey, erinner mich jeden Tag neun Uhr x y z zu tun. Aber x y z ist bisher sehr limitiert. Das heißt, man kann irgendwie das Web durchsuchen. Und ich mein, Sie haben ja noch was anderes gelauncht mit Operator oder auch mit anderen Features und und vielleicht irgendwie anderen Agents in der Zukunft, wenn ich dann sagen kann, hey, jeden Morgen neun, keine Ahnung, geh auf Google Maps oder auf Wetter und schau, wie das Wetter heute in Nürnberg wird und schick's mir dann zu und worauf sie ja hinauswollen. Ich weiß noch nicht, ob es verfügbar ist, aber wenn man das im Web nutzt, dann bekomm ich ja eine E-Mail zugeschickt, dass ich eine neue Nachricht in meinem Chat hab, was nicht die beste User Experience ist, würde ich mal sagen, aber wenn ich es ja nativ installiert habe auf meinem Mac oder auf meinem Handy, dann bekomme ich ja Push Benachrichtigungen. Das heißt, da halt wahrscheinlich diese asynchrone Ausführung von Aufgaben, von automatisierten Aufgaben im Hintergrund. Kann schon, sage ich mal, sehr interessant in der Zukunft werden. Wenn ich ja irgendwie sag, okay, erstelle jeden Monat am Ende vom Monat irgendwie eine Finanzübersicht und nutze Tool eins, zwei, drei oder irgendwie sowas und dann passiert das halt einfach und ich bekomm's zugeschickt.
Dennis
Ja, auf jeden Fall. Weißt Du, wie groß OpenAI, wie viele Leute die mittlerweile sind? Weil ich weiß ja, neben dem ganzen irgendwie AI Part muss man ja trotzdem irgendwo auch diese Produkte so skaliert entwickeln, dass da Millionen Leute dann drauf zugreifen und dass das irgendwie funktioniert und dann 'n Interface hat und so. Find ich schon irgendwie beeindruckend, wenn man das in dieser Geschwindigkeit irgendwie parallel dann hinbekommt.
Philipp
Also ich weiß, es sind auf jeden Fall schon über tausend.
Dennis
Okay, so viele doch, okay.
Philipp
Na gut. Okay, man man's sagt, also Peplexity hat mir jetzt direkt rausgehauen. Als vierundzwanzig waren's dreitausendfünfhundert individuelle, die mit zusammengearbeitet haben und vorm Anstieg von November zwanzig dreiundzwanzig von siebenhundertsiebzig, also gut am Wachsen.
Dennis
Okay, na gut, dann können die so Teams bilden, die so was ordentlich umsetzen können. Aber nicht nur das haben sie umgesetzt, sondern da hast Du gerade auch schon angerissen, OpenAI Operator, und zwar so der erste Agent, der den Computer nutzen kann. Sprich, da ist letztendlich ein ein virtueller Browser und das Modell kann eben diesen Browser bedienen und dadurch eigenständig Tasks umsetzen. Das ist aktuell noch nicht frei verfügbar, das heißt, es ist erst mal in soner Research Phase Periode, wo nur, ja, bestimmte Personengruppen darauf zugreifen können, aber zeigt vielleicht schon ein bisschen auch einen einen ja, kleinen Einblick in die Zukunft, welche Kapazitäten eben da dann noch kommen und letztendlich, ja, von sehr simplen Dingen vielleicht wie, buch mir einen Flug oder reservier mir einen Tisch oder recherchiere, ja, wann ich was wo machen kann oder so was, hat man natürlich theoretisch irgendwie die Möglichkeiten des Webs, so ne, die dann wiederum auch sehr groß sind, wenn es eben die ganzen Anbindungen irgendwann gibt oder man eben komplett frei dort unterwegs sein kann.
Philipp
Interessant vielleicht noch, innerhalb seit es released würde, haben schon die ersten Zeiten angefangen, es zu blockieren. Also Reddit und Youtube funktionieren nicht mehr.
Dennis
Mhm.
Philipp
LinkedIn ist so noch son bisschen im manchmal ja, manchmal nein. Das heißt, es bleibt auf jeden Fall auch spannend, okay, was passiert mit den ganzen sozialen Plattformen oder Webseiten? Blocken die vielleicht diese UI Agents dann und man hat gar keinen Mehrwert oder würde es dann doch funktionieren?
Dennis
Wenn man von profitiert, also ich glaube, wenn ich das jetzt nicht verwechsle, da sind doch auch die, wo man explizit irgendwelche Plug ins hat, richtig? War das war der Operator mit beispielsweise Open Table?
Philipp
Jein, also Sie arbeiten mit Unternehmen zusammen, wo Sie es, glaub, verifiziert und validiert haben, dass es funktioniert. Aber wenn ich Zugang hab, kann ich wie in ChatGPT meine Task prompten und sagen, hey, bitte finde oder schreibe x y z auf LinkedIn eine Nachricht, irgendwas. Ich hab auch in 'nem Video gesehen, da hat eine es 'n bisschen skaliert und hat gesagt, okay, suche erst irgendwie die Top CEOs von Star oder halt Bereichen x y z, dann okay und dann geh auf LinkedIn auf dein Profil und schreib denen eine Nachricht zu Thema x y z, die personalisiert ist. Und klar kann man dafür auch irgendwie APIs nutzen, aber wer weiß, wie gut es immer funktioniert. Und ich kann mir schon vorstellen, dass man solche Automatisierungen vielleicht blockieren möchte oder einfach vermeiden möchte, dass zu viel Traffic auch entsteht durch solche Bots.
Dennis
Ja. Und ich glaub, einer hat son bisschen auf eine, hab ich gelesen, mal auf die Metaebene gebracht, dass er dann damit eines dieser, also ich glaube Lovable war's in dem Fall, also eines der Coding Webseiten angekommen ist und praktisch darüber, also auf der Ebene gesagt hat, hey, stell mir mal eine App, das und das rauszubekommen und hat das dann an einen Coding Assistenten im Web weitergegeben, der die Plattform gebaut hat und da hin und her gejattet hat praktisch mit ChatGPT. Ja, auf jeden Fall interessante Ansätze. Es gibt noch zwei Alternativen, über die wir kurz sprechen können. Ich merke gerade, wo es auf meiner Liste ist, ich glaub, da musst Du eher was zu sagen. Es gibt einmal UI TARS oder T a t a s wahrscheinlich, wenn's alles großgeschrieben ist. Worum geht's da?
Philipp
UI TARS ist Modell von ByteDance. Ich ich, also man könnte meinen, es gibt da mittlerweile sone Art, ja, also man hört mehr davon. Mal schauen, ob das so bleibt oder wieder verstummt, wenn TikTok dann doch weiterhin in den USA erlaubt bleibt. Aber UITars sind gefeintunende Quellen zwei Modelle, Quellen zwei, die so ähnlich wie Open AI Operator deinen Computer steuern können. Und zusätzlich zu den Modellen, welche auf Hingface released wurden, haben sie auch eine App Release, die man sich installieren kann. Das heißt, man kann wirklich seinen Computer steuern lassen. Die Ergebnisse in Benchmarks sollen sehr, sehr gut sein. Die ersten Tests, die ich gelesen hab, waren dann nicht ganz so erfolgreich, aber man kann es lokal selber testen. Das kleinste Modell hat sieben Milliarden Parameter und man kann OLAMA dafür nutzen. Es gibt auch Tutorials, wie man das sozusagen ausfüllen kann. Das heißt, wenn euch das ganze Thema, okay, irgendwie interessiert, dann gerne mal da reinschauen. Sollte auf jedem bisschen besseren MacBook funktionieren. Und dann mal schauen, ob ihr vielleicht dann bald alles automatisiert, weil ihr die EI und Co Editor steuert.
Dennis
Ja, okay, spannend. Hast Du auch noch nicht probiert oder da? Nee. Okay, ja, ist auch auf der To do Liste. Und dann haben wir noch Browser Use, die sich ein bisschen darüber beschwert haben, zumindest in Social Media und gesagt haben, hey, das ist doch gar nicht, Open Eye Operator ist doch gar nicht der State of the Art Web Agent. Wir haben das doch auch und ist, glaub ich, einfach sehr vergleichbar. Oder hast Du noch 'n anderen Tag dazu? Also es ist letztendlich AI, einen Browser zu kontrollieren, aber es geht jetzt auf GitHub. Das heißt, das kann man auch lokal installieren.
Philipp
Genau. Ja, also das ganze Open Air Operated Thema ist halt, glaub ich, das erste Mal, wo Open AI nicht sozusagen der führende Innovator war. Also wenn man da 'n bisschen zurückschaut, Open AI hat ja in der Vergangenheit wirklich die meisten AI Breakfruits und Innovationen mehr oder weniger 'n bisschen mit vorgestellt, was LLM und generalative AI Space war von ChatGPT, DALI, auch das Reseraming Modell mit o one und hier waren sie nicht die Ersten. Antoppic hat mit Computer Use ja letztes Jahr schon vorgestellt, wie Claudeung wie den PC steuern kann. Und es gibt schon Open Source Modelle, die besser sind als das jetzige Operator Modell und auch Browserbase. Aber Open Air hat in ihrer Kommunikation son paar Teile rausgelassen. Also zum Beispiel das, sie haben geclaim, dass sie das beste Modell haben. Und das ist halt das, was bei Browserbase da son bisschen korrigiert werden wollte. Und sehr interessant ist trotzdem, dass Open Air einen sehr erfolgreichen Produktdownch hatte meiner Meinung nach, weil sie's viel einfacher zugänglich gemacht haben.
Dennis
Mhm.
Philipp
Also wenn man auch diese anderen, sag ich mal, Tools testen möchte, man Pokémon son bisschen Fummelarbeit oder auch selbst bei Computer Use, das war sehr limitiert, wie ich's benutzen kann. Und ob May Operator, wenn ich, sag ich mal, auf der Liste stehe, gehe ich hier einfach nur auf ChatGPT und kann das ausführen. Es wird sone Art virtuell Sandbox für mich gestartet, die dann alles funktioniert und macht. Also der Produktlounge war viel, viel professioneller von dem, was wir von Open Modellen gesehen haben, aber sie waren jetzt nicht mehr der Innovator und sind auch nicht mehr sozusagen das beste, der beste Provider aktuell.
Dennis
Okay. Gut. Dann gibt's noch ein paar Updates zu ein paar Modellen, die wir noch haben, beziehungsweise das andere sind eigentlich, kann man eigentlich auch reales Produkt Updates noch sagen, ne. Also Perplexity hat, was Du auch grade parallel genutzt hast, was zu recherchieren, da gibt es jetzt eine API zu zu den zu dieser AI Suche.
Philipp
Genau, also Perplexity hat ja auch eigene Modelle, die nennen sich jetzt Sonar und diese Modelle sind verfügbar als API und so ähnlich wie die Perplexity App oder UI sind es nicht normale LLMs, die einfach 'n Text generieren, sondern sie haben mehr oder weniger das Perplexity Konstrukt dahinter, also die die RAC Anwendung, die ausm Internet Daten oder halt Daten recherchiert und damit die Antwort generiert. Das heißt, wenn ich irgendwas entwickeln möchte, wo ich up to date Informationen brauch oder eine Suche, die auf irgendwie Webdaten basiert oder so was, kann ich jetzt diese Sonar Modelle mit integrieren, sind verfügbar über eine open e I kompatible API. Das heißt, man kann super easy wechseln und sie performen auch mit am besten auf dem simple, welcher 'n faktenbasierter Testist, der prüft, okay, wie viele Modelle, sag ich mal, sozusagen halluzinieren. Mhm.
Dennis
Noch eine API hat sich angepasst, aber diesmal bei Anthropic. Ja. Und da gibt es sogenannte. Wie heißt das noch mal auf Deutsch? Das ist einfach nur Zitate.
Philipp
Wer weiß?
Dennis
Verweise? In der wissenschaftlichen Arbeit in der IS, das ist Verweis oder Quelle? Quellenangabe Quellenangabe oder? Na, glaub
Philipp
ich, Zitat, also ja. Worum
Dennis
geht's denn?
Philipp
Genau, also sind, wie wir irgendwie versucht haben zu verdeutlichen, Nachweise über generierten Text. Und man hat ja immer das Problem, okay, wenn ich irgendwie 'n LLM nutze, generier das ja 'n Text und ich hab ja keine Garantie, dass es wirklich stimmt. Und bei Perplexity oder auch anderen Anwendungen, die mittlerweile Webdaten integrieren, wär es ja ganz wichtig zu verstehen, okay, welcher Teil der Antwort basiert auf welchem Dokument das hinzugefügt wurde. Und Antropic hat jetzt in ihrer API das sozusagen nativ integriert. Also bisher oder man kennt das ja, wenn ich in mein LLM eine Nachricht sende, hab ich dieses Messages Konstrukt, wo ich dann meinen User hab, meine Frage oder auch meine Assistant dann als Antwort. Und Sie haben einen neuen Typ hinzugefügt von Typ Document. Das heißt, ich kann sozusagen externe Informationen als Text hinzufügen. Und bei wenn ich son Typ Dokument hinzufüge, kann ich angeben, Das heißt, wenn dann eine Antwort generiert auf meinem User Input und diesen Dokumenten, die ich hinzugefügt hab, gibt es eine zusätzliche Antwort, die dann enthält, okay, welcher Teil der Antwort an mit 'nem Start- und Endpunkt sozusagen, also wann die das Zitat oder der Verweis beginnt, auf welchem Dokument das passiert. Das heißt, ich kann mehr oder weniger diesen ganzen Prozess vorn okay, der Teil der Antwort kommt von diesem Dokument und ist dort vorhanden, ist jetzt weg abstrahiert bei antropic und crowdbuster schon sehr benutzerfreundlich ist, würd ich sagen. Das heißt, die Useraufgabe ist nur noch okay, ich hab hier eine Userfrage, wie ist das Wetter in Nürnberg? Und dann muss ich sozusagen die die Quelle oder das Quelldokument mit irgendwie in Nürnberg hat das aktuell sieben Grad. Und es regnet hinzufügen und dann kann ich machen. Und Claudia würde dann halt eine Antwort generieren, hey, in Nürnberg scheint es, dass es sieben Grad hat und das basiert auf dem und dem Dokument oder der Quelle.
Dennis
Ja. Cool. Dann haben wir noch, wie ist ja son Nomenklaturding. Germany Flash zwei Punkt null ist schneller geworden, aber Sie nennen es trotzdem zwei Punkt null. Ist nicht so, dass Sie es irgendwie jetzt, wäre ja auch nicht so dumm, es zwei Punkt eins zu nennen, oder?
Philipp
Jein, also es geht Germanife Flash zwei Punkt null Flashwinking und Flashwinking ist das Pendant zu Open AIO1 und Deep SEK R1, das heißt das Reasoning Modell von Google. Und dort haben sie eine neue Version veröffentlicht, die sich Experiment, also EXP null eins einundzwanzig nennt, also für das Datum, an dem es released wurde. Okay. Und es ist einfach eine Verbesserung zu ihrem bisherigen Resaring Modell, was viel besser auf halt allen Benchmarks eigentlich performt. Das heißt, man kann es testen, einfach in das AI Studio gehen, auf der rechten Seite das Modell auswählen und dann 'n bisschen rumprobieren.
Dennis
Und wenn man dann flashe zwei Punkt null heißt es weiterhin, weil es basiert auf Germany zwei oder Germany zwei Punkt null sogar, oder?
Philipp
Genau, Germany zwei Punkt null Flash und dann Dieses Thinking ist
Dennis
das. Okay. Ja oder ist das ist okay, vielleicht ist es nicht davor. Also es ist
Philipp
Ich glaub Google ist sich selber noch 'n bisschen unsicher. Okay.
Dennis
Und
Philipp
generell AI Companies sind nicht dafür bekannt, gutes Naming zu betreiben. Deswegen lassen wir das mal so stehen.
Dennis
Gut, alles klar. Und dann zuletzt noch spannend, da kannst Du vielleicht noch 'n bisschen ergänzen, wenn Du weißt, wer dahintersteckt oder wer Kokoro ist. Aber auf jeden Fall haben wir ein Text to Speech Model, das einfach so lokal im Browser läuft. Und da haben wir mal zwei, drei Tests mitgemacht und da ist die Qualität wirklich schon sehr beeindruckend dafür, dass es einfach, ja, innerhalb kurzer Zeit läuft und alles komplett im Browser macht. Und den Link dazu findet ihr dann in den Shownotes.
Philipp
Genau und Browser heißt wirklich, also das Modell hat achtzig Millionen Parameter und es wird runtergeladen auf euren Computer und wird dann sozusagen ausgeführt. Ja. Und fürn Text to Speech Modell schon echt, find ich, beeindruckend. Und wer dahintersteht, kann ich dir nicht sagen. Okay. Aber es ist Open Source, es ist Apache zwei Punkt null. Das heißt, ihr könnt's nutzen für alles, was ihr wollt.
Dennis
Ja, cool. Schön. Vielleicht noch die News zu dir. Können wir das noch reinbringen, das was dein Huggingface Leben angeht?
Philipp
Ja, das einzige, ich weiß nicht, ob's also die Leute schon gesehen hab, aber für mich war das jetzt die letzte Aufnahme als Higglyface Mitarbeiter, sollte aber nichts verändern an den AI News und ich glaub, im nächsten Mal können wir dann darüber reden, wo's für mich hin geht.
Dennis
Sehr spannend. Ja genau, da war nämlich schon 'n paar, die nervös geworden sind und gesagt, oh nein, ich kann ja noch weiter die Vorgänger machen, aber von daher hier die Bestätigung, Philipp bleibt uns erstmal treu und wird auch weiterhin zweiflelich die News mit uns machen. Cool Philipp vielen vielen Dank, ging doch, hätten wir sogar noch ein paar Sachen reinpacken können. Aber nein, es ist es ist voll, es ist viel passiert, nachdem die ersten zwei Wochen ein bisschen ruhiger waren, war jetzt sehr viel los in der Welt rund AI und wir gucken mal, was die nächsten zwei Wochen bringen.
Philipp
Ich glaub auf jeden Fall aus China werden die News bisschen ruhiger, weil dort beginnt jetzt das neue Jahr und da hat man dann auch Urlaub.
Dennis
Sehr gut. Ja, das ist das ist gut, dann gucken wir mal, was dort passiert. Vielen Dank fürs Zuhören, wie immer und wie immer gerne Feedback an Podcast at Programmier Punkt Bar. Jan haut mich in Gedanken, haut Jan mir gerade auf die Schulter und sagt, hey, denk an unsere Umfrage. Wir haben eine Umfrage für euch Hörer*innen, wo ihr auch ein cooles Goodie Paket gewinnen könnt. Den Link dazu werdet ihr auch in den Shownotes finden. Von daher würden wir uns freuen, wenn ihr nicht teilgenommen habt, einmal kurz da zwei, drei Minuten zu investieren, uns Feedback über das Formular zu geben. Habt eine schöne Zeit. Vielen Dank Philipp und bis bald.

Speaker Info

  • Philipp Schmid Profile

    Philipp Schmid

    Philipp Schmid ist Senior AI Developer Relations Engineer bei Google DeepMind und arbeitet an Gemini und Gemma. Er hat es sich zur Mission gemacht, Entwickler:innen dabei zu unterstützen künstliche Intelligenz verantwortungsvoll einzusetzen. Zuvor war er Technical Lead und Machine Learning Engineer bei Hugging Face, einer Firma, die gutes Machine Learning durch Open Source und Open Science demokratisieren möchte. Der junge Nürnberger und AWS Machine Learning Hero hat sozusagen die deutsche Variante von ChatGPT entwickelt und darüber auf seinem Blog geschrieben. Checkt sie im Playground aus!

    Mehr Infos

Verwandte Podcasts

  • News Asset 6

    News 06/25: Apples neue App // JavaScript Temporal // Web AI Acceleration Fund // Angular Dokumentation // Ross Ulbricht // Bitcoins in El Salvador

  • AI News Asset 3

    News AI 03/25: Nvidia Digits & Cosmos // Sky-T1 // Codestral 25.01 // vdr-2b-multi-v1 // moondream

  • 169 Ig Fb Weihnachten

    Rückblick auf 2024

  • Lotum News Asset 46

    News 46/24: Oasis // Arc 2.0 // M4 MacBook Pro // DORA Report

  • AI News 2023 24 (2)

    News AI #30: Aleph Alpha Strategiewechsel // Virtual Try On // Claude for Enterprise

  • Lotum News Asset 34

    News 34/24: Google Pixel AI // Crowdstrike Nachlese // Alternative App Stores

  • AI News 2023 24 (3)

    News AI #26: Kyutai Moshi // Aleph Alpha Series B Fake // OpenAI Security Whoopsie

  • Ai News 2023 24 (2)

    News AI #23: OpenAI-Drama // Google AI Overview // Golden Gate Claude // Perplexity Pages // Hugging Face FineWeb

  • 18 Ai News

    News AI #18: Apple MM1 // Mistral // Grok // Inflection & Microsoft // Open Interpreter

  • 08 Ai News

    News AI #8: OpenAI DevDays // State of AI // DallE3 // Zephyr // Fuyu 8B

Feedback