News 18/23 –

Vercel Storage // Quarkus 3.0 // AI: Brief von LAION an die EU

03.05.2023

Shownotes

Neuigkeiten dieser Woche aus der Dev- und Tech-Welt:

/transkript/programmierbar/news-18-23-vercel-storage-quarkus-3-0-ai-brief-von-laion-an-die-eu
Hallo und herzlich willkommen zu einer neuen Programmier.bar News Folge 18 23. Mit dem Sebi. Und ich bin Dennis und wir sind heute leider wieder nur zu dritt. Letzte Woche habe ich gefehlt durch Krankheit. Heute haben wir aber ein freudiges Ereignis, denn Fabi ist im Urlaub und lässt sich die Sonne auf den Schwanz scheinen. Wanst, Wer ist der Wanst mit Wanst? Das weiß ich nicht. Fabi heißt ja, das rechnet im Sommerurlaub ja. Schon seit Sommer. Oder macht er jetzt zufrieden und tut einfach so, als wäre es Sommer? Der ist nämlich über kurz oder lang auch. Ich hab gerade geguckt zwölf, 3 bis 17 Grad, da werde ich mein Fahrrad los. Es sind vier Grad und es ist kalt. Ich habe auch gefroren. Ich habe auch nur eine kurze Hose an, Bekomme ich Nein, immer auf den Kalender geschaut. Es ist warm draußen. Wie kam die Erkenntnis, dass so eine kurze Hose anziehst? Es war gestern nämlich total warm. Ich habe mich gestern in der langen Hose hingelegt. Die war dann komplett grün und dann war da doch eine kurze Hose. Und dann sagte Mareike. Es wird heute 20 Grad warm statt gut. Sich ne kurze Hose an. Hat sie gesagt. 20 Grad, 20 Grad. War es cool, dass wir unsere Testbesprechung immer vor dem Podcast machen und dann auf die Sachen im Podcast. Ja, wenn man gerade vor. Vor Aufnahme hat Jojo sich gewundert, hinterfragt, ob Sebi wirklich den A Browser so toll findet. Was hast du vermisst? Das war für mich immer das Problem, wenn ich irgendwie einen Call habe, zum Beispiel in Video call, dass ich manchmal einfach dadurch, dass ja ach so aufgebaut, dass da links irgendwie so ein Baum hat, wo alle deine Tipps oder auch deine Favoriten dann aufgelistet werden und das manchmal so ein bisschen verschwimmt die Sachen ersetzt, ich manchmal diese Elemente nicht wiederfinde. Und gerade diesen Shorty hat gezeigt, den Mind Control Tabs kann man letztendlich auch dazwischen sein. Zuletzt benutzen Tabs dann ich immer die fünf letzten die drinne sind und so kommt man natürlich dann doch schon relativ einfach auf den Tab zurück, wo vielleicht gerade irgendwie ein Browserfenster. Und Google mit drin das offen ist. Dann war das sogar unten. Das funktioniert aber irgendwie nicht immer. Okay, okay, ich muss es noch mal probieren, damit ich hier mitreden kann. Ich gebe ihm noch mal eine Chance in der Woche und. Wir sprechen heute über Vercel. Die haben nämlich jetzt auch eine oder mehrere Storage Optionen, wo sie die News rausgebracht haben. Wir sprechen über Cookies 3.00. Also ein neues, großes, neues und ein bisschen mehr. Es geht um einen Brief, einen offenen Brief, der an die EU geschrieben wurde, die da gerade dabei sind, Regularien zu etablieren oder etablieren zu wollen, was die Forschung und die Nutzung angeht. Cookies. Das genau ist ein neuer Major Redis. In der Version drei und das ist wirklich sehr, sehr viel passiert. Er bedeutet aber auch, dass es natürlich viele Änderungen gibt. Also die Migration braucht vielleicht ein bisschen Zeit. Also letztendlich ist es so, dass ganz kurz noch mal Cookies. Genau das wollte ich erklären. Es ist ein JavaScript Backend Framework, was einfach sehr performant bestimmte Dinge abbildet, sehr viel Sachen integriert, JavaScript Java, sorry, Java Backend Framework, dann wird es das kennen. Das ist mein Gefühl, dass das eigentlich so de facto. Ich will nicht sagen, der STANDARD, aber eines der beliebtesten Frameworks geworden, die eigentlich da im Java Umfeld genutzt werden dadurch, dass ja auch diese Microprofile STANDARD unterstützen, also dass man sehr kompakt eben bestimmte Schnittstellen, das ist eigentlich die Erweiterung von Java Containern gewesen oder von diesen Server Containern, dass es da einfach eine gewisse Definition gibt, wie letztendlich ein Server, der darunter liegt, mit dem Applikationslayer mit dem Backend kommuniziert, welche Schnittstellen da bereitstellen müssen und das halt sehr optimiert, natürlich dann auch an bestimmten Stellen dann kompilieren kann und das eigentlich sozusagen der grundlegende Server dann einfach diese Schnittstellen anspricht und dass letztendlich die Server Framework dann einfach diese dieses Profil dann implementiert, um dann wie quest Response es irgendwie annehmen und wieder zurückreichen zu können. Hmm, also eine Schnittstelle eigentlich dann. Um um was weiß ich den Server auf Windows, auf Linux und auf Mac. So dass ich unten drunter weiß und mir überlegen kann, ich habe unterschiedliche Implementierungen von einem Server. Es gibt dann zum Beispiel ein Glastisch Server und je nachdem oder ich habe auch vielleicht einen Server, der vielleicht im Winter kompiliert ist und dass da einfach diese Schnittstelle zwischen diesen Erben. Du kannst die Ebene darunter wie auf dem TCP HTTP alle Daten empfangen werden, verarbeitet werden und dann letztendlich wie du deine Applikation, mit welchen Strukturen du das auch was kannst du so ein bisschen trennen und das ist es dann mit diesem Mike Profil STANDARD definiert worden und dann implementieren sozusagen dann wirklich die Server Frameworks einfach diesen STANDARD um dann letztendlich darunter ja gegen jeglichen Server irgendwie kommunizieren zu können und den Nutzen zu können und drunter unter der Haube okay, und wenn ich es richtig in Erinnerung habe, auch wenn wir in der Ärztekammer schon mal letzten Mal über Java gesprochen hat, eigentlich ja immer auf alles verzichten will. Aber Cookies war eines der Sachen, die ich gesagt habe. Das ist durchaus vernünftig, es ab und zu mal einzusetzen und da kann man viel mitmachen. Ja, genau das hat gesagt, wenn man Frameworks verwenden möchte, Also man kann natürlich auch wirklich direkt irgendwie auf diesen STANDARD irgendwie arbeiten, dann sollte man eigentlich Cookies nutzen, weil das einfach sehr viele Sachen implementiert und auch von der Performance einfach extrem gut ist und was hier passiert ist. Es gibt ja dann im ganzen Java Umfeld letztendlich so diese Migration eigentlich von Jakarta, also von acht zu Jakarta zehn und das ist letztendlich da, dass sich da sehr viele Packages verändert haben, sehr viele Schnittstellen sich angepasst haben und die haben jetzt vom JA bereits begonnen, letztendlich diese Implementierung von Cookies drei zu machen und haben sich halt diese Aufgabe vorgenommen, dass sie den gesamten Softwarestack, also die gesamten Tree, eigentlich auf diese neuen Packages umschreiben. Das haben sie vor allem gemacht, weil natürlich auch andere Packages immer mehr das gesamte Java Ecosystem immer mehr natürlich dazu tendiert und übergeht, diese neueren Jakarta Zen Packages zu nutzen und die Schnittstellen zu nutzen und so, dass sie da in Zukunft einfach kompatibler sind. Zu Anpassung, dass gleich der Code gesperrt werden kann. Aber es war wohl ein relativ großes Unterfangen, weil sie auch sagen, sie wollen halt genau Fokus zwei weiterentwickeln. So, das ist jetzt fast ein Jahr gedauert hat bis jetzt diese drei Versionen rausgebracht haben, aber mit super vielen und super coolen Features auch. Zum einen gibt es eine komplett neue Dev SwiftUI, die dafür die wurde auch für zwei schon schon rausgebracht. In einer ersten Version war der aber recht eingeschränkt. Es gab auch keine Möglichkeit für sie zu erweitern und das haben sie jetzt eben so implementiert, dass man die Möglichkeit hat, eben dort auch Plugins zu entwickeln, die eben dann das Gesamte, der für sie einfacher erweitert werden können. Und auch der Look und Feel soll deutlich verbessert worden sein, auch wenn ich immer wieder Schelte bekomme, wenn ich diesen Kommentar jetzt mache. Aber wenn ich mir auf dieser Watch New Yorker Seite diesen diese Screenshots von diesem Dev UIKit Ding angucke, ja dann frage ich mich, warum kriegt so ein dann Framework, was in diesem Java Umfeld ist und jetzt da mit Webtechnologien im Browser Tabellen darstellt, warum kriegen die das nicht hin, dass das einfach mal cool und modern aussieht, sondern das war vielleicht der Eindruck, dass das doch neu gemacht gerade an sieht mich neu aus, zielgruppenkonform. Das hast du gesagt. Also, es sieht wie jedem aus, der die IntelliJ gewohnt ist. Findest du das entsprechend? Also, ich glaube, Sommer Java entwickler sind vielleicht so ein Look und Feel vielleicht gewohnt. Und ich finde, es hat ja einfach so ganz viele. Ich hab wirklich jetzt so ein paar Sekunden auf Facebook, aber irgendwie ein bisschen Whitespace, ein bisschen irgendwie Textfelder mit dem Padding ausrichten und so was. Also das sind wirklich sehr rudimentäre Design Sachen, die man ein bisschen. Naja, aber vielleicht ist wirklich einfach nicht der Fokus darauf. Es ist mehr Funktionalität. Gut, ich finde das hat schon ein gutes Album. Und wo finden Sie da Padding? In diesem Filter oben, wo der Textfeld ist, da ist diese Farbe und die Seite und der Text direkt dran. Links die Liste, wenn eine Taste ist, überhaupt keinen Abstand zu nehmen. Okay. Also alles schön kompakt. Ja, das stimmt. Alle Informationen auf einem Klick. Aber ich wollte gar nicht so lange hätte ich unterbrechen. Entropie optimiert immer genau die Anpassung auf Jakarta etc. Hatte ich ja schon erwähnt. Und was es auch noch mit reingenommen. Es gibt eine neue Version vom Hibernate. Hibernate ist ja auch so der Dom, also Objektrelationen Mapper, den man oberhalb seiner Datenbankschicht eigentlich nutzen möchte, der auch eine lange Tradition hat. Und da gibt es eben eine neue Version, die auch einige Breaking Changes mit sich bringt und ist eben jetzt ja der der STANDARD eigentlich, den man den drei nutzt. Das heißt, wenn man letztendlich sich überlegt, von einer bestehenden Cookies zwei zu einer Cookies drei App zu migrieren, dann ist es so, dass wahrscheinlich gerade in diesem Punkt die größten Änderungen vorhanden sein werden. Aufkommen werden, die man manuell fixen muss. Für alles andere gibt es nämlich ein ganz großes Tor. Das haben Sie jetzt auch integriert. Also es gibt ein neues Ziel tun. Und dieses Teil Tool kann auch mit Plugins jetzt aktuell oder jetzt in Zukunft erweitert werden. Und da wird es auch so sein, dass Sie jetzt in einiger naher Zukunft einige nette Erweiterung, wie Sie schreiben, für dieses Kapitel aufkommen werden. Aber letztendlich, was ihr auch in dem Zuge überarbeitet haben, ist diese Update Funktionalität und die einem sehr stark unterstützt, letztendlich ein Fokus zwei Projekt zu Fokus drei zu portieren, der sehr viele Sachen abdecken kann, aber letztendlich diesen ganzen Bereich, wo ich mit Daten über interagiere. Das ist dann wohl doch ein bisschen manuelle Aufwand, um das anzupassen, was sie eben auch noch angepasst haben. Dass sie von den Streams eben jetzt auf die Java Flow API, die mit Java neun, glaube ich reingekommen ist, eben jetzt markiert haben, Was nutzen da jetzt müssen die zwei, sodass ich letztendlich auch da einen andere Art und Weise habe, wie ich mit reaktiven Komponenten arbeite und wir haben so ein paar Sachen auch verändert, dass ich jetzt die Möglichkeit habe vor was, so dass letztendlich auch solche Health und Punkte irgendwie auf dem gleichen Netzwerk Interface laufen mussten. Jetzt gibt es da die Möglichkeit, das zu konfigurieren, dass ich solche Endpunkte auf ein anderes Interface legen kann. Zum Beispiel, dass ich sagen kann, die sollen gar nicht von außen adressierbar sein, sondern sollen eigentlich nur für meine lokale Information bereitstehen. Ist denn mein Endpunkt oder meine gesamte Applikation, Wie heißt die? Und dann kann man das entsprechend dann trennen. Easy ist jetzt der, der der neue STANDARD Also Sie haben auch dar ist easy aktualisiert was dieses Mal so ein Teil von Quark ist der es aber laut einfachere Schnittstellen zu definieren und da ist in der neuen Version ist es eben möglich dass man auch zum Beispiel die Multiple Parts alle abrufen kann. Sie haben die Unterstützung für Open Telemetrie aktualisiert. Open Telemetrie ist etwas, was Sie jetzt auch in unserem Podcast am heutigen Freitag hören wird, wo es darum geht, wie kann ich Observability für meinen meiner Applikation bereitstellen? Also da gibt es eben auch eine neue Integration, um da einfach diese Anbindung an Open Telemetrie zu bereitzustellen. Ihre Template Engine hat einige neue Features bekommen, die sehr, ja ganz nett sind und es ist jetzt möglich, direkt letztendlich über die CAS Schicht von Focus auch Redis anzuwenden. Ich weiß gar nicht, ob das vorher gar nicht möglich war oder ob man das in die von Hand integrieren musste. Auf jeden Fall ist es jetzt sozusagen eine Caching Option, die ich direkt integrieren kann. Quark Kurs lebt ja im Quarkiverse. Das ist letztendlich einfach. Ich habe sehr viele Extensions, die es für Cookies gibt, bereitgestellt werden. Da ist es so, dass sie sehr viele der bestehende Extensions, eben schon auch Cookies drei kompatibel gemacht haben und sehr stark mit den Miteinander, also Open Source Maintenance zusammenarbeiten, die vielleicht sehr beliebte Packages bereitstellen, um auch da eben sehr schnell einen Status zu bekommen, wo halt sehr viele Funktionalität im Cookies drei funktioniert. Es wird noch nicht alles funktionieren, aber ein Großteil wird gesagt funktioniert schon. Und ja, wenn man jetzt nicht direkt updaten möchte, ist es so, weil sie sagen, natürlich ist es jetzt ein schon relativ großer Aufwand. Eine große bestehende Applikation dann eben von der API umziehen möchte. Dass sie jetzt 2016 immer noch mit Bugfixes und der entsprechenden Fixes dann aktualisieren werden. Sie sagen, für ein paar Monate, also schätzungsweise vielleicht bis zum Ende des Jahres, vielleicht auch ein bisschen länger. Aber man sollte wahrscheinlich jetzt damit planen, wenn man wirklich Cookies als Server nutzt. Server Framework nutzt, dass man in naher Zukunft da eine Migration Fokus Treibern vollzieht. Und sorgt für die Vorteile. Es ist auf jeden Fall so spannend, dass ich auch gesagt habe Ja, ich würde eigentlich auch gerne mal wieder ein bisschen. Kann ich das wirklich intensiv nutzen, ist es Data doch nicht der richtige Weg. Kriselt es da. Gleich sehr gut. Aber es hat natürlich eine andere unterstützen oder so, da ist man dann schon so ein bisschen mehr so auf dem offenen Feld. Da entsteht zwar momentan ein paar Frameworks, aber gerade diese Unterstützung mit REST, Interfaces oder auch Anbindung von irgendwelchen OEMs ist halt längst nicht so gegeben wie im Java Umfeld. Wenn man hier einfach liest, was alles immer unterstützt wird oder was auch im Cookie, was an Extensions vorhanden ist, merkt man schon. Da wird einem sehr viel Arbeit abgenommen, was man da jetzt gerade noch von Hand selber implementiert. Wo ist das Name? Vom Konkurs zum Bestseller. Universum React.js hat am 1. Mai Stories vorgestellt, und zwar mehr oder weniger. First first Party. Jetzt also, dass Sie das auch unter Ihrem Label oder so anbieten. Also Sie machen Webhosting, bieten Cloud Functions an? Super Integration mit Next.js Server Komponente. Also es ist eine coole Firma und wir haben auch viel, viel cooles Talent akquiriert und viele bekannte Framework Maintainer arbeiten dort. Also die sind gut auf Zack und das beweist auch dieses Release von Universal Storage. Und dabei handelt es sich um drei Paketchen oder drei Storage Lösungen. Einmal war's okay. Wie also als Key-Value-Store? Das ist sowas wie reines Brüssel PostgreSQL als relationale Datenbanklösung Universal Blob für Fall Storage. Diese drei Sachen. Also ich weiß zumindest, dass alles davon irgendwie als JavaScript SDK unter dem Wurzel Namespaces importiert werden kann und kann in den Funktions. Und Cloud Functions von Brüssel verwendet werden. Wie sinnvoll oder und sinnvoll das ist. Mal gucken. Also es geht ja darum, dass das maximal schnelles Fall ist und dann, ja wann fangen wir mal mit dem LKW an? Letzte Woche war das letzte Woche, als wir Deno. Das war letzte Woche. Ja. Okay, also während den okay, hab ich noch mal nachgeschaut. Hat Ja, als Unterbau. Foundation DB. Das wussten wir letztes Mal nicht. Das ist Foundation und hatte ja dieses Ding, dass das Strong construct sie. Hat uns aber trotzdem irgendwie über die Welt verteilt. Aber ich glaube, fast waren es fünf oder vier Datenbank Center. So viel Kaffee. Also jetzt sind wir wieder bei Ursel. Ist komplett Redis kompatibel mit auch mit allen Datenstrukturen, die das so anbietet. Und ich entscheide mich, wenn ich das verwenden möchte für eine Region, in der alle Rights stattfinden. Und dann kann ich aber die Reads noch in unterschiedliche Regionen replizieren. Das kannst du dann noch festlegen, wie weit du das Portal willst? Oder ist das einfach so in allen Regionen? Ich kann tatsächlich die Regionen auswählen, oftmals. Also kann ja sein, dass ich es gar nicht in meinen Transitions verwendet. Dann bringt es mir nicht so viel. Und wenn ich es nur in einer Region brauche oder wenn ich mit Server mit Cloud Functions. Ich muss das wahrscheinlich anders, also mit Wenn ich mit diesem Server das funktionsarbeite, dann sind die ja auch meistens in einer Region Und die Leute müssen natürlich sehen, dass ich meine Datenbank maximal nah an dieser Region auch horste. Und dafür ist das oder? Und fand ich also irgendwie ein cooles Angebot unter der Haube verwendet wird soll das Angebot von APS das. Und das habe ich mir irgendwie durchgelesen, wie die das so bauen. Ich kann also jetzt. Es ist also so. Dass das System was dann läuft das mit auf ihre Infrastruktur sagt sie nutzen eigentlich den Service von Apps oder ist es letztendlich etwas was bei Apps nicht so.. Es liest sich so der Blogpost, dass sie die Infrastruktur von Apps verwenden, weil es da auch noch um irgendwelche Privacy Compliance Sachen gibt, die sie wohl aushandeln müssen. Und ich vermute, das hat was damit zu tun, dass sie die Infrastruktur verlassen, die Daten also und multiple rights ein ein right. Ähm. Das ganze Ding ist eventuell konsistent. So, das war so der Unterschied zu den OKW, da kann ich es mir aussuchen. Also da kann ich ja explizit sagen, ich brauch jetzt, kann eventuell mit Daten umgehen, gib es mir aber schnell. Und hier muss ich halt immer damit rechnen, dass das noch nicht repliziert ist. Wenn ich was lese müssen. Ähm süß fand ich das im Hobbyplan von Vorteil. Habe ich einen Limit von 3000 Requests am Tag. Ach ja, es ist wirklich ein Hobby. Genau so.. Ansonsten sagen Sie 1000 Requests pro Sekunde. Hm, ja, aber so. Zahlt man für das Volumen letztendlich, was du dann brauchst. Ist es nicht so, dass du der Instanz Größenlimits. Es ist wahrscheinlich, dass so ein Volumenmodell, je nachdem wie viele Request und write Operationen durchführt. Es ist ja eher das, was teuer ist, weil es natürlich zu diesen ganzen Invalidikas vielleicht auch führt. Aber ich hatte hatte das gar nicht so verstanden, dass sie das Prusage abrechnen, sondern dass das in dem Plan. Dann wäre es okay und ich glaube, das war das erste oder war das das andere? Eins von den beiden hat zumindest so Autos Scale Anführungszeichen mit drin, die deinen Plan einfach upgraden, wenn du an die Limits stößt. Hm, also ich weiß jetzt nicht, ob das was auch macht. Da habe ich jetzt nur gelesen, die haben den pro Plan und den Hobbyplan und im Hobbyplan sind halt nur 3000 Request am Tag drin. Am Problem habe ich mir nicht so genau angeschaut. Okay, dann die andere Sache. Krass. Serverless less krass schreiben. Sehr sehr interessant. Wie zum Henker. Also die verwenden unter der Haube Neon als Anbieter oder als Firma und die werben auch ganz stark mit Service PostgreSQL und so, aber das bedeutet an der Stelle, dass sie die Computer und die Stores Sachen gesplittet haben. Wer aufmerksam zugehört hat, das hat Google glaube ich letztes Jahr auch mit dem Post Cross Angebot gemacht, was ich vergessen habe. Also Google hat ja letztes Jahr für PostgreSQL so eine Cloud Native lösung angeboten und da hatten sie ja auch dieses Auto, Scaling etc. erreicht, in dem sie von dem Datenbank Server die Computerpower und den Storage getrennt haben, so dass sie beides unabhängig voneinander skalieren können. Jedenfalls hat Neon das gleiche Konzept, dass sie ihre PostgreSQL Datenbanken vom Computer und vom Storage unabhängig voneinander skalieren können. Und meine PostgreSQL Datenbank liegt aber nur in einer Region. Ich habe da zumindest nichts von Replicas gelesen und Replikas wäre das, was man bei Google zum Beispiel noch dazu bekommt. Andererseits ist natürlich die Anbindung von diesem PostgreSQL. Können Sie das einrichten? Auch alles über die sowohl KW als auch PostgreSQL geht alles über der Sport kann man sich zusammenklicken. Mega komfortabel. Hm, wunderbare neue Welt. Als letztes in private Beta. Nur das kann ich aktuell ab Stand heute jetzt noch nicht einsetzen. Aber wenn ich mir anschauen, da geht es um viel Storage, also so extrem billig, was auch immer. Bilder, Videos, so jedenfalls die ganz normale. Wahnsinn. Ja, das ist aber dann auf ihrer eigenen Infrastruktur. Das heißt keinen Anbieter von anderen außer die drei Phazer abs und Google Storage. Ne, cool das und. Das ist vielleicht nur das, was wir heute von Vorteil haben. Denn was hat denn eine ganze Woche von dem, was sie der Chip irgendwie zusammenfassen? Und der erste Tag ging um Storage und nein, heute ging es um Security, wo sie zwei neue Produkte vorgestellt haben und wir aber noch nicht uns angeguckt. Haben, nachdem wir uns. Nicht, sondern es gibt noch drei weitere Tage voller dicke Investments inklusive einer live gep Broadcast ten Keynote am Donnerstag, am 4. Mai um 9:00. Also kann sein, dass da noch ein bisschen was von Seite kommt und wir nächste Woche noch mal ein Update dazu machen. Okay, dann müssen wir uns, wenn es vielleicht nicht. Abdecken ist als solches, dann war der Name oder von der Google Leute wie es gefunden. Wird. Gut, dann reden wir noch kurz über Regulierungen im Bereich oder was ich oder was man das zusammenfassen will, aber letztendlich, was passiert ist. Oder es gab von der EU einen Pakt, wird ja schon länger diskutiert. Ist der einfach so ein Vorschlag von einer Gesetzgebung, die ja zur Verhandlung da ist und wo so ein paar Sachen drinstehen? Und ich glaube, der grundsätzliche Konsens ist. Alles, was da zum Beispiel drinsteht. Was drin steht, Wir müssen das limitieren, das und das darf nicht mehr sein. Das geht, glaube ich, so ein bisschen unter die Scheidung meist, das ist eine General Purpose und es kann grundsätzlich irgendwie auch gefährlicher werden, weil es einfach mehr Wissen, irgendwie akkumuliert, für alles Mögliche eingesetzt werden kann, dass man dann versucht, so ein bisschen zu regulieren. Und da gibt es, glaube ich, im Englischen und Amerikanischen von The Godfather of Evil genannt wird, Der ist vor allem, wie wir so ein bisschen mit gefärbt hat oder sehr viel im Futter gegeben hat. Also es ist eher so diese Doomsday Rhetorik, dass er uns irgendwann alle vernichten wird und dass wir natürlich gucken müssen, wie können wir diese ganze Entwicklung so regulieren, so irgendwie überwachen und auch irgendwie im Auge behalten, dass das eben, dass wir die Risiken für die Menschheit dort minimieren können. Ich verstehe nur nicht genau, wie kann man das dann also was reglementieren? Kann man dann einfach sagen so ja ne, macht jetzt bitte nichts mehr mit ja oder nein oder wie kann man das also verstehen? Wo sind da die Hebel? Na ja, klar, du kannst schon als. Als EU wahrscheinlich deinen Mitgliedsstaaten und dann auch den einzelnen Leuten verbieten, beispielsweise solche Modelle. Einzusetzen. Ja genau. Also ich meine, dass ich es einfach verbieten kann. Es klar. Aber Reglementierung heißt. Regulierung. Regulierung heißt nicht oder heißt das einfach verbieten und von allen verboten ist? Ja, dann können wir es. Genau das ist halt die Frage dann, und darum geht es ja jetzt letztendlich genau diesen Weg zu finden und da in diesem ersten Proposal, den es da gab. Also das ist ein. Weiß nicht wie viele Seiten das hier sind, 20304050 Seiten, auch so formatiert, wie man sie sich nicht durchlesen will. Halt Gesetzestexte. Die sind jetzt hier reinkopiert. Und ich habe es noch nicht zerstört, das direkt Feuer machen lassen. Und da gibt es jetzt einen offenen Brief und zwar von der sogenannten Lyoness e.V. Also das ist der lokale Artificial Intelligence Open Network. Da gehören einfach sehr viele europäische Unternehmen und Forschungsinstitute und einzelne Professoren und so was dazu zu diesem Netzwerk. Und die haben jetzt einen offenen Brief geschrieben und bitten eben das Europäische Parlament noch mal über diese über dieses Proposal drüber zu gehen. Und zwar sehen sie das Risiko, dass wenn Europa das so extrem einschränkt, die Forschung und die Entwicklung an den kleinen Modellen, dass wir einfach das einfach nur negative Implikationen haben wird, Zum einen werden wir nicht kompetitiv sein können, weil sich die USA, China etc. nicht die gleichen Regularien auferlegen wird, was dann Auswirkungen hat auf unsere Sicherheit, auch weil wir einfach nicht den Umgang und die nicht in gleichen das gleiche Level an Forschung betreiben können und natürlich ganz kleine Wettbewerbsnachteil hat, weil natürlich, was die Unternehmen ja natürlich diese Technologie nutzen wollen, die vielleicht sogar in anderen Märkten irgendwie verfügbar sind und dann natürlich dann eher zu den amerikanischen, russischen, vielleicht chinesischen Diensten gehen. Und auch für jedes Land hat es natürlich gerade dieser Sicherheitsaspekt, dass vielleicht auch dadurch letztendlich die Forschung an Sicherheits CI, die vielleicht andere Systeme überprüfen kann, erschwert wird. Und was da ja dann natürlich auch ein Nachteil sein kann, dass wir einfach da nicht so gut aufgestellt sind wie andere Wirtschaftsbereiche. Wenn es dann in Zukunft darum geht, entsprechende Trends in die abwenden zu können und im Kern steht es. Ich meine das, was Sie schon sagen, so, Sie sind auf jeden Fall dafür, dass man das Ganze irgendwie überwacht und beobachtet. Und das ist nicht einfach. Also sehen da definitiv Risiken, ist nicht so, jetzt stell dich nicht so an, da gibt es mal alles frei, sondern sie sagen, wie sie es halt haben wollen. Ist vor allen Dingen, dass das Open Source, der Open Source Gedanke der Erforschung dieser Technologie unterstützt wird. Aktiv, dass man eben genau das machen kann, dass man beobachten kann, was machen die Modelle, wie funktionieren sie, um an diesen zu lernen, um daraus dann mit der Zeit auch Richtlinien ableiten zu können. Aber wenn man halt versucht, das irgendwie alles über einen Kamm zu scheren und einzuschränken, dass das eben dann. Nachteilig sein wird. Ich weiß nicht, ob es im Rahmen des Briefes war, was ja ein bisschen auch ja so die Forderungen sind, die vielleicht immer mal im Zuge dessen mit aufgekommen sind, dass man natürlich auch die Forschung an KI in Europa stärken sollte. Also es ist ja gerade zum Beispiel haben wir so ein Modell Wikipedia vor, da hat man wahrscheinlich 25.000 GP gebraucht, um das trainieren zu können. Und wir haben momentan eigentlich glaube ich nur wenige oder gar kein Rechenzentrum, was eigentlich mit so einer Leistungsstärke eigentlich in Europa ausgestattet ist und dass man natürlich da sehr viel investieren muss und das nicht einzelne Akteure machen können, vielleicht einzelne Akteure, wie auch immer. Aber das ist eigentlich ein staatlicher und staatlicher und Anstoß geben muss, um erst mal die Mittel bereitstellen, um solche Forschungszentren aufzubauen oder solche Hochleistungsrechner aufzubauen, die dann solche Modelle berechnen können. Und dass man da nicht nur ein Modell braucht, sondern oder ein Standort braucht, sondern mehrere Standorte braucht, um halt auch parallel natürlich Modelle berechnen zu können und das ist jetzt auch eher schon die Größenordnung von 100.000 CPUs ausgeben muss, damit man halt für die weiteren Entwicklung gut aufgestellt werden ist und ist man sich da auch bewusst sein sollte. Es kann wahrscheinlich niemals so sein, dass man das, was man in Geld investiert hat, immer wieder rausbekommt. Aber es muss eigentlich schon so ein Staat geben, um da überhaupt diesen Wettbewerbsnachteil, den wir momentan haben, wieder wett zu machen. Und da auf der Grundlage zu kommen, dass wir dort Dinge entwickeln können, die mithalten können mit den anderen Modellen, die da draußen schon existieren. Ja, und dass man irgendwie schafft, da gemeinsame Grundlagen zu schaffen, irgendwie gemeinsame Möglichkeiten haben, Zeit zu haben, daran zu forschen. Und das durch beispielsweise so ein solches Rechenzentren, die gebaut werden müssten, weil das Problem ist halt auch irgendwie bei denen ist es so, dass immer an einem Standort brauchst du kannst jetzt nicht irgendwie verteilte Rechenpower nehmen die an mehreren Standorten ist weil einfach die Geschwindigkeit innerhalb dieses Netzwerkes oder innerhalb dieser einzelnen Cluster nicht schnell genug ist. Das heißt, du brauchst irgendwas, was an einer Stelle steht, Gemeinsames und dann muss man natürlich da wieder dann überlegen, wie ist der Zugriff, können ja nicht gleichzeitig alle irgendwie versuchen, über Wochen lang ein großes Modell zu trainieren, Wie kann man das schaffen, sich da gut aufzustellen und. Wie also ist es aktuell schon reguliert? Nein, das ist, glaube ich, das ist ein Gesetzesentwurf, der sozusagen jetzt im Parlament diskutiert wird oder diskutiert werden wird und wo jetzt natürlich dann versuchen entsprechend Akteure wie Laien das so ein bisschen offener zu gestalten oder weil wohl dieser Entwurf, der gerade existiert, von vielen als sehr, sehr strikt angesehen wird. Also wenn er in dieser Form, wie jetzt momentan wie definiert wurde, so kommen würde, würde es einfach sehr viele Forschungsbereich Forschungsfelder eigentlich dann dicht machen und da keine Möglichkeiten bieten und wir würden also da sehen halt sehr viele dieser entsprechenden Wissenschaftler und das sind alles von Universitäten die sich Jahrzehnten damit beschäftigen also ein Thema das wir dann auf jeden Fall. Keine Chance hätten, mit den anderen Wirtschaftsbereichen mitzuhalten und einfach da ins Hintertreffen geraten werden. Und im Moment ist halt so ein bisschen die Problematik. Dadurch, dass es in aller Munde ist und Politiker dazu tendieren, weiß ich nicht, so ein bisschen auch auf reißerische Dinge einzugehen. Und das ist halt die Gefahr, dass es jetzt gerade so hochgekocht wird. Das ist das als riesen Gefahr. Wir müssen auf jeden Fall als Politik agieren, wir müssen jetzt richtig was machen und so, dass das eventuell über das Ziel hinausschießt und eben nicht wirklich sinnstiftend ist am Ende. Und da einen gesunden Mittelweg zu finden ist, glaube ich das was was gerade angestrebt wird und wo es dann diese Diskussionen gibt. Was der richtige Weg da sein soll, ist ja, dass man so die Debatte ein bisschen versachlicht, die momentan natürlich sehr heiß und mit entsprechenden Buzzwords dann vielleicht eher Ängste schürt, als dass es wirklich fundamental eigentlich erklärt, was die Systeme funktionieren, was auch für Chancen natürlich in den Bereichen zu sehen sind. Also ich finde eigentlich die Vorschläge, so wie jetzt Lins in dem Brief geschrieben hat, sehr gut und auch das, was ich mir vorstellen würde, was natürlich auch versucht, diesen ganzen Prozess und diesen ganzen Bereich zu demokratisieren, mehr Teilnehmer in die mit rein zu bekommen, die daran partizipieren, die vielleicht auch investieren. Das ist ja auch so eine Überlegung zu sagen, okay, es muss ja vielleicht nicht nur ein staatlicher Akteur sein, der jetzt diese Rechenzentren unterstützt, sondern dass natürlich auch sich Unternehmen daran beteiligen können, solche Dinge eben aufzubauen und dann später durch gewisse Closed Source Sachen dann eben da Profit abschöpfen können. Aber ja, diesen Gedanken einfach zu haben, mehr Akteure und offene Modelle schaffen natürlich ein besseres Verständnis, bessere Sichtbarkeit, um diesen ganzen Prozess irgendwie noch über wir schauen zu können oder irgendwie so ein Einblick zu haben. Ja, und manchmal braucht es vielleicht auch einfach die Unterstützung von Staaten. An der Stelle voranzubringen. Ich meine an vielen anderen Bereichen auch hoch subventioniert und um halt irgendwie die Wirtschaftlichkeit und die Wirtschaftsstandort irgendwie zu festigen und da nicht ins Hintertreffen zu geraten, ist das vielleicht nötig, da einfach in dem Bereich aktiver zu sein. Ganz klar auch gerade wenn man sieht, was wie viele Entwicklungen aktuell schon aus China kommen und auch wie viele chinesische, wie gut chinesische Universitäten aufgestellt sind. Da gab es ja, glaube ich, gerade vor kurzem auch so eine Aufstellung. Wie viel Publikationen passieren jetzt an Universitäten in dem Bereich, wo allein die ersten neun Universitäten aus China kommen? Danach kommt glaube ich das mit. Natürlich muss man sagen, heutzutage passieren diese Entwicklungen nicht an den Universitäten, sondern hauptsächlich im privaten Unternehmen, die die großen Modelle bauen und trainieren und einfach da die finanziellen Kapazitäten haben. Da merkt man, da ist natürlich schon ein ganz anderer Hintergrund da und das auch im wissenschaftlichen Bereich, vielleicht in Europa, da auf jeden Fall ein gewisser Bedarf besteht, da einfach eine bessere Infrastruktur zu haben, an solchen Themen arbeiten zu können. Ja, spannend, aber ich glaube, das sollte man auf jeden Fall so ein bisschen mit beobachten, wie eigentlich da dieser ganze Prozess dann abläuft und wie sich vielleicht auch dieses initiale Gesetzesvorhaben dann verändern wird. Jepp, absolut gut. Dann haben wir die News der Woche hinter uns gebracht. Feedback wie immer gerne an uns Podcast programmier.bar bar oder über unsere Programmier.bar Webseite. Wir würden uns sehr darüber freuen. Dann gucken wir mal, ob wir uns nächste Woche in der Runde wieder hören. So ein bisschen meinen, mein Nachwuchs müsste sich mal langsam auf den Weg machen. Von daher wird es immer unwahrscheinlicher für die nächsten Folgen. Aber nach eins zwei Wochen Pause bin ich auch erst mal wieder da. Insgesamt gesehen am Nachwuchs, aber das reicht dann gut. Eine schöne Woche euch. Vielen Dank. Ist ja auch.

Verwandte Podcasts

  • Lotum News Asset 46

    News 46/24: Oasis // Arc 2.0 // M4 MacBook Pro // DORA Report

  • News Asset 38

    News 38/24: Amazon Office-Regelung // VS Code // Safari 18.0 // Shadcn CLI // Unity Fees

  • AI News 2023 24 (2)

    News AI #30: Aleph Alpha Strategiewechsel // Virtual Try On // Claude for Enterprise

  • Lotum News Asset 34

    News 34/24: Google Pixel AI // Crowdstrike Nachlese // Alternative App Stores

  • AI News 2023 24 (3)

    News AI #26: Kyutai Moshi // Aleph Alpha Series B Fake // OpenAI Security Whoopsie

  • Ai News 2023 24 (2)

    News AI #23: OpenAI-Drama // Google AI Overview // Golden Gate Claude // Perplexity Pages // Hugging Face FineWeb

  • 18 Ai News

    News AI #18: Apple MM1 // Mistral // Grok // Inflection & Microsoft // Open Interpreter

  • Deep Dive 140 – TimescaleDB mit Sven Klemm

    Deep Dive 140 – TimescaleDB mit Sven Klemm

  • 08 Ai News

    News AI #8: OpenAI DevDays // State of AI // DallE3 // Zephyr // Fuyu 8B

  • 07 Ai News

    News AI #7: Cloudflare AI - Serverless Workers, AI Gateway, Vector DB // Meta AI // LeoLM // Mistral AI 7B // LocalPilo

Feedback