Deep Dive 170 –

Remotion mit Jonny Burger

17.01.2025

Shownotes

Viele von uns haben schon einmal Bilder bearbeitet. Aber Videos? Noch dazu mit Animationen und Effekten? Dafür muss man sich erst einmal in einige Tools einarbeiten. Darauf hatte unser heutiger Gast, Jonny Burger, keine Lust.

Stattdessen hat er kurzerhand ein Framework geschaffen, mit dessen Hilfe wir Videos ganz einfach via Code erstellen können. Das Ergebnis seiner Arbeit ist Remotion – und heute nicht nur eine React Library, sondern ein eigenes Unternehmen.

Gemeinsam sprechen wir über technische Hindernisse, die Wahl von React und die Stärke der Kopplung an das Framework, aber auch über die Lernkurve in Video-Encoder, Container-Formate und vieles mehr.

Außerdem berichtet Jonny, wie er sein Start-up in die Schweizer Ausgabe von „Die Höhle der Löwen“ gebracht hat und wie es war, als Erster dort eine source-available JavaScript-Toolchain zu pitchen.

/transkript/programmierbar/deep-dive-170-remotion-mit-jonny-burger
Jan
Hallo und herzlich willkommen bei einer neuen DeepDive Folge hier in der programmier.bar. Heute mit einem Thema, was mich schon ein bisschen länger begleitet. Ich glaub, ich hab die Geschichte schon mal im Podcast erzählt. Wenn ihr der programmier.bar auf Social Media folgt, egal ob Twitter, Instagram, LinkedIn, Mastodon, Blues Guy, wo auch immer, seht ihr ab und zu, dass wir kleine Snippets, kleine Ausschnitte aus dem Podcast veröffentlichen. Und da seht ihr immer so ein Foto von dem Speaker und oder von der Speakerin und ein Subtitle eingeblendet. Das erzeugen wir alles ganz automatisch. Und da hab ich in der Folge hundertvierundfünfzig, als wir mit Niko Martin über PWAs und was geht heute eigentlich alles mit Webtechnologien gesprochen hatten, Er hatte, sind wir son bisschen darauf zu sprechen gekommen, wie machen wir das eigentlich? Und dann hab ich ihm so meinen Workflow erzählt mit, ja, ich hab mir da son Node Skript geschrieben, was irgendwie je Frame bei Frame alles erzeugt und irgendwie dieses Transkript mit Open AI macht und dann am Ende mit mit FFM pack alles in ein Video zusammenschneidet und die Tonspur dahin macht und so was alles. Und dann hat er mich son bisschen ungläubig angeguckt und meinte, hey, da gibt's was da draußen, das nennt sich Remotion. Das macht im Prinzip genau das, was Du gesagt hast, nur wahrscheinlich 'n bisschen besser und 'n bisschen cooler und nutzt irgendwie dafür. Und da hab ich ihm gesagt, meine React Zeit ist schon 'n bisschen her und dann war Nico sogar noch so nett, uns ein Remotion Template für die programmier.bar zu bauen. Da hat's das dann zukommen lassen. Und dann hab ich mich auch 'n bisschen mit Remotion beschäftigt, dacht, das ist aber superinteressant, was da so passiert. Und dann hab ich gesehen, dass Remotion ja aus aus Europa kommt. Das passiert ja nicht oft irgendwie mit mit cooler Software. Remotion kommt aus der Schweiz. Und dann hab ich den den Johnny angehauen. Einer der Köpfe hinter Remotion hat gesagt, Johnny, Du musst mal in den Podcast kommen. Wir müssen mal über Remotion sprechen, vielleicht kann ich da noch was lernen und heute ist es soweit. Heute ist Johnny hier. Hallo Johnny.
Jonny
Hallo zusammen. Ja, danke vielmals darf ich da sein und ja, sehr interessant die Umstände zu hören, wie dass ich hier gelandet bin, aber das freut mich auf jeden Fall, dass die Programmier Bar auch schon ein bisschen mit Remotion herumexperimentiert hat.
Jan
Da können wir ja gleich noch drüber sprechen, was wir schon jetzt gemacht haben, was funktioniert hat, was nicht funktioniert hat vielleicht. Aber vielleicht willst Du an alle da draußen nach meinem vielleicht mehr schlecht als rechtem Pitch noch mal in ein, zwei Minuten zusammenfassen, was ist denn eigentlich Emotion?
Jonny
Ja, sehr gerne. Also Emotion ist ein Weg, ein Video programmatisch zu erstellen. Man schreibt es in Projekt, man beschreibt eigentlich jedes einzelne Bild, das in einem Video darin vorkommt. Und es macht prinzipiell das genau Gleiche, was Du in deinem eigenen Tool gemacht hast. Also die eigentliche Idee ist nicht sehr kompliziert, dass diese Bilder einzeln gescreenshotet werden und dann schlussendlich mit FEMPEG in ein Video zusammengeklebt werden. Und deshalb war eigentlich auch ursprünglich die Idee, dass Remotion nur ein ein kleines Tool wird. Ich dachte, gut, ich mach das und dann ist es fertig und dann widme ich mich anderen Projekten. Aber dann gab es noch so viel daran zu verbessern und zu optimieren. Und danach kamen diverse Optimierungen wie verschiedene Formate, wie wie bindet man Videos ein? Wie bindet man Audio ein? Wie macht man eine gute Preview? Kann man vielleicht eine Live Preview in Webseiten einbinden? Und dann entstanden ganz viele Rabbit Hole. Und mittlerweile würde ich sagen, dass Remotion fast schon mehrere Projekte, eine eine Vielzahl an Tools sind, welche aber alle das Ziel haben, es Entwicklern leichter zu machen, mit Videos zu arbeiten.
Jan
Wie seid ihr denn oder erst mal, wie viele seid ihr denn und wie seid ihr auf die Idee gekommen, Remotion zu bauen? Was war so der ausschlaggebende Punkt?
Jonny
Also ich glaube, es hat angefangen im Frühjahr zwanzig einundzwanzig und da war es zuerst ich ganz alleine. Ich wollte eigentlich nur ein Video machen und für eine andere App von mir und so ist das tiefste Rabbitol in meinem Leben entstanden, denn ich war frustriert mit den bisherigen Videobearbeitungsprogrammen, weil sie einfach einige Sachen nicht hatten, die ich mir gewohnt war von der Webentwicklung. Sagen wir, okay, ich will jetzt drei fast gleiche Elemente in einer Reihe anzeigen, dann muss ich das mit der Maus manuell alleine und in und und und dann kann man auch wieder zurückgehen und wenn einmal den bearbeitet, dann updaten sich gleich alle Instanzen davon. So, das war die ursprüngliche Idee. Und ich hatte geglaubt, dass ich es besser, dass ich besser wäre, besser darin wäre, ein Video mit Code zu erstellen als mit solch einem normalen Animationsprogramm, weil ich einfach schon viele Jahre zuvor ein Entwickler war, aber darauf müssen wir jetzt nicht unbedingt eingehen, sonst wär das zu lang. Ja, genau, ich hab das released. Wirklich hatte nicht gedacht, dass es größer werden könnte. Ich hatte, als ich es released habe, hatte ich erst am letzten Tag überhaupt eine Domain dafür gekauft, aber ich habe ein Video gepostet. Das Video ging etwas so, dies dieses Video wurde mit Code erstellt und Du kannst das auch machen. Und das ging super viral auf Twitter und seitdem sind wir in einem endlosen Feedback Loop. Und etwa ein Jahr danach kam auch mein Mitgründer Mehmet zu Remotion hinzu. Der kümmert sich das Geschäft. Emotion ist eine Firma mittlerweile und wir versuchen das auch zu kommerzialisieren und haben uns auch mittlerweile geschafft, von diesem Framework zu leben und ich arbeite im Moment im Dezember zwanzig vierundzwanzig Vollzeit and Emotion.
Jan
Cool. Also da das das find ich immer beeindruckend und bemerkenswert, wenn Leute es schaffen, aus so ihrem, ne, ihrem ihrem Hobbyprojekt oder was aus soner Passion heraus entstanden ist, am Ende auch irgendwie was zu machen, wovon sie zumindest leben können, ja. Und das muss ja nicht immer so sein, dass man sich davon seine Jacht und seine fünf Villen kaufen kann, aber wenn man zumindest sich so Vollzeit diesem Thema widmen kann, dann hat man, glaub ich, schon sehr viel gewonnen so an an an an Qualität und und Erfolg so. Cool. Jetzt hast Du schon gesagt, ihr versucht das zu kommerzialisieren. Das ist ja vielleicht nicht unbedingt einfach bei einem Stück Software, was ja am Ende, ohne das despektierlich zu meinen, aber am Ende ist es ja ein eine React Library, so. Was habt ihr euch da fürn fürn Business Case überlegt oder was ist das Geschäftsmodell da hinten dran?
Jonny
Ja, Remote hat ein. Das heißt, wir versuchen so viele Elemente eines Open Source Projekts und möglichst viele Philosophien zu übernehmen, ohne dass es dann ohne dass man es dann wirklich Open Source nennen kann. Also unser Code, der ist offen auf GitHub. Es gibt auch viele Leute, die Teile davon rauskopieren und contributen. Über zweihundert Leute haben contributed, aber wir haben eine Klausel in unserer Lizenz, dass Firmen, wenn sie etwas mit Remotion gebaut haben und sie das dann benutzen, dann müssen sie eine Lizenz kaufen. Und für alle anderen, also für Teams bis zu drei Leute, also auch kleinere Firmen, die können das komplett gratis benutzen. Und ja, das war einfach so eine Idee, die ich auch so zwei, drei Tage vor dem Release hatte. Ich ich war damals schon relativ beschäftigt und habe mir gedacht, boah, es wäre jetzt nicht geil, wenn es jetzt doch erfolgreich werden würde und dann alle großen Firmen benutzen es und alles, was ich davon habe, ist sind viele GitHub Shows und viel Stress und viel Arbeit am Feierabend. Deshalb habe ich im letzten Moment diese Klarsel reingemacht und ich stehe immer noch ziemlich dahinter. Wir haben sehr wenig daran verändert in den letzten vier Jahren. Und ja, mittlerweile kann ich das Ganze ein bisschen entspannter angehen, muss nicht nebenbei noch einen Job arbeiten. Und ich glaube trotzdem, viele schöne Dinge, die man bei Open Source findet, haben wir trotzdem erreicht, dass Leute, dass die Kleinen sozusagen das gratis benutzen können und den Code anschauen können. Cool.
Jan
Wer ist denn eure eure ideale Zielgruppe? Weil also wie gesagt, ich bin ja auch zu dem Thema gekommen, weil ich auch von Videoerstellung keine Ahnung hab und mir gedacht hab, na ja, irgendwie in Code krieg ich das vielleicht hin. Bevor ich mir irgend so Adobe Software installier, arbeite ich hier lieber son bisschen mit mit NPM, aber ich mach ja jetzt damit so ein Video die Woche, ne. Wir veröffentliche eine Podcastfolge, ich publish ein Snippe davon und und das war's eigentlich. Damit bin ich wahrscheinlich nicht die Kernzielgruppe für. Wer ist es denn?
Jonny
Ja, das ist wirklich gar nicht so einfach zu sagen, denn wir versuchen Remotion so zu bauen, dass es nicht sehr ist. Also es ist wirklich ein generisches Framework, verschiedene Arten von Videos zu erstellen. Und man startet auch mit ja, mit einem leeren Canvas, wo man dann verschiedene Elemente drauf zeichnen kann. Textbilder, Videos, SVGs, Lotti, Animationen, et cetera. Und ja, manchmal waren wir selber ein bisschen überrascht, was Leute damit machen jetzt, was überraschenderweise sehr populär geworden ist, dass Leute einen ganzen TikTok Kanal automatisieren mit AI generated Brain Rots Videos, mit Automatik Caption und einer Text to Speech Stimme und das Skript ist auch noch von einer AI geschrieben. Das ist der Traum von vielen, ja, wahrscheinlich jungen Leuten heutzutage und wahrscheinlich komm ich auch nicht mehr ganz nach, was was da abgeht. Also damit werden sehr viele Videos generiert und es gibt auch viele Apps, die auf Remotion gebaut wurden, die ja, es auch nicht entwickeln, ermöglichen, ja, Kurzvideos zu generieren. Allgemein die Möglichkeit, Videos zu untertiteln mit diesen animierten Caption, die man überall sieht heute Tage, ist einer der stärksten Use Cases von Remotion, denn es gibt mittlerweile viele Onlinetools, die es erlauben, ein Video hochzuladen, vielleicht auch ein langes Video und es wird dann automatisch zugeschnitten in ein kurzes Video. Dann wird mit VespAR das Video transkribiert und die Untertitel darüber werden animiert. Vielleicht machen wir noch ein paar Effekte rein oder ein paar Jumpcuts oder wir verändern etwas am Audio. Und warum Remotion gut dafür funktioniert, ist halt, weil wir eine Videopräview anzeigen können, die sich live updated. Du änderst ein React Komponente und wenn dann der Nutzer eine Caption korrigiert, weil die AI es nicht ganz richtig gemacht hat, dann wird die Live Preview updated, weil es einfach 'n React Component ist. Und trotzdem kann man es schlussendlich in ein MP4 rendern. Ich glaube, das ist so ein bisschen der der Hauptgrund, weshalb jemand nutzen würde, ein Video zu machen oder sogar zum eine ganze App machen, die es Endnutzer erlaubt, Videos zu erstellen.
Jan
Mhm. Jetzt haben wir ja schon son paar mal touchiert, dass das react getrieben ist. War das eine bewusste Entscheidung, da auf react setzen oder war das einfach so der der Space, aus dem Du gekommen bist und es war naheliegend? Oder was was gefällt euch da so an React?
Jonny
Ja, also ich komme aus einem React Native Hintergrund. Und ja, da ich natürlich zuerst immer ein Tool machen will, welches ich gerne benutze, hab ich mich für entschieden. Ich denke, wir wir gewinnen und wir verlieren mit React. Wenn React jetzt ersetzt wird, werden auch wenige Leute Gefallen an Remotion finden und wenn React noch weiter wächst, dann wird auch populär.
Jan
Wie viel von ist denn tatsächlich so stark gekoppelt an? Also wenn ich mir jetzt vorstelle, ist irgendwie auf dem absterbenden Ast oder wird irgendwie unpopulär oder so. Wie einfach wär's für dich dann zu sagen, okay, wir portieren das Ganze und machen das jetzt mit View zum Beispiel oder mit Vanilla JS?
Jonny
Ja, ich hab das tatsächlich gesucht, hab mir überlegt, kann es auch eine View Version geben, ein View Motion oder ein oder
Jan
da
Jonny
da schwirren ganz viele verschiedene Ideen rum. Ich ich würde sagen, wir sind sehr abhängig vom React Kontext oder alles, was wir bis jetzt aufgebaut haben, hängt vom React Kontext ab. Hier haben wir einige Hooks, die ganz im Zentrum von von stehen. Es gibt einen Hook namens. Das ist die momentane Zeit und basierend auf dem musst Du etwas rendern. Dann gibt es vielleicht noch so fünfzehn bis zwanzig weitere Komponenten, welche ja es noch erlauben, Audio einzubinden oder eine ein Element in in der in der Timeline nach links oder nach rechts zu verschieben mit mit Coden. Das ist dann alles von diesem Kontext abhängig. Das geht bestimmt alles auch mit View. Ich hab das dann probiert und das Ganze ging dann nicht so. Ich glaube, wenn man React und View in in der gleichen Monoreepo hat, dann gibt es dann diverse type Script Konflikte. So, das hat es mir dann schon schwer gemacht. Und ich habe auch gemerkt, ich muss eigentlich diesen React Kontext von Grund auf neu bauen? Also das dacht ich mir, müsst ich machen, basierend auf meinem Wissen. Vielleicht gibt's da schon bessere WG. Ja, schlussendlich hab ich dann dieses Projekt abgebrochen und mittlerweile bieten wir ja, eine Möglichkeit, ein Viewprojekt einzubetten. Dann muss man das Video mit schreiben, aber alles drumherum kann View bleiben.
Jan
Was können wir denn den Leuten da draußen mitgeben, die vielleicht gerne mal Remotion probieren würden, aber noch nie mit react gearbeitet haben oder auch noch nie mit Animationen in react gearbeitet haben? Wie viel React muss man tatsächlich können, verstehen et cetera und wie viel ist eigentlich nur remote on top?
Jonny
Ich denke, einfache Beispiele sind sind sehr intuitiv. Sagen wir, Du willst einfach 'n Video haben, wo Du ja zwei zwei Videos, die Du aufgenommen hast, will willst zusammenfügen. Dann ist das ein einfaches React Markup, dann würde sagen Serious und dann gibst Du 'n Videotag und dann gibst Du die die Videosource an, dann machst Du unten dran das das den nächsten Videotag. Das ist eigentlich so wie wie HTML Markup, die die einfachen Sachen. Und ich denke, das sollte für viele Webentwickler zumindest relativ intuitiv sein. Natürlich gibt es dann ja Möglichkeiten, weitere React Features auszunutzen wie wie Use Effekt, USt State und die noch schwierigeren Hooks. Und ja, da dann ist es natürlich gut, wenn wenn man das schon einmal benutzt hat. Aber wir wir versuchen auch, das Ganze in in Componce zu abstrahieren, so weit wie es geht und bereitzustellen, sodass man Frauen nur nach Mark-up schreiben muss. Und und ich denke, das Mark-up, das sieht ja eigentlich mehr oder weniger so aus wie wie HTML. Und das ist jetzt auch nicht so verschieden zwischen Views, Welte und
Jan
React. Mhm. Jetzt hast Du ja schon angesprochen, dass Remotion herum eigentlich so ganz viele andere Projekte auch noch entstanden sind oder dass sie aus vielen Teilen zusammensetzt. Ein Teil, der mich besonders beeindruckt hat, muss ich sagen, ist das Studio. Was ist so mein Verständnis davon oder mein Anwendungsfall davon ist, es ist im Prinzip eine benutzerfreundliche Oberfläche, die es nicht technischen Menschen erlaubt, Promotion Videos, die man selber schon programmiert hat, im Prinzip zu befüllen, zu parametrisieren und dann selbstständig eben halt auch son Video zu exportieren und dann das sonst so hinten zu posten oder was auch immer damit damit anzufangen. Und das war für uns eben auch son son ganz besonderer Moment zu sagen, na ja, also nicht nur können wir unser Video hier so selber programmieren, aber wir enablen quasi auch alle anderen im Team, Benutzer davon sozusagen zu werden, ja? Also wir haben hier einmal angelegt, wie sone Bildunterschrift funktionieren soll. Wir haben son Platzhalter für das Speakerinporträt eingefügt und jetzt kann aber jeder hier mit zwei Klicks das Bild aussuchen und die Podcastepisode hochladen und so weiter und so fort. Und viel von der Magic passiert dann im Prinzip im Hintergrund. Wie wie macht ihr euch da so Also das ja im Prinzip 'n ganz eigenständiges Produkt noch mal, ja. Wie ist das für euch quasi nicht nur über Remotion nachzudenken, sondern auch über Remotion als als Produkt und das zugänglicher zu machen, an an Endkonsumenten im Prinzip auch zu denken und nicht nur an Entwicklerinnen da draußen. Wie wie kam's zu der Idee und was waren da vielleicht so die ein, zwei Challenges, als ihr das Studio umgesetzt habt?
Jonny
Also früher, ich glaub, so zwanzig zweiundzwanzig herum hieß das noch Remotion Preview und der ursprüngliche Gedanke davon war war das wirklich nur, dass Du ja eine Vorschau sehen kannst von von deinem Video. Aber Du hast recht und mittlerweile haben wir es auch umbenannt, denn wir wollten ein bisschen weitere denken. Viele Leute sind gekommen und ja, haben vielleicht nicht so explizit gefragt, aber aber es hat sich herausgestellt, eine große Frage ist, wie können Nichtentwickler ein Video generieren? Tolles, jetzt kann man das Video, jetzt kann man ein Video mit mit Code schreiben. Aber sobald man ja andere Leute in einem Team hat, zum Beispiel Videojournalisten, dann ist das dann schon ein bisschen mühsam, wenn man denen sagen muss, okay, jetzt zum diese Grafik zu exportieren, musst Du einen machen und ein NPM Install. Das ist einfach nicht gängig und daran können wir auch nicht viel ändern. Und etwa zur gleichen Zeit kam eine sehr tolle JavaScript, ja, auf auf die Welt oder oder wurde populär, die hieß. Mit kann man type Skript Daten validieren. Man kann Schemas festlegen. Man kann sagen zum Beispiel, okay, dieses type Skript Objekt sollte ein Array sein von mehreren Objekten und jedes Objekt hat zwei Properties. Eines davon muss ein String sein, eines eine Zahl. Und ich habe das angefangen zu benutzen. Und ich dachte mir, okay, diese ist so gut und ist ein großer Sprung vorwärts gegenüber allen anderen, welche Schemata in kreieren können. Und deshalb haben wir das gemacht, was wir eigentlich sonst nicht machen. Wir haben gesagt, okay, dieses, das wird tiefer mit verbunden. Normalerweise versuchen wir auf De Penenties zu verzichten. Und was wir damit machen konnten, ist, Du kannst ein Schema in typecript definieren. Du kannst jedem sagen, okay, ich will ein Array von von Szenen. Jede Szene kann zum Beispiel sein, ein ein Video, ein Bild, ein ein Audio. Oder Du kannst eine beliebige Datenstruktur definieren fast. Und in der rechten Seite vom Studio hast Du dann ja, wir können auch passieren auf diesem Schema ein Formular anzeigen. Und die Idee ist, dass man dieses Studio deploying kann, auch ins Internet und dass dann Leute, zum Beispiel Videojournalisten einfach diese Seite besuchen können, das Formular ausfüllen können und dann auf klicken. Und sie haben die Grafik, die sie gerade benötigen, erstellt im Studio, ohne eine Software herunterladen zu müssen. Und natürlich, das Template wurde mit Code erstellt. Also ich ich denke, das das ist die Idee. Und ich finde, wir haben sie noch nicht genug weit getrieben. Jetzt man muss das auf einen WPS deployen und ich fänd es viel cooler, wenn man das mit in einer Rendering API oder mit mit einer Lambdafunktion verbinden könnte und dieser Prozess noch smoother wäre, aber das ist eine Richtung, in die wir gehen wollen.
Jan
Das ist ja eigentlich noch eine sehr andere Welt versus die, in Anführungszeichen, reguläre Webentwicklung, aus der vielleicht der ein oder andere React Entwickler ja kommt. Wenn Du dich jetzt auf einmal damit beschäftigen musst, na ja, also wenn dieses Video programmiert ist und hast ja deine deine React Komponenten und die wissen genau, wie sie sich zu welchem Frame und in welcher Sekunde irgendwie verhalten müssen. Aber am Ende, da ja noch ein fertiges Video draus zu machen, ja, da da muss irgendwie 'n Encoder ran, da brauchst Du Containerformate und musst dich mit Farbprofilen und Qualität und was weiß ich nicht alles beschäftigen, War so dieses ganze Videoumfeld 'n Umfeld, in dem ihr euch schon oder Du dich schon vorher auskanntest oder wie hast Du dich da reingearbeitet?
Jonny
Ja, ich hatte hier wirklich praktisch keine Ahnung und hätte ich gewusst, wie kompliziert das alles ist, hätte ich das Projekt vielleicht nicht angefangen. Deshalb muss ich sagen, es war fast ein Vorteil, dass ich einfach keine Ahnung hatte von Video. Wusste, okay, mit diesem FFMFM per Command kann man Bilder in eine Empirführung umwandeln. Wie schwierig kann das sein?
Jan
Ja, so weit war ich auch. Und dann hab ich meine Videos angefangen zu posten und dann war das Farbprofil schief und es sah nicht mehr so aus wie in der Ja, mhm.
Jonny
Ja, ein Riesenproblem, aber ja, dann Leute beschweren sich natürlich auch, weil ich nicht weit genug gedacht habe und das hat mich dazu bewegt, mich darin zu vertiefen. Und ich würde sagen, ich bin das jetzt alles am Aufholen und Aufrollen. Wir haben mittlerweile sogar, die wirklich tief gehen, die ein ein ganzes Video in einem binären Format und dir die die Informationen nach Farbprofile extrahieren können, die Du dann mit neuen Browser APIs wie Webcodex verbinden kannst und damit sogar Videokonvertierung im Browser machen kannst. Und hier unterstützen wir auch schon mehrere Container Formate und ich denke, das ist cool, weil Entwickler normalerweise mit den keine so gute Möglichkeiten haben, im Browser diese Videooperationen durchzuführen. Man hat ja eigentlich 'n Videotag in in HTML fünf, denn den kann man Mountain und dann toll kann man abfragen, wie groß das Video ist, aber die Anzahl Unterstützerformate und Sachen, die man damit machen kann, ist sehr limitiert. Und dann gibt es noch FEMPAG, welches man auch im Browser laufen kann. Und ja, der Nachteil ist, man muss es zu webasembly compilieren. Das ist dann etwa elf Megabyte, was man natürlich nicht so schnell einfach auf eine Seite klatscht, zum ein paar Informationen daraus zu extrahieren. Und leider, wenn man das zu Web Assembly kompiliert, dann unterstützt man auch alle Optimierungen für zum Beispiel ARM oder x-a-tics, weil dieses Web Assembly ja generisch sein muss und jeden Browser laufen. Man kann nicht auf die. Und ich glaub, ich hab jetzt alle verwirrt. Also das diese neuen, die sind nicht das ursprüngliche Framework Framework Framework. Wir machen wir machen das auch unter dem Namen, aber es sind eigentlich neue, Libraries, die Entwickler, die mit Video zu tun haben, noch mehr Möglichkeiten geben, etwas mit Videos zu machen. Halt eben zum Beispiel herauszufinden, hey, welches Fahrprofil hat dieses Video? Und ich kann das im Browser machen, ohne dass ich jetzt eine fette importieren muss. Und ja, dafür hab ich einige Passwörter geschrieben, die das ganze binäre Format auseinandernehmen und dir diese Informationen geben können. Und damit habe zumindest ich schon viel dazugelernt und versuch natürlich, das auch alles in Form von APIs weiterzugeben.
Jan
Das heißt, für alle da draußen, die sich jetzt fragen, wo Promotion eigentlich läuft, also natürlich ist die die Webanwendung oder Studio ist auch eine Webanwendung, was im im Browser läuft. Und Promotion per se spielt ja auch erst mal sich im Browserkontext ab. Aber wo wird denn jetzt tatsächlich das Encoding von 'nem Video stattfinden? Macht ihr das mit mit Web Assembly im im Browserkontext? Ist das was, was zwingend ein irgendwie geartetes Backend voraussetzt oder was was muss ich mitbringen sozusagen, das zum Laufenden zu bringen?
Jonny
Seit Anfang an funktioniert es so, dass während dem Rendering, das musst Du von node j s ausstatten.
Jan
Also aus der Kommandozeile heraus?
Jonny
Ja, ja. Mhm. Entweder von ein von der Kommandozeile aus oder von einem No JS Skript aus. Dort startest Du 'n Render, dann wird ein Chrome Browser gesppawnt. Die einzelnen Frames werden gescreenshotet und am Schluss geht es zu FMPEG, wo das Video wird. Also es sind nach zwei Stufen, das Rendering der Frames und das. Nun, es stimmt, es wäre megatoll, wenn wir das alles im Browser machen könnten, weil Emotion ja auch eine React Library ist. Und im Moment, Du kannst deine Live Preview anzeigen, aber sobald Du das Video als MP4 exportieren willst, dann brauchst Du node j s und das ist eigentlich sehr schade und das müssen wir uns eingestehen, dass ja, dass halt erst vom Kompliziertesten ist, sobald Du noch einen extra Server dafür brauchst. Nun dieses der Frames in ein Video, das denk ich, für das könnten wir eine eine Lösung finden und auch irgendwie das Audioprocessing, dass wir das alles im Browser machen. Vor allem mit dieser Research, die ich seit Kurzem betreibe mit Web Codecs, bin ich mir sicher, dass wir hier in diversen Formaten ein Video im Browser erstellen können. Das Problem ist, dass man nicht vom Browser raus einen Screenshot von der eigenen Seite machen kann. Also ich kann jetzt nicht einen Markup rendern und dann sagen, okay, mach das in ein Bild. Und das ist der ja, das das große Problem, dass wir hoffen, dass dass es noch einmal gelöst wird. Also ich weiß, dass das Google Chrome Team in den letzten Monaten daran arbeitet, dass man einfach ein eine DOMNode, ein einen DOMN Knoten ins Canvas rendern kann und dann diverse Shader darauf machen kann. Und und somit könnten wir das eigentlich komplett in den Browser bringen. Deshalb hab ich die auch schon mal gefragt, hey, kommt das? Das wäre sensationell. Und ich ich habe nicht den letzten Stand, aber wenn es kommen würde, dann könnten wir alles im Browser machen und sobald es möglich ist, werden wir alles daran setzen, das alles im Browser zu machen. Und ich glaube, das wäre das wäre so crazy.
Jan
Wenn ihr die einzelnen Frames rendert, habt ihr da irgendeine Art von Parallelisierung am Laufen? Weil das war für mich immer das größte Bottleneck. Na, Du hast 'n zwei Minuten Video, das sind irgendwie hunderte, tausende Frames und dann dauert's halt einfach. Weil also auch wenn dieser Screenshotprozess halt irgendwie relativ schnell ist, aber es muss ja jeder einzelne Frame irgendwie erst mal angezeigt, gerendert, gescreenshotet, nächster. So. Und im Prinzip dacht ich mir eher, als ich mir Remotion angeguckt hab, na ja, wenn alles nur eine Komponente ist, könnt ich ja im Prinzip in in zwei virtuellen Browsern mir die Frames aufteilen und dann wär ich doppelt so schnell und hätte das größte Bottleneck irgendwie ausm Weg geschafft.
Jonny
Ja, definitiv, das haben wir. Im Moment ist der Default, dass es die Hälfte deiner CPU Kerne nimmt, also die Anzahl der der CPU Kerne. Wir teilen das durch zwei. Ich hab ein acht, also nehm ich, ist das dann vier und dann öffne ich vier Browser Tabs. Dann mach ich viermal parallel parallel die die Screenshots. Und das funktioniert wirklich super und somit kann man auch ein Video durchaus schneller rendern, als es lang ist. Einige Leute werden dadurch verwirrt. Sie sie haben in der Preview, sie sagen sie, okay, ich lade ein zufälliges Bild, Ich renre eins von fünf Bildern. Und das funktioniert dann in der Preview, aber sobald Sie es rendern, sehen Sie ganz viele Bilder, die sich durchspielen, weil halt das Video viermal dann aufgemacht wird und jedes Mal ein anderes Bild kommt. Und allein schon das ist ja, war war viel Arbeit, die API so zu machen, dass Leute nicht darauf hereinfallen sozusagen halt, die nach Warnungen geben, Dokumentation schreiben und es ihnen beizubringen, welche Regeln sie zu befolgen haben, dass es am Schluss nicht so ein ein Flickaring im Video gibt.
Jan
Habt ihr euch schon mal überlegt, irgend eine Logik einzubauen, die verhindert, dass ich überhaupt jeden Frame rendern muss? Ich hatte das auch mal versucht zu gucken, hat sich von Frame zehn auf Frame elf überhaupt irgendwas getan oder kann ich quasi den Frame zehn, den ich schon mal erzeugt hab, weiterverwenden, solange bis quasi irgend eine Animation startet, sich irgendwas in dem Bild ändert et cetera et cetera, so Keyframes quasi im im Video Encoding, ne?
Jonny
Ja, sehr spannend. Also es gibt dann natürlich zwei Möglichkeiten, wie man das angehen könnte. Das Erste wäre, wir versuchen selber zu, ob sich etwas verändert hat oder wir bieten dem Developer einen Weg an, Remotion zu sagen, hey, in diesem Frame hat sich nichts verändert, mach jetzt nicht noch einmal einen Screenshot. Das Zweite, dass Entwickler hier remodción können und das nicht automatischally funktioniert, das denk ich, würde besser zu unserem Ansatz passen, dass halt wir eine möglichst hohe Flexibilität bieten wollen und eigentlich nichts, dass wir eigentlich keine Annahmen treffen, oder? Weil ich glaub, es wäre relativ schwierig, generell eine Annahme zu treffen, hey, hier hat sich nichts verändert. Es könnte sich der verändert haben, das das Markup, aber dann gibt's eben noch die CSS Animationen. Was, wenn Du ein Bild lädst und die gleiche URL gibt jedes Mal ein ein anderes Bild? Das wär zwar dumm, aber es könnte ja passieren. Wir können wir können uns nie ganz sicher sein, dass sich nichts verändert hat. Es gibt zu viele Faktoren, die einen Einfluss darauf haben, dass sich der visuelle Inhalt einer Webseite verändert.
Jan
Ja, ist richtig, ist richtig. Vielleicht macht das auch mehr Sinn, das in die Hände der Entwicklerinnen zu geben. Und vielleicht ist es auch am Ende einfach so, dass je je besser und performanter Emotion wird, der einzelne Frame halt am Ende gar nicht mehr wichtig ist. Weißt Du, der der Aufwand, den Du reinstecken müsstest, hier und da einen Frame im Rendering zu sparen, Wenn Du die Zeit und Energie lieber da reinsteckst, ein Rendering performanter zu machen, hast Du am Ende vielleicht genauso viel gewonnen für alle.
Jonny
Ja, stimmt. Und ich muss sagen, es ist auch eine eine sehr krasse Optimierung. Wenn man dann noch einen einen Code schreiben würde, der sagt, hey, dieser Frame ist der gleiche wie der vorherige. Ich glaube, das wäre dann schon eine sehr schwierig zu benutzende API und ich mir würde grade kein Use Case einfallen, wo wo man das benutzen würde. Deshalb haben wir das nicht und ja, es ist auch nicht so hoch auf unserer Prioritätenliste. Es gäbe sicher noch andere Sachen, die die wir schneller machen könnten.
Jan
Was was steht denn ganz oben auf eurer Prioritätenliste grade?
Jonny
Im Moment arbeite ich an an der und an Webcodex. Es gibt viele Probleme, die Nutzer haben, die wir nicht beheben können, ohne dass wir ein tieferes Verständnis von Videos haben und mehr Wege Informationen herauszufinden und die Bilder herauszufinden.
Jan
Was sind das für Probleme zum Beispiel?
Jonny
Okay, ich ich zähle ich zähle einige auf. Zum Beispiel, ich will nur einen Teil von einem Video rendern. Es gibt Leute, die haben so ein zwei Gigabyte Videofile, wollen und dann wollen sie das auf Lambda rendern. Das muss ich auch noch kurz erklären. Ist ein, also der spongt an einhundert Lambda Funktionen, alle rendern ein Prozent des Videos und am Schluss wird's zusammengefügt. Somit können wir das Rendering schneller machen. Aber wenn Du jetzt in diesem Video ein anderes Video einbetttest, welches zwei Gigabyte groß ist, dann muss jede Lambdafunktion das ganze zwei Gigabyte Video herunterladen im Moment. Deshalb auch diese Initiative, dass wir hoffentlich irgendwann nächstes Jahr erkennen können, hey, in diesem m p vier müssen wir nur diese Byte Range vom Video herunterzuladen, zum die Frames zu bekommen, die wir für diesen Tank brauchen. Also partiell ein Video herunterzuladen. Auch wenn man jetzt zum Beispiel ein Video hat, weil es mit HTTP Livestream HLS funktioniert, Dann FMPEG lädt im Moment auch das ganze Video herunter, obwohl es dort eigentlich wirklich nichts nötig wäre. Und ja, deshalb okay, lösen wir das Problem, schreiben wir etwas in in typecript. Okay, weitere Probleme. Du kannst zum Beispiel ein iPhone Video kannst Du in Google Chrome nur auf macOS abspielen. Und dann funktioniert das vielleicht in der Preview. Aber sobald Du es in Google Chrome auf Linux abspielst, dann fehlen dir ja, ich ich weiß nicht genau, aber das Video spielt dann nicht ab und Du kannst auch nicht die Größe und Breite vom Video herausfinden. Was passiert dann? Jemand will ein Video in machen, es auf Linux rendern und sagen, okay, zuerst muss ich herausfinden, wie groß das Input Video ist, damit ich das Output Video gleich groß und breit machen kann, geht auf Linux nicht. Aber wenn wir unseren typecript Videopartner nehmen, dann können wir es trotzdem herausfinden und dann die Frames nicht im Browser extrahieren, sondern im No JS Prozess via FFANPEG. Und ja, das ist alles superkompliziert, aber wir wollen eigentlich mal erreichen, dass man trotzdem einfach nur zum Beispiel die Videotags in sein Mark-up einfügen kann und dann das Bestmögliche daraus macht und es einfach funktioniert.
Jan
Cool. Ja, also es sind schon viel Grundlagen, mit denen man sich da so beschäftigen muss. Das ist ist schon sehr beeindruckend, was was da alles dazugehört, am Ende son 'n fertiges Produkt zu entwickeln. Was ich auch beeindruckend und unterhaltsam fand, muss ich sagen, war, dass ihr ja auch mit Remotion bei der Höhle der Löwen wart.
Jonny
Das stimmt.
Jan
Das ist mir so, also nicht, dass ich aktiv danach gesucht hätte, aber es ist mir so bei meiner Recherche zu dieser Folge über den Weg gekommen. Und ihr habt auch das Video netterweise in eurem Youtube Kanal ja auch veröffentlicht. Und ich muss sagen, ich war sehr dankbar für die Untertitel. Ich bin in die Folge reingegangen und dachte, na ja, es ist aus der Schweiz, aber ich werd's schon irgendwie verstehen. Und dann war ich sehr dankbar dafür, dass es untertitelt war. Aber wie Also es ist überhaupt das erste Mal, dass es mir begegnet ist, dass jemand versucht, mit mit soner blanken Software, Library Softwareprodukt Source Available dazu noch in in die Höhle der Löwen zu gehen, ja? Und mein Entwicklerherz hat sich natürlich gefreut, so yay, React auf der großen Bühne und so, voll voll cool. Aber wie wie war das für euch?
Jonny
Ja, das war wirklich verrückt. Ich ich denke auch, es gab niemanden zuvor, der so etwas gemacht hat, jetzt eine sehr technisch komplizierte oder sonst irgendein Programmier Framework im Fernsehen vorzustellen. Und okay, ich sage kurz, wie wie es passiert war. Also ich sage eben immer meinen Kollegen und allen, die ich begegne, ja, ich ich habe ein Startup, das ist das, was ich mach als Beruf. Und ich hab dann schnell gemerkt, dass diese Sendung wirklich sehr stark assoziiert ist mit, wenn man sagt, ich mach kein Star ab. Gab zwei, drei Leute, die gesagt haben, hey, Du musst in die Höhle der Löwen gehen. Und ich dachte mir zuerst, ja gut, das wird natürlich extrem schwierig, unser Produkt darin vorzustellen. Aber gleichzeitig wäre es megacool, die Chance zu haben, jetzt unserem ganzen Umfeld zeigen zu können, dass es uns gibt, dass Sie uns vielleicht mal zuhören, wenn wir es in einem ja, hoffentlich in einfach in einfachen Worten erklären, was wir machen.
Jan
Gab's da irgend eine Art von von Auswahlprozess? Weil ich stell mir jetzt vor, da bewerben sich ja bestimmt viele Start ups, ja? Und jetzt hat zwar euer Thema was mit mit Video zu tun, was ja schon mal son sehr visuelles Thema ist per se, aber natürlich vorne dran alles, also es eignet sich ja erst mal nicht so gut, das in soner Show zu zeigen. Weißt Du so mit, ja, wir programmieren hier unser Video und dann schauen wir dem Renderer zu, bis es irgendwie rausfällt am Ende und so. Das ist ja jetzt nicht ganz so das das TV tauglichste Thema eigentlich, oder? Wie wie hat da der Sender reagiert?
Jonny
Ja, ja, definitiv. Und das war alles suprimprofisiert. Also es war einfach reinzukommen, denn wir haben uns nicht mal beworben. Wir wurden nämlich gefragt, weil sehr kurzfristig ein anderes Start-up schon finanziert wurde. Und dann haben sie gesagt, okay, wir kommen nicht. Wir wissen nicht, wer das war, aber na gut. Und dann kam wirklich am Freitagmorgen ein Anruf von einer unserer Connections. Er hat gesagt, hey, wir sind die Höhle der Löwen. Freitagnachmittag haben wir 'n Vertrag unterschrieben. Am Samstagmorgen haben wir zum ersten Mal selber die Höhle der Löwen gesehen und haben gesehen, war das ist wirklich im Verein. Zwanzig Minuten Auftritt und Leute haben etwas mit Hand und Fuß etwas Begreifliches, etwas, was sie zeigen können und wir nicht. Und dann müssen wir bis Montagmorgen herausfinden,
Jan
wie
Jonny
wir das machen, weil dann war die Aufnahme. Dann gab es weitere Sachen, die kompliziert waren. Also wir durften kein Video zeigen in der Show. Das ging einfach technisch nicht. Und das wäre das Einzige, was noch gut gewesen wär, was noch machbar gemessen wäre, ein Video auf einem Monitor abzuspielen. Durften wir nicht. Und wir waren auf der Suche, wir waren gar nicht auf der Suche nach Investoren oder hatten jetzt nicht grade daran gedacht, also mussten wir uns noch ein bisschen ja, einen Pitch zurechtlegen, warum wir jetzt denn das Geld überhaupt brauchen. Und das ist dann alles nicht so gut rübergekommen, aber dennoch ein ein megatolles Erlebnis dieses Jahr.
Jan
Cool. Also ohne jetzt zu spoilern, aber also den Deal gab's nicht, das kann man ja vielleicht noch mal sagen, ja. Aber wenn ihr das Geld bekommen hättet, so, was was hättet ihr denn dann damit gemacht?
Jonny
Ja, also ohne jetzt zu sagen, ob wir das Geld jetzt haben oder oder nicht. Jedes Geld, das das wir haben, investieren wir ja, zu einhundert Prozent oder sogar noch mehr. Ist halt einfach so als als Start-up zurück in zum ja mehr mehr IPIs zu machen, diese ganzen Probleme zu lösen.
Jan
Ja, also da da das schon klar, aber heißt das für euch, ihr würdet quasi mehr Leute einstellen, mehr Entwickler, wachsen zu können oder heißt das, ihr müsstet vielleicht auch in in Infrastruktur investieren, so was als Rendering, als Service irgendwie mehr anbieten zu können? Was sind denn so die also businessmäßig die großen Blocker, die euch da quasi grade im Weg stehen?
Jonny
Zunächst einmal Remoteal Framework selber hat einen sehr großen Scope und ich glaube, hier bräuchte ich ein bisschen mehr Unterstützung, denn ich bin sozusagen der der einzige Entwickler. Also wir arbeiten schon auch viel mit Freelancern zusammen, die dann ein spezifisches Ding machen, aber niemand sonst ist angestellt und und macht die die Features. Und ich denke, das wäre der nächste Schritt, dass wir sonst jemand zumindest anstellen, der halt ja lernt, zu und zuerst einmal die schlimmsten Probleme uns hilft zu zu fixen. Eben eben uns mal auf diesen Stand zu bringen, dass alles ein einfach einfach funktioniert und und es intuitiv macht. Und dann ist es tatsächlich schon die Idee, der langfristige Plan, dass Also im Moment muss man Remotion einfach selber selber heißen, er bieten keinen Service an. Aber wenn es dann irgendwann mal die Remotion Cloud gäbe, wo man einfach sein sein Reccode, sein seine URL hinschickt und sagt, hey, ich möcht noch, ränder mir das Video mit diesen Parametern und wir uns darum dann kümmern, dass das alles schnell, distributed, sicher skalierbar für dich geändert wird mit einem API Call. Ich glaube, das wär das wäre noch mal ein großer Meilenstein und würde das Ganze noch einmal sehr vereinfachen. Also das wollen wir schon erreichen. Dafür bräuchten wir dann aber deutlich mehr Ressourcen, denn ja, im Moment geht alles auf die Maintenance und auf das Framework selber drauf.
Jan
Dann halten wir mal die Daumen gedrückt oder die Fingers cross oder was auch immer für Körperteile und hoffen, dass es für euch weiter gut läuft und ihr das zeitnah bald in die in die Tat umsetzen könnt. Wenn jetzt nach dieser Podcastfolge da draußen jemand Lust bekommen hat, das das mal auszuprobieren oder vielleicht auch schon irgendwie 'n konkreten Use Case im Sinn hat, weiß ich nicht, er will die den den Spotify Rapt Klon für sein eigenes Tool bauen und muss jetzt ganz viele Videos erzeugen. Wie kann denn da draußen der einfachste Einstieg gelingen, wenn jetzt jemand mit Emotion starten will? Was für was für Tricks und Tipps kannst Du da mitgeben?
Jonny
Ja, es gibt verschiedene Wege mit Emotion zu starten, welche wir auch alle gleich auf unsere Homepage tun, auf Punkt dev. Dort kann man zum Beispiel mit einem Template starten. Hier gibt es einige Templates, die eigentlich schon gemacht wurden und man dann echt noch die Daten oder die Farben austauschen kann oder man für seine eigene Zwecke adaptieren kann. Hier gibt's zum Beispiel eine ein Template für Codeanimationen, welches sehr populär im Moment auf Twitter ist oder für für Audiogramms. Da muss man eigentlich nur noch sein, vielleicht interessant für euch. Mhm. Da tut man eigentlich noch eine m p drei Datei rein und ein Punkt SRT Fail, aber bald wird es sogar wird das Template sogar eine eigene Transkribierungsfunktionalität haben. Also die Idee wäre, man tut ein MP3 rein und dann ist das Template up to date und dann kann man noch den React Code und das CSS updaten, damit es sein sein eigenes Teil hat. All das ist eine sehr einfache, ein einfacher Weg, zu brauchen. Dann gibt es noch Punkt Slash. Dort gibt es auch ein Tutorial, ja, wie man eine einfache Animation erstellt. Plus auf Punkt Slash Resources gibt es noch etwa fünfzig weitere Beispiele, Templates und Tutorials, die anzeigen, wie man etwas Bestimmtes erreichen kann. Und sonst, wenn man immer noch nicht weiß, wie man fortfahren soll, dann gibt's noch mehr Möglichkeiten, über fünfhundert Seiten an Dokumentation, wo man ein nach einem Stichwort suchen kann und dann hoffentlich ein Resultat findet. Wenn das nicht funktioniert, dann haben wir einen Discord Server mit über viertausend Mitgliedern und auch wir sind drin und montags bis freitags sind wir dort drin und antworten alle Fragen und wir helfen auch wirklich gern einsteigen.
Jan
Wunderbar. Das wär ja fast das perfekte Schlusswort gewesen, wenn es schon der Schluss vom Podcast gewesen wär. Aber wir haben ja noch unsere Kategorie der und auch die wollen wir euch ja heute nicht vorenthalten. Ich hab 'n Pick dabei, Johnny auch, aber weil Johnny schon so lange gesprochen hat, eben fang ich einfach mal ganz dreist an. Und mein Pick ist Last Breath. Das ist, ich glaub, ich hab's auch im Podcast schon mal an irgend 'ner anderen Stelle erwähnt. Also ich tauche gerne, so wenn wenn ich im Urlaub bin oder vielleicht auch mal hier in der Gegend irgendwo. Und the last Breath beschäftigt sich mit einem Tauchunfall, der sich vor einiger Zeit tatsächlich so ergeben hat. Und zwar geht es da zwei Tiefseetaucher, die zweitausendzwölf verunglückt sind in Hunderten Meter Tiefe und die Rettungsaktion drumherum. Ich will gar nicht so viel spoilern. Das wird jetzt grade neu verfilmt von, ich glaube, Netflix kommt zwanzig fünfundzwanzig in die Kinos mit Woody Harririson, auch cooler Schauspieler. Und wer die Story sich aber vorher schon mal geben will, kann die gleichnamige Doku, die auch last Breath heißt, jetzt schon schauen. Die ist von zwanzig achtzehn oder zwanzig neunzehn, Englische Dokumentation, auch mit Interviews mit allen Beteiligten und Originalaufnahmen aus diversen Überwachungs- und Bodycams und so was allem super-, superspannend. Ja, also wer gerne taucht, keine Angst vor engen Räumen und dunklen Tiefen hat und mal auf 'n bisschen Spannung steht, kann sich gerne last Breath noch einmal geben. Oder zweimal, wenn man die Doku und den Film gucken möchte. Wunderbar. Johnny, was hast Du dabei?
Jonny
Ja, wow, sehr cool. Du Du musst ja für jede Episode einen neuen Pick haben, das muss ja Ja. Superschwierig sein. Mir fällt es sogar schwer, nur einen einzigen zu haben, aber ich habe auch einen dabei. Das ist nämlich ein Gegenstand, den ich erst seit einigen Wochen benutze, aber dafür sehr regelmäßig. Und zwar hab ich seit Kurzem die Gewohnheit, jeden Tag schneid ich einen Apfel auf und bring auch den anderen Leuten hier im Büro. Das kommt kommt euch immer super an.
Jan
Das cool. Und
Jonny
zuerst hab ich das mit mit dem Messer gemacht, zuerst halbiert, dann geviertelt, dann dies das aus der Mitte rausgeschnitten, oben, unten rausschneiden. Dann hab ich dieses diesen Apfelschnittsschneider gefunden. Ah, was man so draufdrücken.
Jan
Ja, ja. Unten
Jonny
benutze ich hab jetzt jeden Tag, haben mir einen zweiten gekauft, auch einen für Zuhause. Den gibt es für zwei Euro auf T-Mo, aber kauft ihn natürlich nichts von dort, kauft ihn an einem guten Ort und dann einfach macht er's jeden Tag. Ich finde auch, der ist relativ sparsam. Also wenn, zuerst mal zehnmal schneller und ich finde auch, er schneidet gar nicht so viel vom nutzbaren vom essbaren Apfelfleisch ab gegenüber, wie ich ihn sonst schneiden würde. Also eine Das ist 'n Mördertipp. Gute Investitionen in Ja. In die Gesundheit und dass der Doktor nicht kommen muss.
Jan
Spart Zeit, bringt Vitamine und man macht sich bei den Kolleginnen noch beliebt. Also viel besser kann's ja
Jonny
gar nicht kommen eigentlich. Definitiv.
Jan
Wunderbar. Dann danke, Johnny für die Zeit. Danke, dass Du da warst. Es war sehr spannend, superinteressantes Thema. An alle Hörerinnen da draußen, danke, dass ihr euch die Zeit genommen habt. Wenn ihr Fragen, Feedback, Anregungen, Kritik habt, dann immer gerne an Podcast at Programmier Punkt Bar oder ihr schreibt uns auf Instagram, Twitter, LinkedIn, Blues sky, Masalon, wo auch immer ihr uns findet, Youtube. Wir lesen immer gerne alles mit und antworten überall, wo wir was finden. Und ansonsten sehen wir und hören wir uns hier in zwei Wochen bald zum nächsten Deep Dive hoffentlich wieder. Wunderbar. Danke, Johnny.
Jonny
Danke auch und vielleicht sehen wir uns ja irgendwo im Internet. Also ich wäre da.
Jan
Das ist wieder wahr. Bis bald. Tschau, tschau.

Speaker Info

  • Jonny Burger

    Jonny ist der Chief Hacker bei Remotion, einem Framework, mit dem man Videos programmatisch mit React erstellen kann. Er hat sich zum Ziel gesetzt, Webentwickler:innen den Umgang mit Videos zu erleichtern und ihnen zu erlauben, ihren eigenen Videoeditor zu bauen. Nebenbei versucht er, unterhaltsame und lehrreiche Videos zu machen, die er zum Beispiel auf X oder auf seinem YouTube-Kanal postet.

    Mehr Infos

Verwandte Podcasts

  • News Asset 48

    News 48/24: Tate ohne Security // Google ohne Chrome // JavaScript ohne Trademark // App Store mit Awards // CSS mit Logo

  • News Asset 44

    News 44/24: JavaScript Features // Flutter Fork // GitHub Universe // Internet Archive // Neue Macs

  • 155 Ig Fb Luca Casonato

    Deep Dive 156 – JSR mit Luca Casonato

  • News Asset 32

    News 32/24: Google Monopol(y) // porffor // TypeScript in Node // Imports in Deno // Stack Overflow Developer Survey

  • News Asset 24

    News 24/24: WWDC24 // Firebase App Hosting & Data Connect // TypeScript 5.5 // Gravatar // FlutterDay

  • News Asset 18

    News 18/24: Wellness // TypeScript 5.5 // Github Copilot Workspace // Safari Preview // DMA // DOS4.0

  • News Asset 16

    News 16/24: Kuto // Google Cloud Next // Coordinated Lunar Time // ECMAScript & Signals

  • News Asset 10

    News 10/24: PWAs & iOS 17.4 // JSR // Pingora & freenginx // WSA & Windows 11

  • News Asset46

    News 46/23: Play Store Updates // TypeScript 5.3 // Angular 17 // Ruby on Rails: The Documentary

  • 134 Ig Fb Alexander Lichter

    Deep Dive 134 – The State of Nuxt

Feedback