Knative mit Dr. Roland Huß
- // Podcast
- // Deep Dive 50
Shownotes
Serverlose Applikationen ganz easy auf nur einer Plattform einrichten, bereitstellen und verwalten? Mit Knative geht das, sagt Dr. Roland Huß, unser Gast in Folge 50!
Knative wurde als Open-Source-Projekt gestartet. Heute arbeitet daran neben Weiteren auch Red Hat – ein Anbieter von Open Source-IT-Lösungen für Unternehmen. Wir haben Dr. Roland Huß, Principal Software Engineer bei Red Hat, eingeladen um mit uns die Plattform genauer unter die Lupe zu nehmen. Wenn ihr häufig mit Kubernetes in Kontakt kommt, lohnt sich definitiv ein Blick in Knative! Direkt zu Beginn der Folge erläutern wir, worin sich die serverlose Variante und Kubernetes unterscheiden. Besonders hervorhebenswert ist das Server-Autoscaling, mit dem http-Requests antizipiert und Serverkosten so effizient reduziert werden können. Doch die Plattform bietet weitere Vorteile, die wir zusammen mit unserem Gast erörtern!
Solltet ihr neugierig geworden sein, schaut doch gleich auf GitHub vorbei und erfahrt mehr über die Arbeitsweise mit Knative, indem ihr bis zum Schluss dran bleibt!
Timecodes:
(00:28) Knative und Kubernetes – Was ist das?
(03:13) Unterschied zwischen Serverless (Knative) zu Kubernetes
(04:55) Null Skalierung und cold start
(07:30) Wie kann ich Knative hosten? Was ist Istio?
(10:30) Skalierung – HTTP-Request-basiert und Panic Mode
(13:15) Knative Eventing
(15:44) Autoscaling: EventSources auf Null skalieren – Projekt Keda von Microsoft
(18:48) Konfiguration von Services
(21:45) Koexistenz von Knative- & Kubernetes-Services auf einem Cluster
(23:45) Core Benefits Knative
(25:20) Was ist das Side Car Pattern?
(29:50) Knative client – kn cli
(31:30) Verbreitung von Knative
(35:00) Was ist die einfachste Möglichkeit auf Knatvie zu deployen? (Knative Build - Tekton)
(43:45) Arbeitsweise, Governance Modell und Organisation von Knative
(55:40) Pick of the Day