Helm: Erzeuge fazinierende Containersysteme mit Kubernetes

Helm ist ein Paketmanager für Kubernetes, der die Installation und Verwaltung von Kubernetes-Manifesten vereinfacht. Mit Helm können verschiedene Versionen der Anwendung als Releases umgesetzt werden. Das Helm-Ökosystem bietet viele Funktionen zur Umsetzung komplexer nativer Cloud-Containersysteme. Serverless- oder Microservice-Architekturen erfordern viele Komponenten, die mit Charts beschrieben und geteilt werden.

In diesem Vortrag werden die Grundlagen von Helm erklärt und es wird gezeigt, wie mit kontinuierlicher Integration eine Release-Automatisierung für Systeme gelingt. Mit Hilfe von Helm entsteht schnell ein Containersystem auf der Basis von Kubernetes. Der eigene Anwendungsstack kann frei gestaltet und jederzeit verändert werden.

Vorkenntnisse

* Grundlegendes Verständnis von Kubernetes und Docker
* Grundlegendes Kenntnisse zu Microservices und Cloud

Lernziele

* Überblick über das Ökosystem des Packagemanager Helm
* Gestaltung eines Continuous Delivery Prozess für Kubernetes
* Ideen zur Gestaltung eines eigenen Anwendungsstacks auf der Basis von Kubernetes

 

Agenda

ab 8.30 Uhr Registrierung und Begrüßungskaffee

9.30 Uhr Beginn

Intro

Machine Learning

  • Was ist Machine Learning?
  • Der typische ML Workflow
  • Was sind neuronale Netze?
  • Jupyter Lab mit Python
  • Eine Einführung in TensorFlow
  • Keras als High-Level API für TensorFlow

Praxisteil: Deep Learning Modelle mit Keras

  • Datengeneratoren
  • Datasets explorativ analysieren
  • Hold-Out vs. Cross Validation

11.00 - 11.15 Uhr: Kaffeepause

Praxisteil: Deep Learning Modelle mit Keras

  • Feed-Forward Netzarchitektur
  • Convolutional Neural Networks als Deep Learning Ansatz
  • Evaluation und Visualisierung des Modells

12.30 - 13.30 Uhr: Mittagspause

Pipelines mit Luigi

  • Anforderungen an produktive Modelle
  • Übersicht über Luigi und dessen Module
  • Bau eines Beispiel-Workflows

Praxisteil: Den Keras-Workflow mit Luigi implementieren

  • Anforderungen an produktive Modelle
  • Übersicht über Luigi und dessen Module
  • Bau eines Beispiel-Workflows

15.30 - 15.45 Uhr: Kaffeepause

Praxisteil: TensorFlow-Serving

  • Übersicht über TensorFlow-Serving
  • Ladestrategien konfigurieren
  • Deployment des Modells

ca. 17.00 Uhr: Ende

 

Referent

 

Peter Rossbach Peter Rossbach ist Gründer der bee42, System Architect, DevOps Advokat, Cloud Native Engineer, Apache Member, Apache Tomcat Committer und Infracoder und kann dementsprechend auf eine langjährige und bemerkenswerte Erfahrung zurückgreifen. Mit seinen Fähigkeiten inspiriert er die bee42-Crew und verbessert Systeme mit Leidenschaft.

Platin-Sponsor

Gold-Sponsor

Silber-Sponsoren


CLC-Newsletter

Sie möchten über die Continuous Lifecycle
auf dem Laufenden gehalten werden?

 

Anmelden