Automatisierte Deployments mit Kubernetes und Helm [Sponsored Talk]

Das Gute an Microservices ist, das sie vergleichsweise simpel sind, der Nachteil an Ihnen ist, dass man ganz schnell sehr viele von Ihnen verwalten muss.

Insbesondere an den automatisierten CI/CD Prozess stellt eine Vielzahl von Services Herausforderungen in Bezug auf Versionierung oder Rollbackfähigkeit. In der Docker/Kubernetes-Welt kann ein Service zudem aus mehreren voneinander abhängigen Artfefakten bestehen (Deployment, Service, ConfigMap). Helm charts helfen, die Komplexität, die durch eine hohe Anzahl deploybarer Artefakte entsteht in den Griff zu kriegen.

Der Vortrag geht kurz durch die Historie der Continuous Integration von lokalen Builds bis zu verteilten Pipelines im Kubernetes-Cluster und liefert Antworten, wie man die Komplexität klein hält, die eine hohe Anzahl deploybarer Artefakte mit sich bringt.

Vorkenntnisse

* Grundlagen in Microservice-Architektur
* Docker
* Kubernetes

Lernziele

* Automatisierte Deployments nach Kubernetes mittels Helm
* Aufbau der Deployment-Pipeline als Kette von Microservices
* Verringerung der Komplexität im Deployment mittels Helm charts

 

Agenda

ab 8.30 Uhr Registrierung und Begrüßungskaffee

9.30 Uhr Beginn

Intro

Machine Learning

  • Was ist Machine Learning?
  • Der typische ML Workflow
  • Was sind neuronale Netze?
  • Jupyter Lab mit Python
  • Eine Einführung in TensorFlow
  • Keras als High-Level API für TensorFlow

Praxisteil: Deep Learning Modelle mit Keras

  • Datengeneratoren
  • Datasets explorativ analysieren
  • Hold-Out vs. Cross Validation

11.00 - 11.15 Uhr: Kaffeepause

Praxisteil: Deep Learning Modelle mit Keras

  • Feed-Forward Netzarchitektur
  • Convolutional Neural Networks als Deep Learning Ansatz
  • Evaluation und Visualisierung des Modells

12.30 - 13.30 Uhr: Mittagspause

Pipelines mit Luigi

  • Anforderungen an produktive Modelle
  • Übersicht über Luigi und dessen Module
  • Bau eines Beispiel-Workflows

Praxisteil: Den Keras-Workflow mit Luigi implementieren

  • Anforderungen an produktive Modelle
  • Übersicht über Luigi und dessen Module
  • Bau eines Beispiel-Workflows

15.30 - 15.45 Uhr: Kaffeepause

Praxisteil: TensorFlow-Serving

  • Übersicht über TensorFlow-Serving
  • Ladestrategien konfigurieren
  • Deployment des Modells

ca. 17.00 Uhr: Ende

 

Referent

 

Olaf Eschenbruch Olaf Eschenbruch ist Senior Architekt und Berater bei der MT AG. Eine Schwerpunkte hat er in Entwicklung und Architektur, Agile Coaching sowie den DevOps Themen Automatisierung, Pipelines und Infrastruktur.

Platin-Sponsor

Gold-Sponsor

Silber-Sponsoren


CLC-Newsletter

Sie möchten über die Continuous Lifecycle
auf dem Laufenden gehalten werden?

 

Anmelden