Container-Orchestrierung mit Kubernetes

Neben einer Einführung in die grundlegenden Konzepte und Begriffe erhalten die Teilnehmer von Beginn an Einblick in die Kubernetes-Praxis. Sie lernen, ein lokales Kubernetes-Cluster zu installieren. Ist das Cluster installiert und konfiguriert, erstellen die Teilnehmer ihren ersten Applikations-Pod und stellen erste Dienste zur Verfügung.

Auf dieser Basis aufbauend werden fortgeschrittene Themen erarbeitet, wie beispielsweise die Realisierung von Lastenverteilung und Hochverfügbarkeit, sowie die Einbindung von persistentem (externem) Speicher.

Agenda
  • ab 10.00 Registrierung und Begrüßungskaffee

  • 11.00: Beginn

  • 12.30 - 13.30: Mittagspause

  • 15.00 - 15.15: Kaffeepause

  • 16.30 - 16.45: Kaffeepause

  • ca. 18 Uhr: Ende

Vorkenntnisse

* Grundverständnis von Containern und Clustern.

Lernziele

* Die Teilnehmer lernen den Aufbau und Betrieb eines Kubernetes-Clusters von der Pike auf.
* Fortgeschrittene Einsatzszenarien runden den Workshop ab.

 

Agenda

ab 8.30 Uhr Registrierung und Begrüßungskaffee

9.30 Uhr Beginn

Intro

Machine Learning

  • Was ist Machine Learning?
  • Der typische ML Workflow
  • Was sind neuronale Netze?
  • Jupyter Lab mit Python
  • Eine Einführung in TensorFlow
  • Keras als High-Level API für TensorFlow

Praxisteil: Deep Learning Modelle mit Keras

  • Datengeneratoren
  • Datasets explorativ analysieren
  • Hold-Out vs. Cross Validation

11.00 - 11.15 Uhr: Kaffeepause

Praxisteil: Deep Learning Modelle mit Keras

  • Feed-Forward Netzarchitektur
  • Convolutional Neural Networks als Deep Learning Ansatz
  • Evaluation und Visualisierung des Modells

12.30 - 13.30 Uhr: Mittagspause

Pipelines mit Luigi

  • Anforderungen an produktive Modelle
  • Übersicht über Luigi und dessen Module
  • Bau eines Beispiel-Workflows

Praxisteil: Den Keras-Workflow mit Luigi implementieren

  • Anforderungen an produktive Modelle
  • Übersicht über Luigi und dessen Module
  • Bau eines Beispiel-Workflows

15.30 - 15.45 Uhr: Kaffeepause

Praxisteil: TensorFlow-Serving

  • Übersicht über TensorFlow-Serving
  • Ladestrategien konfigurieren
  • Deployment des Modells

ca. 17.00 Uhr: Ende

 

Referent

 

Michael Müller Michael Müller ist Managing Director bei Container Solutions (DACH). Davor war er Head of IT and Cloud Innovation bei Swisscom Innovation. Mit seinem Team arbeitete er an Lösungen zu Container-Infrastrukturen und Orchestrierung, wie CoreOS, Kubernetes und Mesos und setzte DevOps-Tools wie Puppet ein. Zuvor arbeitete in verschiedenen Rollen von Operations Management bis Netzwerksicherheit in Firmen aus der Touristik, Internet-Service-Provider und Broadcasting. Sein Studium schloss er als BSc. in Computer Science an der Fachhochschule Furtwangen ab.

Platin-Sponsor

Gold-Sponsor

Silber-Sponsoren


CLC-Newsletter

Sie möchten über die Continuous Lifecycle
auf dem Laufenden gehalten werden?

 

Anmelden