Offizielle Docker Images – ein Erfahrungsbericht

Nutzer von Softwareprojekten erwarten, dass ihnen Container zur Verfügung gestellt werden. Ist doch ganz simpel – einfach auf Docker Hub hochladen und alles läuft. Leider ist in Wirklichkeit nie alles so einfach, wie es zunächst klingt.

Dieser Vortrag gibt einen Überblick über die Entwicklung, die hinter Elastics offiziellen Docker-Containern steckt. Erörtert werden im Speziellen Überlegungen und Probleme mit Registries, was es beim gewählten Base Image zu beachten gibt, was in einem Release(-Tag) steckt und wie man mit Orchestrierung umgehen kann.

Vorkenntnisse

* Kenntnisse von Containern und Registries (Docker Hub, aber auch eigene Registries).
* Kenntnisse im Umgang mit Images – als Anbieter oder auch als Benutzer.

Lernziele

* Docker Hub: Was "offiziell" wirklich bedeutet und warum wir unsere eigene Registry verwenden.
* Base Image: Verwende einfach Alpine – es ist leichtgewichtig und optimiert für die Verwendung in Containern. (Haben wir probiert und die Entscheidung anschließend wieder überdacht ...)
* Release Policy: Was steckt tatsächlich in einem Tag und wie veröffentlichen wir unsere Images?
* Support: Kombiniere zwei komplexe Systeme wie Elasticsearch und Docker – und man wird eine Menge Supportanfragen bekommen.
* Orchestrierung: Unser aktueller Ansatz für Orchestrierung und wie wir Feature-Anfragen behandeln.

 

Agenda

ab 8.30 Uhr Registrierung und Begrüßungskaffee

9.30 Uhr Beginn

Intro

Machine Learning

  • Was ist Machine Learning?
  • Der typische ML Workflow
  • Was sind neuronale Netze?
  • Jupyter Lab mit Python
  • Eine Einführung in TensorFlow
  • Keras als High-Level API für TensorFlow

Praxisteil: Deep Learning Modelle mit Keras

  • Datengeneratoren
  • Datasets explorativ analysieren
  • Hold-Out vs. Cross Validation

11.00 - 11.15 Uhr: Kaffeepause

Praxisteil: Deep Learning Modelle mit Keras

  • Feed-Forward Netzarchitektur
  • Convolutional Neural Networks als Deep Learning Ansatz
  • Evaluation und Visualisierung des Modells

12.30 - 13.30 Uhr: Mittagspause

Pipelines mit Luigi

  • Anforderungen an produktive Modelle
  • Übersicht über Luigi und dessen Module
  • Bau eines Beispiel-Workflows

Praxisteil: Den Keras-Workflow mit Luigi implementieren

  • Anforderungen an produktive Modelle
  • Übersicht über Luigi und dessen Module
  • Bau eines Beispiel-Workflows

15.30 - 15.45 Uhr: Kaffeepause

Praxisteil: TensorFlow-Serving

  • Übersicht über TensorFlow-Serving
  • Ladestrategien konfigurieren
  • Deployment des Modells

ca. 17.00 Uhr: Ende

 

Referent

 

Philipp Krenn Philipp Krenn ist Teil des Infrastructure-Teams und Developer Advocate bei Elastic und spricht regelmäßig über Volltextsuche, Datenbanken, Infrastrukturthemen und Sicherheit. Außerdem organisiert er mehrere Meetups in Wien.

Platin-Sponsor

Gold-Sponsor

Silber-Sponsoren


CLC-Newsletter

Sie möchten über die Continuous Lifecycle
auf dem Laufenden gehalten werden?

 

Anmelden