Microservices und das Istio Service Mesh

Microservices-Architekturen sind verteilte Systeme, bei denen die Komponenten über Verbindungsnetzwerke kommunizieren. Dies ermöglicht eine hohe Flexibilität hinsichtlich der Entwicklung in unterschiedlichen Programmiersprachen. Allerdings ist es notwendig, Vorkehrungen für degradierte Services zu treffen.

Service Meshes wie Istio können eine gewaltige Hilfe sein, da das Mesh bereits Dienste wie Blackbox-Tracing und -Monitoring, Circuit Breaker, Retry-Logik bereitstellt, die dann vom Programmierer nicht mehr geliefert werden müssen.

In diesem Vortrag lernen Sie das Istio Service Mesh kennen, sehen es in Aktion und verstehen, wie die Observability der Applikation in so einem Umfeld funktionieren kann.

Vorkenntnisse

* Generell eine Idee über Microservices oder verteilte Systeme und Schwierigkeiten, die sich hieraus ergeben.

Lernziele

* Verständnis eines Service Mesh (Istio), dessen Features und daraus abgeleitet, wie sich die Anwendungsentwicklung nicht mehr um diese Dinge kümmern muss.
* Zusätzlich auch die Observability (Metrics, Tracing, etc.) einer Application im Service Mesh.

 

Agenda

ab 8.30 Uhr Registrierung und Begrüßungskaffee

9.30 Uhr Beginn

Intro

Machine Learning

  • Was ist Machine Learning?
  • Der typische ML Workflow
  • Was sind neuronale Netze?
  • Jupyter Lab mit Python
  • Eine Einführung in TensorFlow
  • Keras als High-Level API für TensorFlow

Praxisteil: Deep Learning Modelle mit Keras

  • Datengeneratoren
  • Datasets explorativ analysieren
  • Hold-Out vs. Cross Validation

11.00 - 11.15 Uhr: Kaffeepause

Praxisteil: Deep Learning Modelle mit Keras

  • Feed-Forward Netzarchitektur
  • Convolutional Neural Networks als Deep Learning Ansatz
  • Evaluation und Visualisierung des Modells

12.30 - 13.30 Uhr: Mittagspause

Pipelines mit Luigi

  • Anforderungen an produktive Modelle
  • Übersicht über Luigi und dessen Module
  • Bau eines Beispiel-Workflows

Praxisteil: Den Keras-Workflow mit Luigi implementieren

  • Anforderungen an produktive Modelle
  • Übersicht über Luigi und dessen Module
  • Bau eines Beispiel-Workflows

15.30 - 15.45 Uhr: Kaffeepause

Praxisteil: TensorFlow-Serving

  • Übersicht über TensorFlow-Serving
  • Ladestrategien konfigurieren
  • Deployment des Modells

ca. 17.00 Uhr: Ende

 

Referent

 

Heiko Rupp Heiko Rupp ist seit langer Zeit ein Open-Source-Enthusiast und arbeitet seit mehr als einem Jahrzehnt bei Red Hat im Bereich Middleware-Monitoring und -Management. Aktuell hilft er, die nächste Generation von Java-Microservices mit seiner Arbeit in Eclipse MicroProfile zu definieren. Parallel dazu arbeitet er an Kiali, einer Lösung zur Observability im Istio Service Mesh.

Platin-Sponsor

Gold-Sponsor

Silber-Sponsoren


CLC-Newsletter

Sie möchten über die Continuous Lifecycle
auf dem Laufenden gehalten werden?

 

Anmelden