Container vs. Serverless – The Good, The Bad & The Ugly

Container sind mittlerweile etabliert und sowas wie der "Industriestandard". Serverless ist der direkte Konkurrent und alle reden von "Cloud Native". Ist Serverless die nächste Evolutionsstufe von Containeern und löst diese bald wieder ab? Und wie passt Cloud Native in den Serverless-Kontext? Zudem gibt es zahlreiche Container-Frameworks, die sich ihrerseits wieder Serverless nennen. Ist dem wirklich so, oder muss ich dafür doch eine ganze Serverfarm betreiben?

In diesem Vortrag diskutieren wir kontrovers, stellen aber vielleicht auch Gemeinsamkeiten fest. Es geht nicht unbedingt darum, welche Technologie besser ist. Beide Ansätze haben ihre Vor- und Nachteile, und diese muss man kennen, um sie zielführend einsetzen zu können.

Vorkenntnisse

* Man sollte von Containern und Serverless schon mal gehört haben, aber es ist kein Spezialwissen notwendig.

Lernziele

* Vor- und Nachteile von Container- und Serverless-Umgebungen.
* Ausblick auf bzw. Zukunft von Container-/Serverless-Infrastrukturen.

 

Agenda

ab 8.30 Uhr Registrierung und Begrüßungskaffee

9.30 Uhr Beginn

Intro

Machine Learning

  • Was ist Machine Learning?
  • Der typische ML Workflow
  • Was sind neuronale Netze?
  • Jupyter Lab mit Python
  • Eine Einführung in TensorFlow
  • Keras als High-Level API für TensorFlow

Praxisteil: Deep Learning Modelle mit Keras

  • Datengeneratoren
  • Datasets explorativ analysieren
  • Hold-Out vs. Cross Validation

11.00 - 11.15 Uhr: Kaffeepause

Praxisteil: Deep Learning Modelle mit Keras

  • Feed-Forward Netzarchitektur
  • Convolutional Neural Networks als Deep Learning Ansatz
  • Evaluation und Visualisierung des Modells

12.30 - 13.30 Uhr: Mittagspause

Pipelines mit Luigi

  • Anforderungen an produktive Modelle
  • Übersicht über Luigi und dessen Module
  • Bau eines Beispiel-Workflows

Praxisteil: Den Keras-Workflow mit Luigi implementieren

  • Anforderungen an produktive Modelle
  • Übersicht über Luigi und dessen Module
  • Bau eines Beispiel-Workflows

15.30 - 15.45 Uhr: Kaffeepause

Praxisteil: TensorFlow-Serving

  • Übersicht über TensorFlow-Serving
  • Ladestrategien konfigurieren
  • Deployment des Modells

ca. 17.00 Uhr: Ende

 

Referent

 

Niko Köbler Niko Köbler macht irgendwas mit Computern, On-Premises, im Web und in der Cloud. Er ist Co-Lead der JUG Darmstadt, Sprecher auf internationalen Konferenzen und Autor des Buchs "Serverless Computing in der AWS Cloud".

Platin-Sponsor

Gold-Sponsor

Silber-Sponsoren


CLC-Newsletter

Sie möchten über die Continuous Lifecycle
auf dem Laufenden gehalten werden?

 

Anmelden