"Serverless" und "Function as a Service" mit Docker und OpenFaaS

"Serverless" und "Functions as a Service" sind Hype – insbesondere, da Unternehmen wie Amazon mit AWS Lambda, Google mit Google Functions und Microsoft mit Azure Functions aufwarten. Aber wie kann die eigene, bereits bestehende Infrastruktur dafür genutzt werden?

Mit OpenFaaS steht ein flexibles Framework zur Verfügung, um auf einer bestehenden Docker-Infrastruktur, sei es auf dem eigenen Laptop oder im Rechenzentrum, "Functions as a Service" zu betreiben und damit auf den "Serverless"-Zug aufzusteigen.

Der Vortrag zeigt auf, welche Möglichkeiten OpenFaaS eröffnet und welche Vor- und Nachteile sich gegenüber den "Serverless"-Angeboten aus der Cloud ergeben.

Vorkenntnisse

* Grundkenntnisse zu Docker sind willkommen, aber nicht zwingend notwendig.

Lernziele

* Nach dieser Session wissen die Teilnehmer wie sie mit OpenFaaS in die FaaS-Welt einsteigen können.

 

Agenda

ab 8.30 Uhr Registrierung und Begrüßungskaffee

9.30 Uhr Beginn

Intro

Machine Learning

  • Was ist Machine Learning?
  • Der typische ML Workflow
  • Was sind neuronale Netze?
  • Jupyter Lab mit Python
  • Eine Einführung in TensorFlow
  • Keras als High-Level API für TensorFlow

Praxisteil: Deep Learning Modelle mit Keras

  • Datengeneratoren
  • Datasets explorativ analysieren
  • Hold-Out vs. Cross Validation

11.00 - 11.15 Uhr: Kaffeepause

Praxisteil: Deep Learning Modelle mit Keras

  • Feed-Forward Netzarchitektur
  • Convolutional Neural Networks als Deep Learning Ansatz
  • Evaluation und Visualisierung des Modells

12.30 - 13.30 Uhr: Mittagspause

Pipelines mit Luigi

  • Anforderungen an produktive Modelle
  • Übersicht über Luigi und dessen Module
  • Bau eines Beispiel-Workflows

Praxisteil: Den Keras-Workflow mit Luigi implementieren

  • Anforderungen an produktive Modelle
  • Übersicht über Luigi und dessen Module
  • Bau eines Beispiel-Workflows

15.30 - 15.45 Uhr: Kaffeepause

Praxisteil: TensorFlow-Serving

  • Übersicht über TensorFlow-Serving
  • Ladestrategien konfigurieren
  • Deployment des Modells

ca. 17.00 Uhr: Ende

 

Referent

 

Halil-Cem Gürsoy Halil-Cem Gürsoy ist Principal Software Architect bei der adesso AG (http://www.adesso.de). Sein Fokus liegt auf großen, verteilten Java Applikationen – wobei er zugeben muss, in den letzten Jahren mehr Zeilen produktiven Infrastrukturcode in Python, Ruby und Golang implementiert zu haben. Dr. Halil-Cem Gürsoy beschäftigt sich schwerpunktmäßig mit den Herausforderungen der Persistenz in solchen verteilten Applikationen.

Platin-Sponsor

Gold-Sponsor

Silber-Sponsoren


CLC-Newsletter

Sie möchten über die Continuous Lifecycle
auf dem Laufenden gehalten werden?

 

Anmelden