Data Science und CI/CD

Die Einführung von Machine Learning und AI-Technologien stellt neue Herausforderungen an die IT, da sie neue Rollen, Artefakte und Workflows mit sich bringt. Aus diesem Grund wurden die Entwicklungsprozesse in diesem Bereich oft isoliert, was zu weiteren abgetrennten Silos mit üblichen Problemen der Übergabe führt und somit kontinuierliche Verbesserung erschwert.

In diesem Vortrag werden wir uns mit den Gemeinsamkeiten und Unterschieden zwischen dem Data Science Workflow und der "klassischen" Software-Delivery Pipeline befassen und wie man sie integriert. Außerdem werden wir uns mit Deployment-Pipelines befassen, um die Geschwindigkeit der Data Scientists zu erhöhen und sie zu befähigen, trainierte Modelle in die Produktion zu bringen.

Vorkenntnisse

* Grundlegendes Verständnis der Prinzipien von DevOps
* Grundlegendes CI/CD-Verständnis

Lernziele

* Erfahren Sie, wie Sie Data Science integrieren können.
* Lernen SIe, wie man CI/CD-Pipelines für Data-Science-Modelle baut.

 

Agenda

ab 8.30 Uhr Registrierung und Begrüßungskaffee

9.30 Uhr Beginn

Intro

Machine Learning

  • Was ist Machine Learning?
  • Der typische ML Workflow
  • Was sind neuronale Netze?
  • Jupyter Lab mit Python
  • Eine Einführung in TensorFlow
  • Keras als High-Level API für TensorFlow

Praxisteil: Deep Learning Modelle mit Keras

  • Datengeneratoren
  • Datasets explorativ analysieren
  • Hold-Out vs. Cross Validation

11.00 - 11.15 Uhr: Kaffeepause

Praxisteil: Deep Learning Modelle mit Keras

  • Feed-Forward Netzarchitektur
  • Convolutional Neural Networks als Deep Learning Ansatz
  • Evaluation und Visualisierung des Modells

12.30 - 13.30 Uhr: Mittagspause

Pipelines mit Luigi

  • Anforderungen an produktive Modelle
  • Übersicht über Luigi und dessen Module
  • Bau eines Beispiel-Workflows

Praxisteil: Den Keras-Workflow mit Luigi implementieren

  • Anforderungen an produktive Modelle
  • Übersicht über Luigi und dessen Module
  • Bau eines Beispiel-Workflows

15.30 - 15.45 Uhr: Kaffeepause

Praxisteil: TensorFlow-Serving

  • Übersicht über TensorFlow-Serving
  • Ladestrategien konfigurieren
  • Deployment des Modells

ca. 17.00 Uhr: Ende

 

Referenten

 

Jakob Karalus Jakob Karalus ist IT-Berater bei codecentric mit Fokus auf DevOps und Data Science. Sein Hauptinteresse ist es, mit spannenden und neuen Technologien rund um Orchestrierung, Automatisierung und Machine Learning/Data Science zu arbeiten.

Alexander Melnyk Alexander Melnyk realisiert als Cloud Native Developer skalierbare und robuste Systeme. Seine Schwerpunkte sind Cloud-Technologien, Serverless-Architekturen, DevOps und Data Science. Er ist ein Deep Worker, Machine Learner und Python Whisperer.

Platin-Sponsor

Gold-Sponsor

Silber-Sponsoren


CLC-Newsletter

Sie möchten über die Continuous Lifecycle
auf dem Laufenden gehalten werden?

 

Anmelden