Entwicklungsumgebungen automatisieren

Zum Entwickeln von Software benötigt man zahlreiche Tools, beispielsweise Laufzeitumgebungen, Compiler, Build- und Test-Tools. Auch wird das Entwickeln komfortabler, wenn Services wie Datenbanken lokal installiert sind. Gleichzeitig wollen viele Entwickler mit ihren vertrauten Betriebssystemen und IDEs arbeiten. Eine gewisse Standardisierung und Automatisierung ist jedoch sinnvoll, um sicherzustellen, dass alle dieselben Versionen von Services und Laufzeitumgebungen verwenden, neue Entwickler schnell starten können oder der Quellcode einheitlich formatiert ist.

Dieser Vortrag stellt einen Ansatz auf Basis von editorconfig, Docker und nix vor und gibt darüber hinaus einen Überblick weiterer Möglichkeiten.

Vorkenntnisse

* Entwicklung komplexer Softwareprojekte in Teams.

Lernziele

* Überblick über Tools und Vorgehensweisen zum automatisierten Setup von Entwicklungsumgebungen auf dem eigenen Laptop.

 

Agenda

ab 8.30 Uhr Registrierung und Begrüßungskaffee

9.30 Uhr Beginn

Intro

Machine Learning

  • Was ist Machine Learning?
  • Der typische ML Workflow
  • Was sind neuronale Netze?
  • Jupyter Lab mit Python
  • Eine Einführung in TensorFlow
  • Keras als High-Level API für TensorFlow

Praxisteil: Deep Learning Modelle mit Keras

  • Datengeneratoren
  • Datasets explorativ analysieren
  • Hold-Out vs. Cross Validation

11.00 - 11.15 Uhr: Kaffeepause

Praxisteil: Deep Learning Modelle mit Keras

  • Feed-Forward Netzarchitektur
  • Convolutional Neural Networks als Deep Learning Ansatz
  • Evaluation und Visualisierung des Modells

12.30 - 13.30 Uhr: Mittagspause

Pipelines mit Luigi

  • Anforderungen an produktive Modelle
  • Übersicht über Luigi und dessen Module
  • Bau eines Beispiel-Workflows

Praxisteil: Den Keras-Workflow mit Luigi implementieren

  • Anforderungen an produktive Modelle
  • Übersicht über Luigi und dessen Module
  • Bau eines Beispiel-Workflows

15.30 - 15.45 Uhr: Kaffeepause

Praxisteil: TensorFlow-Serving

  • Übersicht über TensorFlow-Serving
  • Ladestrategien konfigurieren
  • Deployment des Modells

ca. 17.00 Uhr: Ende

 

Referent

 

Christine Koppelt Christine Koppelt arbeitet als Senior Consultant bei der INNOQ Deutschland GmbH. Ihre Schwerpunkte sind die Realisierung von Digitalisierungsprojekten für mittelständische Unternehmen und die Themen Microservices, DevOps und Data Engineering. Sie ist Organisatorin des Munich Data Engineering Meetups und Contributor bei der Linux Distribution NixOS.

Platin-Sponsor

Gold-Sponsor

Silber-Sponsoren


CLC-Newsletter

Sie möchten über die Continuous Lifecycle
auf dem Laufenden gehalten werden?

 

Anmelden