Qualitätsziele kontinuierlich im Auge behalten

Tool-gestützte Qualitätssicherung gehört schon seit Urzeiten zur Softwareentwicklung und durch die Idee der Release-Pipeline existiert mittlerweile ein "natürlicher" Anknüpfungspunkt. Aber welche Arten von Qualitätskontrolle dockt man an welche Pipeline-Stage an, und ist die Pipeline überhaupt der richtige Ort dafür?

Der Vortrag zeigt, welche Bereiche aktuell durch Tools überprüfbar sind, von Security über Lizenzkompatibilität bis hin zur Architekturanalyse. Außerdem wird beleuchtet, an welchen Stellen automatisierte Qualitätskontrolle in der Vergangenheit gescheitert ist und was man daraus lernen kann, etwa in Hinblick auf die Dauer einer praktikablen Feedback-Loop.

Vorkenntnisse

* Grundlegendes Verständnis darüber, was eine Release-Pipeline leistet, ist ausreichend

Lernziele

* Breiten Überblick über die aktuelle Werkzeuglandschaft zur automatisierten Qualitätskontrolle.
* Hinweise, welche Fallstricke bei Auswahl und Einführung solcher Tools lauern.
* Wo sind mögliche Grenzen dieser Werkzeuge? Was bedeutet ein (nicht) passiertes Quality Gate?
* Quality Gates definieren und umsetzen.
* Verstehen, dass der Weg vom gefundenen zum beseitigten Fehler lang sein kann (finding flaws != fixing flaws).
* Parallelisierung in der Pipeline macht rechenaufwändige Tests überhaupt erst möglich.
* Viele der Tools gibt es schon länger, warum hat das in der Vergangenheit nicht gut geklappt? (aka lessons learned)

 

Agenda

ab 8.30 Uhr Registrierung und Begrüßungskaffee

9.30 Uhr Beginn

Intro

Machine Learning

  • Was ist Machine Learning?
  • Der typische ML Workflow
  • Was sind neuronale Netze?
  • Jupyter Lab mit Python
  • Eine Einführung in TensorFlow
  • Keras als High-Level API für TensorFlow

Praxisteil: Deep Learning Modelle mit Keras

  • Datengeneratoren
  • Datasets explorativ analysieren
  • Hold-Out vs. Cross Validation

11.00 - 11.15 Uhr: Kaffeepause

Praxisteil: Deep Learning Modelle mit Keras

  • Feed-Forward Netzarchitektur
  • Convolutional Neural Networks als Deep Learning Ansatz
  • Evaluation und Visualisierung des Modells

12.30 - 13.30 Uhr: Mittagspause

Pipelines mit Luigi

  • Anforderungen an produktive Modelle
  • Übersicht über Luigi und dessen Module
  • Bau eines Beispiel-Workflows

Praxisteil: Den Keras-Workflow mit Luigi implementieren

  • Anforderungen an produktive Modelle
  • Übersicht über Luigi und dessen Module
  • Bau eines Beispiel-Workflows

15.30 - 15.45 Uhr: Kaffeepause

Praxisteil: TensorFlow-Serving

  • Übersicht über TensorFlow-Serving
  • Ladestrategien konfigurieren
  • Deployment des Modells

ca. 17.00 Uhr: Ende

 

Referenten

 

Steffen Schluff Steffen Schluff ist der Leiter der Software Factory der OIO Orientation in Objects GmbH und verantwortlich für die in der Entwicklung eingesetzten Werkzeuge und Verfahren, wobei sein besonderes Interesse dem Thema Continuous Delivery gilt.

Thorsten Maier Thorsten Maier arbeitet bei der OIO Orientation in Objects GmbH. Er erschließt kontinuierlich bessere Wege, Software zu entwickeln, indem er selbst als Softwareentwickler unterwegs ist und anderen als Berater, Trainer und Autor dabei hilft. Ihn bewegt die Frage, wie sich moderne Technologien in gewachsenen Umgebungen einbinden lassen und wann man besser auf Bestehendes zurückgreifen sollte.

Platin-Sponsor

Gold-Sponsor

Silber-Sponsoren


CLC-Newsletter

Sie möchten über die Continuous Lifecycle
auf dem Laufenden gehalten werden?

 

Anmelden