Continuous Delivery – Mehr als eine Pipeline

Continuous Delivery ist mehr als eine Continuous-Delivery-Pipeline. Dieser Vortrag beschreibt die Vorteile von Continuous Delivery und erläutert, warum Continuous Delivery jenseits von Time-to-Market so wichtig ist, um Softwareentwicklung weiter zu optimieren.

Anschließend zeigt der Vortrag auf, welche Maßnahmen das Deployment weiter beschleunigen und verbessern können. Dabei geht es unter anderem um Architektur und Release- sowie Branching-Techniken. So wird klar, was Continuous Delivery tatsächlich ist: Ein fundamental anderer Ansatz, um Software nicht nur schneller sondern auch zuverlässiger zu entwickeln und Benutzern zur Verfügung zu stellen.

Vorkenntnisse

* Grundlegendes Verständnis über Continuous Delivery und Softwarearchitektur

Lernziele

* Continuous Delivery bedeutet nicht nur schnelleres Time-to-Market.
* Continuous Delivery hilft dabei, fundamentale Herausforderungen in der Softwareentwicklung zu lösen.
* Deployment-Automatisierung alleine ist für Continuous Delivery nicht ausreichend.
* Es gibt verschiedene Barrieren, die jeweils ein noch schnelleres Deployment verhindern.
* Maßnahmen bei Architektur, Microservices, Techniken beim Branching, Feature Toggles und andere Releasing-Strategien zählen zu den Bereichen, die zu einer Lösung beitragen können.

 

Agenda

ab 8.30 Uhr Registrierung und Begrüßungskaffee

9.30 Uhr Beginn

Intro

Machine Learning

  • Was ist Machine Learning?
  • Der typische ML Workflow
  • Was sind neuronale Netze?
  • Jupyter Lab mit Python
  • Eine Einführung in TensorFlow
  • Keras als High-Level API für TensorFlow

Praxisteil: Deep Learning Modelle mit Keras

  • Datengeneratoren
  • Datasets explorativ analysieren
  • Hold-Out vs. Cross Validation

11.00 - 11.15 Uhr: Kaffeepause

Praxisteil: Deep Learning Modelle mit Keras

  • Feed-Forward Netzarchitektur
  • Convolutional Neural Networks als Deep Learning Ansatz
  • Evaluation und Visualisierung des Modells

12.30 - 13.30 Uhr: Mittagspause

Pipelines mit Luigi

  • Anforderungen an produktive Modelle
  • Übersicht über Luigi und dessen Module
  • Bau eines Beispiel-Workflows

Praxisteil: Den Keras-Workflow mit Luigi implementieren

  • Anforderungen an produktive Modelle
  • Übersicht über Luigi und dessen Module
  • Bau eines Beispiel-Workflows

15.30 - 15.45 Uhr: Kaffeepause

Praxisteil: TensorFlow-Serving

  • Übersicht über TensorFlow-Serving
  • Ladestrategien konfigurieren
  • Deployment des Modells

ca. 17.00 Uhr: Ende

 

Referent

 

Eberhard Wolff Eberhard Wolff ist Fellow bei INNOQ und arbeitet seit mehr als 15 Jahren als Architekt und Berater, oft an der Schnittstelle zwischen Business und Technologie. Er ist Autor zahlreicher Artikel und Bücher, unter anderem zu Continuous Delivery und Microservices und trägt regelmäßig als Sprecher auf internationalen Konferenz vor. Sein technologischer Schwerpunkt sind moderne Architektur- und Entwicklungsansätze wie Cloud, Continuous Delivery, DevOps und Microservices.

Platin-Sponsor

Gold-Sponsor

Silber-Sponsoren


CLC-Newsletter

Sie möchten über die Continuous Lifecycle
auf dem Laufenden gehalten werden?

 

Anmelden