DevOps im Embedded-Umfeld – Voraussetzungen und Herausforderungen

Der Vortrag zeigt auf, wie Konzepte und Vorgehensweisen von DevOps auf Entwicklungen im Embedded-Umfeld übertragen werden können. Dabei stellt Embedded-Entwicklung bereits auf technischer Ebene besondere Anforderungen. Quality Gates, Testing und Release-Bedingungen müssen neu gedacht werden, Schnittstellen zu Fertigung und Feld stellen sich völlig anders dar als beispielsweise im Webkontext. Architektur und Entwicklung müssen Anforderungen des "neuen Stakeholders" DevOps erfüllen.

Mit der Automatisierungs-Toolchain als Leitmotiv – quasi als technisches Herzstück von DevOps – zeigt der Vortrag konkrete Ansätze und Umsetzungen.

Vorkenntnisse

* Grundsätzliches Verständnis von DevOps, Embedded-Programmierung und dem Automatisierungsserver Jenkins.

Lernziele

* Die Teilnehmer sollen eine gute Vorstellung der Besonderheiten von DevOps in der Embedded-Entwicklung erhalten und Lösungsansätze für die sich daraus ergebenden Aufgabenstellungen mitnehmen.

 

Agenda

ab 8.30 Uhr Registrierung und Begrüßungskaffee

9.30 Uhr Beginn

Intro

Machine Learning

  • Was ist Machine Learning?
  • Der typische ML Workflow
  • Was sind neuronale Netze?
  • Jupyter Lab mit Python
  • Eine Einführung in TensorFlow
  • Keras als High-Level API für TensorFlow

Praxisteil: Deep Learning Modelle mit Keras

  • Datengeneratoren
  • Datasets explorativ analysieren
  • Hold-Out vs. Cross Validation

11.00 - 11.15 Uhr: Kaffeepause

Praxisteil: Deep Learning Modelle mit Keras

  • Feed-Forward Netzarchitektur
  • Convolutional Neural Networks als Deep Learning Ansatz
  • Evaluation und Visualisierung des Modells

12.30 - 13.30 Uhr: Mittagspause

Pipelines mit Luigi

  • Anforderungen an produktive Modelle
  • Übersicht über Luigi und dessen Module
  • Bau eines Beispiel-Workflows

Praxisteil: Den Keras-Workflow mit Luigi implementieren

  • Anforderungen an produktive Modelle
  • Übersicht über Luigi und dessen Module
  • Bau eines Beispiel-Workflows

15.30 - 15.45 Uhr: Kaffeepause

Praxisteil: TensorFlow-Serving

  • Übersicht über TensorFlow-Serving
  • Ladestrategien konfigurieren
  • Deployment des Modells

ca. 17.00 Uhr: Ende

 

Referent

 

Hendrik Spies Hendrik Spies hat Informatik an der TU Kaiserslautern studiert. Neben verschiedenen Stationen als technischer Consultant und Projektleiter für Embedded-Entwicklung ist er seit einigen Jahren mit Projekten im Bereich Konfigurationsmanagement befasst und betreut Kunden bei der Konzeption und Umsetzung von Continuous Integration, Testing und Deployment-Lösungen.

Platin-Sponsor

Gold-Sponsor

Silber-Sponsoren


CLC-Newsletter

Sie möchten über die Continuous Lifecycle
auf dem Laufenden gehalten werden?

 

Anmelden