Fabian Lehmann

Fabian Lehmann

Promotionsstudent

Humboldt-Universität zu Berlin

Über mich

Ich bin Fabian Lehmann und promoviere in Informatik am Lehrstuhl für Wissensmanagement in der Bioinformatik an der Humboldt-Universität zu Berlin. Ich werde über FONDA, ein Sonderforschungsbereich der Deutschen Forschungsgemeinschaft (DFG), gefördert.

Während meines Bachelorstudiums habe ich meine Faszination für komplexe, verteilte Systeme entdeckt. Ich begeistere mich dafür, die Limits solcher Systeme auszutesten und zu überwinden. In meiner Promotion fokussiere ich mich auf die Optimierung von Workflow Systemen zur Analyse von riesigen Datenmengen. Insbesondere konzentriere ich mich hierbei auf den Aspekt des Schedulings. Hierfür arbeite ich eng mit dem Earth Observation Lab der Humboldt-Universität zu Berlin zusammen, um die Anforderungen der Praxis zu verstehen.

Interessen
  • Verteilte Systeme
  • Wissenschaftliche Workflows
  • Workflow Scheduling
Bildung
  • Promotion (Dr.-Ing.) — Dissertation eingereicht (noch nicht verteidigt; Titel ausstehend), 2026

    Abschlussarbeit: Adaptive Scheduling of Dynamic Workflows

    Humboldt-Universität zu Berlin

  • Master Wirtschaftsinformatik, 2020

    Abschlussarbeit: Design and Implementation of a Processing Pipeline for High Resolution Blood Pressure Sensor Data

    Technische Universität Berlin

  • Bachelor Wirtschaftsinformatik, 2019

    Abschlussarbeit: Performance-Benchmarking in Continuous-Integration-Prozessen

    Technische Universität Berlin

  • Abitur, 2015

    Hannah-Arendt-Gymnasium (Berlin)

Erfahrungen

 
 
 
 
 
Wissensmanagement in der Bioinformatik (Humboldt-Universität zu Berlin)
Promotionsstudent (Informatik)
Nov. 2020 – Aktuell Berlin, Deutschland
In meinem Promotionsvorhaben fokussiere ich mich auf die Optimierung der Ausführung von großen wissenschaftlichen Workflows, die Hunderte Gigabytes an Daten verarbeiten.
 
 
 
 
 
DAI-Labor (Technische Universität Berlin)
Studentische Hilfskraft
Mai 2018 – Okt. 2020 Berlin, Deutschland
In meinem Studentenjob habe ich im Rahmen von DIGINET-PS Zeitreihenanalysen durchgeführt. Unter anderem haben wir die Auslastung der Parkplätze auf der Straße des 17. Juni vorhergesagt.
 
 
 
 
 
Universität Oxford
GeoTripNet - Fallstudie
Okt. 2019 – März 2020 Oxford, England, Großbritannien
Im Rahmen der Fallstudie haben wir die Bewertungen aller Restaurants in Berlin auf Google Maps gecrawlt. Anschließend haben wir die Beziehungen zwischen verschiedenen Restaurants analysiert, um die Gentrifizierung in Berliner Bezirken zu untersuchen. Ein Problem bestand darin, die große Datenmenge in Echtzeit zu verarbeiten, zu analysieren und zu visualisieren.
 
 
 
 
 
Einstein Center Digital Future
Fog Computing Projekt
Apr. 2019 – Sept. 2020 Berlin, Deutschland
In diesem Projekt haben wir die Fahrradfahrten von SimRa analysiert. Dafür haben wir eine verteilte Analyse Pipeline aufgesetzt und die Daten anschließend in einer interaktiven Web-App dargestellt. Anschließend konnten wir Gefahrenstellen für die Berliner Fahrradfahrer erkennen.
 
 
 
 
 
Conrad Connect
Anwendungssysteme Projekt
Okt. 2017 – März 2018 Berlin, Deutschland
Für Conrad Connect haben wir Hunderte Gigabytes an IoT Daten ausgewertet. Außerdem habe ich Sicherheitsmängel auf ihrer Website gefunden.
 
 
 
 
 
Reflect IT Solutions GmbH
Semesterferien-Job
März 2016 – Apr. 2016 & Sep 2016 – Oct 2016 Berlin, Deutschland
In meinen Semesterferien habe ich geholfen, das Backend für eine Software zur Unterstützung der Bauüberwachung zu entwickeln.
 
 
 
 
 
SPP Schüttauf und Persike Planungsgesellshaft mbH
Arbeit zwischen Abitur und Studium
Mai 2015 – Sept. 2015 Berlin, Deutschland
Bevor ich mit meinem Bachelorstudium begonnen habe, habe ich einige Monate die Bauüberwachung der Sanierung eines 18-Geschossers unterstützt.

IT-Kenntnisse

(Eine kleine Auswahl)

JAVA
Python
Docker
Kubernetes
Spring Boot
Latex
SQL
React
JavaScript
Nextflow
Haskell
Excel

Software

Common Workflow Scheduler

Resource Manager können mit Hilfe des Common Workflow Schedulers eine Schnittstelle bereitstellen, über die Workflow-Systeme Informationen zum Workflow-Graphen übermitteln können. Diese Daten ermöglichen es dem Scheduler des Resource Managers, bessere Entscheidungen zu treffen.

Benchmark Evaluator

Benchmark Evaluator

Der Benchmark Evaluator ist ein Plugin für den Jenkins Automatisierungsserver zum Laden und Auswerten von Benchmarkergebnissen.

Publikationen

Differences in Workflow Systems: A Use-Case Driven Comparison

Scientific Workflow Management Systems (SWMS) are software systems designed to enable the scalable, distributed, and reproducible execution of complex data analysis workflows on large datasets. Due to the importance of such analyses, a plethora of different systems have been built over the last decades. Although all of them share the same core functions of allowing workflow specification, controlling task dependencies, and steering the correct execution of workflows on a given computational infrastructure, they differ notably in the specific implementations of these functionalities and often offer additional features that can benefit workflow developers. The differences are often subtle, yet impactful, and often lack proper documentation leading to unpleasant surprises when trying to port a workflow developed for one SWMS to another or when re-implementing a stand-alone application with an SWMS. In this chapter, we want to highlight some of the main differences between workflow systems by comparing the properties and features of four SWMSs: Nextflow, Airflow, Argo, and Snakemake. The comparison is conducted using SWMSs to reimplement a complex workflow from the remote sensing domain that analyzes satellite images to study the development of vegetation over the years on the island of Crete. We find and describe important distinctions between these systems in numerous aspects, including file handling, scheduling, parallelization strategies, and language elements. We believe that awareness of these differences and the difficulties they might incur in a specific setting is important for making informed decisions when choosing an SWMS for a new research project.

Optimizing Workflow Execution by Cost-effective I/O Monitoring, Bottleneck Analysis, and Proactive Resource Assignment

Modern workflow systems typically rely on static resource allocation that does not change during the execution and is often based on rough user resource estimates. As a result, resource allocation and scheduling may be underprovisioning, which leads to slowing down the execution, or overprovisioning, which causes wasting valuable resources.
Leveraging detailed knowledge regarding a task’s behavior, we can optimize runtime, resource consumption, and execution reliability. For that purpose, an innovative approach to modeling tasks, workflows, and their execution is used as part of the scheduling. Contrary to the typical workflow execution, this modeling is done on sub-task granularity to be able to proactively allocate parts of the resources just in time.
Since the accuracy of the model and the resulting predictions cannot be free of errors/noise, the decision-making for resource allocation and scheduling is repeated continuously during execution using updated execution metrics from monitoring data of the task. After the execution of a task, monitoring data from executions is used to refine the model and reduce the error in future predictions. This, in turn, enables a more efficient execution of the task in the current workflow execution and potentially for other workflows running on different infrastructures using this task.
This chapter presents a comprehensive workflow optimization approach with a focus on data intensive workflows. It integrates past work by the authors on specific aspects of the methodology with novel ideas that will be explored further in future research.

Portable and Scalable Workflows for Earth Observation Data Analysis with Nextflow

The amount of satellite data in Earth Observation (EO) is rapidly increasing, providing scientists with new opportunities to study how climate, weather events, and direct anthropogenic factors affect the Earth’s surface. However, the urgency for more accurate and holistic studies drives growth in the size of analyzed data sets (i.e., higher spatial resolution, larger study areas, increasing temporal depth) and complexity of analysis, leading to more complex and more data-intensive workflows. Analyzing such large data sets requires distributed computing resources, which are hard to program and often require specialized expertise to achieve satisfying runtimes. As a result, Earth Observation data to-date are often underused.
Recently, scientific workflow management systems (SWMS) emerged as a new programming paradigm for complex analysis pipelines over large data sets executed on distributed compute resources. They promise simple development, improved portability across systems, automatic scalability on different infrastructures, easier reuse of workflows, and reproducibility of analysis results. As such, using SWMS for EO analysis can boost the more efficient use of EO data and facilitate the dissemination of standardized data pre-processing and processing pipelines.
In this book chapter, we delve into the application of SWMS for Earth Observation. Specifically, we describe three research projects in which we used Nextflow, a popular open source scientific workflow engine, for programming portable and scalable data analysis pipelines. To this end, we describe SWMS in general and specifically Nextflow regarding their suitability for EO data analysis, and give practical examples to highlight advantages and challenges when using SWMS for analyzing large sets of satellite images.

Projekte

FONDA

FONDA

Grundlagen von Workflows für die Analyse großer naturwissenschaftlicher Daten

Kontakt