Unser Ansatz

Ein Zirkel, viele Kompetenzen

Die Abbildung stellt den OmegaLambdaTec Data Science Kompetenzzirkel mit seinen neun ineinandergreifenden Analyse-Schritten grafisch dar. Die Darstellung veranschaulicht auch das Zusammenspiel der wissenschaftlichen Kompetenzfelder in orange mit der technischen Daten- und Programmier-Expertise in blau. Am Anfang des Zirkels steht die datengetriebene Fragestellung der Kunden, die nach Durchlauf aller Analyse-Schritte die datenbasierten sowie aufbereiteten Ergebnisse und Antworten zurückgeliefert bekommen. Für unsere Kunden bieten wir neben einmaligen Analysen und Studien auch sich wiederholende, vollautomatisierte Data Science Lösungen an.

Die neun ineinandergreifenden OmegaLambdaTec Analyse-Schritte starten mit dem Verständnis der zu analysierenden Daten-Herausforderung sowie der möglicherweise komplexen Zusammenhänge und Abhängigkeiten (I). Das Problem bzw. das zugrundeliegende System wird daraufhin mathematisch beschrieben und modelliert (II) und die geeigneten statistischen Methoden und Werkzeuge für die Analyse ausgewählt (III). Im vierten Schritt werden die bereitgestellten Daten sowie weitere zugängliche Hilfsdaten zusammengetragen und für die Analyse aufbereitet (IV). Die notwendigen smarten und effizienten Algorithmen für die Analyse werden von uns im fünften Schritt entwickelt (V) und bei Bedarf zu einer vollständig automatisierten Daten-Analyse-Pipeline ausgebaut (VI). Im siebten Schritt werden die resultierenden Ergebnisse validiert und ihre Güte und Richtigkeit im Detail überprüft und getestet (VII). Nach der Visualisierung der Daten und Ergebnisse (VIII) arbeiten wir für Sie die wissenschaftliche Interpretation der Ergebnisse heraus und stellen die quantitativen datenbasierten Antworten auf Ihre Fragen zusammen (IX).

Maximale Erkenntnis aus einer Hand

Für die kompetente Bearbeitung des gesamten Analyse-Zirkels gibt es zwei generelle prinzipielle Ansätze: (1) Die gesamte Analyse wird in einem heterogenen Team mit bis zu einem halben Dutzend Spezialisten mit unterschiedlichen Ausbildungen bearbeitet, die einzeln jeweils für ein bis zwei Analyse-Schritte verantwortlich sind. (2) Der Analyse-Zirkel wird von einem homogenen Team aus den besten Data Scientists umgesetzt, die einzeln jeweils alle Schritte des Prozesses selbst beherrschen.

Wir bei OmegaLambdaTec verfolgen ganz klar den zweiten Ansatz eines homogenen Teams und wollen dadurch den Kundennutzen durch entscheidende Vorteile maximieren: Erstens werden große Erkenntnis-Durchbrüche im Normalfall durch eine globale Perspektive und den kompetenten Überblick über das Gesamtsystem begünstigt und gefördert. Zweitens werden durch unseren Ansatz die unvermeidlichen Reibungsverluste an den Schnittstellen einzelner Analyse-Schritte minimiert. Drittens gibt es für unsere Kundenprojekte einen einzigen Hauptansprechpartner, der die Gesamtanalyse bis in die Tiefe jedes Schrittes vollständig überblickt und Ihnen kompetent zur Seite steht.

Dr. Rene Fassbender

Wenn wir Science sagen, sprechen erfahrene Wissenschaftler

Um unseren Ansatz konsequent umzusetzen und unsere Ziele zu erreichen, verlangen wir bei OmegaLambdaTec von unseren Data Scientists die höchstmögliche Qualifikation und Data Science Expertise. Einstellungsvoraussetzung als Data Scientist bei uns ist ein Minimum von fünf Jahren aktiver Forschungserfahrung auf internationalem Niveau in der Astrophysik, dem innovativsten Forschungsfeld für Datenanalyse. Neben einer erfolgreichen Promotion in datengetriebener Astrophysik fordern wir außerdem mindestens zehn wissenschaftliche Publikationen  in internationalen Fachzeitschriften.

Mit diesen hohen Einstiegsvoraussetzungen bringen unsere forschungserfahrenen Data Scientists neben einer exzellenten wissenschaftlichen und technischen Expertise über den gesamten Analyse-Zirkel zusätzlich folgende entscheidenden Kompetenzen mit:

  • Forschungserfahrung mit sich dynamisch entwickelnden, wechselwirkenden, komplexen Vielteilchensystemen
  • Expertise in der Anwendung vielfältiger moderner Data Science Methoden und der Handhabung verschiedenster Datenformate
  • Expertise in der eigenständigen Entwicklung von effizienten Algorithmen und Daten-Pipeline-Systemen
  • Expertise in der korrekten Analyse von unvollständigen, verfälschten oder nicht-repräsentativen Datensätzen und der Korrektur von Selektionseffekten
  • Erfahrung mit der Detektion und statistischen Interpretation von schwachen Signalen und Strukturen geringer Signifikanz
  • Erfahrung mit der Analyse und Auswertung großer Datenmengen
  • Kenntnisse über die neuesten Algorithmen und Datenanalyse-Werkzeuge von der Forschungsfront