Global Senior Data Engineer / Scientist (m/w/d)

Penzberg

Roche

As a pioneer in healthcare, we have been committed to improving lives since the company was founded in 1896 in Basel, Switzerland. Today, Roche creates innovative medicines and diagnostic tests that help millions of patients globally.

View company page

Roche fosters diversity, equity and inclusion, representing the communities we serve. When dealing with healthcare on a global scale, diversity is an essential ingredient to success. We believe that inclusion is key to understanding people’s varied healthcare needs. Together, we embrace individuality and share a passion for exceptional care. Join Roche, where every voice matters.

The Position

- for English version see below -

Die Abteilung

Wir bei Roche sind bestrebt, im Rahmen unserer 10-Jahres-Pharma-Vision mehr Nutzen für unsere Patient:innen zu schaffen. Ein wesentlicher Bestandteil der Umsetzung dieser Vision ist die Bereitstellung neuer und innovativer Datenanalyse-Lösungen für unsere Wissenschaftler im Bereich Pharma Technical Operations (PT). Zu diesem Zweck haben wir eine neue Organisation mit dem Namen PT Digital and Operational Excellence (PTE) aufgesetzt, die sich zum Ziel gesetzt hat, das Unternehmen digital zu transformieren und lean zu gestalten.

PTE ist die Organisation, die als Katalysator für die globale Entwicklung und Umsetzung der PT-Strategie für digitale und betriebliche Exzellenz fungiert, damit PT seine Leistungsversprechen einlösen kann. Wir bauen eine starke funktionsübergreifende und integrative Gemeinschaft auf, legen die Macht der Daten in die Hände unserer Mitarbeiter, entwickeln die Lean and Digital Skills bei PT weiter und bauen unsere digitalen und fortschrittlichen Analyse-Lösungen zum Nutzen unserer Mitarbeiter und Patienten aus.

Unser Ziel ist es, Data Citizenship und digitales Denken zu aktivieren, unser FAIR Data Ecosystem und unsere Systemlandschaft zu revolutionieren, exzellente Prozesse neu zu gestalten und transformative Erkenntnisse zu gewinnen. Wir arbeiten eng mit globalen Funktionen zusammen, um unseren Patienten einen echten Mehrwert zu bieten.

Deine Position

Als Mitglied des PTE Data Engineering and Architecture Team arbeiten Sie in einem multidisziplinären Umfeld an der Nutzung von Daten, um unseren Prozessen und Produkten einen realen Nutzen zu verleihen. Sie arbeiten eng mit einem Team von Datenwissenschaftlern, Fachexperten und anderen Dateningenieuren zusammen, um Funktionen zu kuratieren, zu transformieren und zu konstruieren, die direkt in unseren Modellierungsansatz einfließen. Darüber hinaus werden Sie zur Bereitstellung von FAIR-Datenprodukten beitragen. Diese Rolle erfordert eine Person, die zusammenarbeiten kann und will, die zuhört und von Kollegen lernt, die Herausforderungen mit Bedacht angeht und die Auswirkungen ihrer Arbeit priorisiert. Sie werden dafür verantwortlich sein, Verbesserungen in fortgeschrittenen Datenanalysemodellen und der Datenarchitektur zu finden. Wir suchen jemanden, der sich schnell an ein sich ständig veränderndes Umfeld anpassen kann, der leidenschaftlich gerne lernt und dem man zutraut, dass er im besten Interesse seiner Kollegen arbeitet.

Deine Aufgaben

  • Hybride technische Rolle, die eine Schnittstelle zu Prozess-KMUs bildet und modernste Technologien einsetzt, während sie gleichzeitig in der Lage ist, komplexe, schwer umsetzbare Ideen einem nichttechnischen Publikum zu vermitteln. 

  • Erfassen klarer Anforderungen von KMU und Prozessexperten.

  • Sie arbeiten mit unseren Prozessexperten zusammen, um ihre Datenlandschaft zu modellieren, Datenextrakte zu beschaffen und Ansätze für einen sicheren Datenaustausch zu definieren.

  • Erfassen, Aufnehmen und Verarbeiten von Daten aus verschiedenen Quellen und Systemen in Big-Data-Plattformen

  • Verstehen, Beurteilen und Abbilden der Datenlandschaft

  • Zusammenarbeit mit unseren Datenwissenschaftlern, um Datenfelder auf Hypothesen abzubilden und Daten für die Verwendung in ihren fortschrittlichen Analysemodellen zu kuratieren, zu verarbeiten und aufzubereiten

  • Aufbau einer modularen Pipeline zur Erstellung von Funktionen und Modellierungstabellen

  • Entwerfen von Analysemodellen zur Umsetzung von Daten in Erkenntnisse

Das bringst Du mit

Ausbildung & Berufserfahrung

  • Bachelor- oder Master-Abschluss mit mindestens fünf Jahren einschlägiger Berufserfahrung in der biopharmazeutischen Industrie mit Spezialisierung auf Bioprozess-Wissenschaften und -technologie oder Promotion mit erster Berufserfahrung mit einem Abschluss in Statistik, Datenwissenschaft, Mathematik, Softwaretechnik, Bioinformatik oder einem verwandten Bereich.


Kenntnisse & Kompetenzen

  • Nachgewiesene und umfangreiche Erfahrung im Aufbau und der Verwaltung von Datenpipelines

  • Fähigkeit, Datenpipelines mit Python, Scala oder Java zu erstellen und zu verwalten

  • Kenntnisse über bewährte Verfahren der Softwareentwicklung (z.B. Code-Reviews, Test-Frameworks, Wartbarkeit und Lesbarkeit) + Kenntnisse in der Anwendung von Innovationsrahmen und -werkzeugen (z. B. DesignThinking, Sprints, User Stories/Personas)

  • Fähigkeit, mit strukturierten, halb strukturierten und unstrukturierten Daten zu arbeiten, Informationen zu extrahieren und Verknüpfungen zwischen unterschiedlichen Datensätzen zu erkennen

  • Umfassende Erfahrung mit verschiedenen Datenbanktechnologien (z. B. Hadoop, MS SQL Server, Oracle, MySQL, Teradata, Snowflake)

  • Erfahrung und Interesse an Cloud-Plattformen wie z. B.: AWS, Azure, oder Google Platform 

  • Vertrautheit mit Data Warehousing und der Implementierung von ETL-Prozessen mit Python. Außergewöhnliche Aufmerksamkeit für Details

  • Kenntnisse in der Nutzung von Cloud Computing zur Ausführung von Pipelines und ML-Modellen (z. B. GCP/AWS, Apache Airflow) und Kenntnisse über ML-Frameworks (Tensorflow, Pythorch, Spark ML), Datenstrukturen, Modellierung und Softwarearchitektur

  • Vertiefte Kenntnisse in der Anwendung unüberwachter und überwachter Modelle und die Fähigkeit, lineare und nichtlineare Beziehungen in Daten zu erkennen

  • Fähigkeit, Daten zu extrahieren, um geeignete Analysemodelle zu entwerfen und Daten in Erkenntnisse umzuwandeln + Fähigkeit zur Analyse von Big Data & Business Intelligence

  • Erfahrung in der Arbeit mit der Dataiku Data Science Platform ist von Vorteil

  • Fähigkeit, in einem internationalen/globalen Umfeld zu arbeiten; 5-15% Reisetätigkeit wird erwartet

Für diese Position ist eine mehrheitliche Anwesenheit vor Ort in Penzberg erforderlich.

Deine Bewerbung

Wir machen’s einfach! Insofern Du über ein gepflegtes englisch-sprachiges Workday-Profil verfügst, reicht uns das. Sollte dies nicht auf dem aktuellsten Stand sein, lade bitte deinen englisch-sprachigen Lebenslauf online hoch.

- for English version please start here -



Who We Are

At Roche, we thrive to deliver more benefits to our patients as part of our 10-year Pharma vision. An integral part of achieving this vision is to deliver new and innovative data analytics solutions to our scientists across Pharma Technical Operations (PT). To do so, we have formed a new organization called PT Digital and Operational Excellence (PTE) with the aspiration to digitally transform and become a lean organization.

PTE is the organization that catalyzes the global development and execution of PT’s Digital and Operational Excellence strategy to enable PT to realize our performance promises. We build a strong cross-functional and inclusive community, put the power of data into the hands of our people, further develop the Lean and Digital skills across PT, and scale up our Digital and Advanced Analytics solutions, for the benefit of our colleagues and patients.

We aim to activate data citizenship and digital mind, revolutionize our FAIR data ecosystem and systems landscape, re-design excellent processes, and generate transformative insights. We collaborate closely with global functions to deliver impactful value to our patients.

The Position

As a member of the PTE Data Engineering and Architecture Team, you will work in multi-disciplinary environments harnessing data to provide real-world impact for our processes and products. You’ll work closely with a team of data scientists, subject matter experts and other data engineers in order to curate, transform and construct features which feed directly into our modeling approach. Additionally, you will contribute to the delivering FAIR data products. This role requires an individual who can and wants to collaborate, listen and learn from colleagues, challenge thoughtfully and prioritize impact of work. You will be responsible for finding improvements in advanced data analytic models and data architecture. We are looking for someone who can quickly adapt to an ever changing environment, has a passion to learn and can be trusted to work in the best interests of colleagues.

Your Impact

  • Hybrid technical role interfacing with process SMEs using state of the art technologies, whilst also being able to communicate complex intractable ideas to non-technical audiences. 

  • Collect clear requirements from SMEs and process experts.

  • Work with our process experts to model their data landscape, obtain data extracts and define secure data exchange approaches

  • Acquire, ingest, and process data from multiple sources and systems into Big Data platforms

  • Understanding, assessing and mapping the data landscape

  • Collaborate with our data scientists to map data fields to hypotheses and curate, wrangle, and prepare data for use in their advanced analytical models

  • Building modular pipeline to construct features and modeling tables

  • Design analytical models to translate data into insights

Who You Are
 

Academic degree & Work Experience

  • Bachelor’s or Master’s Degree with a minimum of five years of relevant work experience in the bio-pharmaceutical industry specializing in bioprocess manufacturing sciences and technology or PhD with some working experience with a degree in Statistics, Data Science, Mathematics, Software Engineering, Bioinformatics or a related field.

Technical & Business Skills

  • Proven and significant experience building and managing data pipelines

  • Ability to build and manage data pipelines with Python, Scala or Java

  • Knowledge of software engineering best practices (e.g. code reviews, testing frameworks, maintainability and readability) + knowledge of using innovation frameworks and tools (e.g. DesignThinking, Sprints, User Stories/Personas)

  • Capable of working across structured, semi-structured, and unstructured data, extract information and identify linkages across disparate data sets

  • Meaningful experience in multiple database technologies (such as Hadoop, MS SQL Server, Oracle, MySQL, Teradata, Snowflake)

  • Experience and interest in Cloud platforms such as: AWS, Azure, or Google Platform 

  • Familiarity with data warehousing and deploying ETL processes with Python. Extraordinary attention to detail

  • Proficiency in using cloud computing to run pipelines and ML models (e.g., GCP/AWS, Apache airflow) and knowledge of ML frameworks (tensorflow, Pythorch, Spark ML), data structures, modeling, and software architecture

  • In-depth knowledge of applying unsupervised and supervised models and ability to identify linear and nonlinear relationships in data

  • Ability to extract data to design the appropriate analytical models and translate data into insights and communicate a compelling story and complex concepts with aspirational language that data professionals, business stakeholders and decision-makers equally understand

  • Experience working with Dataiku Data Science Platform is preferred

  • Ability to work in an international/global environment. 5-15% travel anticipated


This position requires a majority presence on site in Penzberg.

Your application

We make it easy! As long as you have a well-kept English-language Workday profile, that's all we need. If this is not up to date, please upload your English-language CV online.

Your contact to us! With people. For people.

Do you need further support?

Please have a look at our FAQs, you will find them via https://careers.roche.com/global/en/faq.

Who we are

At Roche, more than 100,000 people across 100 countries are pushing back the frontiers of healthcare. Working together, we’ve become one of the world’s leading research-focused healthcare groups. Our success is built on innovation, curiosity and diversity.

Roche at Penzberg, near Munich, employs more than 7,000 people. The site is one of the largest biotechnology centers in Europe and the only Roche site with research, development and production for both Pharmaceuticals and Diagnostics under one roof. From your beginning with Roche, our motivated team will welcome and support you. Numerous opportunities for personal development, flexible work hours, attractive compensation packages and special family assistance programs are available.

Roche is an Equal Opportunity Employer.

Apply now Apply later
  • Share this job via
  • or

* Salary range is an estimate based on our AI, ML, Data Science Salary Index 💰

Tags: Airflow Architecture AWS Azure Big Data Bioinformatics Business Intelligence Data Analytics Data pipelines Data Warehousing Engineering ETL GCP Hadoop Java Machine Learning Mathematics ML models MS SQL MySQL Oracle Pharma PhD Pipelines Python Research Scala Snowflake Spark SQL Statistics TensorFlow Teradata Testing Unstructured data

Perks/benefits: Equity Flex hours Startup environment

Region: Europe
Country: Germany
Job stats:  15  0  0

More jobs like this

Explore more AI, ML, Data Science career opportunities

Find even more open roles in Artificial Intelligence (AI), Machine Learning (ML), Natural Language Processing (NLP), Computer Vision (CV), Data Engineering, Data Analytics, Big Data, and Data Science in general - ordered by popularity of job title or skills, toolset and products used - below.