Ingénieur des opérations de données / DataOps Engineer

MTL. Produit & développement / Product & Software Dev. Canada Montréal, Québec


Position at Triton Digital Canada Inc.

À propos de Triton Digital

Triton Digital® est la plus importante entreprise de technologie axée sur l’industrie de l’audio et de la radio en ligne à l’échelle mondiale. Nous avons été créés en 2006 et sommes fiers d’être le plus grand fournisseur mondial de technologie et de services pour l’industrie de l’audio numérique, opérant dans plus de 40 pays. 

Nous concevons des technologies pour aider les radiodiffuseurs, les podcasteurs et les services de musique à rationaliser leurs activités quotidiennes, à accroître leur auditoire en ligne et à maximiser leurs revenus en ligne. 

Description de poste

Nous sommes actuellement à la recherche d’un ingénieur des opérations de données qui travaillera en étroite collaboration avec l’équipe Opérations de données et assurera le bon fonctionnement des pipelines de données pour faciliter et améliorer la prise de décisions éclairées par les données au sein de l’entreprise. Il s’agit d’une occasion de travailler avec de grands volumes de données et d’être exposé aux architectures de Big Data. 

Les données sont au cœur de ce que nous faisons chez Triton Digital, à la fois en fournissant des mesures fondées sur les données à nos clients et en analysant les données de nos utilisateurs afin d’améliorer l’expérience produit et nous permettre de mieux gérer nos activités. 

Principales responsabilités :

  • Jouer un rôle pratique au sein d’une équipe Agile afin de développer, tester et maintenir des systèmes de haute qualité répondant aux besoins de l’entreprise
  • Travailler étroitement avec les équipes Data Operations et Engineering afin de comprendre les processus et les modèles de données de l’entreprise
  • Créer, tenir à jour et publier des dictionnaires de données, de la documentation utilisateur, des runbooks et des normes
  • Construire et améliorer les pipelines de données et les processus en utilisant les méthodologies DataOps
  • Optimiser la livraison des données et repenser l’infrastructure pour une plus grande scalabilité
  • Automatiser les processus manuels courants et répétitifs
  • Collaborer et apporter son soutien aux différentes équipes qui dépendent de la plateforme DataOps
  • Être une ressource pour les utilisateurs de données de l’organisation et aider au dépannage général des systèmes de données 

Exigences

Vous devez avoir :

  • BAC+3 en génie informatique ou en informatique
  • Au moins 4 ans d’expérience dans le domaine DataOps ou un domaine connexe
  • Connaissance approfondie d’au moins deux des technologies suivantes : Kafka, Druid, Apache Airflow, Spark, Ansible
  • Connaissance pratique des files d’attente de messages, du traitement des flux et des magasins de données Big Data hautement évolutifs
  • Compréhension des plateformes de données MPP telles qu’Apache Hive, Presto, Redshift
  • Connaissance approfondie de la programmation SQL et de l’optimisation du code
  • Expérience pratique avec Hadoop, Linux, Docker, Kubernetes et GIT
  • Grand intérêt pour l’automatisation des tâches de routine
  • Excellentes compétences de communication écrite et orale (anglais)
  • Capacité avérée à maîtriser rapidement les nouvelles technologies 

Atouts

  • Expérience de la conception d’une architecture de base de données pour les bases de données relationnelles et les entrepôts de données
  • Expérience de la création et de l’optimisation de pipelines de données, d’architectures et d’ensembles de données Big Data
  • Compréhension des meilleures pratiques d’ingénierie (traitement et consignation des erreurs, surveillance du système et création d’applications tolérantes aux défaillances humaines)
  • Expérience de la lecture et de l’écriture de données à l’aide de Python et de SQL
  • Connaissance de la technologie cloud, en particulier de l’AWS                                                 

************************************

About Triton Digital

Triton Digital® is the leading technology company focused on powering the online audio and radio industry worldwide. We launched in 2006 and are proud to be the world's largest provider of technology and services to the digital audio industry, operating in more than 40 countries!

We design technology to help broadcasters, podcasters, and music services streamline their day-to-day operations, build their online audience, and maximize their online revenue. 

Job description

We are currently looking for a Data Operations Engineer who will closely work with the data ops team building and maintain the data pipelines to facilitate and improve data-informed decision-making within the business. This is an opportunity to work with large volumes of data and gain exposure to big data architectures.

Data is at the core of what we do at Triton Digital, both in providing data-driven metrics to our customers, and in analyzing our user behavior to improve the product experience and enable us to better manage our business. 

Key Responsibilities:

  • Play a hands-on role as part of an Agile team to develop, test and maintain high quality systems that fulfil business needs
  • Work extensively with data operations and engineering to understand enterprise processes and data models
  • Create, maintain, and publish data dictionaries, user documentation, runbooks, and standards
  • Build and improve data pipelines and processes using DataOps methodologies
  • Optimize data delivery and redesign infrastructure for greater scalability
  • Automate common and repetitive manual processes
  • Collaborate with and support the different teams that depend on the DataOps Platform
  • Be a resource for data users in the organization and assist with general data system troubleshooting 

Requirements

You must have:

  • Bachelor’s Degree in Computer Engineering or Computer Science
  • 4+ years of DataOps experience or related field
  • Extensive knowledge of at least 2 of the following technologies: Kafka, Druid, Apache Airflow, Spark, Ansible
  • Working knowledge of message queuing, stream processing, and highly scalable 'big data' data stores
  • Understanding of MPP data platforms such as Apache Hive, Presto, Redshift
  • Advanced knowledge of SQL programming and code optimization
  • Hands-on experience with Hadoop, Linux, Docker, Kubernetes, and GIT
  • A great interest in automating routine tasks
  • Excellent written and spoken communication skills (English)
  • Demonstrated ability to quickly master new technologies 

Nice to have:

  • Experience in the design of database architecture for relational databases and data warehouses
  • Experience building and optimizing 'big data' data pipelines, architectures, and data sets
  • Understanding of best engineering practices (handling and logging errors, system monitoring and building human-fault-tolerant applications)
  • Experience of reading and writing data using Python and SQL
  • Familiarity with cloud technology, especially with AWS