Moladin

Data Engineer Databricks

13 April 2024
Apply Now
Deadline date:
£89000 - £150000 / year

Job Description

Company Description

 

Talan est un cabinet de conseil en innovation et transformation par la technologie. Depuis plus de 20 ans, Talan conseille les entreprises et les administrations, les accompagne et met en œuvre leurs projets de transformation et d’innovation en France et à l’international. Présent sur cinq continents, le groupe prévoit de réaliser un chiffre d’affaires de 600 millions d’euros en 2023 pour plus de 6000 consultant·e·s et vise à dépasser la barre du milliard d’€ de CA à horizon 2025.  

Le Groupe met l’innovation au cœur de son développement et intervient dans les domaines liés aux mutations technologiques des grands groupes, comme le Big Data, l’IoT, la Blockchain et l’Intelligence Artificielle. Présent dans les événements incontournables du secteur, comme Viva Technology, Talan prend régulièrement la parole sur les enjeux de ces technologies révolutionnaires aux côtés d’acteurs majeurs du secteur et de parlementaires (Syntec Numérique, Forum de l’intelligence artificielle, French Fab Tour, Forum de Giverny…).  

Pour la 8ème année consécutive, Talan est lauréat du palmarès des entreprises françaises où il fait bon travailler. 

Présent à Genève et à Lausanne Talan Suisse compte aujourd’hui près de150 collaborateurs. Initialement investi dans le secteur financier, Talan s’est développé ces dernières années dans les secteurs de l’horlogerie, des assurances, des médias et des services 

Job Description

  •  Concevoir, créer et maintenir une infrastructure de données solide et évolutive sur Databricks avec AWS.
  • Travailler en étroite collaboration avec les équipes ETL et front-end pour intégrer les sources de données et créer un modèle de données unifié.
  • Mise en œuvre de la réglementation ISP15
  • Mettre en place et maintenir des pipelines de streaming de données en temps réel en utilisant Databricks et les technologies associées pour permettre le traitement et l’analyse des données en temps opportun et précis.
  • Assurer la disponibilité, l’intégrité et les performances des pipelines de données.
  • Collaborer avec des équipes pluridisciplinaires pour identifier les opportunités d’améliorations et d’analyses basées sur les données.
  • Surveiller et analyser les performances de la plateforme, identifier les goulots d’étranglement et recommander des améliorations.
  • Développer et maintenir la documentation technique pour les implémentations ETL.
  • Rester à jour avec les dernières fonctionnalités et les meilleures pratiques de Databricks/Spark et contribuer à l’amélioration continue de nos capacités de gestion des données.

Qualifications

  • Diplôme de licence en informatique, technologies de l’information ou domaine connexe.
  • 3 ans d’expérience en tant qu’ingénieur(e) de données, avec une expérience antérieure dans la mise en œuvre de pipelines sur Databricks.
  • Forte expertise dans l’utilisation de Spark.
  • Maîtrise de SQL et des langages de script (par exemple, Python).
  • Une expérience dans les environnements cloud (AWS ou Azure) est bienvenue.
  • Excellentes compétences analytiques et résolution de problèmes. 
  • Connaissance des réglementations spécifiques à l’industrie et des exigences de conformité est appréciée.
  • Fortes compétences en communication, à la fois écrite et verbale.
  • Maîtrise de l’anglais indispensable.
  • Adaptabilité et volonté d’apprendre de nouvelles technologies et outils