Data Lake Technical Leader H/F

  • Selon profil + expériences
  • Paris, Ile-de-France, France Paris Ile-de-France FR
  • Permanent, Full time
  • Axa Investment Managers
  • 17 May 18 2018-05-17

Nous sommes un investisseur global multi-actifs, qui privilégie le long terme et la gestion active, pour permettre au plus grand nombre d’atteindre ses objectifs financiers en exploitant tout le potentiel des solutions d’investissement. En associant une connaissance pointue de l’investissement et de l’innovation à une gestion solide des risques, nous sommes devenus l’un des acteurs majeurs de la gestion d’actifs en Europe, avec 746 milliards d’euros d’actifs à fin 2017. Nous employons 2 400 personnes à travers le monde et possédons 29 bureaux répartis dans 21 pays.

Missions principales :

Le Data Lake Technical Leader assure la direction technique du Data Lake d’AXA IM reposant sur les technologies Hadoop. Il intervient sur tout le cycle de vie du Data Lake (conception, déploiement, exploitation, support) ainsi que sur l’ensemble de la stack technologique (infrastructure, ecosystème Hadoop, développement des usages).
Il agit en tant que leader technique fournissant au jour le jour à la Data Lake Core Team les directives et les solutions pour atteindre les objectifs fixés.
Maîtrisant les best practices du software craftsmanship et DevOps, le Tech leader est le garant de leur mise en application aussi bien pour le management de la plateforme Datalake (automatisation des déploiements des composants et de leur configuration) que pour le développement des usages (ingestion des données, crunching, exposition des données produites).

- Définir les orientations et les choix technologiques pour le Data Lake Hadoop en fonction des besoins identifiés. Conduire les proof of technology nécessaires pour valider les choix.
- Assurer la conception technique du Data Lake : Conception liée à l’évolution de la plateforme Data Lake et conception technique des usages (distribution industrielle des données, agile BI et data-science). Assister le Product Owner dans la rédaction des user stories pour intégrer les spécifications techniques.
- Garantir la bonne intégration du Data Lake dans le Système d’Information : Connexion à l’Active Directory de l’entreprise, à l’ordonnanceur de travaux Control-M, integration au framework de monitoring (ELK), à l’infrastructure de sauvegarde…
- Industrialiser la plateforme Data Lake pour assurer scalabilité, haute disponibilité et continuité de service (disaster recovery) compatibles avec des usages « business critical ».
- Implémenter et maintenir la stratégie de sécurité : Protection des données (ACL, chiffrement in motion / at rest), identification des utilisateurs (Kerberos), gestion des autorisations (Sentry), piste d’audit...
- Définir et organiser une usine de développement et un processus agile adaptés à Hadoop: Choix des technologies, standards de programmation, méthodes et outils de test, mesure de la qualité du code, documentation du code, intégration continue, déploiement automatisé ...
- Utiliser et accompagner les développeurs dans leur montée en compétence sur les technologies Big Data telles que Hadoop, Spark, Kafka, Hive, Impala ...
- Assister les développeurs dans l’optimisation de leurs traitements / de leurs requêtes.
- Apporter du support aux OPS de la Data Lake Core Team dans la résolution des incidents. Troubleshooting et tuning de la plateforme sur l’ensemble de la stack technologique.
- Mettre en place la gourvernance des données données au sein du Data Lake : Gestion de meta-données, production de KPI, data lineage, audit.
- Produire la documentation.


Profil recherché :

Formation :
- Ingénieur ou diplôme universitaire équivalent en IT (Master)

Experience :
- Profil recherché : Architecte Logiciel spécialisé dans le Big Data avec une implication personnelle avérée dans la mise en pratique des technologies de l’écosystème Hadoop.
- Une expérience dans le secteur de la Finance, idéalement en Asset Management serait un plus.

Connaissances techniques :
- Maitrise approfondie de l’écosystème Hadoop, idéalement Cloudera.
- Gestion des données (stockage / organization / modélisation/ processing / gouvernance).
- Conception et design de solutions complexes utilisant de multiples data technologies : Hadoop, Spark, HBase, Hive, Impala, SoIR….
- Bonne connaissance des concepts et des technologies de gestion de la sécurité : Kerberos, ACL, Sentry, CyberArk…
- Sensibité importante sur la gestion de la production de systèmes critiques exigeant haute disponibilité, performances, scalabilité…
- Data API : REST web services, messaging (Kafka)…
- Agilité: Scum, Kanban.
- Maitrise des best practices du software craftsmanship (CI / CD, patterns de développement…).
- Pratique des concepts DevOps : Culture, automatisation (Ansible), scripts OPS, containers (Docker)...

Knowledge and skills :
- Français et anglais courants (écrit et oral)
- Excellente communication et compétences interpersonnelles, ainsi que des capacités de leadership et de management.

Compétences personnelles :
- Capacité pour évangéliser et former l’équipe de développement du Data Lake, notamment sur le développement en méthode agile.
- Excellente communication orale et écrite.
- Forte conviction, capacité d’impact.
- Excellentes compétences personnelles: Proactivité, leadership, autonomie, dynamisme, bonne organisation, rigueur.
- Orientation “valeur pour le business”, “valeur pour le client”.

Conditions de travail spécifiques :
- Déplacements occasionnels.
- Disponibilité et flexibilité des horaires de travail en cas de besoin exceptionnel (lancement de projet, incidents de Production, …).