
PO/Data Business Analyst
- الرباط
- دائم
- دوام كامل
- Des parcours professionnels diversifiés avec des opportunités de carrière, une mobilité interne, sectorielle, géographique et métiers.
- Des formations certifiantes et diplômantes.
- Des événements réguliers pour combiner bien être et performance.
- Concevoir les solutions : Guider l'analyse, réaliser le cadrage. Rédiger les spécifications technico-fonctionnelles. Préparer la recette. Suivre la mise en œuvre (avec l’équipe scrum).
- Réaliser la modélisation des objets métiers du domaine dans le socle Big Data (livrables : un MDD)
- Spécifier les flux d’alimentation (livrables: contrat d'interface, spécifications de mapping)
- Concevoir les expositions (WS et modèles BDD) en collaboration avec l’équipe de Gouvernance Data.
- Assurer la dimension fonctionnelle du domaine de données pris en charge
- Construire / Participer à la construction de la roadmap du produit data
- Assurer une cohérence transverse avec les autres lignes produit de la plateforme
- Être garant de la qualité du domaine de données : concevoir/utiliser les tableaux de bord de qualité de données pour identifier les problèmes et dettes techniques. Identifier les défauts liés aux sourcing, puis animer ce backlog auprès des différents fournisseurs.
- Qualifier, documenter et donner du sens aux données manipulées.
- Animer une communauté d'utilisateurs de la donnée : représenter la connaissance du process métier et être l'interlocuteur privilégié des équipes métiers et des correspondants IT
- Gérer les demandes d’évolutions ou les anomalies remontées par les consommateurs
- La manipulation de grandes volumétries de données (sous SQL/BigQuery) et analyse de
- données
- La gestion au quotidien d’une équipe projet
- La capacité à interagir avec des équipes non-techniques, notamment dans les domaines Finance et Commerciales
- Solide expérience en développement avec des langages comme Scala et/ou Java, et une compréhension approfondie des concepts de programmation fonctionnelle.
- Compétences avérées dans l'utilisation de plateformes de streaming de données comme Apache Kafka, et de frameworks de traitement de données distribuées comme Apache Spark.
- Expérience significative dans le domaine de la Data et du Cloud (GCP ou AWS), en particulier les services tels que Cloud Storage, BigQuery, Dataproc, Kubernetes, et d'autres outils pertinents pour la gestion et le traitement de données à grande échelle
- Bonne maîtrise de BigQuery et du SQL avancé, avec une expérience sur des traitements de gros volumes de données.
- Maîtrise des outils de CI/CD, en particulier via GitLab CI/CD et Docker Compose, pour l’automatisation des workflows data.
- Bonne connaissance de l’environnement Linux et des outils de ligne de commande.
- Connaissance approfondie des concepts d'architecture microservices et des bonnes pratiques de développement.
- Expérience dans l'écriture de tests unitaires et d'intégration pour garantir la qualité du code.
- Excellente communication écrite et orale : Aptitude à produire des livrables et des reportings de haute qualité.
- Connaissance sur Kafka-stream, spring boot,
- Travail en méthodologie agile (Scrum), avec une capacité à collaborer efficacement dans des équipes pluridisciplinaires.