Rossel est le premier groupe de presse et de médias francophone en Belgique, avec une histoire de 130 ans depuis la création du Soir en 1887. Groupe familial en constante évolution, ses valeurs – indépendance, proximité, appartenance, respect – guident ses choix stratégiques.
Fort de plus de 58 marques (presse, radio, web, TV), Rossel touche quotidiennement 3 millions de lecteurs, 2,2 millions d’auditeurs et 3,5 millions de téléspectateurs, avec près de 29 millions d’utilisateurs uniques par mois sur ses plateformes numériques
Au sein de Rossel, la cellule IT spécialisée en données construit des solutions innovantes pour transformer la manière dont les équipes travaillent et exploitent la donnée, au service de la performance et de la qualité de l’information.
Votre mission
En tant que Data Architect, sous la supervision du Domain Manager Data, vous aurez pour mission :
Définition de l’architecture des données
- Concevoir l’architecture des données cible, alignée sur les besoins métier, les contraintes techniques et les objectifs stratégiques.
- Décrire les flux de données (entrées, sorties, stockage, traitement).
Modélisation et cartographie
- Définir les modèles de données pour chaque projet.
- Mettre en place et maintenir une cartographie des données conforme aux standards du Groupe.
Normes et standards
- Élaborer, avec le métier, les normes et bonnes pratiques pour structurer, sécuriser et garantir la qualité des données.
- Veiller au respect de ces standards au sein de l’équipe.
Support aux projets
- Accompagner les chefs de projets et les équipes IT/métier sur les choix technologiques liés à la donnée.
- S’assurer de la cohérence avec l’architecture d’entreprise et collaborer avec les architectes des autres domaines.
Interopérabilité et intégration
- Concevoir des mécanismes d’intégration entre systèmes internes et externes (API, flux, EAI, ESB…).
- Favoriser la réutilisation des données via des services et modèles partagés.
Développements de flux ETL
- Implémenter des flux ETL robustes et performants, en respectant les standards ETL/BI, les plannings et les exigences de performance et de gouvernance de la qualité des données.
Veille technologique et innovation
- Assurer une veille active pour challenger les orientations prises, anticiper les évolutions techniques et proposer des améliorations.
Collaboration et gouvernance
- Travailler étroitement avec les Data Stewards, Data Owners, Data Engineers, etc.
- Contribuer à la gouvernance des données (qualité, sécurité, cycle de vie).
FinOps Cloud
- En collaboration avec les équipes Opérations et Infrastructure, optimiser l’utilisation des services cloud (Azure) pour plus d’efficacité et de maîtrise des coûts.
Environnement technique
Vous évoluerez dans un environnement data-driven moderne et collaboratif, orienté vers le cloud Microsoft Azure :
- Cloud & Analytics
• Azure Data Factory
• Azure Databricks / Unity Catalog
• Azure Synapse Analytics
• Azure Data Lake
• Azure DevOps - Outils collaboratifs & documentation
• Confluence (documentation technique & fonctionnelle)
• Microsoft Teams
• SharePoint
Profil recherché
Formation
- Bac+5 en informatique (école d’ingénieur ou université).
Qualités personnelles
- Autonomie, rigueur et sens de la documentation.
- Esprit analytique, structuré et curieux.
- Capacité à collaborer avec des équipes pluridisciplinaires (métier, BI, IT).
- Envie de contribuer à des projets innovants autour de la valorisation de la donnée.
Compétences techniques clés
- Langages & traitements de données
• Excellente maîtrise du langage SQL.
• Connaissance de modèles NoSQL (MongoDB, CosmosDB…).
• Expérience confirmée en Python et PySpark pour le traitement massivement parallèle.
• Sensibilité aux bonnes pratiques de développement (versioning, test, revue de code…). - Modélisation & gouvernance des données
• Maîtrise des modèles de données (étoile, flocon, 3NF…).
• Compréhension des principes de gouvernance (catalogue, qualité, traçabilité, sécurité).
• Connaissance ou appétence pour les cadres de référence (ex. : DAAM, DAMA-DMBOK). - Data Engineering & architecture
• Conception de pipelines ETL/ELT robustes et scalables.
• Capacité à définir une architecture data cible et des flux complexes.
• Expérience dans la sécurité, la gestion des accès et l’optimisation des coûts cloud.
• Culture DevOps (CI/CD, automatisation des déploiements). - Langues
• Français courant.
• Anglais professionnel (pour échanger avec des partenaires externes).
Atouts supplémentaires
- Connaissances en DataOps.
- Expérience sur des outils de data cataloguing ou de data lineage.
- Notions de sécurité des données (RGPD, chiffrement, anonymisation).
- Connaissance du langage Go.
- Certifications techniques (ex. : DP-203, AZ-104, AZ-305…).
Notre offre
- Un rôle clé dans un Groupe en pleine transformation numérique.
- Des projets innovants et stratégiques pour l’avenir des médias.
- Un environnement collaboratif et stimulant avec des outils modernes (Confluence, Teams, SharePoint).
- La possibilité de développer vos compétences et de faire grandir votre expertise technique.
- Une entreprise qui valorise l’initiative, l’autonomie et la performance collective.