Gestion de données N4 - Expert ou experte en science des données
Burnaby, BC, CA Edmonton, AB, CA Montréal, QC, CA Qu?bec, QC, CA Toronto, ON, CA Ottawa, ON, CA Vancouver, BC, CA Calgary, AB, CA
Joignez-vous à notre équipe et ce que nous accomplirons ensemble
L’équipe Stratégie et mise en œuvre de données a pour mission de faire de TELUS un chef de file mondial en matière de solutions de données. Nous sommes les architectes de l’avenir, et à ce titre nous bâtissons les plateformes de données unifiées et évolutives et pavons la voie à une culture axée sur les produits et les données qui alimentent les décisions et l’innovation dans toute l’entreprise. Notre travail constitue le fondement sur lequel reposent l’analytique avancée et l’intelligence artificielle (IA) révolutionnaire.
En tant qu’expert ou experte en science des données au sein de notre équipe, vous serez au cœur de cette transformation. Vous appliquerez votre expertise des systèmes de données, de l’architecture et du développement logiciel pour construire et déployer les pipelines de données robustes et de haute qualité qui alimentent nos activités. Vous collaborerez étroitement avec les scientifiques des données, les ingénieurs en apprentissage-machine, les architectes de données et diverses parties prenantes de l’entreprise pour transformer les problèmes de données complexes en solutions de données fiables, évolutives et automatisées.
Voici comment
- Collaborer avec des parties prenantes commerciales et technologiques pour comprendre les besoins en données et les traduire en conceptions techniques pour des pipelines de données résilients et performants.
- Diriger la conception, le développement et le déploiement de solutions sophistiquées d’intégration, de transformation et de livraison de données en utilisant des technologies infonuagiques modernes et natives.
- Développer et maintenir des pipelines de données robustes et évolutifs pour générer un flux de données continu et fiable, en garantissant la qualité et la disponibilité des données pour les modèles d’apprentissage-machine, l’analytique et les activités commerciales critiques.
- Travailler avec des ensembles de données variés et complexes pour créer des solutions élégantes pour extraire, modéliser et préparer les données pour une variété de cas d’utilisation en aval.
- Concevoir et mettre en œuvre la transformation et la modernisation de nos solutions de données, en tirant parti des services natifs de Google Cloud Platform (GCP) et d’autres technologies de données de pointe.
- Cerner et mettre en œuvre des occasions d’automatisation dans le cycle de vie du développement et de la production pour améliorer l’efficacité, la fiabilité et la rapidité.
- Promouvoir et mettre en œuvre les meilleures pratiques en matière d’ingénierie logicielle, d’ingénierie des données et de gestion des données au sein de l’équipe.
- Évaluer continuellement l’évolution des technologies des données et cerner de nouvelles occasions de stimuler l’innovation et l’efficacité.
Vous possèdez
- Une expérience avérée dans la conception, le développement et le déploiement de pipelines et de solutions de données qui génèrent une valeur commerciale tangible, comme en témoignent vos 5 années et plus d’expérience dans la mise en œuvre de plateformes de TI.
- Un baccalauréat en informatique, en ingénierie ou dans un domaine équivalent.
Une compréhension profonde et une expérience pratique des principes et des meilleures pratiques de l’ingénierie des données, avec une connaissance avancée de Dataflow, Spark ou Kafka. - Une solide expérience en conception de systèmes, avec la capacité de concevoir, de documenter et d’expliquer des interactions de systèmes, des flux de données et des API complexes.
- D’excellentes compétences en communication jumelées à une capacité d’articuler clairement des concepts et des solutions de données complexes à divers publics techniques et non techniques.
- Une expérience avancée de Python et la maîtrise des bibliothèques de manipulation de données (comme Pandas), associées à de solides compétences en SQL pour les requêtes complexes et l’analyse de données.
- Une bonne connaissance d’au moins une plateforme infonuagique majeure (GCP, AWS, Azure) et une expérience pratique du déploiement de solutions de données.
- De solides compétences en analyse et en résolution de problèmes, avec une capacité de traduire les besoins complexes d’entreprise en solutions de données évolutives et faciles à maintenir.
- Une passion pour l’innovation, une attitude axée sur les résultats, une approche agile avec une propension à l’action et une mentalité d’agent de changement.
Les atouts
- Certification de Professional Data Engineer avec la plateforme GCP
- Expérience pratique avec les services de données Databricks, Azure ou AWS
- Compréhension des modèles de données des télécommunications ou des normes du TMF
- Expérience en activités d’apprentissage-machine, en appui à l’infrastructure de données requise pour les flux de travail d’apprentissage-machine
- Connaissance de l’infrastructure en tant que code (p. ex., Terraform) et des pratiques d’intégration et de livraison continues