Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Data steward
Le service observabilité est une entité transverse de la direction du système d’information et du Digital, au service des Directions Métiers et de la DSID. Sa mission est de définir et de mettre en œuvre les solutions de supervision techniques, applicatives et fonctionnelles. Dans le cadre d'un nouveau programme, nous devons renforcer la capacité du produit observabilité à déployer de nouvelles solutions. MAITRISER ET DOCUMENTER LA DONNEE METIER • Apporte un conseil personnalisé répondant aux problématiques des acteurs de la donnée • Qualifie et enrichie la donnée en s’assurant que l’utilisateur dispose du plus grand nombre d’informations (catalogue de données, validation de la définition de la donnée) • Accompagne la cartographie de la donnée • Optimise la prise en main et l’utilisation et de la donnée en facilitant sa compréhension • Accompagne les acteurs de la donnée dans le maintien de la connaissance de la donnée (dictionnaire, référentiels de contrôle) GARANTIR LA METHODOLOGIE ET LE MAINTIEN DE LA QUALITE DES DONNEES • Accompagne les acteurs de la donnée dans le respect des règlementations en vigueur (RGPD, …) et des règles d’éthique définies au sein du Groupe. • Apporte un conseil pour fiabiliser la provenance de la donnée afin d’en maitriser son usage (cycle de vie) • Accompagne les acteurs de la donnée dans la maitrise de la qualité de leurs données : diagnostic, suivi de leur procédure de qualité • Déployer et pérenniser les procédures de détection et de correction des problèmes de qualité des données
Mission freelance
Data Steward
La mission consiste à : - Maitriser et documenter la donnée métier - Garantir la méthodologie et le maintien de la qualité des données - Mission sur la métropole lilloise avec télétravail hybride (2 ou 3 jours / semaine) Compétences recherchées : - Une expérience au sien d’une équipe de gouvernance des données et/ou une expérience autour de la mise en qualité des données - Connaissance des principes de la gouvernance de la donnée - Connaissance en analyse et gestion de la donnée - Maitrise du fonctionnement en équipe agile - Capacité d'analyse et de synthèse - Cloud (GCP)
Offre d'emploi
Data steward
L'équipe Data Management a pour principales missions : - Collecte : Alimentation de données structurées et non structurées à partir de sources internes et externes - Echange : Mettre en place des flux de données entrants et sortants à partir des plateformes d’échanges - Modélisation : modélisation et stockage des données à la 3ème forme normale. - Consolidation : mise en qualité des données (profiling, normalisation, rapprochement, dédoublonnage, enrichissement, mise en place de règles QDD) - Exploitation et diffusion : o Reporting opérationnels (rapports de masse, listing), managériaux (indicateurs de pilotage), et stratégiques (indicateurs de performance) o Analyses statistiques, datamining et Big Data o Gestion des campagnes marketing o Mise à disposition des données auprès des autres SI du paysage applicatif dans une approche MDM - Gouvernance : Cartographier les données, évaluer et superviser la qualité des données, mettre en œuvre et contrôler les processus, appliquer et contrôler les normes et politiques de gouvernance de la données - Documentation: Assurer la tenue d’ateliers fonctionnels et la rédaction des besoins fonctionnels associés aux domaines : d’échange, de collecte, de modélisation, de consolidation, d’exploitation et de diffusion. - Maintien en Condition Opérationnelle (MCO): Assurer le suivi de production de l’intégralité des traitements exécutés et administrer par l’Equipe Data Management. Le consultant intègrera une Feature Team « Data Office » dont la mission consistera à : • Cartographier les données des domaines (Client et Prospect, Facturation et Recouvrement, et Mesures, etc), mettre à jour le modèle d’objets métier et documenter les règles et processus qui s’appliquent à la gestion des données des domaines (règles de qualité , cycle de vie de la donnée , règles juridiques et métiers) en lien avec les data owners métiers. • Évaluer et superviser la qualité des données des domaines et identifier les approches optimales pour résoudre les problèmes de qualité ou de cohérence des données afin d'atteindre les objectifs. • Mettre en œuvre et contrôler les processus de demande (demande de données, évolution du modèle, création d'attributs, évolution de la qualification des versions, etc.) • Appliquer et contrôler les normes et politiques de gouvernance de la données dans les tâches quotidiennes (incluant les activités de Data By Design en phase de projet) • Participer ou organiser des ateliers métiers, recueillir et analyser les processus métiers jusqu’au stockage dans les bases de données • Accompagner le métier dans la phase de validation • Développer et déployer les assets dans Collibra • Maintenir et assurer l’uniformisation des développements et déploiements des assets dans Collibra en implémentant et partageant un guide utilisateur pour les développeurs et les métiers • Assurer l'assistance et le support utilisateurs (questions, incidents, etc.), cette activité concerne au plus 20% de la prestation
Mission freelance
Data Steward Observabilité H/F
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Steward Observabilité H/F à Lille et périphérie. Contexte : Le candidat devra : • Connaitre le domaine de l’observabilité • S’appuyer sur les outils et la démarche Data du groupe • Identifier, classifier et définir la durée de conservation en collaboration avec le propriétaire de cas d’usage d’observabilité • Etablir un dictionnaire des données en collaboration avec le propriétaire de cas d’usage et l’architecte données • Implémenter les moyens de collectes des données d’observabilité (dans les applications/infrastructures, les outils d’observabilité ou dans les contrats Cloud) • Suivre et améliorer la qualité des données pour répondre aux cas d’usage • S’assurer du respect du cycle de vie de la donnée (archivage, suppression) Les missions attendues par le Data Steward Observabilité H/F : MAITRISER ET DOCUMENTER LA DONNEE METIER • Apporte un conseil personnalisé répondant aux problématiques des acteurs de la donnée ; • Qualifie et enrichie la donnée en s’assurant que l’utilisateur dispose du plus grand nombre d’informations (catalogue de données, validation de la définition de la donnée) ; • Accompagne la cartographie de la donnée ; • Optimise la prise en main et l’utilisation et de la donnée en facilitant sa compréhension ; • Accompagne les acteurs de la donnée dans le maintien de la connaissance de la donnée (dictionnaire, référentiels de contrôle) GARANTIR LA METHODOLOGIE ET LE MAINTIEN DE LA QUALITE DES DONNEES • Accompagne les acteurs de la donnée dans le respect des règlementations en vigueur (RGPD, …) et des règles d’éthique définies au sein du Groupe. • Apporte un conseil pour fiabiliser la provenance de la donnée afin d’en maitriser son usage (cycle de vie) • Accompagne les acteurs de la donnée dans la maitrise de la qualité de leurs données : diagnostic, suivi de leur procédure de qualité ; • Déployer et pérenniser les procédures de détection et de correction des problèmes de qualité des données ; Livrables attendus Référentiel Data Observabilité Procédures associées à la gestion des données (gestion des accès, librairie de rapports, …) Exposition des données d’observabilité sous forme d’api
Mission freelance
Data Steward / Responsable des données (H/F)
Nous sommes à la recherche pour l'un de nos client un responsable des données (H/F). Contexte de la mission : L'objectif de cette mission est de créer un référentiel commun pour notre domaine Service ainsi que pour les initiatives de Tarification et Hors Domicile. Vous nous aiderez à mettre en œuvre la stratégie de gestion des données maîtres du groupe, en développant et en mettant en œuvre des solutions de gestion des données maîtres dans le paysage Business & IT pour le domaine Service ainsi que pour les initiatives de Tarification et Hors Domicile. Vous nous soutiendrez dans la standardisation des processus de gestion des données à l'échelle de l'entreprise tout au long du cycle de vie des données : de la capture des données au traitement et à l'utilisation à travers les processus commerciaux et le paysage des applications IT. Vous soutiendrez et guiderez le Responsable des données métier pour mettre en œuvre les processus de gouvernance des données maîtres et les implémentations de données dans notre solution MDM (Master Data Management). Pour atteindre cet objectif, vous travaillerez en étroite collaboration avec le groupe et les unités commerciales, en particulier avec le département marketing ainsi qu'avec les parties prenantes de l'IT commercial. Missions : Fournir des conseils stratégiques et les meilleures pratiques en MDM pour soutenir les ambitions du domaine de données. Guider la définition et le déploiement de stratégies de gouvernance des données, politiques, rôles, responsabilités, processus, contrôles et règles. Faciliter les discussions avec les principales parties prenantes pour identifier les principaux processus métiers et les besoins en données maîtres et de référence associés. Animer des groupes de travail pour identifier les données clés et comprendre les dépendances fonctionnelles. Concevoir les différentes vues du modèle de données, de la définition des dépendances fonctionnelles à la création du modèle de relation entre les entités. Diriger la conception et la mise en œuvre de workflows de gouvernance des données, des règles métiers, de la modélisation des données, de l'intégration des données. Produire et mettre à jour toute la documentation nécessaire pour créer un référentiel et gérer ses données Interagir avec les parties prenantes du métier, les propriétaires de produits, les architectes IT pour prioriser et sélectionner les améliorations à apporter à la solution MDM. Fournir un leadership technique à l'équipe projet, soutenir le mappage des données, définir les politiques et les règles métier pour la création et la maintenance des données maîtres. Effectuer des tâches de nettoyage des données pour nettoyer les données du domaine Service Préparer les documents de conception pour la migration des données MDM et les activités d'import/export. Soutenir l'intégration, les tests système et d'acceptation utilisateur, gérer la stratégie de migration et de basculement, les chargements de données.
Mission freelance
Manager Réseau Sécurité Datacenter - Cloud privé
PROPULSE IT recherche un Manager/Pilote - Réseau et Sécurité Datacenter afin d'assister le client dans le pilotage de l'aquipe de consultants experts Le service s'occupe de la conception, la mise en œuvre et l'industrialisation de l'Infra réseau et sécurité au sein des datacenters et cloud privé. Cela, de l'élaboration de la stratégie, la conception, à la mise en œuvre technique et le support des Infras en datacenter (Cloud privé on premise) Le poste consiste à : - Seconder le manager des équipes d'experts - Accompagner l'établissement de la Roadmap - Optimiser les processus et les livrables, ainsi que l'organisation - Accompagner le pilotage des projets - Gérer les priorité, fluidifier le fonctionnement - Budgets Contexte des projets de l'équipe : Virtualisation, Stockage et le socle Réseau datacenter - Etude et analyse des opportunités d'évolution des infras Réseau & Sécurité - Mise en œuvre de projets d'infras réseau & sécurité - Support technique N3 sur les technologies réseau & sécurité Contexte technique • Réseaux LAN : Cisco Fabric Path/VxLAN, • Solutions de sécurité dans le cloud (Proxy ZScaler, Idp OKTA …) • Infras de Sécurité : Checkpoint, Fortinet, Palo Alto et F5 (LTM et APM) • Scripting Shell, Ansible Network Automation, Terraform • Système : Redhat linux 8, Windwos 2019 Les compétences fonctionnelles attendues sont les suivantes (par ordre de priorité) : • Conception des architectures et expertise • Support N3 en réseau et sécurité, notamment ZScaler, Checkpoint, Fortinet et F5 • Rédaction/ Enrichissement de base de connaissances • Reporting de l'activité projet au management
Mission freelance
Data Modeler - Industrie
Concevoir et maintenir des modèles de données conceptuels, logiques et physiques adaptés aux besoins métiers. Collaborer avec les équipes techniques et métiers pour identifier et formaliser les besoins en données. Définir les relations entre les différentes entités et structurer les bases de données relationnelles et NoSQL. Optimiser la performance des bases de données (indexation, partitionnement, etc.) en fonction des volumes et types de données. Garantir l'intégrité et la qualité des données via la mise en place de règles de gestion et de validation. Documenter les modèles de données et fournir des schémas et rapports techniques détaillés. Assurer une veille technologique sur les nouvelles méthodes et outils de modélisation des données.
Mission freelance
Data Scientist Senior
Expérience et Compétences Clés : Solide expérience dans le domaine de la Data Science, avec une gestion réussie de projets complexes et la mise en œuvre de use cases avancés. Gestion des Use Cases : Capacité à identifier, formuler et développer des use cases concrets en Data Science, tout en assurant leur alignement avec les objectifs métiers. Stack Technique : Maîtrise de Python pour le développement d'algorithmes de Data Science. Excellente compréhension des algorithmes de machine learning (supervisés et non supervisés) et des modèles prédictifs. Expérience dans l'entraînement, la validation et l'optimisation d'algorithmes de ML. Connaissances Métier : Capacité à relier les résultats des modèles à des décisions métiers concrètes, avec un bagage métier suffisant pour comprendre les problématiques des clients ou de l'entreprise. Formalisation des Use Cases : Aptitude à structurer et formaliser les use cases à chaque étape (de la collecte des données à l'interprétation des résultats).
Offre d'emploi
IT business Analyst CRM
Afin de soutenir l'ambition du groupe d'améliorer la connaissance et l'expérience client, la mission vise à renforcer la livraison de la plateforme CRM du Groupe, qui dessert 7 entreprises du Groupe. Le consultant jouera un rôle mixte de 1/ gestion de projet 2/ Analyste métier, en relation directe avec les contacts commerciaux. Vous ferez partie de l'équipe informatique, composée d'un responsable des applications, de 4 chefs de projet/analystes métiers basés à Paris et en Allemagne, et de 15 développeurs sur notre plateforme de développement en Tunisie, faisant partie du Groupe. Afin de maximiser les fonctionnalités intersectorielles, la feuille de route métier est centralisée et pilotée par les solutions de données (département marketing du Groupe), travaillant en étroite collaboration avec l'équipe informatique. Vous serez en contact direct avec les entreprises pour les aider à améliorer leurs processus de vente et de marketing. Le CRM du groupe repose entièrement sur un développement interne. Le CRM est interconnecté avec l'outil d'automatisation du marketing : Oracle Eloqua ainsi qu'avec de nombreux systèmes métier du Groupe. Le CRM englobe la solution de reporting/analyse IBM Cognos Analytics (v11).
Offre d'emploi
IT Product Owner - DATA (Segmentation / Ciblage / RGPD)
Contexte La direction Technique mène des projets transverses en étroite collaboration avec les autres directions, au service des éditeurs de contenus et de services. Dans ce contexte, la direction Technique a besoin d’être accompagné sur une mission de Product Owner. Objectif de la prestation Au sein d’une équipe composée d’un Product Owner, de développeurs et d’un Scrum master, la prestation portera sur l’interfaçage entre différents services de l’écosystème de France Télévisions. Dans ce contexte, la prestation de Product Owner consistera à participer à : - La collaboration et la construction du produit en interaction avec l’équipe et une grande variété d’interlocuteurs de la Direction - Recueil des besoins et cadrages fonctionnels, - Animation du backlog produit, - Pilotage des roadmaps et des instances Agile, - Recettes, - Mise en place et suivi de KPI, - Exploitation et maintien des produits en production, - Animation des évolutions produit, - Rédaction et évolution de la documentation, - Monitoring et gestion d’incident, - Mise à disposition du produit auprès des clients internes.
Offre d'emploi
Data Engineer
Nous recherchons deux Ingénieurs Data — Medior — pour concevoir, implémenter et optimiser des solutions de données basées sur le cloud. Les candidats idéaux travailleront sur des plateformes de données modernes comme Snowflake et des outils comme DBT et Wherescape RED pour soutenir nos initiatives de data warehouse, y compris l'adoption de l'architecture Data Vault 2.0. Principales responsabilités : Concevoir et implémenter des processus ETL pour migrer des données d'Oracle vers Snowflake en utilisant DBT. Développer des solutions de données cloud en utilisant des outils comme DBT pour la transformation des données. Travailler avec le cadre Data Vault 2.0 pour concevoir des solutions de data warehouse évolutives. Collaborer avec des équipes interfonctionnelles pour implémenter des pipelines CI/CD pour les workflows ETL. Rédiger et maintenir une documentation complète pour les processus ETL et les pipelines de données. Compétences et exigences : Outils : DBT, Wherescape RED, Snowflake, Oracle, Azure Synapse. Programmation : SQL, Python, ou d'autres langages de programmation modernes similaires. Contrôle de version : Maîtrise de Git pour le développement en mode trunk-based. Tests : Expérience en tests d'intégrité des données, de performance et de régression. Connaissances : Data Vault 2.0, concepts modernes de data warehousing. Résumé du rôle : Le rôles est axés sur la création de pipelines de données efficaces et évolutifs en utilisant des technologies cloud telles que Snowflake et DBT. et est davantage concentré sur l'exécution pratique et la livraison des projets. Pour postuler, envoyez votre CV et vous contacterons dans les plus brefs délais.
Offre d'emploi
Chef de projet infrastructure datacenter
Au sein de l’entité en charge de l’exploitation des Datacenters ainsi que les projets de mutualisation et de consolidation des Datacenters du Groupe en France et à l’international, nous recherchons un chef de projet afin d’améliorer la qualité de la gestion de la demande (projet et RUN). Principales tâches : La gestion de l’ensemble des demandes émanant du partenaire et/ou client ainsi que de l'entité Datacenter (récolter les besoins fonctionnels et techniques des besoins clients afin de les soumettre aux équipes Datacenter) Le Pilotage et suivi de l'avancement des projets (livrables des services) avec une analyse mensuelle du respect des SLA, de la mise en place et suivi des points d'améliorations Le suivi budgétaire de son périmètre Garantir la qualité et la continuité du service dans le respect des contrats de services La gestion des reporting mensuel (Projet et Run) ainsi que diverses documentations Expliquer les contraintes et les problèmes rencontrés lors de la livraison du service La gestion et le suivis de la roadmap projets (respect des délais de livraison et remonté des anomalies de traitement pour améliorations)
Mission freelance
CONSULTANT TECHNQUE BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS
CONSULTANT BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS Expérience ciblée : PLUS DE 10 ANS Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
Mission freelance
EXPERT DATA BI SSIS SQL SERVER AZURE DEVOPS
Pour l'un de nos client basé à La Defense, nous recherchons un expert Microsoft BI très orienté Data sur l'ETL SSIS et T/SQL pour une mission très orientée optimisation et Run avec cependant quelques projets en parallèle : Consultant MOE BI / Domaine Socle Data / Domaine : Etudes et Intégration / Ingénierie d'Etude / Conception ▪ Descriptif détaillé de la mission : ➢ Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) ➢ Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. ➢ Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. ➢ Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. ➢ Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). ➢ Conseiller, proposer des axes d'amélioration, alerter si besoin. ▪ Environnement technique de la mission : ➢ Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) ➢ Reporting : COGNOS BI 10.2 et 11 & Tableau
Offre d'emploi
Directeur de projet migration Data - snowflake
🏭 Secteurs stratégiques : Banque de détail 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Les données transversales sont historiquement hébergées dans 3 entrepôts de données en technologie Teradata ainsi que dans divers datamarts utilisant plusieurs solutions d’accès aux données (Microstrategy, SAS, DataIku). Les data pipelines utilisent majoritairement les solutions DataStage et Informatica. Afin d’optimiser les coûts de run (TCO) et de gagner en productivité, nous envisageons de migrer en mode « lift end shift » les entrepôts de données et la partie data lake vers une solution lake house (Snowflake ou Databricks) avec un enjeu fort sur les délais. Une étude de cadrage détaillée a été lancée cet été et doit se terminer fin 2024 en vue de démarrer la phase d’exécution du projet de migration dès janvier 2025 afin de pouvoir tenir nos jalons. Cette étude vise à : Finaliser le Business case, la formalisation de la valeur métier et l’estimation des coûts (éditeurs, intégrateurs, SG, infrastructure on-premise et public cloud) Préciser l’architecture cible et en particulier la strategy à adopter sur le code ETL/ELT et les couches d’accès à la donnée Identifier avec précision l’ensemble du code/données à migrer en incluant les usages industriels et ceux de type shadow IT Contractualiser un forfait avec l’éditeur avec engagement de résultat sur la migration et potentiellement un second forfait avec un intégrateur pour assurer le déploiement dans l’infra SG du code migré ainsi que les tests d’acceptance permettant de valider les livrables de l’éditeur Définir la stratégie de migration (découpage en lots, périodes de freeze, stratégie de tests, prallel run...) dans un environnement avec une forte complexité applicative (grand nombre d’interdépendances) et organisationnel (plus d’une vingtaine d’équipes à coordonner) Construction de la roadmap de migration, de son suivi, définition des KPIs/critères de succès avec un focus fort sur le suivi contractuel des éditeurs/intégrateurs et la définition de la gouvernance associée Instruire les process SG visant au bon respect de nos règles de sécurité, d’architecture et de nos principes data dans le cadre réglementaire applicable Dans ce cadre la prestation consiste à contribuer à/au(x) : Contribuer au pilotage de l’étude détaillée 2024, Livrables, suivi et gestion dans son ensemble Reporting au senior management
Mission freelance
Business Analyst Customer Data 360 & CRM
Intégré(e) à la direction Marketing au sein du Customer Data Management (CDM) vous contribuerez au projet OneCRM dans un environnement complexe, international et transverse. Vous travaillerez au cœur de l’application Operational Customer Experiences (OCP), basée sur des technologies Big Data , qui capture et expose en temps réel des centaines d’événements au cours du parcours client. Dans ce rôle, vous serez responsable de la préparation des données clients pour un certain nombre de campagnes de communication (email, mobile, SMS), en coordination avec les parties prenantes internes (IT, projet OneCRM, architectes) et externes. Vous assurerez l’acquisition de nouvelles données, l’analyse des données existantes, et la validation des développements techniques. Analyse des données : Identifier les données disponibles, celles manquantes, et déterminer les règles de transformation. Gestion des campagnes : Préparer les données pour les campagnes de communication (email, app mobile, SMS) dans un contexte international. Suivi des développements : Accompagner les équipes techniques et valider les résultats. Qualité des données : Veiller à la qualité et à la fiabilité des données utilisées pour les campagnes. Documentation : Rédiger les règles métiers associées aux données et aux campagnes. Communication : Assurer un reporting régulier sur les réalisations et les avancées du projet auprès des parties prenantes.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes