Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Data Governance Officer
Dans le cadre de la réalisation de divers projet, Pour notre client dans le secteur de l'industrie, nous recherchons un consultant data gouvernance qui sera en charge de la mise en place de l'architecture Policies ainsi que d'autres sujets en cours Vos missions : Excellente maitrise de l'architecture policies : Architecture Médaillon Très bonne capacité à cataloguer des données Expériences en gouvernance fédérée via un méta model Compétences en Data Quality et Data Observability capacité à gérer des projets dans la data
Offre d'emploi
Microsoft Fabric Engineer
1 jour sur site en Belgique Votre mission : Contribuer à l'optimisation des pipelines de données et à l'intégration de solutions innovantes dans notre infrastructure IT en tant qu'Ingénieur Microsoft Fabric. Ce que vous ferez : Améliorer l'efficacité des systèmes de gestion des données pour une prise de décision éclairée. Soutenir les équipes Data Science et DevOps avec une infrastructure fiable et évolutive. Développer des solutions pour automatiser les processus de gestion des données. Participer aux comités techniques pour recommander des améliorations. Documenter les processus et créer des guides utilisateurs. Ce que nous offrons : Une ambiance conviviale avec des collègues passionnés et professionnels. Un accompagnement par des experts et des formations continues. Autonomie dans un rôle varié, riche en opportunités d'apprentissage. Des outils et technologies de pointe. Un accompagnement personnalisé pour votre développement de carrière. Flexibilité avec des options de télétravail et un package salarial attractif. Un environnement de travail dynamique, axé sur l'innovation et le bien-être, avec des activités ludiques comme des food trucks et des barbecues. Votre profil : Expertise en gestion de données avec Microsoft Fabric et Azure. Bonne maîtrise des pipelines de données et de l'intégration continue. Connaissance de Python ou Spark, ainsi que des outils comme Power BI. Expérience avec les services cloud Azure et la sécurité des données. Certification DP600 préférée. Bilingue FR/EN avec un esprit analytique et proactif. Si vous êtes prêt à relever ce défi, n’hésitez pas à postuler !
Offre d'emploi
Développeur Talend
Contexte : Dans le cadre de la digitalisation et de l'optimisation de nos flux de données, nous recherchons un Développeur Talend pour renforcer notre équipe Data. Ce poste vous permettra d’intervenir sur l’ensemble du cycle de vie de nos projets d’intégration de données, avec une attention particulière à l’optimisation des flux et à la qualité des données. Vous collaborerez avec des équipes métier et techniques pour construire des solutions robustes et évolutives répondant aux besoins stratégiques de l’entreprise. Missions principales : Conception et développement des flux de données : Concevoir, développer et maintenir des flux ETL sous Talend pour assurer l’intégration et la transformation des données. Travailler en collaboration avec les équipes fonctionnelles et techniques pour identifier les besoins en intégration de données. Documenter les processus de développement et les transformations de données. Optimisation et maintenance des flux : Optimiser les processus d’intégration de données pour garantir performance et fiabilité. Assurer la maintenance corrective et évolutive des flux existants en fonction des besoins de l’entreprise. Effectuer des tests unitaires et fonctionnels, et veiller à la qualité des données tout au long des transformations. Gestion de la qualité des données : Mettre en place des contrôles qualité des données dans les flux pour garantir leur conformité et fiabilité. Contribuer à la mise en place des règles de gouvernance de la donnée et aux bonnes pratiques d’intégration. Participation aux projets transverses : Participer aux projets de migration, de consolidation de données et de gestion de référentiels de données. Collaborer avec les autres équipes de développement pour assurer une cohérence et une interopérabilité des données dans l’ensemble du SI. Contribuer à la veille technologique pour proposer des solutions innovantes et améliorer les processus d’intégration.
Offre d'emploi
Architecte Sécurité Cloud ./ Data (SASE : Netcop/OKTA)
Client : Banque Localisation : Maison Alfort Poste : Architecte Sécurité Cloud ./ Data Expérience : +9 années Démarrage : ASAP Objectif: Analyser les besoins Participer aux ateliers afin d’étudier et de cadrer les besoins en sécurité • Préconiser les solutions et architectures cibles • Contribuer à la rédaction des dossiers d’architecture et spécifications techniques basés sur les principes de sécurisation de la donnée • Coordonner la sécurité des projets afin d'aider les équipes à fournir des solutions d'infrastructure sécurisées avec les recommandations et les exigences de la SSI • Participer aux audits de sécurité des applications et des socles techniques • Effectuer des évaluations des risques techniques, la modélisation des menaces, des examens de la sécurité de l'architecture, des conseils et des suivis répétables pour les projets impliquant des services destinés aux clients de Bpifrance • Garantir la prévention et la bonne gestion des risques techniques en proposant des améliorations aux politiques, directives et normes de sécurité • Communiquer efficacement tout en répondant aux besoins de sécurité et en validant que les mesures de sécurité appropriées sont en place • Superviser le socle technique (sécurité, réseau, gouvernance...) • Veiller la sécurité et la fiabilité des environnements déployés • Créer / mettre à jour le corpus documentaire • Rédiger les dossiers d'arbitrage en étant force de proposition et de décision en coordination avec les parties prenantes du projet Industrialiser et opérer les environnements Contribuer à la mise en place des outils d’automatisation et de monitoring adaptés à l’environnement client • Participer à l’implémentation des outils nécessaires à la mise en place des pratiques DevOps (Puppet, Chef, Gitlab CI, Travis CI, Cloud Build, etc.)| Compétences métier souhaitables : Qualifications (seraient un plus) Certification de sécurité (CISSP et / ou GIAC) • Les certifications de fournisseur (AWS / Azure / GCP) • Expérience de sécurité offensive (Pentest, red teaming), un atout pour Bpifrance • Certification SAFe Expérience pertinente de +9 ans ou plus dans le domaine de la sécurité de l'information ou une expérience pertinente ; • Au moins cinq ans d'expérience pratique sur au moins l'un des sujets suivants : • sécurité Microsoft, sécurité réseau, sécurité Linux;|
Mission freelance
RELEASE MANAGER H/F
Au sein de la Direction Digital et Data et plus particulièrement au sein du Digital Conso Lab, vous intégrerez l'équipe en charge de la plateforme e-commerce du groupe. En tant que Release manager vous serez amené à travailler en coordination avec les équipes OPS, QA, DEV, les équipes produits du digital. Vous serez rattaché au manager du pôle et ferez partie d'une équipe composée de 3 collaborateurs en charge des plateformes e-commerce d’Intermarché, Bricomarché, Bricorama et Brico Cash. Les plateformes e-commerce sont hébergées en mode hybride ( On Premise + Cloud ) dans un contexte de modernisation et d’amélioration en continue . L’écosystème global dépend également d’autres solutions de partenaires que nous pilotons. Le contexte vous plait ? Découvrez votre quotidien au sein de votre future équipe. Vos missions : • Coordonner les déploiements avec les équipes de réalisation, les POs et QAs • S’assurer du passage de relai entre l’équipe de réalisation et les RA à la MEP d’un produit (Build to Run) • Assurer la mise en place et l’application de la stratégie de gestion des versions • Coordonner avec l’équipe la réalisation de la « Release Note technique » • Coordonner avec le PO la réalisation de la « Release Note fonctionnelle » • Identifier les besoins en termes de déploiement et d’automatisation des différentes versions applicatives et techniques et de les adresser avec les équipes • Être capable de monter en compétence et comprendre les enjeux métiers (gestion d’un grand nombre d’applications critiques) • Identifier les dépendances et les adresser aux différents acteurs : CDP, PO/PPO, métiers • Assurer la fiabilité de la roadmap, en respectant les besoins métier • Challenger les équipes techniques . Compétences De formation supérieure en informatique, vous justifiez déjà d'une solide expérience sur un poste similaire. Vous avez les qualités ci-dessous : • Avoir une bonne compréhension des méthodologies de gestion de projet (Scrum ou Kanban) pour coordonner efficacement le Delivery sur plusieurs plateformes. • Avoir une expertise dans l'automatisation des déploiements pour assurer des releases rapides et fiables. • Savoir gérer les configurations (logicielles, matérielles) pour garantir la cohérence et la stabilité des déploiements. • Avoir un très bon relationnel afin de communiquer et coordonner les activités entre les équipes de développement, les testeurs, les Ops et les autres parties prenantes • Être capable d'identifier et de gérer les risques associés aux déploiements, en mettant en place des mécanismes d'atténuation et de résolution rapide. • Être capable de s'adapter aux changements fréquents, aux exigences de nos clients. • Avoir une expérience en développement et maitriser la gestion des branches.
Offre d'emploi
Chef de projet Data Gouvernance
INVENTIV IT est à la recherche de son nouveau chef de projet Data Gouvernance avec qui nous pourrions collaborer sur nos nouveaux projets. Vous maîtrisez parfaitement les sujets de Data Gouvernance et de Data Market place. Vous avez une appétences pour les outils : Collibra, Data Galaxy ou encore EBX Vous avez une vision 360 de la Data : Acculturation Data, Data Quality, Data Lineage ou encore définition des rôles Data Vous êtes capable de mettre en place un projet Data de A à Z sur les sujets de Gouvernance et de market place de la données (Data). Vous êtes Anglophone et êtes à l'aise dans un contexte de travail International (prévoir des déplacements à l'étranger notamment en Allemagne) Vous êtes un profil technico-fonctionnel travaillant en méthode Agile avec une appétence pour la chefferie de projet (animation d'atelier) Collaborons ensemble ! Anglais Animation d'atelier Data Market place Data Gouvernance Outils Data Gouvernance : Collibra, Data Galaxy, EBX Acculturation Data Data Management Data Quality Data Lineage Vernis technique Fonctionnel : Chefferie de projet Confluence : process Méthode Agile
Mission freelance
AMOA Data Référentiels tiers
Nous recherchons un consultant AMOA Data pour accompagner l’un de nos clients, une banque de financement basée à Paris, dans le cadre d'un projet de transformation des processus de gestion des données. La mission porte sur la mise en œuvre d'un catalogue de données et l’amélioration de la qualité des données des référentiels tiers dans les domaines Finance et Risques. Rôles et responsabilités : - Représenter le programme dans les instances DATA et assurer une interface fluide avec les parties prenantes. - Participer au projet d’outillage du dictionnaire de données : Migrer le dictionnaire de données Finance et Risques de son format actuel (Excel) vers l’outil cible (Data Galaxy). Créer et implémenter un dictionnaire de données pour d'autres directions actuellement non documentées. - Finaliser le processus de mise à jour et validation du dictionnaire pour le domaine Finance et Risques (incluant le RACI et le mode opératoire) et soutenir la mise en œuvre opérationnelle. - Qualité des données : Diagnostiquer et résoudre les points bloquants existants, gérer la mise en qualité des données (cadrage, identification des données critiques, définition des règles cibles), et former les parties prenantes pour garantir une adhésion durable aux bonnes pratiques. Compétences requises : - Expérience en AMOA dans le secteur bancaire, avec une spécialisation en gestion de données et référentiels tiers. - Maîtrise des processus de migration et d'implémentation de dictionnaires de données, idéalement avec Data Galaxy. - Capacité à gérer des projets de qualité de données : analyse, remédiation, et conduite du changement. - Excellente capacité de communication et compétences en formation pour fédérer et accompagner les équipes. Détails : Lieu : Paris Date de démarrage : Mi-novembre 2024 Durée : 2 ans (1 an renouvelable) Télétravail : 2 jours par semaine Engagement : Temps plein Type de contrat : Freelance
Mission freelance
Chef de Projet Technique / Architecture
Nous recherchons un Chef de Projet Technique pour piloter et coordonner des équipes sur des sujets stratégiques de sécurité informatique, d’obsolescence et d’audit. En lien avec les équipes internes, il/elle interviendra sur des projets transverses nécessitant une solide compréhension des architectures techniques et d'excellentes compétences en communication. Principales responsabilités : Consolidation des statuts des projets et reporting Support et suivi des actions des équipes IT projet Gestion des risques, problèmes et planning des projets en cours Coordination des équipes transverses et gestion des audits de sécurité récurrent
Offre d'emploi
Expert Technique Big Data
engIT est une jeune société d'ingénierie, dédiée à l'innovation, animée par des passionnés de technologies et d’innovation en IT créée en 2017 à Sophia Antipolis et aujourd'hui présente à Nice, Aix, Lille, Paris et Monaco... Objets connectés, IA, Big Data, Deep Learning, véhicules autonomes, réalité augmentée, UX, logiciels embarqués, cyber sécurité, Blockchain, Cloud, mobilité, ne sont qu’une partie de nos centres d'intérêts. L’équipe engIT Paris, recherche un/une : Expert technique Big Data Pour rejoindre, les équipes de notre client.
Mission freelance
Lead Data Engineer Senior
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code
Mission freelance
BI Consultant
Nous recherchons des consultants BI expérimentés pour un projet freelance avec l'un de nos clients en conseil informatique basé à Paris. Rôle : Consultant BI Durée du contrat : 6 mois renouvelables Lieu de travail : Paris Travail Hybride: 2/3 jours remote par semaine Date de début : Novembre (Flexible - 1 mois) Responsabilité: Concevoir, developper et optimiser: des fliux d'acquisition de donnees Du Script SQL Des data areas (cubes de donnees) Des Dashboards Participer à la recette interne et accompagner à la recette utilisateur Réaliser les déploiements des développements jusqu’en PROD Analyser et challenger les besoins métier (Ateliers, documentation) Croiser et analyser des données (exemple : analyses QDD de différents SI Participer à l’analyse et aux correctifs liés à la maintenance
Mission freelance
Expert Data Migration JDE to SAP S/4 Hana
Notre client utilisateur SAP d'envergure internationale démarre une migration vers S/4 Hana et recherche un/e expert/e migration de données. Le candidat doit être capable de définir et de piloter l’ensemble de la méthodologie de migration. Cela inclut la planification des étapes-clés, la gouvernance de la donnée et la mise en œuvre d'une méthodologie de bout en bout, en intégrant les besoins spécifiques de l'entreprise. Extraction et structuration des données : Expérience avérée dans l'extraction de données depuis les systèmes source, avec une capacité à poser les bonnes questions pour définir les données à migrer (ex. : choix entre P&L N-1, N-2, historique des ventes). Nettoyage et qualité des données : Doit apporter une expertise en nettoyage de données, y compris la suppression des doublons, l’alignement des formats et la correction des incohérences, pour garantir une base de données précise et utilisable dans S/4 Hana.
Mission freelance
Product Owner (Big data AI) (€400 Max)
Hanson Regan recherche actuellement un Product Owner pour travailler dans le cadre d'un projet de données crucial pour une grande entreprise française à Nantes. Travaillant au sein d'une équipe établie, vous serez responsable de la gestion des besoins d'ingestion de données, de l'accompagnement des lignes de produits dans la définition de leurs besoins et la définition des prérequis attendus, et de la contribution à la documentation du data lake. Les candidats retenus devront avoir un niveau élevé de connaissances des données autour du cycle de vie, de la gouvernance et des types de données, ainsi que de solides compétences en matière d'interrogation de bases de données (SQL, etc.). Vous serez en mesure de comprendre divers besoins fonctionnels et de défendre une utilisation rigoureuse de JIRA. En raison des exigences du client, les candidats doivent pouvoir travailler via leur propre entreprise française car nous ne pouvons malheureusement pas accepter les solutions de portage pour cette mission. Si cela vous intéresse, veuillez nous contacter dès que possible avec un CV à jour aux coordonnées ci-dessous.
Mission freelance
Data scientist Senior
ous recherchons un Data Scientist senior expérimenté. Le projet GenAI vise à introduire des assistants alimentés par GPT pour les clients et les employés du service client. Dans ce contexte, le Data Scientist analysera les interactions des clients avec le centre d'appels. Le candidat doit posséder une boîte à outils robuste en science des données pour obtenir et analyser les données, générer des insights et les présenter de manière adéquate aux parties prenantes commerciales et aux autres data scientists. Les données sont souvent non structurées, telles que des transcriptions d'appels en néerlandais ou en français. Compétences Requises : Technique : Maîtrise en science des données : compétences solides en analyse de données, exploration de données et modélisation statistique, utilisant Python. Ingénierie des données : expertise dans la conception, la construction et la maintenance de pipelines de données et d'infrastructure pour des projets d'IA. Maîtrise d'AWS pour la récupération et le traitement des données. Compétences en GenAI : expérience avec les embeddings sémantiques et les magasins de vecteurs, ainsi qu'avec LangChain. Ingénierie de prompts : capacité à affiner les prompts et résumés LLM. Communication : Excellentes compétences en communication verbale et écrite pour collaborer avec des parties prenantes non techniques et expliquer des solutions basées sur l'IA. Maîtrise du néerlandais (préférence pour les locuteurs natifs, sinon niveau C1 ou mieux). Compétences Supplémentaires : Résolution de problèmes : capacité à traduire des données complexes en insights exploitables et en solutions IA innovantes pour des défis du service client. Une expérience en analyse des interactions du service client est un atout majeur.
Offre d'emploi
Expert Spark
Nous recherchons un Expert Big Data (Spark) pour rejoindre notre équipe et apporter son expertise dans le traitement et la manipulation de données massives. En tant que tel, vous aurez pour missions principales : Apporter votre expertise en Big Data, en particulier sur Spark D éfinir et évaluer des solutions techniques permettant de traiter de grands volumes de données, tout en garantissant des pipelines sécurisés et clairs. Intervenir auprès des architectes et urbanistes pour la préparation des dossiers techniques. Mettre en place et maintenir des solutions de stockage de données (SQL, NoSQL, etc.), en veillant à leur efficacité. Proposer des optimisations des requêtes SQL, PL/SQL pour garantir les meilleures performances applicatives. Piloter et encadrer les équipes à chaque étape du processus de traitement des données. Partager les meilleures pratiques avec les équipes et assurer un accompagnement technique transverse. Big Data : Spark, Hive, Indexima. Stockage : Oracle, CEPH S3 (parquet). Langages : Java, Python, PL/SQL, Shell. CI/CD : Ansible, Terraform, Jenkins, GIT. ETL : Informatica. Dataviz : Tableau Server. Ordonnanceur : Control-M.
Mission freelance
Data Quality Manager
Projet : Notre client, dans secteur du luxe, recherche un Data Quality Manager pour structurer et sécuriser ses données dans le cadre de la mise en place d’une comptabilité environnementale. Ce projet stratégique vise à soutenir les engagements de la marque en matière de développement durable à travers une gestion comptable basée sur des données fiables et précises. Objectifs de la mission : Améliorer la qualité des données : Garantir l’exactitude, la cohérence et la fiabilité des données environnementales pour une intégration optimale dans les processus de comptabilité. Structurer et organiser les données : Mettre en place des standards et processus pour uniformiser et structurer les données auprès des équipes concernées. Sécuriser les données : Assurer la confidentialité et la sécurité des informations en conformité avec les normes de protection et de gouvernance des données.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Peut-on créer une société au nom de son conjoint pour facturer ses prestations en étant sous ARE ?
- Besoin de conseils pour rebondir professionnellement 2025 ?
- Calcul frais télétravail en étant propriétaire
- consultant changer secteur activité ? de la banque PO généraliste
- situation compliquée fin de mission pression client comment gèrer ?
- Fin de mission et retour à l’incertitude comment changer le secteur ?