Trouvez votre prochaine offre d’emploi ou de mission freelance DAT
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
SAP Data migration lead
RED Global est à la recherche d’un SAP data migration lead pour venir rejoindre les équipes de l’un de nos clients à Paris dans le cadre de leur projet en cours. Connaissances requises : 8 ans d’expérience minimum sur SAP Expert sur les sujets de migration de données Expérience sur des rôles de data migration lead A établit un plan de migration de données + expérience sur un projet S/4HANA Détails du projet : Démarrage : ASAP Durée : Mission longue – 6 mois renouvelable Charge de travail : 5 jours par semaine Lieu : Paris – 3 jours par semaine sur site / 2 jours remote Langues : Français et anglais obligatoire Si vous souhaitez recevoir de plus amples informations sur le poste ou si vous pouvez recommander un collègue ou un ami, n’hésitez pas à me contacter via mail avec votre CV à jour en format Word :
Offre d'emploi
Chef de projet data (h/f)
Nous recherchons pour le compte de l'un de nos clients un chef de projet data (H/F) sur un format de pré-embauche. Les missions : Coordination technique et fonctionnelle : Faire le lien entre les équipes IT et métiers (Commerce, achat...) pour s'assurer que les solutions data répondent aux besoins du client. Gestion des intégrations techniques : Superviser l'intégration des systèmes et des flux de données (API, ETL) en veillant à leur compatibilité et à leur bon fonctionnement. Suivi des développements et des livrables : Assurer la bonne exécution des développements techniques (data pipelines, dashboards) et valider leur conformité avec les spécifications. Garantir la qualité des données : S’assurer que les données collectées et traitées sont fiables, cohérentes et bien structurées pour l’analyse. Support technique et formation : Accompagner les équipes du client dans l’utilisation des outils techniques (BI, CRM) et dans la résolution de problèmes techniques.
Mission freelance
BI Consultant
1. Gouvernance et alignement des données o Établir et maintenir un cadre structuré de gouvernance des données au sein du département. o Veiller à l'utilisation cohérente de sources de données alignées dans tous les tableaux de bord pour éviter des analyses contradictoires. o Promouvoir et initier des efforts visant à améliorer la qualité des données et à harmoniser les sources de données à travers les fonctions métier. o Servir de point de contact central pour les questions d'alignement et de gouvernance des données. 2. Définir un plan de rationalisation des dashboards commerciaux : o Evaluer l’existant (recensement / évaluation pertinence) o Formaliser les besoin utilisateurs prioritaires (identifier les key users, comprendre les attentes) o Identifier les redondances et simplifications o Définir la cible et le plan pour atteindre cette cible 3. Gestion du changement et formation o Collaborer avec des équipes internes (y compris l'Académie, l'équipe de gestion du changement de la transformation des lignes & tarification et les réseaux des lignes) pour sensibiliser aux tableaux de bord disponibles et à leurs cas d’usage. o Développer et exécuter un plan de rationalisation pour réduire le nombre de tableaux de bord et améliorer leur accessibilité. o Diriger des sessions de formation des utilisateurs et créer des stratégies d’adoption pour les tableaux de bord nouveaux et existants. o Travailler en partenariat avec les parties prenantes métier pour garantir la bonne mise en œuvre des processus de gestion du changement. 4. Collaboration avec les parties prenantes o Travailler en étroite collaboration avec des équipes transversales, y compris l’équipe IT BI et les unités métiers, afin de garantir un alignement fluide des efforts de gouvernance des données et de formation. o Servir d’intermédiaire entre les utilisateurs métiers et le département BI pour répondre aux préoccupations et aux retours liés aux données.
Offre d'emploi
DATA ENGINEER SEMARCHY/VERTICA/SAP BO F/H - LILLE (59)
VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez notre client et interviendrez au cœur de la chaîne de valorisation des données, depuis la compréhension des besoins métiers jusqu’à la mise en place de solutions de data visualisation et d’analyses dynamiques. A ce titre, vous serez en charge de : Analyser les besoins en lien avec les équipes MOA (Métiers) et MOE (Opérations IT) pour garantir une compréhension des processus et flux de données. Modéliser le Système d’Information Décisionnel et créer des solutions de Data Management et Data Processing, en collaboration étroite avec les Data Architects. Concevoir et développer des flux de données via Semarchy XDI (Stambia), SAP BO et Vertica. Assurer un support de niveau 3 sur les outils de data intégration et d’analyse (notamment Semarchy, SAP BO), avec une expertise pour diagnostiquer et corriger les dysfonctionnements. Rédiger la documentation technique Participer au pilotage de projets data et contribuer à l’évolution de l’architecture Data en coordination avec les autres acteurs du service. Environnement Technique : Bases de données : Vertica, MSSQL Outils d'intégration de données : Semarchy XDI (Stambia) Outils de restitution : SAP Business Object, WebFocus Analyse et data mining : Qlik Sense, SAS, SPSS Data Lab : Python, R (solutions internes) Le poste est basé à Lille (59). Dans le cadre de vos fonctions, vous pourrez bénéficier de 1 jour de télétravail par semaine après votre période d'intégration.
Offre d'emploi
Data Engineer Confirmé Scala / Spark - F/H
Contribuez à des projets data complexes avec des technologies avancées. Quel sera votre rôle ? Nous recherchons un(e) Data Engineer Scala / Spark. Vous rejoignez l’équipe d’ingénierie data pour concevoir des pipelines de traitement de données à grande échelle. Au quotidien, vos missions seront les suivantes : Développer et optimiser des pipelines de données en utilisant Scala et Spark, dans un environnement distribué. Mettre en place des modèles de données complexes en SQL pour répondre aux besoins métier. Collaborer avec les data scientists pour garantir l’efficacité des flux de données et des modèles analytiques. Environnement technique : Scala, Apache Spark, SQL, Hadoop, Kafka
Offre d'emploi
AWS Data Engineer
Prendre part à la réalisation du workplan, réaliser les user stories définies dans le backlog. Participer, avec les autres membres de l’équipe à la gestion du RUN, aux activités de support et aux travaux de Build. Livraison des artefacts et suivi des mises en prod Automatiser et améliorer les activités de RUN (et SRE), suggérer des optimisations (process, ou consommation Finops par exemple) Maintenir les documentations des produits “User Centric” : sera à l’écoute de ses utilisateurs et recherchera leur feedback pour construire et améliorer la solution (UX) Force de proposition sur les meilleures pratiques "shift left" pour les contrôles sur le code sur la sécurité, qualité, résilience, FinOps Force de proposition sur les bonnes pratiques d’observabilité, de monitoring et le SRE (stack actuelle: Azure App Insights, Grafana)
Mission freelance
Développeur Big Data - Lyon (F/H)
Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : un Développeur Big Data - Lyon (F/H) Mission à pourvoir en régie en région Lyonnaise Présence sur site : 3 jours / semaine Le consultant devra être en mesure d’assurer les missions suivantes : · Création, maintenance et optimisation des bases de données. · Optimisation des requêtes SQL et PL/SQL pour améliorer les performances applicatives. · Support aux équipes de développement et expertise Big Data (Spark). · Veille technologique et accompagnement des développeurs sur les bonnes pratiques.
Mission freelance
Directeur de programme / PMO DATA (H/F)
Fiche de Poste : Directeur Programme / PMO DATA : Informations : Localisation : 45 – Orléans Durée : 6 mois, renouvelable Temps de travail : 2 jours par semaine Secteur : Groupe Assurance Les missions Principales : Coordination de projets de migration : Migration des données d’ Excel vers Power BI Migration des données d’ Oracle vers Snowflake Accompagnement au changement : Travailler avec les équipes pour faciliter l’adoption des nouvelles solutions et processus. Critère de Sélection : Obligatoire : Avoir géré des projets de migration de données
Offre d'emploi
Data Engineer Python/Spark
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'n Data Engineer Python/Spark. Les missions de la prestation notamment seront : Remplacement des pipelines Informatica par des pipelines spark, pyspark et python Ordonnancement : Remplacement du DAC de OBIEE par Dagster Restitution : Création de rapports sur Apache SuperSet sur la base du LakeHouse Les principales missions à mener sont : - Description des fonctionnements existants et des besoins couverts, - Développement d’une solution de collecte de données, - Développement d’un système de stockage de la donnée, - Réalisation de tests unitaires, - Mise en place d’un suivi des traitements, - Assistance à la recette par la MOA / les utilisateurs.
Mission freelance
Consultant Data / GCP
Je recherche en ce moment un consultant Data / Big Query pour un de mes clients dans le nord de la France afin de construire les nouveaux cas d'usage sous Google Cloud Platform et participer au développement des nouveaux projets : Analyser et comprendre l’existant Concevoir l’architecture du nouveau socle Challenger et mener des ateliers avec le métier Développer les flux Exposer de la donnée sur GCP Participation à la vie de l'équipe (composée de 1 PO, 1 BA, 7 Devops data) : Rituels : daily / atelier d’équipe / sprint / … Alimentation du JIRA Documentation technique et fonctionnelle Garant et détection des axes d’amélioration à mettre en place sur le périmètre du produit Analyse poussée sur l’ensemble du périmètre (participation active aux divers ateliers métier et recettes)
Offre d'emploi
Expert système Linux - CDI - (H/F)
1) Présentation du client : La Direction Système d'Information de la société cliente basée dans le secteur Energie, créatrice de valeur et partenaire des métiers, a comme mission d'assurer le fonctionnement et l'adaptation du SI conformément aux besoins des utilisateurs. À ce titre, elle définit, construit et déploie actuellement de nombreux projets induits par ses évolutions. 2) Contexte de la mission : Notre client Grand-Compte de l’Energie recherche un expert système Linux. La personne idéale sera responsable de la gestion des infrastructures Linux, en apportant un support technique de niveau 3 et en collaborant étroitement avec les équipes de développement et d’exploitation. Vous interviendrez sur des projets d'automatisation et de gestion de pipelines CI/CD, avec une expertise avérée sur GitLab et Ansible. Responsabilités : Gérer et assurer le support de niveau 3 des systèmes Linux. Administrer et maintenir les environnements GitLab (installation, configuration, mises à jour). Automatiser les tâches récurrentes et les déploiements à l’aide d’Ansible. Participer à la résolution des incidents critiques et à l’optimisation des performances des systèmes. Collaborer avec les équipes DevOps et de sécurité pour garantir la fiabilité des systèmes. Rédiger et maintenir la documentation technique liée à l’infrastructure.
Mission freelance
Consultant DATA - People Connect ERP
Dans le cadre de sa stratégie de mise en œuvre d'un ERP unique, Dans un programme de migration et de déploiement progressif d'Oracle ERP cloud pour remplacer ses ERP existants. Plusieurs entités sont déjà opérationnelles et le prochain groupe d'entités devrait être migré en 2024. Afin de renforcer l'équipe interne du programme, le client cherche à embaucher un consultant en réconciliation des données pour soutenir le flux de réconciliation des données. Objectif du poste : Le consultant en réconciliation des données effectuera et coordonnera les activités de réconciliation des données tout au long des différentes phases du projet. Rattachement hiérarchique et interactions : Le candidat est rattaché hiérarchiquement au : Responsable du programme ERP Cloud Sur le plan opérationnel, il est rattaché à : Responsable de la migration des données de l'ERP Cloud Autres interactions : Équipe de migration des données, responsable fonctionnel du programme, entreprise Le consultant en rapprochement de données devra entreprendre une série de tâches diverses. Celles-ci peuvent inclure, mais ne sont pas limitées à : 1) Collecte des données : - Obtenir les données/documents nécessaires auprès de différentes équipes afin de mener à bien les étapes de préparation du rapprochement des données. 2) Préparation et organisation de la documentation : 3) Rapprochement des données - Effectuer un premier rapprochement des données avant les parties prenantes de l'entreprise dans le cadre d'un contrôle préliminaire de la qualité des données. 4) Gestion de la liste de contrôle : - Pendant les phases de rapprochement, assurer le suivi de la liste de contrôle pour le rapprochement des données et en rendre compte jusqu'à son achèvement. 5) Coordination des réunions : - Planifier et organiser des réunions de rapprochement des données avec les parties prenantes définies. - Coordonner les activités de rapprochement des données avec les parties prenantes de l'entreprise et les informer à ce sujet. - Rédiger un compte rendu exhaustif des réunions. 6) Examen de la documentation : - Examiner la qualité de la documentation relative au rapprochement des données sur la base des lignes directrices spécifiques fournies. 7) Préparation du rapport : - Préparer le rapport final de rapprochement des données sur la base des lignes directrices spécifiques fournies. 8) Suivi de l'état d'avancement et établissement de rapports : - Maintenir la documentation nécessaire à l'organisation et au suivi de l'état des champs d'application susmentionnés. - Rendre compte de l'état d'avancement des activités de manière organisée. 9) Gestion de la communication : - Établir des canaux de communication clairs avec toutes les parties prenantes afin de faciliter l'échange d'informations précises en temps opportun.
Offre d'emploi
BUSINESS ANALYST DATA - 5 ans d’expérience
💼 Poste : BUSINESS ANALYST DATA - 5 ans d’expérience 🏭 Secteurs stratégiques : Banque 📍Localisation : IDF 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le prestataire recherché intégrera l’équipe Data , répartie entre Paris et Bangalore. Cette équipe a en charge la gestion du datawarehouse utilisé pour le pilotage commercial, financier, risque et Conformité. Elle est aussi porteuse des principes Data à appliquer dans les projets de la BU, sur la Data Quality ou la Protection des données. 🤝 objectifs de la mission : le prestataire contribuera au programme de transition en priorité, ainsi qu’au support des sujets transverses de la filière Data. Les principales missions du poste seront : • Recueil de besoins, spécifications et validation des développements Datawarehouse & Reporting réalisés dans l’équipe • Homologation des évolutions avec le métier et les autres entités • Accompagnement des filiales de la BU sur les évolutions du Datawarehouse et de la filière Data • Support de l’équipe dans les activités de Data Management, notamment le pilotage des usages Data • Contribuer aux pratiques agiles de l’équipe (slicing, priorisation par la valeur…) et accompagner le métier dans la transformation agile
Mission freelance
data lake engineer - anglais
Ce département ou interviendra le Prestataire est de la gestion des données & de la business intelligence des systèmes d’informations : maintenance & alimentation du datawarehouse, conception de rapports, calculs et visualisation de KPI. La Prestation s’effectuera au sein de l’équipe d’une vingtaine de personnes composée de : ü Data Engineer, travaillant majoritaire à l’alimentation du Datawarehouse d’entreprise ü Data Architect travaillant sur les évolutions de la gestion des données au sein de l’entreprise. Les données sont principalement gérées au sein - D’un datawarehouse d’entreprise organisé autour de plusieurs instances de base de données ORACLE - D’un Datalake s’appuyant sur l’offre cloudera on premise L’équipe est en charge des évolutions, du support et de la maintenance du datawarehouse. Dans ce contexte, la prestation consiste à intervenir sur le POC (Proof of concept) en étroite collaboration avec l’administrateur du Data Lakehouse et à mettre en œuvre et valider l’infrastructure de plateforme de données. Dans ce cadre, le Prestataire contribuera et aura la responsabilité de : Ø POC Developpement : o Conception et développement du POC pour notre Data Lakehouse ouvert en utilisant les dernières technologies (Cloudera, NoSQL, NiFi, Apache Iceberg, DBT, Superset, etc.) pour répondre aux exigences de l’entreprise, Ø L’intégration des données : o Mise en œuvre des pipelines d’ingestion et d’intégration de données à partir de diverses sources tout en s’assurant la qualité et la cohérence des données. Ø Du processus ETL/ELT: o Développement et optimisation des processus ETL/ELT pour soutenir les besoins de data warehousing et d’analyse. Ø L’optimisation de la performance: o Analyse et optimisation de la performance des flux de données et des requêtes. Ø La collaboration : o Travail en étroite collaboration avec l’administrateur du Data Lakehouse pour assurer l’intégration et la fonctionnalité de l’infrastructure du Data Lakehouse. Ø La documentation : o Création et maintenance de documents techniques sur les pipelines de données, o l’architecture o les flux de travail. Ø L’innovation: o Rester à jour avec les technologies émergentes et les meilleures pratiques pour améliorer continuellement la plateforme de données.
Mission freelance
Consultant Data Engineer
Nous recherchons un(e) Data Engineer qui construira, livrera et maintiendra des produits de données (pipelines de données, services, API...). Data engineer technologies obligatoires utilisées pour le développement : - Databricks pour le pipeline de données - Fonderie Palantir pour l'ontologie et les tableaux de bord Le Data Engineer travaillera en étroit collaboration avec les équipes produits pour développer de nouvelles fonctionnalités liées à ces produits, notamment des fonctionnalités liées à : -Pipeline de données au sein ou entre plusieurs produits -Capacités analytiques et d'entreposage pour l'exploration de données, la science des données, la BI -Calcul parallèle sur de gros volumes de données Le Data Engineer est responsable de la construction, de la livraison, de la maintenance, de la documentation des artefacts ou des fonctionnalités de données (pipelines de données, services de données, API...) selon des modèles de l'état de l'art (architecture médaillon, gitflow) Le Data Engineer doit : -Être orienté vers la résolution de problèmes avec une forte pensée analytique -Être autonome et rigoureux dans la façon dont il/elle aborde les défis techniques -Conseiller sur l'architecture des flux de données de bout en bout -Collaborer avec diverses parties prenante
Offre d'emploi
Ingénieur UNIX
Au sein de l'entité en charge de la gestion des systèmes d'exploitation IBM AIX, Windows et Linux (OS) qui s'occupe notamment du maintien en conditions opérationnelles de ces OS, cette équipe gère en condition opérationnelle environ 60 000 serveurs Unix. Principales missions de Run et Build : Maintenir en condition opérationnelle le parc des serveurs Unix (maintenance logicielle, patching, test de résilience …) Gérer les incidents et les problèmes et les changements. Gérer la documentation de ces infrastructures. Analyser les performances et répondre aux besoins applicatifs (tuning des paramètres …) Analyser les besoins en termes de ressource afin de bâtir un suivi de capacité et d’optimiser les coûts sur ces plateformes Accompagner les différents projets pouvant impacter ces plateformes (déménagement datacenter, refonte des infras de stockage / backup, refonte des infras réseaux ...) Prévoir les évolutions de ces plateformes en fonction de l’obsolescence Etudier les évolutions en termes de résilience et robustesse en fonction des demandes autour de la sécurité. Etudier les possibilités d’utilisation de l’intelligence artificielle dans les processus d’exploitation de ces infrastructures Action de patching de notre matériel afin d’avoir les dernières mises à jour pour nous protéger des attaques et incidents Gestion de la vulnérabilité Les livrables attendus sont : Documents d’architecture ou d’analyses MCO et Comptes Rendus d’opération ou de gestion des incidents Documents stratégiques d’évolution des infrastructures Rapports d’amélioration de la production Scripts ou automatisation en vue d’améliorer la production.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.