Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Consultant Data Engineer
Nous recherchons un(e) Data Engineer qui construira, livrera et maintiendra des produits de données (pipelines de données, services, API...). Data engineer technologies obligatoires utilisées pour le développement : - Databricks pour le pipeline de données - Fonderie Palantir pour l'ontologie et les tableaux de bord Le Data Engineer travaillera en étroit collaboration avec les équipes produits pour développer de nouvelles fonctionnalités liées à ces produits, notamment des fonctionnalités liées à : -Pipeline de données au sein ou entre plusieurs produits -Capacités analytiques et d'entreposage pour l'exploration de données, la science des données, la BI -Calcul parallèle sur de gros volumes de données Le Data Engineer est responsable de la construction, de la livraison, de la maintenance, de la documentation des artefacts ou des fonctionnalités de données (pipelines de données, services de données, API...) selon des modèles de l'état de l'art (architecture médaillon, gitflow) Le Data Engineer doit : -Être orienté vers la résolution de problèmes avec une forte pensée analytique -Être autonome et rigoureux dans la façon dont il/elle aborde les défis techniques -Conseiller sur l'architecture des flux de données de bout en bout -Collaborer avec diverses parties prenante
Offre d'emploi
AWS Data Engineer
Prendre part à la réalisation du workplan, réaliser les user stories définies dans le backlog. Participer, avec les autres membres de l’équipe à la gestion du RUN, aux activités de support et aux travaux de Build. Livraison des artefacts et suivi des mises en prod Automatiser et améliorer les activités de RUN (et SRE), suggérer des optimisations (process, ou consommation Finops par exemple) Maintenir les documentations des produits “User Centric” : sera à l’écoute de ses utilisateurs et recherchera leur feedback pour construire et améliorer la solution (UX) Force de proposition sur les meilleures pratiques "shift left" pour les contrôles sur le code sur la sécurité, qualité, résilience, FinOps Force de proposition sur les bonnes pratiques d’observabilité, de monitoring et le SRE (stack actuelle: Azure App Insights, Grafana)
Offre d'emploi
Data Analyst – Start-up Fintech - Paris (H/F)
Contexte du poste : Acteur innovant dans le secteur des données financières, nous développons des solutions permettant d'effectuer des études de marché locales grâce à l'exploitation de l'open data. Notre plateforme est aujourd'hui utilisée par les métiers du chiffre (banque, experts comptables) dans l’objectif premier d’accompagner leurs clients. Pour cela, nous recherchons un(e) Data Analyst avisé(e) pour rejoindre notre équipe et participer activement à ces enjeux captivants. Le poste est à pourvoir en raison d'une augmentation significative de nos activités et d'un besoin pressant de renforcer notre équipe data. Avantages : - Politique de télétravail flexible - Prime anuelle possible selon la performance de la société - Tickets Restaurant - RTT Pourquoi nous rejoindre : Rejoindre notre équipe, c'est participer au développement d'une entreprise ambitionnant d'avoir un impact positif sur la société. Vous pourrez mettre en application et développer vos compétences analytiques sur des projets variés et innovants. Vous travaillerez dans un environnement dynamique où votre travail sera valorisé et où vous aurez l'opportunité de grandir professionnellement. Notre entreprise saura vous offrir les défis à la hauteur de vos ambitions !
Mission freelance
Data Analyst - H/F - Lille (59)
Sous la responsabilité du responsable qualité & efficience, au sein de la Relation Client, vous travaillerez en étroite collaboration avec les différents métiers de la relation Client et de l’expérience clients auprès desquels vous insufflez votre vision “data centric”. “ Voice of customer analyst” vous produisez des métriques et des analyses dans l’optique de mesurer la qualité de nos process et la satisfaction clients, en identifiant les risques et les opportunités associés. Vous jouez un rôle clé de business partner dans la prise de décision des choix opérationnels et en les challengeant par de la donnée et des analyses fiables. Votre quotidien s'articule autour de la mesure, l’analyse et l’animation des données de la satisfaction client, et des actions d'amélioration continue : Garantir la fiabilité et la cohérence des données et des reportings sur le périmètre. Construire en autonomie des tableaux de bord dans les outils dataviz de l’entreprise (Qualtrics, Power BI, data studio,...) Réaliser des analyses approfondies en croisant les différentes sources de données notamment à partir des relevés des enquêtes d’écoutes téléphoniques ou bien notre NPS depuis l’interface Qualtrics et définir les modalités de diffusion des résultats. Proposer des nouveaux regards et approches, en proximité avec les besoins et les priorités du métier de l'équipe Relation Client et les partenaires.
Mission freelance
Expert Data (H/F) - 94+95+Remote
L'enjeu de ce chantier consiste en un dé-silotage des données d'application pour construire une vision business 360 unifiée (une couche de données qualifiées, consolidées, homogénéisées et complètes pour exploitation) à travers une gestion de la qualité et de la cohérence des données Prestation Les expressions de besoin, fiche usage, fiche solution, et fiche budget, note de cadrage, cadrage des démarches, dossiers projet, comités de suivi, plan d’actions, documentation, CR, … relatif à son activité Les éléments de suivi des avancements, du planning, capacité à faire, plan d'action, budgets, difficultés, risques, … Les coaching, coordination, planification, optimisation, priorisation, animation, gouvernance Les conseils, propositions, pilotage Livrables associés EB d'ingestion (plusieurs sources/applications/tables) SFD (Spécification fonctionnelle détaillée) EB module d'ingestion industriel EB outil de supervision EB contrat de service EB environnement pour exploitation *Support/Présentation pour pilotage
Mission freelance
Développeur Talend ODI (Oracle Data Integrator )
Nous recherchons un Développeur Talend pour accompagner la migration de plusieurs flux ODI (Oracle Data Integrator) vers Talend au sein d'un projet stratégique de transformation de données. Missions principales : Participer à la migration des flux existants d'ODI vers Talend. Concevoir, développer et optimiser les processus ETL en utilisant Talend. Collaborer avec les équipes techniques pour assurer la continuité et la qualité des flux de données. Assurer la documentation des flux migrés et participer aux phases de tests et de validation.
Mission freelance
Consultant DATA - People Connect ERP
Dans le cadre de sa stratégie de mise en œuvre d'un ERP unique, Dans un programme de migration et de déploiement progressif d'Oracle ERP cloud pour remplacer ses ERP existants. Plusieurs entités sont déjà opérationnelles et le prochain groupe d'entités devrait être migré en 2024. Afin de renforcer l'équipe interne du programme, le client cherche à embaucher un consultant en réconciliation des données pour soutenir le flux de réconciliation des données. Objectif du poste : Le consultant en réconciliation des données effectuera et coordonnera les activités de réconciliation des données tout au long des différentes phases du projet. Rattachement hiérarchique et interactions : Le candidat est rattaché hiérarchiquement au : Responsable du programme ERP Cloud Sur le plan opérationnel, il est rattaché à : Responsable de la migration des données de l'ERP Cloud Autres interactions : Équipe de migration des données, responsable fonctionnel du programme, entreprise Le consultant en rapprochement de données devra entreprendre une série de tâches diverses. Celles-ci peuvent inclure, mais ne sont pas limitées à : 1) Collecte des données : - Obtenir les données/documents nécessaires auprès de différentes équipes afin de mener à bien les étapes de préparation du rapprochement des données. 2) Préparation et organisation de la documentation : 3) Rapprochement des données - Effectuer un premier rapprochement des données avant les parties prenantes de l'entreprise dans le cadre d'un contrôle préliminaire de la qualité des données. 4) Gestion de la liste de contrôle : - Pendant les phases de rapprochement, assurer le suivi de la liste de contrôle pour le rapprochement des données et en rendre compte jusqu'à son achèvement. 5) Coordination des réunions : - Planifier et organiser des réunions de rapprochement des données avec les parties prenantes définies. - Coordonner les activités de rapprochement des données avec les parties prenantes de l'entreprise et les informer à ce sujet. - Rédiger un compte rendu exhaustif des réunions. 6) Examen de la documentation : - Examiner la qualité de la documentation relative au rapprochement des données sur la base des lignes directrices spécifiques fournies. 7) Préparation du rapport : - Préparer le rapport final de rapprochement des données sur la base des lignes directrices spécifiques fournies. 8) Suivi de l'état d'avancement et établissement de rapports : - Maintenir la documentation nécessaire à l'organisation et au suivi de l'état des champs d'application susmentionnés. - Rendre compte de l'état d'avancement des activités de manière organisée. 9) Gestion de la communication : - Établir des canaux de communication clairs avec toutes les parties prenantes afin de faciliter l'échange d'informations précises en temps opportun.
Mission freelance
Data Scientiste junior (h/f)
emagine recherche pour l'un de ses Clients Grand Compte un (e) Data Scientiste junior Rythme: 1 à 2 jours sur site + 3 à 4 jours de télétravail Durée: minimum 2 ans Lieu : Île de France, 95 Contexte : Programme attendu avec roadmap serrée dans un contexte de migration vers le cloud (GCP) L'entreprise a commencé une migration de ses applications data sur le cloud public (GCP). L'ensemble des travaux d'industrialisation se feront donc sur ce nouvel environnement de travail pour lesquels des compétences spécifiques MLOps sont nécessaires : maitrise de docker, github action, terraform, vertexAI etc… Objectifs de la Mission • Comprendre en profondeur les mécanismes du revenue management, y compris les facteurs influençant la demande et les stratégies de tarification. • Concevoir et implémenter un modèle de prévision de séries temporelles en utilisant les technologies les plus récentes en IA et ML, pour améliorer la fiabilité et l'efficacité des prévisions. • S'assurer que le modèle est à la fois interprétable et explicable, permettant aux équipes de revenue management de comprendre et d'exploiter pleinement les prévisions générées. • Proposer des indicateurs permettant de qualifier la fiabilité des prévisions, et être capable de les résumer et communiquer auprès du métier. Compétences et Expériences Requises • Anglais bilingue • Python • MLOps (docker, github action, terraform, vertexAI etc…) • GCP ( Migration vers GCP ) • Forecasting/time series • Bonne expérience en séries temporelles • Maîtrise du langage de programmation tels que Python ainsi que des outils de visualisation de données (Spotfire, Power BI, etc.). • Maîtrise des bibliothèques de machine learning (scikit-learn, TensorFlow, etc.) et des techniques statistiques avancées. • Solides compétences en analyse de données. • Excellente communication et capacité à travailler en équipe. Livrables Attendues • Code source des composants développés et tests associés • Description des choix d'architecture • Documentation de la solution développée (code, modélisation...) • Supports de communication (slides…) sur les développements réalisés Si vous êtes disponible et intéressé, merci de me retourner votre CV à jour et vos attentes à l'adresse mail -email masqué-
Offre d'emploi
Data Engineer Talend à Dax
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation
Mission freelance
Architecte Sécurité / Cloud / Data
Objectif: |Analyser les besoins * Participer aux ateliers afin d’étudier et de cadrer les besoins en sécurité • Préconiser les solutions et architectures cibles • Contribuer à la rédaction des dossiers d’architecture et spécifications techniques basés sur les principes de sécurisation de la donnée • Coordonner la sécurité des projets afin d'aider les équipes à fournir des solutions d'infrastructure sécurisées avec les recommandations et les exigences de la SSI • Participer aux audits de sécurité des applications et des socles techniques • Effectuer des évaluations des risques techniques, la modélisation des menaces, des examens de la sécurité de l'architecture, des conseils et des suivis répétables pour les projets impliquant des services destinés aux clients • Garantir la prévention et la bonne gestion des risques techniques en proposant des améliorations aux politiques, directives et normes de sécurité • Communiquer efficacement tout en répondant aux besoins de sécurité et en validant que les mesures de sécurité appropriées sont en place • Superviser le socle technique (sécurité, réseau, gouvernance...) • Veiller la sécurité et la fiabilité des environnements déployés • Créer / mettre à jour le corpus documentaire • Rédiger les dossiers d'arbitrage en étant force de proposition et de décision en coordination avec les parties prenantes du projet Industrialiser et opérer les environnements * Contribuer à la mise en place des outils d’automatisation et de monitoring adaptés à l’environnement • Participer à l’implémentation des outils nécessaires à la mise en place des pratiques DevOps (Puppet, Chef, Gitlab CI, Travis CI, Cloud Build, etc.)|
Offre d'emploi
Data Engineer DBT, Snowflake et Power BI
En tant que Data Engineer, vous jouerez un rôle clé dans la conception, l'implémentation et l'optimisation des différentes couches de notre Data Platform. Vous serez chargé de structurer les données et de développer des pipelines de données efficaces et évolutifs pour répondre aux besoins métiers et garantir la qualité des données. Modélisation des couches basses de la Data Platform : Participer à la conception des couches de données, en particulier la modélisation DataVault pour les couches RawVault et BusinessVault. Modéliser les données en étoile pour le CoreDataModel (DataMart), facilitant ainsi l'analyse métier. Conception et optimisation des pipelines de données : Mettre en place des architectures de pipelines de données génériques, en s'appuyant sur des macros existantes ou personnalisées pour les différentes couches (Raw, Staging, RV, BV, CDM). Implémenter et maintenir les pipelines de données via l'outil dbt pour garantir la fluidité et la cohérence des flux entre les différentes couches de données. Tests automatisés et contrôle qualité : Concevoir des tests automatisés afin de garantir la cohérence des données, d'éviter les régressions et de valider la qualité des livrables à chaque étape du pipeline. Refonte de la Data Visualization : Reprendre et améliorer la DataViz existante en la migrant vers Power BI Premium. Réaliser des préconisations pour le mode de lecture des données dans le DataSet (POC). Créer et mettre en place une charte graphique cohérente pour les rapports. Concevoir des maquettes et des designs de rapports cibles afin d'améliorer la lisibilité et l'impact visuel. Travail en méthode Agile (Scrum/SAFe) : Participer activement aux cérémonies Agile : Daily Standups, Refinement, Planning Poker, Sprint Planning, Sprint Review et Rétrospectives. Contribuer à l’amélioration continue de l'équipe et des processus.
Offre d'emploi
Pré-embauche client final Responsable d'Applications Exploitation Data Center
Le poste s'inscrit dans une logique d'intégration à terme en CDI les équipes de notre Client. Poste de Responsable des solutions / applications en production qui permettent d’opérer les data centers (GMAO, BMS, Planification des interventions…) et de traiter les demandes des clients du data center (portail client, ticketing…). S'agissant d'une activité en croissance (ouverture de nouveaux sites), le Responsable des solutions contribuera aux projets d’implémentation de sites. Ses principales responsabilités sont : Garant du bon maintien en conditions opérationnelles des applicatifs : interfaces, traitements, en escalade de l'équipe Exploitation (interne ou infogérance) et autres. Référent fonctionnel / technique des outils de son périmètre, responsable du support des applications en lien avec les éditeurs, contribution aux études et cadrage pour les impacts liés aux outils de son périmètre, contributeur actif aux projets impactant les outils de son périmètre. Gestion du portefeuille applicatif des outils de son périmètre : anticipation des sujets de montée de version, dette technique, planning de release management, roadmap produit. Gestion des évolutions et des montées de versions : gestion des priorités, animation des recettes utilisateurs, gestion / coordination des mises en production, pilotage et préparation de la communication métiers Maintien à jour de la documentation fonctionnelle et technique des outils de son périmètre, dans le respect des standards définis au sein de la DSI. Garant de la qualité des Produits de son périmètre, tant sur les aspects méthodologiques (documentation…) que conceptuels et technologiques, afin d'assurer stabilité, pérennité, évolutivité des produits. Production de tableaux de bord de suivi et pilotage de son activité. Animation régulière des comités key users Responsabilité du respect des procédures définies au sein de la DSI de façon générale. Gestion de la relation fournisseurs / éditeurs / intégrateurs des outils de son périmètre, dans le cadre de la gestion du cycle de vie Produits.
Offre d'emploi
Ingénieur GRC - Domaine Datacenter
Missions principales : Superviser et coordonner les projets de cybersécurité liés aux infrastructures critiques des datacenters et des SI sûreté/sécurité. Analyser les risques et les impacts des évolutions technologiques sur les infrastructures des datacenters, sans avoir à configurer directement les équipements (switchs, routeurs, etc.). Traduire les recommandations d’audit en actions concrètes pour les équipes cybersécurité, afin de renforcer la protection des datacenters. Participer à la planification des interventions dans les datacenters, y compris en heures non ouvrées (HNO), et assurer un suivi rigoureux des tâches. Collaborer étroitement avec les équipes techniques pour garantir que les recommandations de sécurité sont bien intégrées dans les systèmes. Être garant de l’évolution des systèmes datacenter et SI sûreté/sécurité en lien avec les besoins spécifiques du terrain. Proposer des stratégies d’amélioration continue en cybersécurité, en tenant compte des contraintes propres aux infrastructures des datacenters.
Mission freelance
AMOA/MDM
Nous sommes à la recherche d’un profil AMOA /Data Steward à Grenoble ou à Lyon Collecte des besoins métiers sur les données et les indicateurs qu’ils doivent suivre & un accompagnement à la réalisation d’état des lieux des processus Assistance des représentants métiers dans la définition de ces données Assistance des représentants métiers dans la définition des règles de gestion s’appliquant sur ces données Participation à la capitalisation en rédigeant les définitions dans les outils dédiés (My/Data Galaxy)
Offre d'emploi
Data Engineer Python/Spark
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'n Data Engineer Python/Spark. Les missions de la prestation notamment seront : Remplacement des pipelines Informatica par des pipelines spark, pyspark et python Ordonnancement : Remplacement du DAC de OBIEE par Dagster Restitution : Création de rapports sur Apache SuperSet sur la base du LakeHouse Les principales missions à mener sont : - Description des fonctionnements existants et des besoins couverts, - Développement d’une solution de collecte de données, - Développement d’un système de stockage de la donnée, - Réalisation de tests unitaires, - Mise en place d’un suivi des traitements, - Assistance à la recette par la MOA / les utilisateurs.
Mission freelance
Product Owner Data (NANTES
✅ Nous vous serions reconnaissants de nous adresser un bref message précisant les raisons de votre candidature et confirmant que vous avez bien pris en compte le lieu de la mission. 🔴 TT partiel (Présence sur site hebdo NANTES obligatoire) - La mission ne peut pas se faire en full Remote Afin de répondre aux enjeux du programme DATA / IA, le département Agence Data Service se réorganise. La mise en oeuvre d'une plateforme DATA / IA fédérée ainsi qu'un objectif d'accompagner les équipes produites à tendre vers la prise en compte des données comme un produit à part entière (Data as a product) ont amenés une réorganisation autour des activités liées au lac de données. C'est dans ce contexte, qu'un ensemble de produits sont en cours de changement de responsabilité entre DDL et ADS. Cette mission s'inscrit dans ce contexte de bascule et porte plus précisément sur la reprise des activités de pilotage et d'accompagnement des activités d'acquisition du lac. Ainsi nous recherchons un DataSteward - PO DATA pour piloter un périmètre d'activités d’acquisition des données dans le lac, de l’apparition du besoin jusqu’au suivi de la donnée en production. Vous pourrez aussi prendre en charge l'accompagnement des lignes produits pour leur permettre une plus grande autonomie dans la réalisation de leur cas d'usage. Cette mission s'inscrit dans une démarche de transformation, vous participerez aux réflexions d'optimisation des processus et des socles existants. Vous rejoindrez la tribu en charge du Socle Data. 2 DataStewart/PO Data participent déjà à cette activité. Votre arrivée permettra de répondre à la montée de charge des responsabilités de l'équipe. Activités Principales : Piloter les besoins d'ingestion des données dans le LAC (Synchronisation de plusieurs équipes, relation Centre de Services) Accompagner les lignes produit dans la définition de leur besoin et cadrer les prérequis attendus (formats de données, définition des traitements) Porter des sujets impacts les processus et les données du LAC (Reprise de stock, purges réglementaires par exemple) Contribuer à la documentation des données du lac. Participer aux ateliers de définition de la plateforme DATA/I
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.