Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 398 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Project Manager DATA - IFS

ALLEGIS GROUP
Publiée le
Data management
Migration

3 ans
100-690 €
Paris, France

Nous recherchons un Project Manager expérimenté et passionné, spécialisé dans la gestion de projets data et ayant une expertise approfondie sur le logiciel IFS. Le candidat idéal aura une expérience significative dans la gestion de projets de migration de données en contexte international. Responsabilités : Planifier, coordonner et superviser des projets de migration de données complexes. Collaborer avec les équipes techniques et fonctionnelles pour assurer la réussite des projets. Utiliser et optimiser le logiciel IFS pour répondre aux besoins spécifiques des projets. Assurer une communication fluide et efficace avec les parties prenantes internationales. Gérer les risques et les problèmes liés aux projets, en proposant des solutions adaptées.

Freelance

Mission freelance
Chargé de ciblage et analyse des données pour campagnes marketing (F/H)

Argain Consulting Innovation
Publiée le
Adobe Campaign
Data analysis
Dataiku

9 mois
350-450 €
Rennes, Bretagne

Principales missions : En tant que chargé(e) de ciblage et analyse de données pour campagnes Marketing , vous avez pour mission : Mise en place des ciblages clients via l’outil Adobe Campaign Conseiller et accompagner les responsables de marché dans l'expression de leurs besoins Conception, réalisation et maintenance de requêtes SQL Optimiser les process et proposer des méthodologies adaptées (veille sur les données, les outils…) Réaliser des analyses de bilan de campagnes en lien avec le métier Supervision des campagnes et des communications Compétences techniques attendues : Maitrise de l’outil Adobe Campaign Maitrise de l’exploitation de données via SQL La maitrise de dataiku et/ou Qlik seraient un plus

CDI
Freelance

Offre d'emploi
Consultant Data Gouvernance Collibra

Inventiv IT
Publiée le
AWS Cloud
BI
Data management

3 ans
42k-55k €
Paris, France

Nous un recherchons un Data Manager - Consultant Data Gouvernance étant spécialisé en Gouvernance de données. Maîtrisant la Data Management et la Data Visualisation. Dans le cadre de la gestion et de la mise en gouvernance des données d'une Plateforme Data. Accompagnement des Uses Cases Data pour la définition de leur architecture data au sein de la plateforme dans le respect du paradigme du Data Mesh ; Identification, modélisation et documentation des Data-as-a-products exposés par chaque domaine de données ; Animation et contribution aux ateliers avec les correspondants RGPD (relais DPO) ainsi que les MOA pour l’identification et la classification des données sensibles et des données à caractère personnel ; Catalogage et taggage des données de couche Bronze dans le gestionnaire des métadonnées ; Accompagnement pour la prise en main de l’outil COLLATE (Open Metadata) par les ingénieurs de données afin d’effectuer le taggage des métadonnées de leurs domaines data respectifs conformément aux règles data management ; Participation aux cadrages des fonctionnalités techniques relatives au Data Management : gestion des schémas de données, gestion des contrats d’interface, minimisation des données, framework d’exposition des données … Conception et développement d’une newsletter Data Management sous forme d’un tableau de bord Power BI pour suivre l’évolution des principaux KPIs du patrimoine de données de la plateforme. Environnement Technique : Data Engineering : Databricks Data Storage & DB : AWS S3 Data Visualisation : Microsoft Power BI Data Management : OPEN METADATA, COLLIBRA, Data Galaxy / Data Catalog

Freelance
CDI

Offre d'emploi
Data Engineer SSAS / SQL SERVER / TRANSACT SQL / ANGLAIS (H/F)

OctopusGroup
Publiée le
Microsoft Analysis Services (SSAS)
SGBD
Transact-SQL

3 mois
10k-60k €
Paris, France

Nous recherchons pour le compte de notre client dans le domaine bancaire, un data Engineer senior ayant une sur la modélisation des données dans les SGBD, l'alimentation d'un datawerhouse / Datamart, une expérience dans le design des cubes SSAS Compétences Obligatoires - Bon communicant - Anglais min B2 (intermédiaire avancé), - Rigoureux, organisé, Proactif - Ayant une expérience significative dans l’alimentation d’un Data Warehouse/Datamart - Ayant une expérience dans le design des cubes ssas multi-dim et tabulaires Compétences techniques Obligatoires : - Expertise sur le langage T-SQL des requêtes/procédures stockées - Expertise sur la modélisation des données en SGBD - Maitrise de l’optimisation des requêtes/modèles de données sur SqlServer - Expertise sur les cubes SSAS (multi-dim /tabular) - Maitrise d’un ordonnanceur

Freelance

Mission freelance
Testeurs Recetteurs Data Echanges

KEONI CONSULTING
Publiée le
Data analysis
Recette
Test unitaire

12 mois
100-350 €
Paris, France

Contexte de la mission : En tant que Testeur Recetteur Echanges vous interviendrez en support au métier sur tous les flux "Data" de notre client. MISSIONS : • Réalisation de recettes techniques sur des traitements de fichiers de données de type XML, JSON, BDD, CVS • Utilisation des outils permettant d'exploiter des protocoles SFTP, HTTPS, JMS, KAFKA, JDBC, CFT, SMTP • Capacité d'analyse et de diagnostique en cas de problème sur des traitements d'échanges • Rédaction de cahier de tests sur la base de spécifications • Travail sur Système d'exploitation Windows et Linux

CDI
Freelance

Offre d'emploi
Data Engineer AZURE Databricks, Datafactory, Scala et SQL.

4 Impact
Publiée le
Azure Data Factory
Azure DevOps Server
Databricks

12 mois
48k-60k €
Hauts-de-Seine, France

Expérience dans le secteur du média souhaitée. Notre client recherche un Data Engineer AZURE Databricks, Datafactory, Scala et SQL H/F. Contexte client : Le Pôle Data est responsable de la gestion des projets et des outils I.T. de la régie publicitaire d’un grand groupe média. Pour accompagner la refonte du système d'information dédié aux audiences et l'impact des projets transactionnels sur notre produit Tech Datahub, notre client recherche un(e) Data Engineer. Le système d'information audiences intègre, enrichit et expose les données d'audience aux différents consommateurs internes et partenaires externes. Notre client a lancé un programme de refonte et de modernisation de ce système et des divers outils métiers internes afin d'assurer la fiabilité des données et d'améliorer l'expérience des utilisateurs métiers. Dans ce cadre, notre client souhaite renforcer son équipe de développement avec une approche axée sur la donnée. Mission : Au quotidien, vous serez chargé(e) de la conception et du développement de nouvelles pipelines de donnée s en étroite collaboration avec les autres membres de l'équipe. Vous serez, avec l'équipe Tech, garant(e) de la bonne réalisation et maintenance des différents outils du système d'information . Vous travaillerez également en collaboration avec les autres équipes du Pôle pour garantir la bonne exécution des développements Datahub nécessaires aux projets transverses de la régie. Vous êtes familier(ère) avec le développement en environnement Agile, notamment selon la méthode Scrum, et vous accordez une grande importance à l'esprit d'équipe.

CDI

Offre d'emploi
Architecte Data & Solution

Inventiv IT
Publiée le
Amazon Elastic Compute Cloud (EC2)
Amazon S3
AWS Cloud

95k-119k €
Paris, France

🎯 Inventifs Wanted En tant qu' Architecte Data chez Inventiv IT , vous êtes au premier plan de la transformation digitale. Vous êtes un leader doté d'une expertise en architecture des données, en chiffrage et en cadrage de projets Big Data, et méthodologies Agile. Travaillant sur plusieurs projets Plateform Data (orienté Architecture & Ingénierie de données) Cadrage et chiffrage des divers projets Big Data au sein de la galaxie. Définition des solutions d’architecture Big Data dans le Cloud Azure & AWS répondant aux besoins et exigences du client et aux bonnes pratiques des standards attendus. Garantir la cohérence technique et la pérennité du système d’information. Participation à la définition et à l'amélioration du Socle Big Data : Architectures types, stacks techniques, outils, règles de gouvernance et best practices. Mise en place de l'architecture des projets Big Data sur le Cloud Azure & AWS, en rédigeant des Dossiers d’Architecture Logiciels (DAL) et en validant des Dossiers d’Architecture Technique (DAT). Migration des projets dans des nouvelles architectures (HDI vers AKS, Datalake Gen1 ver Gen2, AKS 1.19 vers AKS 1.) et concevoir de nouvelles solutions avec un monitoring de PaaS et une synchronisation des données de Prod et Hprod. Participation à des instances de : Design Authority, CoArch avec les Architectes Techniques, CAO (Comité d'Architecture Opérationnel), Validation de l'architecture du Product Incrément, à des réunions de qualification / validation avec le RSSI et au suivi de chantiers de résilience et de suivi FinOps. Architecture & Ingénierie Databricks Maîtrise de Spark / Scala Arsenal Technologique : Votre maîtrise de Microsoft, Databricks, Datadog, Dataglaxy, Spark, Azure Kubernetes Services, Event Hub, Azure DataLake Gen1/Gen2, Azure Data Factory,PowerBI, PostgreSQL Harbor, DatadogAzure, et plus encore, est l'arsenal qui nous propulse dans cette aventure. Chaque outil, chaque langage, est une étoile dans la galaxie de vos compétences, illuminant notre chemin vers l'avant-garde technologique.

Freelance

Mission freelance
Développeur Data

COEXYA
Publiée le
API REST
Azure Data Factory
Databricks

1 an
100-560 €
Clermont-Ferrand, Auvergne-Rhône-Alpes

MISSIONS: Développer et maintenir des pipelines de données avec Azure Data Factory. Créer et gérer des rapports et tableaux de bord avec Power BI. Concevoir et optimiser des bases de données SQL. Travailler avec Databricks pour le traitement et l’analyse des données. Développer des scripts en Python pour automatiser les processus de données. Gérer et intégrer des API REST. Utiliser les services SSIS de SQL pour les processus ETL. COMPETENCES: Expérience avec les technologies Azure Data (Data Factory, Power BI, SQL, Databricks). Compétences en développement Python. Connaissance des API REST. Expérience avec les services SSIS de SQL.

Freelance

Mission freelance
Data sharing Governor Assurance

MGT Conseil
Publiée le
Data management

6 mois
510-800 €
Paris, France

Nous recherchons un consultant Data sharing Governor pour le compte d’un de nos clients assurance basé à Paris dans le cadre d’un projet stratégique de transformation Data. Contexte Dans le cadre de la transformation Data, le Data Management Office (DMO) cherche à renforcer ses capacités de gouvernance des données en recrutant un consultant indépendant. Le DMO est responsable de la définition et de la mise en œuvre de la stratégie de gouvernance des données de l’entreprise. La mission se concentre sur l'harmonisation des pratiques de partage de données, tant internes qu'externes, afin de garantir la conformité aux nouvelles régulations et d’optimiser les échanges de données au sein du groupe. Rôles et responsabilités En tant que Data Sharing Governor, vous serez directement rattaché au responsable du DMO. Vos principales missions seront les suivantes : Data Manager du Domaine Données Externes : Définir le cadre d’usage des données externes (principes, standards, procédures) pour piloter et adapter la roadmap 2024-2026. Accompagner les initiatives transverses, notamment dans les programmes de données entreprises et de gestion des risques géographiques. Cartographier les usages et attentes des métiers, et effectuer une veille de marché. Contribution au programme FIDA (Open Insurance) : Accompagner la mise en conformité avec la nouvelle réglementation européenne FIDA, en lien avec les associations sectorielles. Interlocuteur du groupe pour le programme One Data Mesh : Faciliter les échanges de données entre le groupe et ses entités, en optimisant les processus de partage au sein de l'écosystème de l'entreprise. Compétences requises Diplôme Bac +5 en informatique, statistique, gouvernance des données ou équivalent. Expérience significative en data sharing, idéalement en tant que Chef de Projet, avec une exposition à des projets réglementaires (ex. DSP2). Excellente capacité à vulgariser les concepts complexes et à travailler avec des équipes multidisciplinaires. Compétences en gestion de projets, avec une expérience dans le secteur de l’assurance et/ou de la banque de détail appréciée. Maîtrise du français et de l'anglais. Détails de la mission Durée : 6 mois, renouvelable. Date de démarrage : Dès que possible. Lieu : Mission basée à Paris, avec possibilité de télétravail partiel. Freelance Temps plein

Offre premium
CDI

Offre d'emploi
Business Analyst H/F

NOOEH
Publiée le
Business Analyst
Business Process Model and Notation (BPMN)
User acceptance testing (UAT)

30k-60k €
Marseille, Provence-Alpes-Côte d'Azur

NOOEH Entreprise de Service du Numérique basée à Aix-en-Provence recherche pour le compte d'un de ses clients situés à Marseille un.e Business Analyst. Vous serez en charge de l’analyse des besoins et de la documentation des exigences pour des projets de solutions de terminaux. En tant qu'analyste d'affaires, votre objectif est de comprendre et d'évaluer les besoins et les procédures du terminal et de documenter les exigences du projet (implémentation, migration ou mise à niveau de la solution de terminal) en coordination avec toutes les parties prenantes concernées en utilisant les normes de diagramme BPMN. En fonction de votre expérience, vous êtes censé fournir des recommandations pour répondre aux besoins. Responsabilités : Définition des besoins commerciaux : comprendre, collecter, analyser et remettre en question les besoins fonctionnels des utilisateurs et traduire les besoins pour la solution de terminal Définition des processus commerciaux tels quels et à venir : définition du nouveau processus commercial, des impacts sur les processus existants et des KPI ciblés Spécifications commerciales Rédaction des spécifications commerciales, intégration des contraintes de mise en œuvre dans le système d'information et accompagnement du déploiement des solutions. Analyse des besoins de l'entreprise et production des modèles de flux de processus requis Identification de toutes les exigences d'interface requises pour la solution de terminal avec des solutions tierces (ERP, EAM/CMMS, PCS, etc.) Processus de sélection des appels d'offres Production de tous les documents d'exigences de la solution de terminal nécessaires au processus de sélection de la solution de terminal Évaluation des propositions de solution de terminal Examen détaillé des spécifications Participation aux ateliers d'analyse des écarts avec l'équipe locale et les fournisseurs Examen des spécifications détaillées et des spécifications de produit fournies par les fournisseurs et les fournisseurs de solutions Définition, exécution et suivi du plan de test Définition du plan de test et des stratégies de migration des données Assurer l'exactitude des plans UAT ainsi que la bonne exécution des activités UAT Interagir avec les experts opérationnels pour fournir un travail testé et de haute qualité qui répond aux exigences convenues S'assurer que les résultats UAT répondent à toutes les exigences opérationnelles et fonctionnelles de la solution de terminal Gestion du changement Soutenir l'équipe locale du terminal dans la mise en œuvre de la gestion du changement (mise en œuvre de nouveaux processus, formation des personnes de l'UAT à la mise en service).

CDI

Offre d'emploi
Analyste Echange Flux Data

AGH CONSULTING
Publiée le
Data analysis
Linux
Microsoft Windows

10k-61k €
Saint-Denis, Île-de-France

AGH Consulting recherche pour un de ses clients un Analyste Echange Flux Data. La mission consiste à : • Rédaction de dossiers d'urbanismes, contrats d'interfaces • Réalisation de recettes techniques sur des traitements de fichiers de données de type XML, JSON, BDD, CVS • Capacité d'analyse et de diagnostic en cas de problème sur des traitements de fichiers de données • Capacité d'animation, à travailler de manière autonome et à rendre compte • Conduite d'ateliers avec des partenaires SI et la TMA • Utilisation des outils permettant d'exploiter des protocoles SFTP, HTTPS, JMS, KAFKA, JDBC, CFT, SMTP

Freelance

Mission freelance
DATA Engineer

STHREE SAS pour COMPUTER FUTURES
Publiée le
Azure Data Factory
Git
Snowflake

1 an
100-400 €
Île-de-France, France

Nous recherchons pour un de nos clients basés en IDF, un consultant Data pour une mission freelance (longue visibilité) Notre client recherche des consultants Data expérimenté (Front et Back Office) afin de mener les nouveaux projets de transformations démarrant en T4-2024 : Concevoir, réaliser, maintenir et faire évoluer les services et contenus de la PDA Mettre à disposition la donnée de tous les domaines de l’entreprise aux utilisateurs Modéliser les solutions applicatives selon les besoins métiers de l’entreprise Accompagner et développer avec les métiers des reporting et datasets à haute valeur ajoutée. Les environnements techniques et compétences obligatoire pour les 4 profils sont : SQL et T-SQL (SQL server 2017+ et SGBD PaaS : SMI & Synapse Azure) GIT Snowflake Cube tabulaire (PaaS) MS Azure Data Factory (Kafka envisagé aussi à terme pour gérer les flux stream…) Power BI (DAX, M) Power BI Reporting Services / Paginated Reports Streamlit

Freelance

Mission freelance
Data Business Analyst F/H

METSYS
Publiée le
Data management
Data Warehouse

1 an
480-500 €
Courbevoie, Île-de-France

METSYS est un intégrateur de solutions Microsoft, Cloud & Cybersécurité. Nous recherchons pour l'un de nos clients grands-comptes dans le secteur assurantiel un.e Data Business Analyst (F/H) pour une mission de longue durée à Courbevoie (92), pour un démarrage prévu fin octobre. Dans le cadre de cette mission, vous seriez amené.e à concevoir et à modéliser un socle fonctionnel pour permettre l'intégration de données tierces dans la data warehouse de notre Client, et ce au sein d'un environnement international.

Freelance
CDI

Offre d'emploi
Référent Power BI

Lùkla
Publiée le
Agile Scrum
Azure
Azure Data Factory

2 ans
60k-70k €
Paris, France

Expertise technique : Assurer la maîtrise technique de la plateforme Power BI. Être le référent technique pour l'ensemble des utilisateurs. Développer et maintenir des rapports, des tableaux de bord et des visualisations de haute qualité. Optimiser les performances et la scalabilité des modèles de données. Accompagnement des utilisateurs : Former et accompagner les utilisateurs sur les différentes fonctionnalités de Power BI. Recueillir et analyser les besoins des utilisateurs pour adapter les solutions. Assurer un support de niveau 2 et 3. Gouvernance des données : Contribuer à la définition et à la mise en œuvre d'une gouvernance des données cohérente. Garantir la qualité, la fiabilité et la sécurité des données utilisées dans Power BI. Innovation : Être force de proposition pour l'évolution de la plateforme Power BI et l'intégration de nouvelles fonctionnalités. Suivre les évolutions technologiques et les meilleures pratiques en matière de BI.

Freelance
CDI

Offre d'emploi
Business Analyst Technico-Fonctionnel Data

VPEX-IT
Publiée le
Base de données
Business Analyst
Data analysis

1 an
10k-45k €
Île-de-France, France

recrute pour le poste de 𝗕𝘂𝘀𝗶𝗻𝗲𝘀𝘀 𝗔𝗻𝗮𝗹𝘆𝘀𝘁 𝗧𝗲𝗰𝗵𝗻𝗶𝗰𝗼 𝗙𝗼𝗻𝗰𝘁𝗶𝗼𝗻𝗻𝗲𝗹 𝗗𝗮𝘁𝗮 ! 💻 - 𝗜̂𝗹𝗲-𝗱𝗲-𝗙𝗿𝗮𝗻𝗰𝗲 𝗖𝗼𝗺𝗽𝗲́𝘁𝗲𝗻𝗰𝗲𝘀 𝗿𝗲𝗾𝘂𝗶𝘀𝗲𝘀 Maîtrise de SAS et des bases de données Oracle Compétences en analyse de données Bonne communication, capacité d'adaptation rapide Expérience dans la rédaction de spécifications fonctionnelles Validation de tests Quelques avantages : · RTT · Télétravail · Prise en charge des transports en commun à hauteur de 100% · Carte Ticket Restaurant · Management de Proximité de tous nos collaborateurs N'hésitez pas à postuler et rejoindre une équipe dynamique et innovante ! 📍 Localisations : Île-de-France Envoyez nous votre candidature dès maintenant !

CDI

Offre d'emploi
Data Engineer GCP - BigQuery, Azure Data Factory et DBT

Hexateam
Publiée le
Azure Data Factory
BigQuery
Microsoft Power BI

40k-65k €
Paris, France

Nous recherchons un Data Engineer GCP - BigQuery, Azure Data Factory et DBT pour contribuer à des projets de transformation de données. Vous serez responsable de la conception et de la gestion des pipelines de données en utilisant Google BigQuery comme base de données principale, Azure Data Factory (ADF) pour le processus ELT , et DBT (Data Build Tool) pour orchestrer les transformations entre les bases de données BigQuery. Vous travaillerez sur des projets de captage et de transformation de données ainsi que sur la mise en place d'indicateurs et de rapports via des outils de BI tels que Power BI , SSRS ou d'autres plateformes de visualisation. Développement de pipelines de données (ELT) : Créer et maintenir des pipelines de données avec Azure Data Factory pour orchestrer l'extraction, le chargement et la transformation des données. Intégrer des flux de données provenant de multiples sources vers BigQuery pour le stockage et l’analyse. Gérer l'architecture des données, en assurant la qualité et la conformité tout au long du processus ELT. Transformation des données avec DBT : Utiliser DBT (Data Build Tool) pour transformer et modéliser les données au sein de BigQuery . Développer et maintenir des modèles de données modifiables et bien structurés pour répondre aux besoins d'analyse métier. Assurer une documentation claire des transformations et des modèles DBT pour faciliter leur réutilisation et leur maintenabilité. Gestion des données sur BigQuery : Assurer l'optimisation des performances des bases de données BigQuery en termes de stockage, de requêtes et de coûts. Implémenter les meilleures pratiques pour la gestion des données, y compris les partitions et les indexations. Mise en place de reporting et d'indicateurs : Collaborer avec les équipes métiers pour définir les KPI et concevoir des tableaux de bord personnalisés avec Power BI ou SSRS . Créer des visualisations interactives et dynamiques permettant d’analyser les données stockées dans BigQuery et issues des transformations réalisées via DBT . Automatiser les processus de reporting pour fournir des rapports en temps réel et des indicateurs fiables. Documentation et optimisation : Documenter toutes les étapes des pipelines de données, des transformations DBT et des processus de reporting pour garantir la transparence et la collaboration entre les équipes. Identifier et implémenter des solutions pour améliorer les performances des pipelines de données et des processus d'analyse. Collaboration inter-équipes : Travailler en collaboration avec les équipes data, DevOps, et les parties prenantes métier pour comprendre les besoins, résoudre les problèmes techniques et optimiser les flux de données. Participer activement à l'amélioration continue des processus et des outils.

398 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous