Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 263 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

CDI

Offre d'emploi
Architecte Data & Solution

Inventiv IT
Publiée le
Amazon Elastic Compute Cloud (EC2)
Amazon S3
AWS Cloud

95k-119k €
Paris, France

🎯 Inventifs Wanted En tant qu' Architecte Data chez Inventiv IT , vous êtes au premier plan de la transformation digitale. Vous êtes un leader doté d'une expertise en architecture des données, en chiffrage et en cadrage de projets Big Data, et méthodologies Agile. Travaillant sur plusieurs projets Plateform Data (orienté Architecture & Ingénierie de données) Cadrage et chiffrage des divers projets Big Data au sein de la galaxie. Définition des solutions d’architecture Big Data dans le Cloud Azure & AWS répondant aux besoins et exigences du client et aux bonnes pratiques des standards attendus. Garantir la cohérence technique et la pérennité du système d’information. Participation à la définition et à l'amélioration du Socle Big Data : Architectures types, stacks techniques, outils, règles de gouvernance et best practices. Mise en place de l'architecture des projets Big Data sur le Cloud Azure & AWS, en rédigeant des Dossiers d’Architecture Logiciels (DAL) et en validant des Dossiers d’Architecture Technique (DAT). Migration des projets dans des nouvelles architectures (HDI vers AKS, Datalake Gen1 ver Gen2, AKS 1.19 vers AKS 1.) et concevoir de nouvelles solutions avec un monitoring de PaaS et une synchronisation des données de Prod et Hprod. Participation à des instances de : Design Authority, CoArch avec les Architectes Techniques, CAO (Comité d'Architecture Opérationnel), Validation de l'architecture du Product Incrément, à des réunions de qualification / validation avec le RSSI et au suivi de chantiers de résilience et de suivi FinOps. Architecture & Ingénierie Databricks Maîtrise de Spark / Scala Arsenal Technologique : Votre maîtrise de Microsoft, Databricks, Datadog, Dataglaxy, Spark, Azure Kubernetes Services, Event Hub, Azure DataLake Gen1/Gen2, Azure Data Factory,PowerBI, PostgreSQL Harbor, DatadogAzure, et plus encore, est l'arsenal qui nous propulse dans cette aventure. Chaque outil, chaque langage, est une étoile dans la galaxie de vos compétences, illuminant notre chemin vers l'avant-garde technologique.

Freelance

Mission freelance
Développeur Data

COEXYA
Publiée le
API REST
Azure Data Factory
Databricks

1 an
100-560 €
Clermont-Ferrand, Auvergne-Rhône-Alpes

MISSIONS: Développer et maintenir des pipelines de données avec Azure Data Factory. Créer et gérer des rapports et tableaux de bord avec Power BI. Concevoir et optimiser des bases de données SQL. Travailler avec Databricks pour le traitement et l’analyse des données. Développer des scripts en Python pour automatiser les processus de données. Gérer et intégrer des API REST. Utiliser les services SSIS de SQL pour les processus ETL. COMPETENCES: Expérience avec les technologies Azure Data (Data Factory, Power BI, SQL, Databricks). Compétences en développement Python. Connaissance des API REST. Expérience avec les services SSIS de SQL.

Freelance

Mission freelance
Data sharing Governor Assurance

MGT Conseil
Publiée le
Data management

6 mois
510-800 €
Paris, France

Nous recherchons un consultant Data sharing Governor pour le compte d’un de nos clients assurance basé à Paris dans le cadre d’un projet stratégique de transformation Data. Contexte Dans le cadre de la transformation Data, le Data Management Office (DMO) cherche à renforcer ses capacités de gouvernance des données en recrutant un consultant indépendant. Le DMO est responsable de la définition et de la mise en œuvre de la stratégie de gouvernance des données de l’entreprise. La mission se concentre sur l'harmonisation des pratiques de partage de données, tant internes qu'externes, afin de garantir la conformité aux nouvelles régulations et d’optimiser les échanges de données au sein du groupe. Rôles et responsabilités En tant que Data Sharing Governor, vous serez directement rattaché au responsable du DMO. Vos principales missions seront les suivantes : Data Manager du Domaine Données Externes : Définir le cadre d’usage des données externes (principes, standards, procédures) pour piloter et adapter la roadmap 2024-2026. Accompagner les initiatives transverses, notamment dans les programmes de données entreprises et de gestion des risques géographiques. Cartographier les usages et attentes des métiers, et effectuer une veille de marché. Contribution au programme FIDA (Open Insurance) : Accompagner la mise en conformité avec la nouvelle réglementation européenne FIDA, en lien avec les associations sectorielles. Interlocuteur du groupe pour le programme One Data Mesh : Faciliter les échanges de données entre le groupe et ses entités, en optimisant les processus de partage au sein de l'écosystème de l'entreprise. Compétences requises Diplôme Bac +5 en informatique, statistique, gouvernance des données ou équivalent. Expérience significative en data sharing, idéalement en tant que Chef de Projet, avec une exposition à des projets réglementaires (ex. DSP2). Excellente capacité à vulgariser les concepts complexes et à travailler avec des équipes multidisciplinaires. Compétences en gestion de projets, avec une expérience dans le secteur de l’assurance et/ou de la banque de détail appréciée. Maîtrise du français et de l'anglais. Détails de la mission Durée : 6 mois, renouvelable. Date de démarrage : Dès que possible. Lieu : Mission basée à Paris, avec possibilité de télétravail partiel. Freelance Temps plein

Freelance

Mission freelance
DATA Engineer

STHREE SAS pour COMPUTER FUTURES
Publiée le
Azure Data Factory
Git
Snowflake

1 an
100-400 €
Île-de-France, France

Nous recherchons pour un de nos clients basés en IDF, un consultant Data pour une mission freelance (longue visibilité) Notre client recherche des consultants Data expérimenté (Front et Back Office) afin de mener les nouveaux projets de transformations démarrant en T4-2024 : Concevoir, réaliser, maintenir et faire évoluer les services et contenus de la PDA Mettre à disposition la donnée de tous les domaines de l’entreprise aux utilisateurs Modéliser les solutions applicatives selon les besoins métiers de l’entreprise Accompagner et développer avec les métiers des reporting et datasets à haute valeur ajoutée. Les environnements techniques et compétences obligatoire pour les 4 profils sont : SQL et T-SQL (SQL server 2017+ et SGBD PaaS : SMI & Synapse Azure) GIT Snowflake Cube tabulaire (PaaS) MS Azure Data Factory (Kafka envisagé aussi à terme pour gérer les flux stream…) Power BI (DAX, M) Power BI Reporting Services / Paginated Reports Streamlit

Freelance

Mission freelance
Data Business Analyst F/H

METSYS
Publiée le
Data management
Data Warehouse

1 an
480-500 €
Courbevoie, Île-de-France

METSYS est un intégrateur de solutions Microsoft, Cloud & Cybersécurité. Nous recherchons pour l'un de nos clients grands-comptes dans le secteur assurantiel un.e Data Business Analyst (F/H) pour une mission de longue durée à Courbevoie (92), pour un démarrage prévu fin octobre. Dans le cadre de cette mission, vous seriez amené.e à concevoir et à modéliser un socle fonctionnel pour permettre l'intégration de données tierces dans la data warehouse de notre Client, et ce au sein d'un environnement international.

Freelance
CDI

Offre d'emploi
Référent Power BI

Lùkla
Publiée le
Agile Scrum
Azure
Azure Data Factory

2 ans
60k-70k €
Paris, France

Expertise technique : Assurer la maîtrise technique de la plateforme Power BI. Être le référent technique pour l'ensemble des utilisateurs. Développer et maintenir des rapports, des tableaux de bord et des visualisations de haute qualité. Optimiser les performances et la scalabilité des modèles de données. Accompagnement des utilisateurs : Former et accompagner les utilisateurs sur les différentes fonctionnalités de Power BI. Recueillir et analyser les besoins des utilisateurs pour adapter les solutions. Assurer un support de niveau 2 et 3. Gouvernance des données : Contribuer à la définition et à la mise en œuvre d'une gouvernance des données cohérente. Garantir la qualité, la fiabilité et la sécurité des données utilisées dans Power BI. Innovation : Être force de proposition pour l'évolution de la plateforme Power BI et l'intégration de nouvelles fonctionnalités. Suivre les évolutions technologiques et les meilleures pratiques en matière de BI.

CDI

Offre d'emploi
Data Engineer GCP - BigQuery, Azure Data Factory et DBT

Hexateam
Publiée le
Azure Data Factory
BigQuery
Microsoft Power BI

40k-65k €
Paris, France

Nous recherchons un Data Engineer GCP - BigQuery, Azure Data Factory et DBT pour contribuer à des projets de transformation de données. Vous serez responsable de la conception et de la gestion des pipelines de données en utilisant Google BigQuery comme base de données principale, Azure Data Factory (ADF) pour le processus ELT , et DBT (Data Build Tool) pour orchestrer les transformations entre les bases de données BigQuery. Vous travaillerez sur des projets de captage et de transformation de données ainsi que sur la mise en place d'indicateurs et de rapports via des outils de BI tels que Power BI , SSRS ou d'autres plateformes de visualisation. Développement de pipelines de données (ELT) : Créer et maintenir des pipelines de données avec Azure Data Factory pour orchestrer l'extraction, le chargement et la transformation des données. Intégrer des flux de données provenant de multiples sources vers BigQuery pour le stockage et l’analyse. Gérer l'architecture des données, en assurant la qualité et la conformité tout au long du processus ELT. Transformation des données avec DBT : Utiliser DBT (Data Build Tool) pour transformer et modéliser les données au sein de BigQuery . Développer et maintenir des modèles de données modifiables et bien structurés pour répondre aux besoins d'analyse métier. Assurer une documentation claire des transformations et des modèles DBT pour faciliter leur réutilisation et leur maintenabilité. Gestion des données sur BigQuery : Assurer l'optimisation des performances des bases de données BigQuery en termes de stockage, de requêtes et de coûts. Implémenter les meilleures pratiques pour la gestion des données, y compris les partitions et les indexations. Mise en place de reporting et d'indicateurs : Collaborer avec les équipes métiers pour définir les KPI et concevoir des tableaux de bord personnalisés avec Power BI ou SSRS . Créer des visualisations interactives et dynamiques permettant d’analyser les données stockées dans BigQuery et issues des transformations réalisées via DBT . Automatiser les processus de reporting pour fournir des rapports en temps réel et des indicateurs fiables. Documentation et optimisation : Documenter toutes les étapes des pipelines de données, des transformations DBT et des processus de reporting pour garantir la transparence et la collaboration entre les équipes. Identifier et implémenter des solutions pour améliorer les performances des pipelines de données et des processus d'analyse. Collaboration inter-équipes : Travailler en collaboration avec les équipes data, DevOps, et les parties prenantes métier pour comprendre les besoins, résoudre les problèmes techniques et optimiser les flux de données. Participer activement à l'amélioration continue des processus et des outils.

Freelance

Mission freelance
CHEF DE PROJET BUSINESS TRANSFORMATION & MONETISATION

Mon Consultant Indépendant
Publiée le
Data analysis
Data management
Transformation digitale

18 mois
620-660 €
Paris, France

Contenu et Objectifs de la mission : Au sein de la direction du Pole Data IA du Chief Data Officer, la mission consiste à accompagner la verticale Transformation & Innovation Data/IA sur ses missions d’accompagnement à la transformation des projets data IA des métiers de notre client : - Accompagner le pôle dans l’émergence et la qualification des besoins de métier, l’identification des solutions et de l’ensemble des prérequis afin notamment de garantir le respect de la politique Data de notre client - Organiser et faciliter les temps forts d’idéation de cas d’usage ou de production de Feuille de route pour les Branches et BUs de notre client : structuration et animation de séminaires ou d’ateliers, apport de benchmark interne et/ou externe, restitution.​ - Préparer les dossiers de qualification des projets afin d’en faciliter l’arbitrage en termes de priorisation et financement/amorçage par le Pôle Data ou encore de décision Make or Buy. ​ - Garantir une évaluation objective et complète des opportunités de projet et s’assurer notamment d’une estimation réaliste du potentiel de ROI et des gains non financiers associés.​ - Identifier et mobiliser les expertises qui seront en charge de la réalisation. S’assurer du transfert efficace du dossier.​ - Suivre le projet durant sa phase de réalisation afin notamment d’identifier les risques, le respect des échéances, la qualité de la solution et des livrables associés. - Mettre à jour les hypothèses du business case au besoin lors de la mise en production puis en phase de run.​

CDI

Offre d'emploi
Data Engineer Power BI H/F

AMAGO EXPERTISE
Publiée le
Apache Airflow
Azure Data Factory
Databricks

10k-56k €
Saint-Denis, Île-de-France

AMAGO IT recherche dans le cadre d'une mission de longue durée chez un client GC basé en IDF 93 : Data Engineer H/F Missions : · Participation aux ateliers de conception technico-fonctionnels · Prise en charge des activités de développement · Remontée d’informations aux équipes de pilotage · Participation aux daily et autres cérémonies agiles · Chiffrage et réestimation du reste à faire au fil des développements · Développement des fonctionnalités en respectant les bonnes pratiques définies · Développement des tests automatisés · Correction des anomalies fonctionnelles et/ou techniques · Participation aux différentes communautés techniques

Freelance

Mission freelance
Architect Data

VISIAN
Publiée le
Azure
Azure Data Factory
Databricks

3 mois
100-570 €
Boulogne-Billancourt, Île-de-France

L'equipe Datafinance utilise actuellement une architecture basée sur Databricks, Azure Blob Storage, Azure Data Factory et Azure Analysis Services pour traiter et analyser ses données financières. Nous cherchons à optimiser les processus de traitement de ces données, en particulier le rafraîchissement des données, pour améliorer la performance et la qualité des analyses. Dans ce cadre, nous recherchons un expert en BI et Data. L'objectif est d'optimiser le Temps de traitement et de rafraichissement des données. 2. Objectifs de la mission L'expert BI et Data sera chargé de : Optimiser le traitement des données du projet Data finance, en se concentrant principalement sur le processus de rafraîchissement des données entra la zone gold et le cube de données. Optimiser l'utilisation de Azure Analysis Services (modèle Tabulaire) pour les rapports et les analyses. 3. Technologies utilisées L'expert devra maîtriser les technologies suivantes : Databricks (en particulier avec PySpark). Azure Analysis Services (modèle Tabulaire). SQL . Git et Azure DevOps pour la gestion des versions et l'intégration continue. 4. Compétences requises Le candidat idéal doit posséder une expérience avérée dans les domaines suivants : Maîtrise de PySpark : pour le traitement et l'optimisation des données dans Databricks. Expertise en modélisation de données : capacité à concevoir et optimiser des modèles de données pour améliorer la performance et la gestion des données financières. Maîtrise du modèle Tabulaire dans Azure Analysis Services : pour optimiser le rafraîchissement des données et améliorer les performances des cubes. Bonne compétences en SQL 5. Livrables attendus Les livrables de la mission incluent : Mise en œuvre des optimisations dans Databricks et Azure Analysis Services. Documentation détaillée des modifications apportées et des bonnes pratiques mises en place. Transfert de connaissances aux équipes internes pour garantir une gestion continue des processus optimisés.

Freelance

Mission freelance
Expert Data et BI

SKILLWISE
Publiée le
Azure Data Factory
Databricks
PySpark

3 mois
100-1k €
Paris, France

L’équipe utilise actuellement une architecture basée sur Databricks, Azure Blob Storage, Azure Data Factory et Azure Analysis Services pour traiter et analyser des données financières. Le client cherche à optimiser les processus de traitement de ces données, en particulier le rafraîchissement des données, pour améliorer la performance et la qualité des analyses. Dans ce cadre, nous recherchons un expert en BI et Data pour une mission de 3 mois. L'objectif est d'optimiser le Temps de traitement et de rafraichissement des données. Objectifs de la mission L'expert BI et Data sera chargé de : Optimiser le traitement des données du projet, en se concentrant principalement sur le processus de rafraîchissement des données entra la zone gold et le cube de données. Optimiser l'utilisation de Azure Analysis Services (modèle Tabulaire) pour les rapports et les analyses. Technologies utilisées L'expert devra maîtriser les technologies suivantes : Databricks (en particulier avec PySpark). Azure Analysis Services (modèle Tabulaire). SQL Git et Azure DevOps pour la gestion des versions et l'intégration continue Livrables attendus Les livrables de la mission incluent : Mise en œuvre des optimisations dans Databricks et Azure Analysis Services. Documentation détaillée des modifications apportées et des bonnes pratiques mises en place. Transfert de connaissances aux équipes internes pour garantir une gestion continue des processus optimisés.

Freelance

Mission freelance
Data Engineer 3

KEONI CONSULTING
Publiée le
Azure Data Factory
Jenkins
Méthode Agile

12 mois
100-400 €
Saint-Denis, Île-de-France

Contexte de la mission : La DSI du client final a mis en place une Data Plateforme pour faciliter la mise en œuvre des projets Data. Elle souhaite aujourd’hui mettre en place en son sein une équipe d’experts compétents pour développer les projets Data et la piloter directement. MISSIONS : Participation aux ateliers de conception technico-fonctionnels Prise en charge des activités de développement, écriture du code Remontée d’informations aux équipes de pilotage Participation aux stand-up daily et autres cérémonies agiles Échanges techniques avec les autres Data engineer et développeurs Chiffrage et réestimation du reste à faire au fil des développements Développement des fonctionnalités en respectant les bonnes pratiques définies Développement des tests automatisés (TU/TI) Correction des anomalies fonctionnelles et/ou techniques Participation aux différentes communautés techniques

Offre premium
Freelance

Mission freelance
Consultant Data Management - Temps partagés (3/5j) - Paris La Défense

AIS
Publiée le
Data analysis

3 mois
420-860 €
La Défense, Île-de-France

Nous recherchons un·e Consultant·e Data Management expérimenté·e (3-5 ans) pour rejoindre notre service Data Office. Vous serez responsable de la mise en place de la gouvernance des données au sein de notre organisation, en apportant votre expertise sur la gestion des données et en pilotant des projets stratégiques autour du Data Management. Missions principales : Cartographier et documenter les data domains Finance, RH et Customer en collaboration avec les Data Owners et stewards. Identifier et inventorier les master data fonctionnelles. Clarifier l’ownership des master data dans le cadre de la politique de Master Data Management récemment établie. Participer activement à la création de dashboards internes et pour nos clients, et contribuer à l’obtention d’une vision client 360. Vous jouerez un rôle clé dans l’évolution de la stratégie Data de l’entreprise et dans la promotion de l’approche Data au sein des différentes équipes.

CDI
Freelance

Offre d'emploi
Administrateur Système et réseaux

CAPEST conseils
Publiée le
Administration linux
Microsoft Windows
NetApp

36 mois
35k-60k €
Ivry-sur-Seine, Île-de-France

Vos missions principales : Assurer le bon fonctionnement des serveurs, des liaisons et des équipements réseau. Paramétrer et configurer les solutions métiers en conformité avec les normes et standards en vigueur. Élaborer et maintenir la documentation d'exploitation et technique du système. Faire évoluer l’infrastructure systèmes et réseaux en tenant compte des objectifs de qualité, de sécurité et de performance. Assurer le suivi et la résolution des incidents réseaux, applicatifs et de sécurité. Gérer les environnements de production (Linux et Windows), les équipements réseaux et les systèmes de sécurité. Prendre en charge les demandes techniques complexes (niveau 2) et traiter les incidents d’infrastructure et de services. Effectuer une veille technologique régulière afin d'anticiper les évolutions et innovations du secteur.

Freelance

Mission freelance
Data Engineer - BI - Paris

NSI France
Publiée le
Big Data
Data visualisation
Méthode Agile

4 mois
100-510 €
Paris, France

Dans le cadre de notre activité de maintenance corrective et évolutive sur le périmètre Gestion des risques, la mission a pour objectif la réalisation de traitement ETL visant à alimenter un entrepôt de données et de datamarts, ou à extraire des listes de dossiers destinés aux centres de gestion. Afin de réaliser correctement cette mission, il est indispensable que vous ayez une bonne capacité d'analyse : un travail d'appropriation des spécifications, portant principalement sur le domaine des données de santé, et des échanges nourris avec les équipes fonctionnelles sont nécessaires pour bien appréhender les besoins et attentes de conception technique : afin d'optimiser les chaines de traitement. Compétences requises : - Bonnes connaissances des concepts décisionnels (grands principes, modélisation en étoile...) - Développement via un outil ETL : xDI Semarchy est l’outil d’entreprise ou expertise sur un autre outil du marché (Informatica, Datastage, ODI...) sous couvert d’avoir suivi a minima la formation de l'éditeur sur l'outil xDI. Compétences supplémentaires souhaitées : - Dataviz : Conception / développement de rapport Power BI / Report Builder - Une expérience dans le domaine de la mutualité - Utilisation de chaines CI/CD (Gitlab, Cloudbees) - Expérience en méthode agile (Scrum ou Kanban)

CDI

Offre d'emploi
Responsable Produit

CAPEST conseils
Publiée le
Search Engine Marketing (SEM)
SIRH

40k-62k €
Bordeaux, Nouvelle-Aquitaine

Le Responsable Produit est en charge de l'optimisation, de l'évolution et de l'adoption des solutions pour les produits sous sa responsabilité. Il veille à ce que les solutions déployées soient conformes aux principes d'architecture et d'urbanisation du Groupe. Le rôle consiste à garantir le bon fonctionnement et l'amélioration continue des produits, en veillant au respect des SLA et à la qualité des services délivrés aux utilisateurs. Dans le cadre de la gestion des produits, le Responsable Produit sera amené à évaluer les outils Search et à auditer les solutions SIRH afin de recommander la solution la plus adaptée aux besoins de l'entreprise. Cela inclut le choix entre plusieurs solutions du marché, telles que PeopleSoft , HR Access , ou d'autres outils équivalents, en fonction des résultats de l’audit et des besoins métiers. Le Responsable Produit devra : Réaliser des études de cadrage et des audits sur les solutions Search et SIRH . Coordonner les parties prenantes pour évaluer l’intérêt des différentes solutions SIRH et proposer des recommandations alignées avec la stratégie du Groupe. Garantir que les solutions choisies respectent les principes d'architecture et sont optimisées pour une utilisation efficace au sein de l'entreprise. Gestion opérationnelle des services : Maintenir en conditions opérationnelles le périmètre applicatif, incluant la gestion des incidents, les montées de version, et la sécurité (SecOps). Enrichir et maintenir le catalogue de service associé au produit. Assurer le respect des SLA et produire le reporting associé. Pilotage de la roadmap et mise en œuvre : En coordination avec les responsables métiers et les business analysts, identifier les évolutions et projets techniques/fonctionnels. Prioriser les évolutions en collaboration avec les directions métiers et réaliser les études de cadrage. Piloter la mise en œuvre des évolutions en veillant à l'alignement avec les principes d'architecture du Groupe. Documentation et adoption du produit : Garantir l’exhaustivité et la mise à jour des documentations produit et utilisateur. Diffuser les bonnes pratiques d’utilisation et s’assurer que les produits sont utilisés de manière optimale par les métiers. Gestion des fournisseurs et suivi de l’activité : Piloter les TMA, intégrateurs et éditeurs intervenant sur le périmètre applicatif, en assurant la gestion contractuelle et la qualité des livrables. Contribuer au suivi budgétaire en collaboration avec le Responsable de Domaine Métier.

263 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous