Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 659 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Tech lead - Data

Management Square
Publiée le
Agile Scrum
Azure Data Factory
Azure DevOps Server

1 an
580-600 €
Île-de-France, France

Participer au développement d'un Framework de gestion des flux de données Concevoir l'architecture technique de la solution cible Proposer des solutions innovantes Assurer la cohérence technique et les bonnes pratiques Être force de proposition sur le design des solutions techniques Rédiger les dossiers techniques et autres documentations nécessaires Participer activement au développement de la solution cible Assurer la cohérence technique des différents modules du projet et garantir les bonnes pratiques (cohérence du code au sein de l’équipe, choix des modèles ..) en ligne.

Freelance

Mission freelance
SENIOR Data Scientist / ML Engineer / LLM / IA

KUBE Partners S.L. / Pixie Services
Publiée le
Django
Python

2 ans
100-3k €
Paris, France

Diriger la conception, le développement et la mise en œuvre de modèles avancés de machine learning pour générer des insights et faciliter la prise de décision. Collaborer avec des équipes pluridisciplinaires pour résoudre des problèmes complexes en utilisant l'analyse statistique, la modélisation prédictive et des stratégies basées sur les données. Optimiser les algorithmes, gérer de grands ensembles de données et déployer des solutions évolutives. Encadrer des data scientists juniors et apporter une expertise technique sur les frameworks et outils d'IA/ML.

Freelance

Mission freelance
Data Engineer GCP

KEONI CONSULTING
Publiée le
Python
Scripting
Shell

12 mois
100-500 €
Bordeaux, Nouvelle-Aquitaine

Contexte : Mise en place de flux d'alimentation d'un entrepôt de données sous GCP. MISSIONS : • Conception et développement de flux de données • Exploration des données sources • Rédaction de spécifications (mapping) • Migration depuis l’ancienne architecture Compétences recherchées : - Obligatoires : Expérience avérée de 12 mois minimum sur un projet Data sous GCP validée par une certification Professional Data Engineer GCP Big Query Dataform Cloud Storage Composer SQL Python Scripting Shell - Optionnelles : Dataiku QlikSense Google Data Studio GIT DBT Expérience nécessaire : 3 années minimum Langue : Français

Freelance
CDI

Offre d'emploi
Data Engineer SSIS SSRS - C# .NET

Digistrat consulting
Publiée le
SQL Server Reporting Services (SSRS)

36 mois
10k-200k €
Paris, France

Contexte : Nous sommes à la recherche d'un ingénieur de données senior pour développer et fournir des solutions à l'équipe Autohedging d'eFX. Excellente connaissance de SQL Server (SSIS, SSRS) combinée à de bonnes compétences en C# .Net. La connaissance et l'expertise de Python ou d'autres langages de script serait un avantage. La mission comprendra : - Effectuer des tâches de développement de données - Développement et livraison de tableaux de bord - Développer des relations de collaboration avec les collègues de l'IT et de l'entreprise Liste des tâches : - Concevoir, créer, tester et documenter des SQL, des packages et des programmes, nouveaux ou modifiés, à partir de spécifications commerciales fournies. - Traiter, nettoyer et vérifier l'intégrité des données utilisées pour l'analyse. - Effectuer des analyses ad hoc et présenter les résultats de manière claire, en sélectionnant et en intégrant tous les outils et cadres Big Data nécessaires pour fournir les capacités requises. - Développer des outils de reporting et des tableaux de bord visuels et interactifs dans une variété de technologies. Traduit avec (version gratuite)

Freelance

Mission freelance
Data sharing Governor Assurance

MGT Conseil
Publiée le
Data management

6 mois
510-800 €
Paris, France

Nous recherchons un consultant Data sharing Governor pour le compte d’un de nos clients assurance basé à Paris dans le cadre d’un projet stratégique de transformation Data. Contexte Dans le cadre de la transformation Data, le Data Management Office (DMO) cherche à renforcer ses capacités de gouvernance des données en recrutant un consultant indépendant. Le DMO est responsable de la définition et de la mise en œuvre de la stratégie de gouvernance des données de l’entreprise. La mission se concentre sur l'harmonisation des pratiques de partage de données, tant internes qu'externes, afin de garantir la conformité aux nouvelles régulations et d’optimiser les échanges de données au sein du groupe. Rôles et responsabilités En tant que Data Sharing Governor, vous serez directement rattaché au responsable du DMO. Vos principales missions seront les suivantes : Data Manager du Domaine Données Externes : Définir le cadre d’usage des données externes (principes, standards, procédures) pour piloter et adapter la roadmap 2024-2026. Accompagner les initiatives transverses, notamment dans les programmes de données entreprises et de gestion des risques géographiques. Cartographier les usages et attentes des métiers, et effectuer une veille de marché. Contribution au programme FIDA (Open Insurance) : Accompagner la mise en conformité avec la nouvelle réglementation européenne FIDA, en lien avec les associations sectorielles. Interlocuteur du groupe pour le programme One Data Mesh : Faciliter les échanges de données entre le groupe et ses entités, en optimisant les processus de partage au sein de l'écosystème de l'entreprise. Compétences requises Diplôme Bac +5 en informatique, statistique, gouvernance des données ou équivalent. Expérience significative en data sharing, idéalement en tant que Chef de Projet, avec une exposition à des projets réglementaires (ex. DSP2). Excellente capacité à vulgariser les concepts complexes et à travailler avec des équipes multidisciplinaires. Compétences en gestion de projets, avec une expérience dans le secteur de l’assurance et/ou de la banque de détail appréciée. Maîtrise du français et de l'anglais. Détails de la mission Durée : 6 mois, renouvelable. Date de démarrage : Dès que possible. Lieu : Mission basée à Paris, avec possibilité de télétravail partiel. Freelance Temps plein

Freelance

Mission freelance
Data Engineer F/H

CELAD
Publiée le
Apache Spark
Google Cloud Platform
Scala

12 mois
480 €
Paris, France

Nous poursuivons notre développement et recherchons actuellement un.e Data Engineer pour intervenir chez un de nos clients du secteur bancaire. Contexte / Objectifs : Récupérer les données issues de sources externes Utiliser la puissance du Datalake Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. Mise en œuvre de la chaîne : d’ingestion de données, de validation de données, de croisement de données, de déversement dans le datalake des données enrichies Développer dans le respect des règles d’architecture définies Développer et documenter les user stories avec l’assistance du Product Owner. Produire les scripts de déploiement Prioriser les corrections des anomalies Assister les équipes d’exploitation Participer à la mise en œuvre de la chaîne de delivery continue Automatiser les tests fonctionnels

CDI
Freelance

Offre d'emploi
Data Engineer GCP

Hexateam
Publiée le
Apache
Apache Hive
Apache Spark

24 mois
10k-61k €
Île-de-France, France

Dans le cadre de la croissance de HEXATEAM, nous sommes en quête permanente de nouveaux talents pour renforcer nos équipes. Nous cherchons actuellement deux profils Data Engineer GCP Le Data Engineer sera chargé des activités de Data Engineering, en particulier sur la plateforme Google Cloud Platform (GCP) . Il devra gérer les données brutes de satisfaction stockées dans le datalake (zone Raw) et transformer ces données pour les rendre accessibles dans une zone Gold, utilisée par d'autres projets. Conception : Analyse des données, définition du modèle de données, conception des chaînes d'ingestion et de préparation. Réalisation : Mise en œuvre, indexation, ordonnancement et tests des jobs, avec documentation. Intégration & Déploiement : Optimisation des performances, résolution de problèmes liés aux jobs et aux données. Documents de modélisation et structuration des données. Règles de gestion et synthèses analytiques. Mise en place des chaînes de traitement de la donnée et des dashboards de monitoring. Maîtrise de Spark , Scala . Pratique confirmée des services GCP : BigQuery, CloudStorage, CloudComposer/Airflow, DataFlow, Dataproc, Terraform, GitLabEE. Expérience en modélisation de données et stratégie de tests. Connaissance des notebooks data, GCP DataStudio, ElasticSearch (atout). Méthodologie Agile . Anglais requis pour la documentation et les échanges internationaux.

CDI

Offre d'emploi
Data Engineer AWS Montpellier

Tenth Revolution Group
Publiée le

40k-45k €
Toulouse, Occitanie

En tant qu'expert(e) Data, vous jouerez un rôle clé dans les projets de transformation cloud pour des clients ayant des besoins critiques en scalabilité. Vous interviendrez sur toutes les phases du projet, de la conception à la mise en production, en apportant votre expertise sur les aspects techniques et stratégiques du cloud public, notamment en matière de sécurité, d'observabilité, de réseau, de gestion des coûts et d'automatisation. Votre polyvalence, à la fois technique et humaine, sera un atout majeur. Vous serez notamment impliqué(e) dans : • L'audit et l'optimisation des environnements cloud existants des clients, avec des recommandations d'amélioration. • La conception d'architectures cloud natives (AWS) robustes et évolutives pour des solutions data. • La création et le déploiement d'entrepôts de données hautement scalables utilisant Lambda, Redshift et d'autres technologies. • Le développement et l'optimisation de pipelines de données avec des outils tels que Spark, Dataflow, SQS, et PubSub. • L'accompagnement des clients dans l'adoption des meilleures pratiques cloud et DevOps, en les formant à la philosophie du cloud. • L'implémentation des processus d'automatisation via CI/CD, GitOps et d'autres approches d'intégration continue. • Le déploiement et l'intégration des solutions en production, tout en assurant un passage fluide vers les opérations. Notre écosystème technique (variable selon les projets) inclut : • Architecture Data : ETL, ELT, Dataflow, Spark, Airflow, GCP Workflows. • Big Data : BigQuery, Firestore, Redshift, Athena, MongoDB. • Conteneurs & microservices : Docker, Kubernetes, Istio. • Architecture orientée messages : Kafka, PubSub. • Automatisation & Infrastructure as Code (IaC) : Terraform, CloudFormation, Ansible, GitLab, GitHub. • Cloud public : AWS, GCP. • Langages : Python, Go, Java.

Freelance

Mission freelance
Data Business Analyst F/H

METSYS
Publiée le
Data management
Data Warehouse

1 an
480-500 €
Courbevoie, Île-de-France

METSYS est un intégrateur de solutions Microsoft, Cloud & Cybersécurité. Nous recherchons pour l'un de nos clients grands-comptes dans le secteur assurantiel un.e Data Business Analyst (F/H) pour une mission de longue durée à Courbevoie (92), pour un démarrage prévu fin octobre. Dans le cadre de cette mission, vous seriez amené.e à concevoir et à modéliser un socle fonctionnel pour permettre l'intégration de données tierces dans la data warehouse de notre Client, et ce au sein d'un environnement international.

Freelance

Mission freelance
Data Engineer 2

KEONI CONSULTING
Publiée le
Azure
Jenkins
Méthode Agile

12 mois
100-450 €
Lyon, Auvergne-Rhône-Alpes

Contexte de la mission : LA DSI du client final a mis en place une Data Plateforme pour faciliter la mise en œuvre des projets Data. Elle souhaite aujourd’hui mettre en place en son sein une équipe d’experts compétents pour développer les projets Data et la piloter directement. MISSIONS : Participation aux ateliers de conception technico-fonctionnels Prise en charge des activités de développement, écriture du code Remontée d’informations aux équipes de pilotage Participation aux stand-up daily et autres cérémonies agiles Échanges techniques avec les autres Data engineer et développeurs Chiffrage et réestimation du reste à faire au fil des développements Développement des fonctionnalités en respectant les bonnes pratiques définies Développement des tests automatisés (TU/TI) Correction des anomalies fonctionnelles et/ou techniques Participation aux différentes communautés techniques

CDI

Offre d'emploi
Data Engineer Spark / Scala

Tenth Revolution Group
Publiée le

40k-45k €
Lyon, Auvergne-Rhône-Alpes

Notre client, expert en services Data, accompagne ses partenaires dans leur transformation numérique. Son équipe d'ingénieurs, chefs de projets et managers de transformation, est passionnée par les évolutions technologiques. L'entreprise valorise l'évolution, l'exigence et la proximité, tout en proposant des missions variées et stimulantes, à forte valeur ajoutée, pour des clients exigeants. Dans le cadre d'une mission spécifique pour un client, cette entreprise recherche un Data Engineer Spark / Scala. Vos missions : Concevoir des solutions fonctionnelles et techniques détaillées Développer des applications avec Spark / Scala Participer à la formalisation des plans de tests, exécuter les tests unitaires et d'intégration Résoudre les anomalies lors des phases d'intégration fonctionnelle et de recette utilisateur Mettre en œuvre des solutions industrielles et accompagner leur déploiement Assurer le suivi des environnements techniques Profil recherché : Minimum 2 ans d'expérience en tant que Data Engineer Maîtrise des technologies Spark et Scala Expérience en contexte Agile/Scrum Vos atouts : Curiosité, adaptabilité et aisance relationnelle Excellent savoir-être et communication efficace Forte capacité d'analyse Ce que l'entreprise offre : Télétravail flexible Participation à des projets diversifiés et enrichissants Montée en compétences sur des outils IT innovants Si vous êtes à la recherche de nouveaux défis et que ce poste vous correspond, postulez dès maintenant pour en savoir plus ! Candidatures confidentielles

Freelance
CDI

Offre d'emploi
Consultant(e) Data / Big Data

Accelite
Publiée le
Agile Scrum
Alteryx
AMOA

1 an
40k-60k €
Paris, France

En tant que Consultant(e) AMOA Big Data / Data , vous accompagnez la modélisation et à la mise en œuvre des solutions décisionnelles (reporting stratégique, opérationnel, etc.) la mise en œuvre des usages concernant les données des services Solidarités et Droit à l’information. Les solutions à mettre en œuvre le seront sous une architecture technique Hadoop/Hive ; les outils de manipulation des données : Tableau et Alteryx. De plus, vous participez à l’enrichissement des dictionnaires de données sur le périmètre concerné ainsi qu’à la modélisation des datamarts décisionnels répondant aux cas d’usages du projet. Les activités seront menées en méthode dite agile . La durée des sprints est de trois semaines. Le nombre de sprints sera de 9. À ce titre, vous aurez pour rôle : -Accompagnement et interface entre Métier et MOE sur les solutions d’architecture data mises en place -Animer les réunions avec les utilisateurs et l’équipe de développement (une réunion par semaine, de 5 à 10 participants par réunion) -Recueillir et restituer les indicateurs -Tâches attendues pendant un sprint : Analyser les user-stories prises en compte dans les sprints et animer les ateliers métiers associés ; Modélisation fonctionnelle des objets pivots et des datamarts ; Préparer et conduire les recettes -Réalisation d’un mode opératoire, façon Tutoriel, pour que les métiers puissent construire des rapports en autonomie. Cela pourra être sous forme de document de type Powerpoint avec un maximum de 30 slides -Réalisation/automatisation de rapports et d’indicateurs sur demande des métiers -Accompagnement des métiers dans l’utilisation de la solution S.I mise en œuvre -Réalisation de documents sur le fonctionnement de l’outil à destination de la MOA. Les documents seront sous format de type Word. Ils devront être exhaustifs en termes de périmètre de fonctionnalités mise en œuvre.

Freelance

Mission freelance
Senior Cloud Data Engineer (H/F)

Insitoo Freelances
Publiée le
AWS Cloud
Python

2 ans
300-600 €
Grenoble, Auvergne-Rhône-Alpes

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Senior Cloud Data Engineer (H/F) à Grenoble, Auvergne-Rhône-Alpes, France. Contexte : Dans le cadre du développement de la prochaine version d’une plateforme d’intelligence artificielle, s'appuyant sur Azure et AWS, nous avons besoin de renforcer l'équipe en charge des capacités data avec un profil Senior Data Engineer Les missions attendues par le Senior Cloud Data Engineer (H/F) : - Cloud AWS, Azure - Technologie Data : Python/Spark – SQL - Outils: Docker, GitHub, Terraform, Databricks - Anglais obligatoire

CDI

Offre d'emploi
Ingénieur Data Expert Power BI

Management Square
Publiée le
Big Data
Microsoft Power BI

40k-52k €
Arcueil, Île-de-France

Nous recherchons un Data Engineer confirmé, expert en Power BI, pour rejoindre une équipe dynamique au sein d'une grande entreprise. Vous jouerez un rôle clé dans la conception, le développement et l'optimisation de solutions de reporting et de visualisation de données pour répondre aux besoins de nos utilisateurs et parties prenantes. Créer et maintenir des rapports Power BI performants et adaptés aux besoins des utilisateurs Participer activement à la migration des rapports existants de Power BI Report Server vers Power BI Service Concevoir, développer et optimiser des modèles de données et des cubes pour assurer des performances optimales Appliquer les meilleures pratiques en matière de visualisation de données Collaborer étroitement avec les équipes IT et métiers pour une intégration fluide des solutions Sécuriser l'accès et la diffusion des données en conformité avec la politique de sécurité de l'entreprise Comprendre les besoins métiers et proposer des améliorations pour les applications et projets de transformation Se tenir informé des nouvelles fonctionnalités de Power BI et proposer des optimisations

Freelance

Mission freelance
Architect Data

VISIAN
Publiée le
Azure
Azure Data Factory
Databricks

3 mois
100-570 €
Boulogne-Billancourt, Île-de-France

L'equipe Datafinance utilise actuellement une architecture basée sur Databricks, Azure Blob Storage, Azure Data Factory et Azure Analysis Services pour traiter et analyser ses données financières. Nous cherchons à optimiser les processus de traitement de ces données, en particulier le rafraîchissement des données, pour améliorer la performance et la qualité des analyses. Dans ce cadre, nous recherchons un expert en BI et Data. L'objectif est d'optimiser le Temps de traitement et de rafraichissement des données. 2. Objectifs de la mission L'expert BI et Data sera chargé de : Optimiser le traitement des données du projet Data finance, en se concentrant principalement sur le processus de rafraîchissement des données entra la zone gold et le cube de données. Optimiser l'utilisation de Azure Analysis Services (modèle Tabulaire) pour les rapports et les analyses. 3. Technologies utilisées L'expert devra maîtriser les technologies suivantes : Databricks (en particulier avec PySpark). Azure Analysis Services (modèle Tabulaire). SQL . Git et Azure DevOps pour la gestion des versions et l'intégration continue. 4. Compétences requises Le candidat idéal doit posséder une expérience avérée dans les domaines suivants : Maîtrise de PySpark : pour le traitement et l'optimisation des données dans Databricks. Expertise en modélisation de données : capacité à concevoir et optimiser des modèles de données pour améliorer la performance et la gestion des données financières. Maîtrise du modèle Tabulaire dans Azure Analysis Services : pour optimiser le rafraîchissement des données et améliorer les performances des cubes. Bonne compétences en SQL 5. Livrables attendus Les livrables de la mission incluent : Mise en œuvre des optimisations dans Databricks et Azure Analysis Services. Documentation détaillée des modifications apportées et des bonnes pratiques mises en place. Transfert de connaissances aux équipes internes pour garantir une gestion continue des processus optimisés.

Freelance
CDI

Offre d'emploi
Data engineer AWS

Hexateam
Publiée le
Apache Spark
AWS Cloud
Databricks

24 mois
10k-60k €
Île-de-France, France

Dans le cadre de la croissance de HEXATEAM, nous sommes en quête permanente de nouveaux talents pour renforcer nos équipes. Nous cherchons actuellement deux profils Data Engineer AWS. Maîtrise des outils Databricks : Création et gestion de jobs, clusters et notebooks, ainsi que l'utilisation avancée de SQL pour effectuer des requêtes efficaces. Maintien en condition opérationnelle de la plateforme en production : Analyse et correction d'incidents et de défauts. Développement de jobs d'ingestion et de transformation des données : Utilisation de Python avec Spark pour traiter de grands volumes de données. Fourniture d'une vision à long terme : Proposition d'une stratégie opérationnelle et de développement de la plateforme data. Accompagnement et promotion des bonnes pratiques : Garantir la diffusion et l'application des standards de qualité. Participation aux ateliers de conception techniques et fonctionnels : Collaboration avec les équipes pour concevoir des solutions adaptées aux besoins. Rédaction et mise à jour de la documentation technique : Veiller à la documentation et à sa mise à jour continue. Indispensable : Python Spark SQL Databricks AWS (S3, Glue, AirFlow, Cloudwatch, Lambda, IAM) GIT COULD : Big Data CI/CD : Utilisation de GitLab pour l'intégration et le déploiement continus. Outils de gestion de projets : JIRA et Confluence pour le suivi et la documentation. Méthodologie Agile : Travail en mode Scrum. Bon niveau d’anglais

659 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous