Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 656 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
CHEF DE PROJET BUSINESS TRANSFORMATION & MONETISATION

Mon Consultant Indépendant
Publiée le
Data analysis
Data management
Transformation digitale

18 mois
620-660 €
Paris, France

Contenu et Objectifs de la mission : Au sein de la direction du Pole Data IA du Chief Data Officer, la mission consiste à accompagner la verticale Transformation & Innovation Data/IA sur ses missions d’accompagnement à la transformation des projets data IA des métiers de notre client : - Accompagner le pôle dans l’émergence et la qualification des besoins de métier, l’identification des solutions et de l’ensemble des prérequis afin notamment de garantir le respect de la politique Data de notre client - Organiser et faciliter les temps forts d’idéation de cas d’usage ou de production de Feuille de route pour les Branches et BUs de notre client : structuration et animation de séminaires ou d’ateliers, apport de benchmark interne et/ou externe, restitution.​ - Préparer les dossiers de qualification des projets afin d’en faciliter l’arbitrage en termes de priorisation et financement/amorçage par le Pôle Data ou encore de décision Make or Buy. ​ - Garantir une évaluation objective et complète des opportunités de projet et s’assurer notamment d’une estimation réaliste du potentiel de ROI et des gains non financiers associés.​ - Identifier et mobiliser les expertises qui seront en charge de la réalisation. S’assurer du transfert efficace du dossier.​ - Suivre le projet durant sa phase de réalisation afin notamment d’identifier les risques, le respect des échéances, la qualité de la solution et des livrables associés. - Mettre à jour les hypothèses du business case au besoin lors de la mise en production puis en phase de run.​

Freelance

Mission freelance
Data Engineer - Python Airflow (H/F)

NSI France
Publiée le
Apache Airflow
Automatisation
DevOps

3 ans
100-590 €
Paris, France

En tant que Data Engineer Python Airflow, vous travaillerez en direct avec le Team Lead, les business analystes et le PO. Vous aurez à cœur de comprendre le business model. Vos activités principales seront : Automatiser des processus répétitifs sans valeur ajoutée dans le but de les optimiser et répondre ainsi aux besoins d’excellence opérationnelle Apporter de la valeur ajoutée aux applications et aux métiers par utilisation d’algorithmes d’IA par exemple Développer des processus automatisés en utilisant la technologie Airflow en relation étroite avec les métiers Contribuer aux différentes plateformes et frameworks développés

Freelance

Mission freelance
Expert Data et BI

SKILLWISE
Publiée le
Azure Data Factory
Databricks
PySpark

3 mois
100-1k €
Paris, France

L’équipe utilise actuellement une architecture basée sur Databricks, Azure Blob Storage, Azure Data Factory et Azure Analysis Services pour traiter et analyser des données financières. Le client cherche à optimiser les processus de traitement de ces données, en particulier le rafraîchissement des données, pour améliorer la performance et la qualité des analyses. Dans ce cadre, nous recherchons un expert en BI et Data pour une mission de 3 mois. L'objectif est d'optimiser le Temps de traitement et de rafraichissement des données. Objectifs de la mission L'expert BI et Data sera chargé de : Optimiser le traitement des données du projet, en se concentrant principalement sur le processus de rafraîchissement des données entra la zone gold et le cube de données. Optimiser l'utilisation de Azure Analysis Services (modèle Tabulaire) pour les rapports et les analyses. Technologies utilisées L'expert devra maîtriser les technologies suivantes : Databricks (en particulier avec PySpark). Azure Analysis Services (modèle Tabulaire). SQL Git et Azure DevOps pour la gestion des versions et l'intégration continue Livrables attendus Les livrables de la mission incluent : Mise en œuvre des optimisations dans Databricks et Azure Analysis Services. Documentation détaillée des modifications apportées et des bonnes pratiques mises en place. Transfert de connaissances aux équipes internes pour garantir une gestion continue des processus optimisés.

CDI

Offre d'emploi
Tech Lead Data Engineer GCP

Tenth Revolution Group
Publiée le

Île-de-France, France

Vos responsabilités : Leadership et Management : • Mentorer et guider une équipe de 4 personnes dans son développement professionnel. • Animer et encadrer l'équipe data engineering dans un environnement Agile/DevOps, en alignement avec les priorités établies par le Responsable Data. Qualité et Livraison : • Assurer la livraison des projets data en respectant les délais et les exigences. • Effectuer des revues de code et agir en tant que référent technique pour GCP. • Contrôler les réalisations des développeurs et ajuster les travaux si nécessaire. Architecture et Stratégie : • Collaborer avec les architectes et experts pour définir et documenter l'architecture GCP la plus appropriée. • Superviser et appliquer les stratégies d'alerte, de surveillance et de gestion des accès sur la plateforme data. • Optimiser l'architecture existante pour garantir une performance maximale. Développement et Intégration : • Concevoir des pipelines de données en s'appuyant sur les processus d'intégration existants, en respectant les meilleures pratiques (CI/CD, qualité du code, couverture des tests, etc.). • Développer des fonctionnalités robustes et évolutives, de l'ingestion des données à la livraison des dashboards. • Promouvoir et garantir un code de qualité, robuste, maintenable et évolutif. Qualité et Performance des Données : • Assurer la qualité des données tout au long du pipeline. • Définir et appliquer les meilleures pratiques en data engineering.

Freelance

Mission freelance
Un Data Engineer sur Vannes, 2 jours en TT

Smarteo
Publiée le
Informatique

1 an
100-400 €
Vannes, Bretagne

Smarteo recherche pour l'un de ses clients, Un Data Engineer sur Vannes, 2 jours en TT Date de démarrage : ASAP Durée : 1 an Lieu de la mission : Vannes, 3 jours/ semaine sur site Environnement technique : Spark, Kafka, Java, Phoenix, MongoDB, Scrum, BDD Teradata, xDI, SQL, Hadoop Cloudera, Jenkins, Description de la Mission : Taches : - Contribuer à la Fabrication des Produits des Squads de l'Entreprise dans un environnement Cloudera - en utilisant un framework interne entreprise (sur des activités Big Data) - Être force de proposition et expertise au sein du Chapitre sur les technos manipulées - Développer les cas d'usages Data - Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) - Mettre en œuvre les tests unitaires et automatisés - Déployer le produit dans les différents environnements - Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents - Accompagner l'évolution des pratiques de l'équipe dans une logique d'amélioration continue de la qualité du code Si vous êtes intéressé, merci de me faire parvenir votre TJM ainsi que votre CV à jours en format word.

Freelance
CDI

Offre d'emploi
skiils se renforce et cherche son Data engineer confirmé

skiils
Publiée le
Apache Airflow
Apache Spark
AWS Cloud

12 mois
10k-45k €
Hauts-de-France, France

Data Engineer maitrisant(e) pyspark et airflow qui aidera le client à construire de nouveaux indicateurs et à les fiabiliser. L"équipe Forecast a pour mission de mettre à disposition dans le Datalake , les datasets qui concernent les prévisions de ventes. Pour remplir à bien sa mission, le Data Engineer devra : - Comprendre un modèle de données et s'en servir, - Aider l'équipe à faire les meilleurs choix techniques, - Apporter une expertise sur la conception des indicateurs, - Maîtriser les bases de données et les outils de transformation, - Etre capable de transformer une donnée brute en un indicateur

CDI

Offre d'emploi
Data Engineer - Cloud AWS - Secteur transport H/F

VIVERIS
Publiée le

40k-50k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Contexte de la mission : Viveris possède une expertise et un savoir-faire rares dans le domaine de la valorisation des données. Dans cette optique, nous accompagnons nos clients dans l'amélioration de leur performance grâce à l'utilisation de l'intelligence artificielle. Dans ce cadre, nous recherchons un Data Engineer avec une spécialisation Cloud AWS. Il participera à la mise en place d'outils de reporting et d'outils d'aide à la décision pour l'un de nos clients opérant dans le secteur du transport maritime. Intégré au sein de Systèmes d'Information et Transformation Numérique, vous participerez activement à la gestion et à l'optimisation des flux de données dans le secteur des transports. Responsabilités : - Collaborer avec les équipes métier pour comprendre les besoins en matière de données et analyser les besoins métier en termes d'indicateurs/KPI ; - Spécifier les interfaces d'échange de données entre les systèmes sources et les applications ; - Développer les indicateurs en Python et les déployer en production sur un environnement AWS ; - Participer à l'optimisation des performances des bases de données ; - Assurer le suivi de la qualité des données.

CDI

Offre d'emploi
Data Architect Azure

Inventiv IT
Publiée le
Azure
Azure Data Factory
Azure DevOps Services

82k-107k €
Paris, France

🎯Inventifs Wanted Nous recherchons un architecte Data Azure ayant une expertise en architecture de données, chiffrage de projets Big Data et méthodologies Agile. Avec 8 ans d'expérience au minimum Travaillant sur plusieurs Projets Data; Participation à l’évaluation et à la livraison de composants Azure Conception et mise en œuvre d’architectures de solutions data sur Azure (data lakes, ingestion, service et consommation de données). Développement d’architectures Azure Data Lake pour stocker les données IoT et configurer Databricks. Implémentation de solutions utilisant Azure SQL Database, Azure Data Factory, et Azure SQL Managed Instance. Direction de projets cloud axés sur les services Azure et gestion de la qualité des livrables pour les projets de migration et d’infrastructure. Cadrage et chiffrage des divers projets Big Data Définition des solutions d’architecture Big Data dans le Cloud Azure Garantir la cohérence technique et la pérennité du système d’information. Mise en place de l'architecture des projets Big Data sur le Cloud Azure en rédigeant des Dossiers d’Architecture Logiciels (DAL) et en validant des Dossiers d’Architecture Technique (DAT). Migration des projets dans des nouvelles architectures (HDI vers AKS, Datalake Gen1 ver Gen2, AKS 1.19 vers AKS 1.) et concevoir de nouvelles solutions avec un monitoring de PaaS et une synchronisation des données de Prod et Hprod. Participation à des instances de : Design Authority, CoArch avec les Architectes Techniques, CAO (Comité d'Architecture Opérationnel) Validation de l'architecture du Product Incrément, à des réunions de qualification Validation avec le RSSI et au suivi de chantiers de résilience et de suivi FinOps. Conception de solutions BI avec Power Platform (Power BI, Power Automate, Power Virtual Agents). Création de rapports, tableaux de bord, et KPI avec Power BI, ainsi que gestion de la sécurité des données. Environnement Technique : Cloud Platform & Services : Azure, Azure API APPS, Azure DevOps, Azure Data Factory, Azure Data Lake, Azure Synapse Analytics, Azure Databricks, Azure IoT, Azure Stream Analytics, Azure SQL DB, Azure SQL Managed Instance Data & Analytics : Datalake, SQL, Power BI, Azure Synapse Analytics, Azure Databricks, Azure Data Lake, Azure Stream Analytics Automation & Scripting : PowerShell, CI/CD, Azure DevOps

Freelance

Mission freelance
Tech Lead Data Engineer GCP (H/F)

NSI France
Publiée le
Google Cloud Platform
Python
SQL

3 ans
100-600 €
Paris, France

En tant que Tech Lead Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers et p · Conception des solutions nécessitant l’utilisation de technologies cloud & data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données dans le Cloud · Accompagnement des différents profils data du groupe (Data Scientist, data engineer, data architect, data analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne.

Freelance
CDI

Offre d'emploi
Data Engineer SSIS SSRS - C# .NET

Digistrat consulting
Publiée le
SQL Server Reporting Services (SSRS)

36 mois
10k-200k €
Paris, France

Contexte : Nous sommes à la recherche d'un ingénieur de données senior pour développer et fournir des solutions à l'équipe Autohedging d'eFX. Excellente connaissance de SQL Server (SSIS, SSRS) combinée à de bonnes compétences en C# .Net. La connaissance et l'expertise de Python ou d'autres langages de script serait un avantage. La mission comprendra : - Effectuer des tâches de développement de données - Développement et livraison de tableaux de bord - Développer des relations de collaboration avec les collègues de l'IT et de l'entreprise Liste des tâches : - Concevoir, créer, tester et documenter des SQL, des packages et des programmes, nouveaux ou modifiés, à partir de spécifications commerciales fournies. - Traiter, nettoyer et vérifier l'intégrité des données utilisées pour l'analyse. - Effectuer des analyses ad hoc et présenter les résultats de manière claire, en sélectionnant et en intégrant tous les outils et cadres Big Data nécessaires pour fournir les capacités requises. - Développer des outils de reporting et des tableaux de bord visuels et interactifs dans une variété de technologies. Traduit avec (version gratuite)

CDI

Offre d'emploi
Data Engineer Talend à Dax

KOMEET TECHNOLOGIES
Publiée le
AWS Cloud
Azure
Snowflake

36k-75k €
Dax, Nouvelle-Aquitaine

Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation

Freelance

Mission freelance
Data Engineer GCP Finance

HIGHTEAM
Publiée le
Apache Spark
BigQuery
Google Cloud Platform

3 ans
400-550 €
Île-de-France, France

Dans ce cadre, nous recherchons un développeur Full Stack, ayant une solide expérience dans le Cloud GCP Récupérer les données issues de sources externes • Utiliser la puissance du Data Lake • Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le data Lake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner. • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels • Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise • Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent • Acheminement de la donnée • Mise à disposition de la donnée aux équipes utilisatrices • Mise en production de modèles statistiques • Suivi de projet de développement • Développement job spark • Traitement et ingestion de plusieurs formats des données • Développement des scripts • Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données • Développement des moyens de restitution via génération de fichier et ou API & Dashboarding • Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers • Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des Spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) • Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP • Participer à la conception, mise en place et administration de solutions Big Data • Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data Lake via des topics Kafka • Normalisation et agrégation des données afin de produire les rapports sous forme de Business View

CDI
Freelance

Offre d'emploi
Consultant Data Gouvernance Collibra

Inventiv IT
Publiée le
AWS Cloud
BI
Data management

3 ans
42k-55k €
Paris, France

Nous un recherchons un Data Manager - Consultant Data Gouvernance étant spécialisé en Gouvernance de données. Maîtrisant la Data Management et la Data Visualisation. Dans le cadre de la gestion et de la mise en gouvernance des données d'une Plateforme Data. Accompagnement des Uses Cases Data pour la définition de leur architecture data au sein de la plateforme dans le respect du paradigme du Data Mesh ; Identification, modélisation et documentation des Data-as-a-products exposés par chaque domaine de données ; Animation et contribution aux ateliers avec les correspondants RGPD (relais DPO) ainsi que les MOA pour l’identification et la classification des données sensibles et des données à caractère personnel ; Catalogage et taggage des données de couche Bronze dans le gestionnaire des métadonnées ; Accompagnement pour la prise en main de l’outil COLLATE (Open Metadata) par les ingénieurs de données afin d’effectuer le taggage des métadonnées de leurs domaines data respectifs conformément aux règles data management ; Participation aux cadrages des fonctionnalités techniques relatives au Data Management : gestion des schémas de données, gestion des contrats d’interface, minimisation des données, framework d’exposition des données … Conception et développement d’une newsletter Data Management sous forme d’un tableau de bord Power BI pour suivre l’évolution des principaux KPIs du patrimoine de données de la plateforme. Environnement Technique : Data Engineering : Databricks Data Storage & DB : AWS S3 Data Visualisation : Microsoft Power BI Data Management : OPEN METADATA, COLLIBRA, Data Galaxy / Data Catalog

Freelance

Mission freelance
Data Engineer python / spark / AWS / Dataiku

VISIAN
Publiée le
AWS Cloud
Dataiku
PySpark

1 an
100-600 €
Paris, France

La DSI a besoin de renfort IT dans l'équipe Data Product, afin de DEVELOPPER et délivrer des besoins de segmentation client. Intégrer une équipe pluridisciplinaire Data Ingénieur/Data Scientist pour DEVELOPPER puis déployer de façon industriel des algorithmes de Data Science orienté Client et Marketing sur des technologies DataLake. Environnement Lake House On Premise sur technologie équivalente au Cloud ayant une trajectoire vers AWS. Une expérience sur de la Data Client est fortement recommandée.

Freelance
CDI

Offre d'emploi
Consultant MDM Tibco

Lùkla
Publiée le
Agile Scrum
Data management
Master Data Management (MDM)

2 ans
55k-65k €
Paris, France

En tant que Consultant(e) MDM Tibco EBX Senior, vous serez notamment en charge de : Conception et implémentation : Analyser les besoins métiers et concevoir des modèles de données de référence (MDM) sur la plateforme Tibco EBX. Implémenter des solutions MDM complètes, incluant la capture, la consolidation, la qualité et la distribution des données. Développer des workflows complexes et des règles métier pour assurer l'intégrité des données. Accompagnement des projets : Assurer la conduite technique des projets MDM, de la phase d'analyse jusqu'à la mise en production. Former et accompagner les équipes métiers dans l'utilisation de la solution. Expertise technique : Maîtriser en profondeur la plateforme Tibco EBX (modélisation, workflows, API, etc.). Avoir une bonne connaissance des bases de données relationnelles et des outils d'intégration de données. Être à l'aise avec les langages de programmation (Java, Python, etc.) ...

CDI

Offre d'emploi
Architecte Data & Solution

Inventiv IT
Publiée le
Amazon Elastic Compute Cloud (EC2)
Amazon S3
AWS Cloud

95k-119k €
Paris, France

🎯 Inventifs Wanted En tant qu' Architecte Data chez Inventiv IT , vous êtes au premier plan de la transformation digitale. Vous êtes un leader doté d'une expertise en architecture des données, en chiffrage et en cadrage de projets Big Data, et méthodologies Agile. Travaillant sur plusieurs projets Plateform Data (orienté Architecture & Ingénierie de données) Cadrage et chiffrage des divers projets Big Data au sein de la galaxie. Définition des solutions d’architecture Big Data dans le Cloud Azure & AWS répondant aux besoins et exigences du client et aux bonnes pratiques des standards attendus. Garantir la cohérence technique et la pérennité du système d’information. Participation à la définition et à l'amélioration du Socle Big Data : Architectures types, stacks techniques, outils, règles de gouvernance et best practices. Mise en place de l'architecture des projets Big Data sur le Cloud Azure & AWS, en rédigeant des Dossiers d’Architecture Logiciels (DAL) et en validant des Dossiers d’Architecture Technique (DAT). Migration des projets dans des nouvelles architectures (HDI vers AKS, Datalake Gen1 ver Gen2, AKS 1.19 vers AKS 1.) et concevoir de nouvelles solutions avec un monitoring de PaaS et une synchronisation des données de Prod et Hprod. Participation à des instances de : Design Authority, CoArch avec les Architectes Techniques, CAO (Comité d'Architecture Opérationnel), Validation de l'architecture du Product Incrément, à des réunions de qualification / validation avec le RSSI et au suivi de chantiers de résilience et de suivi FinOps. Architecture & Ingénierie Databricks Maîtrise de Spark / Scala Arsenal Technologique : Votre maîtrise de Microsoft, Databricks, Datadog, Dataglaxy, Spark, Azure Kubernetes Services, Event Hub, Azure DataLake Gen1/Gen2, Azure Data Factory,PowerBI, PostgreSQL Harbor, DatadogAzure, et plus encore, est l'arsenal qui nous propulse dans cette aventure. Chaque outil, chaque langage, est une étoile dans la galaxie de vos compétences, illuminant notre chemin vers l'avant-garde technologique.

656 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous