Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 50 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Senior Data Engineer

KatchMe Consulting
Publiée le
Databricks

3 mois
100-500 €
Paris, France

• Mise en place et exécution du framework et des pipelines de traitement de données : o Connectez-vous à diverses sources de données brutes (API internes/externes, lacs de données cloud, bases de données) pour ingérer des données dans Databricks o Mettre en œuvre des transformations de données à grande échelle pour automatiser la création de nouvelles données à des fins d'analyse o Créer et gérer des bases de données et des solutions de stockage de données efficaces (SQL/NoSQL) pour organiser les données structurées et non structurées. o Exposition de données via des API, Datamarts, SQL Endpoints, solutions de Dashboarding o Assurer la qualité, la cohérence et la sécurité des données, conformément aux normes de l'industrie. • Développer des API REST à l'aide d'un framework Web Python tel que FastAPI • Rejoignez une équipe projet multidisciplinaire et multiculturelle, travaillant en collaboration avec DevOps, Data Scientists, Project Managers • Documentez les flux de travail, les modèles de données et les configurations de pipeline pour garantir la transparence et la facilité d'utilisation pour les analystes et les parties prenantes

Freelance

Mission freelance
architecte pyspark - 3 mois

Innov and Co
Publiée le
Apache Spark
Azure DevOps Services
Databricks

3 mois
100-700 €
Boulogne-Billancourt, Île-de-France

Contrainte forte du projetFort enjeux metier Les livrables sont Package pyspark Dictionnaire / catalog de données Model de données tabulaire Compétences techniques PYTHON / PYSPARK / SPARK - Expert - Impératif Databricks/ datafactory/ azure devops - Expert - Impératif Azure Analysis Services - Expert - Impératif Integration GIT - Expert - Important Connaissances linguistiques Français Courant (Impératif) Description détaillée L'equipe Datafinance utilise actuellement une architecture basée sur Databricks, Azure Blob Storage, Azure Data Factory et Azure Analysis Services pour traiter et analyser ses données financières. Nous cherchons à optimiser les processus de traitement de ces données, en particulier le rafraîchissement des données, pour améliorer la performance et la qualité des analyses. Dans ce cadre, nous recherchons un expert en BI et Data pour une mission de 3 mois. L'objectif est d'optimiser le Temps de traitement et de rafraichissement des données. 2. Objectifs de la mission L'expert BI et Data sera chargé de : Optimiser le traitement des données du projet Data finance, en se concentrant principalement sur le processus de rafraîchissement des données entra la zone gold et le cube de données. Optimiser l'utilisation de Azure Analysis Services (modèle Tabulaire) pour les rapports et les analyses. 3. Technologies utilisées L'expert devra maîtriser les technologies suivantes : Databricks (en particulier avec PySpark). Azure Analysis Services (modèle Tabulaire). SQL . Git et Azure DevOps pour la gestion des versions et l'intégration continue. 4. Compétences requises Le candidat idéal doit posséder une expérience avérée dans les domaines suivants : Maîtrise de PySpark : pour le traitement et l'optimisation des données dans Databricks. Expertise en modélisation de données : capacité à concevoir et optimiser des modèles de données pour améliorer la performance et la gestion des données financières. Maîtrise du modèle Tabulaire dans Azure Analysis Services : pour optimiser le rafraîchissement des données et améliorer les performances des cubes. Bonne compétences en SQL 5. Livrables attendus Les livrables de la mission incluent : . Mise en œuvre des optimisations dans Databricks et Azure Analysis Services. Documentation détaillée des modifications apportées et des bonnes pratiques mises en place. Transfert de connaissances aux équipes internes pour garantir une gestion continue des processus optimisés.

Freelance

Mission freelance
Architecte IT transverse Infrastructure / Production

PROPULSE IT
Publiée le
architecte
Infrastructure
IT

24 mois
450-900 €
Paris, France

PROPULSE IT recherche un ARCHITECTE INFRASTRUCTURE avec une très bonne expertise de la production. - accompagner des experts techniques et des chefs de projet Infrastructure dans la mise en œuvre de projets Build, qui peuvent couvrir l'ensemble de l'environnement technique du client. - Réfléchir aux préconisations, et challenger les différentes options - Communiquer, et accompagner l'adoption des solutions Connaissances et expériences en Architecture, et de projet production de bout en bout, sur les domaines suivants - les technologies en datacenter : • stockage : EMC, Netapp, • sauvegarde : CommVault • Réseau : CISCO, Checkpoint, Fortinet, F5 - les systèmes d'exploitation serveurs : RedHat Linux et Microsoft Windows - les technologies de virtualisation : VMware, OpenStack, Container Docker - les technologies de bases de données : Oracle, PostgreSQL, MongoDB, SQL Server - les technologies de serveurs d'applications : Weblogic, Tomcat, Apache - les technologies d'orchestration et d'ordonnancement : VRO / VRA, Kubernetes, XOS-Axway - les technologies de Devops : GitLab, Gitub, Ansible, Terraform - les technologies de Provider Cloud : Microsoft Azure, AWS - les technologies de gestion de la sécurité : PKI - les technologies de gestion des identités : LDAP, Active Directory, Bastion - les technologies de supervision et de métrologie : BMC Patrol, Centreon, Nagios

Freelance
CDI

Offre d'emploi
Data Engineer H/F

Atlanse
Publiée le
Azure Data Factory
Azure DevOps Server
Databricks

3 ans
10k-62k €
Châtillon, Île-de-France

Analyser des données en temps réel avec Azure Stream Analytics Collecter des données via des flux entre les bases de référence et Azure Afficher des données entrantes avec Event Hub Développer des programmes en Spark Scala Créer un pipeline Azure Data Factory pour exécuter Databricks notebook afin de traiter les données Traiter en batch des données Stocker des données dans le Datalake Azure Créer des projets et stocker du code sur Azure DevOps Réaliser la documentation avec Confluence (source des données, technos utilisées : Databricks, Azure Data Factory, Azure DevOps..., destination des données, stockage, monitoring…)

CDI
Freelance

Offre d'emploi
DATA ENGINEER AZURE SCALA PYSPARK

DATSUP
Publiée le
Azure
Databricks
PySpark

2 ans
10k-51k €
Île-de-France, France

Vous rejoindrez une Data Factory, dont l'objectif est de concevoir et déployer des solutions Analytics innovantes pour les magasins, les fonctions support, la logistique, et surtout, les consommateurs. Notre client visent à industrialiser nos pratiques pour accélérer la livraison de nos produits tout en maximisant l'utilisation de notre patrimoine de données. Vous intégrerez une squad dédiée au développement de cas d'usage en BI, Analytics et Data Science, sur leur plateforme Data hébergée sur le Cloud Azure.

Freelance
CDI

Offre d'emploi
skiils se renforce et cherche son Data engineer confirmé

skiils
Publiée le
Apache Airflow
Apache Spark
AWS Cloud

12 mois
10k-45k €
Hauts-de-France, France

Data Engineer maitrisant(e) pyspark et airflow qui aidera le client à construire de nouveaux indicateurs et à les fiabiliser. L"équipe Forecast a pour mission de mettre à disposition dans le Datalake , les datasets qui concernent les prévisions de ventes. Pour remplir à bien sa mission, le Data Engineer devra : - Comprendre un modèle de données et s'en servir, - Aider l'équipe à faire les meilleurs choix techniques, - Apporter une expertise sur la conception des indicateurs, - Maîtriser les bases de données et les outils de transformation, - Etre capable de transformer une donnée brute en un indicateur

Freelance

Mission freelance
Architecte cloud azure et Data

AVALIANCE
Publiée le
Azure
Azure Data Factory
Databricks

2 ans
100-800 €
Issy-les-Moulineaux, Île-de-France

Nous recherchons pour notre client un architecte cloud azure et data pour une mission longue a Issy les moulineaux -Réflexion & brain storming sur l’architecture et l’ensemble des composants Azure data à mettre en place pour chaque cas d’usage -Redaction des DAT HLD LLD -Mise en place des PoC -Réalisation des documents d’architecture technique pour chaque région et chaque cas d’usage (Data Science) -Réalisation des architectures de migration de certaines applications vers le cloud Azure (SQL Sever, SSIS, Azure data factory, Azure SQL database, etc…)

Freelance

Mission freelance
Devops/développeur Java

VISIAN
Publiée le
AWS Cloud
Azure
Databricks

1 an
100-700 €
Bagneux, Île-de-France

Contexte L’équipe Infrastructure au sein de la Direction des Systèmes d’Information du client recherche un(e) profil DevOps/Developpeur Full Stack pour la gestion opérationnelle de ses infrastructures. • Une infrastructure MultiCloud (AWS – 90%, Azure, GCP) • L’hébergement de Portails Web (10 portails) et Services Backend (+200 applications dockerisées) • L’hébergement d’une Factory DevOps (CICD/Testing/Monitoring) • L’hébergement d’une plateforme Data Analytics, DataViz, • L’hébergement d’une plafeforme d’Echange (Serveurs de fichiers, ETL, Bases de données) Principaux périmètres pour cette mission : Mise en place d'un portail de Self Service Infrastructure avec API AWS (gestion du frontend et backend) Participation à la mise en place d’une Landing Zone AWS en remplacement de deux comptes historiques Migration/Création de l’infrastructure de micro-services java, nodejs, php vers Landing zone Réalisations de nouvelles infrastructures pour les demandes des équipes applicatives Intégration des applications sur ECS, dockerisation, déploiement Intégration des applications dans l’écosystème DevOps (CI/CD, Monitoring, Testing) Création de pipelines CI/CD sur Jenkins et Gitlab CI Infrastructure as code avec Terraform Provisioning de l’Infrastructure avec Ansible Support aux équipes applicatives et troubleshooting sur les anomalies Gestion du RUN et des incidents de production Environnement technique: • Cloud : AWS (EC2, ECS, RDS, S3, EKS, ELK, …) / Azure / GCP • Langage applicatif : JBOSS, Widlfly, Spring, NodeJS, PHP, • IAC : Docker, Terraform, Ansible, • FACTORY : Jenkins, Okta, Grafana, Splunk, Gitlab, Kubernetes, Jira, Confluence, API Management • DATA : TIDB, Databricks, Informatica, MS-BI, Oracle GoldenGate, Hadoop, Spark, EMR, SAS, • DataBase : MySQL, SQL Server, MariaDB, MongoDB, ORACLE

Freelance

Mission freelance
DBA - Administrateur base de données

Comet
Publiée le
AWS Cloud
Azure
Base de données

44 jours
100-460 €
Boulogne-Billancourt, Île-de-France

Tâches de la mission : - Intégrer les projets applicatifs - évolutions de version, de migration sur les applications - Proposer des solutions techniques, proposer des architectures data - Réaliser les scripts, participer la mise en œuvre - Former / accompagner les membres de l’équipe à la montée en compétence sur databrick Ex de projet : - Migrer les Databrick en privé - Mettre en place la sécurité à travers Unity Catalogue - Conseil sur le design des catalogues - Le requêtage à travers les EndPoint SQL - Support prod sur des incidents de performance essentiellement (Bases de données classiques et Databrick ) - Savoir trouver la ou les requêtes qui sont longues sur la base - Savoir trouver le plan d’exécution en cours, le comprendre et l’analyser - Bien connaitre le fonctionnement du moteur base de données, la gestion de la mémoire, l’exploitation des tables systèmes - Scripter / automatiser : Powershell ou scripts dans Databrick - Contrôle / supervision / remédiation sur des actions d’administration classique - Rédaction de Roadbook de résolution - Rédaction de procédures (how to do)

Freelance

Mission freelance
Architecte data azure senior

UCASE CONSULTING
Publiée le
Azure
Databricks

3 ans
210-1 940 €
Paris, France

Bonjour, Pour le compte de notre client, nous recherchons actuellement un Architecte data cloud Azure. Livrable n°1 : Cadrage et chiffrage des projets Accompagnement au cadrage du besoin auprès de nos clients Réalisation d’études et formalisation des architectures envisagées en appui sur les solutions cloud adaptées au besoin Lot 3 : Contribution au chiffrage global du projet Lot 4 : Réalisation éventuelle de Proof Of Technologies le cas échéant Livrable n°2 : Conception technique de la solution Formalisation des documents standards (DAL, DAT) Lot 2 : Veiller à la conformité de la solution sur les plans standards technologiques et en phase à la politique de sécurisation du SI client. Livrable n°3 : Accompagner la prise en charge du build projet Assurer une passation aux équipes de réalisation Le cas échéant, apporter de l’expertise lors de la phase de build (automatisation…). Accompagner à la mise en robustesse et à l’identification des optimisations financières et techniques tout au long du projet.

Freelance

Mission freelance
Data analyst

Comet
Publiée le
Databricks
MySQL
Python

120 jours
500-550 €
Lille, Hauts-de-France

Les missions à pourvoir sont multiples : -Challenger les dashboards et les datasources existants. (accompagner du leader et ingénieur DATA) -S’appuyer sur les sources de données déjà existantes -Recueillir le besoin avec les équipes métiers -Construire si nécessaire les maquettes des dashboards pour validation avec nos utilisateurs clés -Construire et mettre à disposition les dashboards -Etre à l’écoute des nos utilisateurs afin d’adapter / corriger les dashboards mis à dispositions au fil du projet

Freelance

Mission freelance
Ingénieur Technique Data/MLOps

KEONI CONSULTING
Publiée le
CI/CD
Databricks
Terraform

12 mois
100-400 €
Niort, Nouvelle-Aquitaine

Contexte : Notre plateforme data science sur Azure est en construction, et nous avons besoin d'un renfort sur le rôle de Data/MLOps engineer. Le dataops a deux activités : - le déploiement de l'infrastructure as code sur le cloud - le développement de pipeline CI/CD pour les usages data science qui sont en cours d'industrialisation. MISSIONS : - Assurer le maintien en condition opérationnelle, l’évolutivité et la connaissance de la plateforme Microsoft Azure CLAUDI.IA - Accompagner les directions métiers et leurs data scientists dans la réalisation de leurs expérimentations et de leurs produits industriels de data science - Apporter un support fonctionnel et technique aux directions métiers En tant que data/mlops engineer sur notre plateforme CLAUD.IA.

Freelance
CDI

Offre d'emploi
Data Engineer Python / AWS / Databricks / Spark

GRADIANT
Publiée le
AWS Cloud
Databricks
PySpark

3 ans
10k-60k €
Paris, France

Nous recherchons pour l'un de nos clients, une entreprise du CAC 40, un(e) Data Engineer senior pour intégrer une mission longue de 3 ans. Le rôle du Data Engineer senior dans ce projet impliquera la conception et la mise en œuvre des composants de plateforme suivants : • Ingestion de données • Traitement et normalisation des données. • Distribuer les données aux différentes parties prenantes. • Construire et améliorer un cadre commun comprenant la surveillance, le CI/CD, les tests, les performances, la résilience, les pratiques de développement et la qualité du code…

Freelance
CDI

Offre d'emploi
Data engineer Databricks

VISIAN
Publiée le
Apache Spark
Databricks
PostgreSQL

1 an
10k-60k €
Bagneux, Île-de-France

Le projet concerne une plateforme data d client permettant à tous les domaines producteurs de données de mettre à disposition dans un datalake de la donnée brute ou retravaillée. Cette plateforme data permet notamment de gérer les fonctions et données du périmètre métier de la Relation Réseau (SDSI) A ce titre elle permet de : - Intégrer et mettre en qualité des données brutes reçues des distributeurs - Mettre à disposition les données GRD exploitables pour toute utilisation : besoins portés par tous les domaines métiers de nature opérationnelle ou analytique

Freelance

Mission freelance
Chef de Projet Orienté Data (Databricks) pour la Mise en Place d'une Composable CDP

Signe +
Publiée le
Databricks

4 mois
480-530 €
Lyon, Auvergne-Rhône-Alpes

Le Chef de Projet Orienté Data (Databricks) sera responsable de la supervision de la mise en place d'une Composable Customer Data Platform (CDP) en utilisant principalement la technologie Databricks. Il travaillera en étroite collaboration avec l'architecte DSI, un data architecte, et d'autres équipes techniques et métiers. Il s'assurera que la solution développée réponde aux besoins spécifiques de l'entreprise, en mettant l'accent sur l'amélioration de l'expérience client et l'activation de campagnes marketing. Évaluation et Documentation : Analyser et documenter les besoins fonctionnels et techniques pour la mise en place de la CDP. Objectifs et Périmètre : Établir et affiner les objectifs du projet ainsi que son périmètre, en tenant compte des travaux déjà réalisés. Priorisation des Use Cases : Collaborer avec les équipes métiers pour prioriser les use cases, notamment ceux axés sur l'amélioration de l'expérience client et l'activation des campagnes marketing.

Freelance

Mission freelance
Data Engineer Sénior (F/H)

SMARTPOINT
Publiée le
Azure
Databricks
Python

12 mois
480-520 €
Île-de-France, France

Participation au recueil de besoin auprès des utilisateurs finaux Expérience dans la BI/Data Experience architecture Lakehouse Expérience dans le développement et l’implémentation de solutions Big Data Analytics Analyse du besoin, étude d'impacts et conception de la solution technique Conception et modélisation des données au niveau d'un Data Lake (format Parquet, Delta table, …) Construction des pipelines de données pour collecter, transformer et traiter des données dans le Data Lake Développements de notebooks (ex : Databricks) de traitement avancé des données Conception et modélisation des données au niveau d'un DataWarehouse (SQL) Mise en place de traitement d'alimentation d'une base de données SQL (tables de faits, agrégats, procédures stockées, ..) Cloud Datawarehousing (tuning, optimisation de traitements et requêtes SQL) Rédaction de documentation technique (Dossier d'Analyse Technique, release delivery note, ….) Expérience en tant que Tech Lead Data Engineer Revue de code Réalisation de tests unitaires Maintenance corrective et évolutive Livraison dans un environnement Devops, CI/CD et outils associés Conception et Développement : Concevoir, développer et maintenir des pipelines de données performants en utilisant Apache Spark avec Scala et Python. Implémenter des solutions de traitement de données en temps réel et en batch sur des environnements cloud, notamment Azure. Développer et optimiser des requêtes SQL complexes pour le traitement et l'analyse des données. Intégration de Données : Assurer l'intégration de données provenant de sources multiples, en optimisant leur transformation et leur stockage sur des plateformes cloud comme Azure. Travailler avec des outils comme Databricks pour gérer et analyser de grands volumes de données. Optimisation des Performances : Optimiser les pipelines de données pour garantir des performances élevées, une faible latence, et une grande fiabilité. Utiliser des techniques de parallélisation et d'optimisation pour gérer des ensembles de données volumineux et complexes. Collaboration et Communication : Collaborer étroitement avec les équipes de Data Science, de BI, et d’Ingénierie pour comprendre les besoins métiers et traduire ces besoins en solutions techniques efficaces. Documenter les solutions techniques et fournir des rapports réguliers sur les performances des pipelines de données. Sécurité et Conformité : S'assurer que les solutions de traitement de données respectent les normes de sécurité et de confidentialité en vigueur. Implémenter des pratiques de gouvernance des données pour garantir la qualité et la conformité des données.

50 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous