Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 91 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Responsable supply chain (secteur aéronautique)

HAYS MEDIAS
Publiée le
Lean
MES (Manufacturing Execution System)
SCM (Supply Chain Management)

6 mois
100-760 €
Niort, Nouvelle-Aquitaine

Dans le cadre d'un renfort, mon client recherche son futur Responsable Supply chain, spécialisé dans le secteur de l'aéronautique. Votre principale mission : · Décliner à l’équipe les objectifs de performance fournisseur · Définir les objectifs clefs d’améliorations et développement fournisseurs en se basant sur les besoins opérationnels. · Décliner ces objectifs et s’assure de leur implémentation et respect. · Définit le plan de surveillance fournisseurs et le planning d’audit · Communiquer et s’assurer le suivi des actions de la performance fournisseur (gestion des risques et leur mise sous contrôle, évaluations fournisseur au niveau produits ou capacitaire) · Assurer le reporting interne auprès des Directions de la division et de l’entreprise · Gérer le système qualité Achats afin d’avoir une base documentaire pertinente et à jour

Freelance

Mission freelance
Consultant Data Engineer

Hexagone Digitale
Publiée le
Databricks
DevOps
Jenkins

6 mois
410-530 €
Paris, France

Nous recherchons un(e) Data Engineer qui construira, livrera et maintiendra des produits de données (pipelines de données, services, API...). Data engineer technologies obligatoires utilisées pour le développement : - Databricks pour le pipeline de données - Fonderie Palantir pour l'ontologie et les tableaux de bord Le Data Engineer travaillera en étroit collaboration avec les équipes produits pour développer de nouvelles fonctionnalités liées à ces produits, notamment des fonctionnalités liées à : -Pipeline de données au sein ou entre plusieurs produits -Capacités analytiques et d'entreposage pour l'exploration de données, la science des données, la BI -Calcul parallèle sur de gros volumes de données Le Data Engineer est responsable de la construction, de la livraison, de la maintenance, de la documentation des artefacts ou des fonctionnalités de données (pipelines de données, services de données, API...) selon des modèles de l'état de l'art (architecture médaillon, gitflow) Le Data Engineer doit : -Être orienté vers la résolution de problèmes avec une forte pensée analytique -Être autonome et rigoureux dans la façon dont il/elle aborde les défis techniques -Conseiller sur l'architecture des flux de données de bout en bout -Collaborer avec diverses parties prenante

CDI
Freelance
CDD

Offre d'emploi
Consultant Databricks (H/F)

OCTOGONE
Publiée le
Databricks

6 mois
60k-75k €
Paris, France

En tant que consultant databricks vous aurez les tâches suivantes : Développer du code et tester le code en fonction des exigences. S'assurer que les programmes répondent aux normes et aux spécifications techniques ; effectue une analyse technique Examen actuel de la conception et mises à jour de la conception si nécessaire Créer des buckets pour chaque composant et environnement dans Terraform Créer un méta-magasin et des catalogues dans Terraform et attribuer des compartiments Créer des utilisateurs/groupes/principaux de service dans Terraform et attribuer des droits d'accès Créer une nouvelle bibliothèque ddl et table pour la structure du catalogue Unity Migrer vers des clusters partagés et refactoriser pour obtenir des informations contextuelles sur le notebook Mettre à jour tous les blocs-notes pour utiliser la nouvelle bibliothèque de ddl et de tables Validation complète du catalogue Unity sur Dev : mises à jour des unités existantes nouveaux tests unitaires ajoutés pour les nouveaux notebooks - tests d'intégration Workflow de migration de données avec rapport de résultats : migrera les données existantes des tables Delta existantes (enregistrées dans les compartiments du système Databricks) vers les tables Delta enregistrées dans des emplacements externes (compartiments spécifiques)

CDI

Offre d'emploi
Data Engineer intégration et aws

CAPEST conseils
Publiée le
AWS Cloud
Databricks
PySpark

51k-65k €
Courbevoie, Île-de-France

Missions / Tâches : Vous intégrerez l’équipe IT Data Integration, qui a pour responsabilité l’intégration des données (ainsi que les flux retours) en provenance d'un partenaire (qui opère le système bancaire en marque blanche pour le compte du client final) vers notre Data Platform sur le cloud AWS. Vous aurez à travailler sur le « run » (suivi de production et gestion des défauts sur les données reçues/envoyées) : - Jobs AWS Glue (Spark serverless sur AWS) - Lambda Functions AWS - DAG Airflow - PYSpark - Flux de fichiers CFT/SFTP - Reporting PowerBI ainsi que sur les nouveaux projets : - Data Privacy : purge de données, mise en conformité RGPD. - Data Quality : mise en place de traitements (DBT) pour détecter les données non conformes et consolider des KPI permettant de gérer la qualité des données. - API Management (Gravitee) finalisation d’un Proof of Value et accompagnement au deploiement des nouvelles API / miration des API existantes vers cet outil. Administration de l’outil en lui-même (K8S, helm, AWS). Formation & Expérience Requises : Vous justifiez d'une expérience de plus de 5 ans dans le domaine de la data et/ou des solutions cloud AWS (idéalement orientées Data ou API Management). Vous savez travailler en équipe et en mode agile (Scrum) et vous vous appuyez sur des compétences solides en git et gitlab-ci pour mettre en commun votre code, participer aux revues de l’equipe, déployer les nouvelles versions jusqu’en production. Vous êtes passionné(e)s de nouvelles technologies et vous souhaitez développer vos compétences. Formation : A partir de Bac+4, tête bien faite, envie d’apprendre et de relever des défis Anglais : Professionnel

Freelance

Mission freelance
Data Ingénieur Cloud

CS Group Solutions
Publiée le
AWS Cloud
Databricks
Github

3 mois
300-3k €
Paris, France

Nous recherchons un Data Ingénieur Cloud Compétences techniques: Github - Expert - Impératif AWS - Expert - Impératif Python - Expert - Impératif Connaissances linguistiques: Français Courant Impératif Anglais Courant Impératif Description détaillée: Sur un plateau d'équipe autour de la data, environnement avec des interlocuteurs basés en France au Maroc et en Inde Équipe de Data Engineer à monter avec des seniors et expérimentés les must have: une expérience dans l'utilisation des git hub actions avec des multibranches avec utilisation de triggers, de if conditions, de workflow, de jobs. ET en priorité qui ont une expérience GLUE et ensuite EC2, S3, LAMBDA, STEP FUNCTIONS, CLOUDWATCH Il/elle doit maîtriser python. En plus de cela, il devra pouvoir effectuer les actions suivantes : -Développement des fonctionnalités -Assurer les tests de validation techniques -Livrer la documentation technique -Vérification & validation des nouvelles versions du code (Maîtriser git, avoir vu l’utilisation des branches git dans Databricks serait un plus)

Freelance

Mission freelance
Data engineer Databricks / PySpark / Palantir h/f

Freelance.com
Publiée le
Databricks
PySpark

3 mois
550-670 €
Paris, France

Databricks pour les pipelines de données Palantir Foundry pour l'ontologie et les tableaux de bord L'Ingénieur Data travaillera en étroite collaboration avec les équipes produit pour développer de nouvelles fonctionnalités liées à ces produits, notamment les fonctionnalités suivantes : Pipelines de données au sein d'un ou plusieurs produits Capacités analytiques et d'entreposage pour l'exploration de données, la data science, et la Business Intelligence (BI) Calcul parallèle sur de grands volumes de données L'Ingénieur Data est responsable de la construction, la livraison, la maintenance et la documentation des artefacts ou fonctionnalités de données (pipelines de données, services, APIs…) en suivant des modèles d'architecture à la pointe (architecture medaillon, gitflow). Cas d'utilisation implémentés sur Databricks Cas d'utilisation implémentés sur Palantir Foundry Construire, livrer et maintenir des produits de données (pipelines de données, services, APIs…)

Freelance
CDI

Offre d'emploi
Data Engineer xp Databricks et Palantir Foundry

ARDEMIS PARTNERS
Publiée le
Databricks

3 mois
10k-56k €
Paris, France

Organisme de refinancement. Contexte : Nous recherchons un ingénieur de données qui créera, fournira et maintiendra des produits de données (pipelines de données, services, API). Technologies obligatoires du Data Engineer utilisées pour le développement : - Databricks pour le pipeline de données - Palantir Foundry pour l'ontologie et les tableaux de bord Le Data Engineer travaillera en étroite collaboration avec les équipes produits pour développer de nouvelles fonctionnalités liées à ces produits, notamment des fonctionnalités liées à : -Pipelining de données au sein ou entre plusieurs produits -Capacités d'analyse et d'entreposage pour l'exploration de données, la science des données, la BI -Calcul parallèle sur de gros volumes de données L'ingénieur de données est responsable de la création, de la livraison, de la maintenance et de la documentation des artefacts ou fonctionnalités de données (pipelines de données, services de données, API) selon des modèles de pointe (architecture médaillon, gitflow). L'ingénieur de données doit : -Être orienté vers la résolution de problèmes avec une forte pensée analytique -Être autonome et rigoureux dans sa façon d'aborder les défis techniques -Conseiller sur l'architecture des flux de données de bout en bout -Collaborer avec diverses parties prenantes (propriétaires de produits, propriétaires de solutions, analystes de solutions de données, développeurs, responsables techniques, architectes) pour livrer des artefacts de données dans un esprit d'équipe Livrables : Implémentation Cas d'usage sur Databricks Implémentation Use cases sur Palantir Foundry Créer, fournir et maintenir des produits de données (pipelines de données, services, API)

Freelance

Mission freelance
Tech Lead Confirmé – Azure Factory (Nantes ou Paris)

Intuition IT Solutions Ltd.
Publiée le
Azure Data Factory
Databricks

4 mois
600 €
Paris, France

Description de la mission : Dans le cadre d'un projet stratégique au sein d'une organisation en pleine transformation numérique, nous recherchons un Tech Lead Confirmé pour prendre en charge la direction technique de notre Azure Factory . Vous serez responsable de l'architecture, de la mise en œuvre et de l'optimisation des processus de développement dans un environnement cloud. Votre mission consistera à : Piloter les équipes techniques dans la conception et la réalisation des solutions basées sur Azure Data Factory . Garantir la qualité des livrables et respecter les délais tout en supervisant les bonnes pratiques de développement. Collaborer étroitement avec les différentes parties prenantes, incluant les équipes métiers, pour comprendre leurs besoins et transformer ces derniers en solutions techniques performantes. Être le référent technique sur l'ensemble des sujets liés à l'intégration et l'exploitation des données dans le cloud Azure. Accompagner l'équipe dans le développement des compétences autour des technologies Azure, avec une forte emphase sur Azure Data Factory . Contribuer à l'amélioration continue des processus de développement, de déploiement et de monitoring des applications.

Freelance

Mission freelance
Ingénieur MLOPS Montpellier (Pré embauche sous 1 an de mission)/ri

WorldWide People
Publiée le
Apache Spark
Databricks

12 mois
360-440 €
Montpellier, Occitanie

Ingénieur MLOPS Montpellier Senior DevOps : Maîtrise de GitHub, Docker, Kubernetes. Outils : MLFlow, Expérience avec Airflow. Plateformes : Connaissance de Spark (Databricks) ou GCP (Vertex AI), AWS, . Langages : Excellente maîtrise de Python et Scala. Pré embauche sous 1 an de mission ASAP Vos principales responsabilités : Concevoir et développer des solutions logicielles pour l'IA et la gestion des flux de données. Proposer et implémenter des stratégies novatrices pour l'extraction, le traitement et l'analyse de l'information. Assurer le déploiement, le test et la maintenance des solutions MLOps. Vous serez également en charge de : Participer aux rituels de gestion de projet (Agile ou cycle en V). Rédiger de la documentation technique détaillée. Réaliser une veille technologique proactive autour des données et de leur traitement. Votre profil : Formation : Diplôme d'Ingénieur ou équivalent (Bac+5) en sciences ou informatique. Expérience : Expertise avérée sur des projets en data & IA, avec une forte inclinaison pour le développement et une culture solide en data et DevOps. Compétences Techniques : DevOps : Maîtrise de GitHub, Docker, Kubernetes. Outils : MLFlow, Expérience avec Airflow. Plateformes : Connaissance de Spark (Databricks) ou GCP (Vertex AI), AWS, . Langages : Excellente maîtrise de Python et Scala. Qualités Personnelles : Esprit d'équipe, passion pour la data, autonomie et capacité d'adaptation.

Freelance

Mission freelance
Expert Data (H/F) - 94+95+Remote

Mindquest
Publiée le
Azure
Databricks
Microsoft Power BI

1 an
400-900 €
Paris, France

L'enjeu de ce chantier consiste en un dé-silotage des données d'application pour construire une vision business 360 unifiée (une couche de données qualifiées, consolidées, homogénéisées et complètes pour exploitation) à travers une gestion de la qualité et de la cohérence des données Prestation Les expressions de besoin, fiche usage, fiche solution, et fiche budget, note de cadrage, cadrage des démarches, dossiers projet, comités de suivi, plan d’actions, documentation, CR, … relatif à son activité Les éléments de suivi des avancements, du planning, capacité à faire, plan d'action, budgets, difficultés, risques, … Les coaching, coordination, planification, optimisation, priorisation, animation, gouvernance Les conseils, propositions, pilotage Livrables associés EB d'ingestion (plusieurs sources/applications/tables) SFD (Spécification fonctionnelle détaillée) EB module d'ingestion industriel EB outil de supervision EB contrat de service EB environnement pour exploitation *Support/Présentation pour pilotage

Freelance

Mission freelance
Data Analyst 5-8 ans

SKILLWISE
Publiée le
Apache Airflow
Databricks
Snowflake

3 mois
100-600 €
Paris, France

Nous recherchons un ANALYTICS/WEB ENGINEER pour le compte d'un grand client des secteurs de médias en place parisienne. Vous aurez à les accompagner sur le produit d'Activation au sein de la DATECH, avec un fort penchant sur les problématiques publicitaires. Vous devrez : - Gérer la DMP (Mediarithmics) en mettant à jour les collectes dans celle-ci, assister sur la création de segments et vérifier la bonne diffusion de ces derniers - Prendre en main les contraintes de ciblage sur les différents environnements en collaboration avec les différentes entité de DATECH et PUB - Travailler sur la mise en place de partenariats datas avec des annonceurs / data providers - Aider à la mise en place de tests publicitaires avec les équipes L'environnement technique de l'équipe : Snowflake, Databricks, Airflow, Azure DevOps, Mediarithmics, Liveramp

Freelance

Mission freelance
Ingénieur MLOPS Montpellier (Pré embauche sous 1 an de mission)/ri

WorldWide People
Publiée le
Apache Spark
Databricks

12 mois
330-440 €
Montpellier, Occitanie

Ingénieur MLOPS Montpellier (1 Senior et 1 Junior) DevOps : Maîtrise de GitHub, Docker, Kubernetes. Outils : MLFlow, Expérience avec Airflow. Plateformes : Connaissance de Spark (Databricks) ou GCP (Vertex AI), AWS, . Langages : Excellente maîtrise de Python et Scala. Pré embauche sous 1 an de mission ASAP Vos principales responsabilités : Concevoir et développer des solutions logicielles pour l'IA et la gestion des flux de données. Proposer et implémenter des stratégies novatrices pour l'extraction, le traitement et l'analyse de l'information. Assurer le déploiement, le test et la maintenance des solutions MLOps. Vous serez également en charge de : Participer aux rituels de gestion de projet (Agile ou cycle en V). Rédiger de la documentation technique détaillée. Réaliser une veille technologique proactive autour des données et de leur traitement. Votre profil : Formation : Diplôme d'Ingénieur ou équivalent (Bac+5) en sciences ou informatique. Expérience : Expertise avérée sur des projets en data & IA, avec une forte inclinaison pour le développement et une culture solide en data et DevOps. Compétences Techniques : DevOps : Maîtrise de GitHub, Docker, Kubernetes. Outils : MLFlow, Expérience avec Airflow. Plateformes : Connaissance de Spark (Databricks) ou GCP (Vertex AI), AWS, . Langages : Excellente maîtrise de Python et Scala. Qualités Personnelles : Esprit d'équipe, passion pour la data, autonomie et capacité d'adaptation.

Freelance

Mission freelance
Data Engineer (H/F) - Lille

Espace Freelance
Publiée le
Apache Airflow
AWS Cloud
Databricks

3 mois
100-560 €
Villeneuve-d'Ascq, Hauts-de-France

Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : Data Engineer (H/F) - Lille Mission à pourvoir en région Lilloise Compétences obligatoires : - AWS - Scheduling Airflow - DBT - Databricks - Pyspark Vous savez communiquer en anglais dans un contexte professionnel Votre mission : - Vous implémentez des solutions selon les règles fonctionnelles définies - Vous documentez vos actions - Vous créez des pipelines scalables de données structurées - Vous réalisez le support utilisateur en répondant à leurs questions - Vous documentez les flux implémentés - Vous prenez part à l’élaboration des bonnes pratiques de l’équipe - Vous partagez vos savoirs avec les autres Data Engineers Vous avez de l’expérience sur un poste similaire REFERENCE : EFN/DAENDE/111

Freelance
CDI

Offre d'emploi
Domain Data Architect Senior

FREELANCE VISION
Publiée le
Azure
Databricks
Méthode Agile

12 mois
31k-200k €
Lyon, Auvergne-Rhône-Alpes

Le Domain Data Architect sera responsable de la coordination des activités d'une unité du groupe. Cette mission ne comporte pas de responsabilité managériale directe. Il est attendu une intervention sur divers aspects notamment : Logistique Étapes d'approvisionnement Gestion d'entrepôt Il faut couvrir l'ensemble des besoins de l'entité en matière d'outils et de reporting, en définissant les solutions nécessaires et en collaborant avec les différentes équipes pour valider la trajectoire. Le Domain Data Architect travaillera en transverse avec 4 à 5 équipes couvrant l'ensemble du périmètre. Il sera le seul à avoir une vision transverse, apportant des compétences organisationnelles et en coordination avec le Data Product Owner qui gère les équipes. Compétences: • + 10 ans en architecture de données • Azure (Databricks, Data Factory...) • Stack Technique : BI & Analytics (pas de forte composante en IA ou Machine Learning) • Anglais courant ou billingue (entretien tout en anglais) Le candidat devra faire preuve d'une réelle capacité de communication, de force de conviction et d'intelligence relationnelle, car il sera confronté à des interlocuteurs parfois réfractaires. Niveau de compétence Azure Expert Conception d'architecture de données Expert DataBricks Expert Agile Expert Niveau de langue Anglais

Freelance
CDI
CDD

Offre d'emploi
Data Analyst confirmé / senior

SARIEL
Publiée le
Azure
Databricks
SQL

36 mois
10k-70k €
Châtillon, Île-de-France

Bonjour, Nous recherchons pour un poste (mission de longue durée) à pourvoir ASAP un profil Data Analyst pour notre client basé en région parisienne (Châtillon) confirmé/sénior disposant d’au moins 5 ans d’expérience data. Au sein de la Direction Digital & Data, l’équipe Data Lab intervient sur les périmètres Data et Analytics, dans le cadre du programme de transformation du SI de notre client. Vous aurez l’opportunité de rejoindre leur Data Factory dont la mission première est de déployer des produits Analytics innovants à destination des fonctions support et logistique, des magasins, et surtout des consommateurs. Après les premiers succès et des attentes de plus en plus fortes, nous passons désormais à l’échelle avec une nouvelle organisation Agile en Domaine/Tribu/Squad et la nécessité d’industrialiser nos pratiques pour accélérer la livraison des produits, tout en capitalisant mieux sur le patrimoine de données constitué. Vous aurez l’occasion d’intégrer une de nos squad dont la principale mission est de développer des cas d’usage BI, Analytics et Data Science déployés sur notre plateforme Data hébergée sur le Cloud Azure. Objectif global : Rédiger Rédaction Contrat d'interface & Specs Ci-dessous les principales tâches prévues : - Rédaction des contrats d’interfaces pour mise à disposition des données par la source de données - Rédaction de spécifications techniques détaillées de contrôles - … Une 1ere expérience dans le secteur de la grande distribution serait appréciée Les livrables sont · Contrat d'interface · Spécifications techniques détaillées Définition du profil CONCEPTION ET CADRAGE Définit, développe, met en place et maintient les outils nécessaires à l'analyse des données par les équipes Data Conçoit les modèles de données et les contrats d'interfaces Est responsable de créer des solutions permettant le traitement de volumes importants de données tout en garantissant leur sécurité MISE EN PRODUCTION Prépare les documents requis pour les Mises En Production (MEP) et pour le Run (document d'exploitation, supervision, ?) Participe à la mise en place des processus et outils de supervision de son produit et des traitements associés Participe au transfert de compétences vers l'équipe en charge du RUN Respecte les bonnes pratiques de développement (optimisation, sécurisation, documentation, etc.) Participe aux différentes cérémonies agiles VEILLE ET SUIVI Assure une veille active sur les technologies et langages utilisés et leurs évolutions afin d'améliorer les compétences des équipes Participe à la résolution d'incidents sur le produit en collaboration avec les parties prenantes Un test technique sera réalisé lors de l’entretien Dans le cas où vous êtes intéressé par ce poste, pourriez-vous SVP m'envoyer votre CV au format Word en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant ?

Freelance

Mission freelance
DATA ENGINEER

SURICATE IT
Publiée le
Azure
Databricks
Python

3 mois
100-590 €
Paris, France

- Construction des pipelines de données pour collecter, transformer et traiter des données dans notre Data Lake sur Azure - Développement de notebooks de traitement avancés des données sur Databricks (Spark, langages Scala, SQL et Python) - Conception et modélisation des données au niveau du Data Lake (format Parquet, Delta) - Réalisation des tests unitaires - Rédaction de documentation technique (Dossier d'Analyse Technique, release delivery note, ….) - Préparation de package pour livraison en CI/CD avec les équipes DevOps - Réalisation des activités de maintenance corrective et évolutive - Participation aux cérémonies agiles (Sprint Planning, Daily, Spring Review, Demo,…)

91 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous