Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 38 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

CDI
Freelance

Offre d'emploi
Senior Data Scientist

CAPEST conseils
Publiée le
AWS Cloud
Databricks
HDFS (Hadoop Distributed File System)

6 mois
10k-196k €
Croix, Hauts-de-France

Skills Méthodes d'inférences statistiques Modélisation et développement d'un framework de mesure de la performance. Expertise approfondie du Machine Learning et en particuliers des statistiques Production de code “robuste” permettant l’industrialisation, le passage à l’échelle et le maintien de la solution IA Maîtrise indispensable de Python et de ses librairies Data Science Maîtrise des outils permettant de gérer les gros volumes de données (stockage HDFS, calcul distribué, …) via Spark. Maîtrise des pratiques de packaging ML et de mise en place des architectures AI avancées. Maîtrise des environnements de développement sur le Cloud (ex : AWS, SageMaker, DataBricks, etc.). Maîtrise des outils de développement : Git, Github, CI/CD, VSCode/Pycharm, Terminal. Maîtrise de l’Anglais indispensable.

Freelance

Mission freelance
Senior Data Engineer

KatchMe Consulting
Publiée le
Databricks

3 mois
100-500 €
Paris, France

• Mise en place et exécution du framework et des pipelines de traitement de données : o Connectez-vous à diverses sources de données brutes (API internes/externes, lacs de données cloud, bases de données) pour ingérer des données dans Databricks o Mettre en œuvre des transformations de données à grande échelle pour automatiser la création de nouvelles données à des fins d'analyse o Créer et gérer des bases de données et des solutions de stockage de données efficaces (SQL/NoSQL) pour organiser les données structurées et non structurées. o Exposition de données via des API, Datamarts, SQL Endpoints, solutions de Dashboarding o Assurer la qualité, la cohérence et la sécurité des données, conformément aux normes de l'industrie. • Développer des API REST à l'aide d'un framework Web Python tel que FastAPI • Rejoignez une équipe projet multidisciplinaire et multiculturelle, travaillant en collaboration avec DevOps, Data Scientists, Project Managers • Documentez les flux de travail, les modèles de données et les configurations de pipeline pour garantir la transparence et la facilité d'utilisation pour les analystes et les parties prenantes

Freelance
CDI

Offre d'emploi
Développeur Python / FastAPI

VISIAN
Publiée le
AWS Cloud
Databricks
Javascript

3 ans
10k-50k €
Paris, France

VISIAN est une société de conseil spécialisée autour de l'innovation, la conception produit, le développement et la data. Dans le cadre de nos projets clients, nous recherchons un développeur Python / FastAPI L'entité du client est responsable de la conception, du développement et de la production du système d’information et des infrastructures. Il conçoit et met à disposition des Lignes Métiers et des Fonctions Supports Back Office et Risques les systèmes informatiques nécessaires à l’exercice de leurs missions. Il est également en charge du bon fonctionnement et du support opérationnel de ces systèmes.

Freelance
CDI

Offre d'emploi
Data Analyst (H/F)

CITECH
Publiée le
Databricks
Microsoft Power BI
MySQL

12 mois
60k-80k €
Paris, France

CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation d’un projet important, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Data Analyst (H/F) 🚀 💡 Votre mission est pour un client reconnu dans le secteur de l’énergie, comptabilisant plus d’un million de clients, il a pour objectif d'accélérer sa transformation digitale afin d'offrir toujours plus de solutions et de services innovants. ⚡️ 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸 Développer des modèles de données et des tableaux de bord Power BI intuitifs ; 🔸 Gérer la collecte, le nettoyage, le traitement et la modélisation des données ; 🔸 Assurer la qualité et l'intégrité des analyses et dashboards ; 🔸 Optimiser les processus décisionnels.

CDI

Offre d'emploi
Databricks Architect

KOMEET TECHNOLOGIES
Publiée le
AWS Cloud
Azure
Databricks

52k-85k €
Paris, France

Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP

Freelance

Mission freelance
architecte pyspark - 3 mois

Innov and Co
Publiée le
Apache Spark
Azure DevOps Services
Databricks

3 mois
100-700 €
Boulogne-Billancourt, Île-de-France

Contrainte forte du projetFort enjeux metier Les livrables sont Package pyspark Dictionnaire / catalog de données Model de données tabulaire Compétences techniques PYTHON / PYSPARK / SPARK - Expert - Impératif Databricks/ datafactory/ azure devops - Expert - Impératif Azure Analysis Services - Expert - Impératif Integration GIT - Expert - Important Connaissances linguistiques Français Courant (Impératif) Description détaillée L'equipe Datafinance utilise actuellement une architecture basée sur Databricks, Azure Blob Storage, Azure Data Factory et Azure Analysis Services pour traiter et analyser ses données financières. Nous cherchons à optimiser les processus de traitement de ces données, en particulier le rafraîchissement des données, pour améliorer la performance et la qualité des analyses. Dans ce cadre, nous recherchons un expert en BI et Data pour une mission de 3 mois. L'objectif est d'optimiser le Temps de traitement et de rafraichissement des données. 2. Objectifs de la mission L'expert BI et Data sera chargé de : Optimiser le traitement des données du projet Data finance, en se concentrant principalement sur le processus de rafraîchissement des données entra la zone gold et le cube de données. Optimiser l'utilisation de Azure Analysis Services (modèle Tabulaire) pour les rapports et les analyses. 3. Technologies utilisées L'expert devra maîtriser les technologies suivantes : Databricks (en particulier avec PySpark). Azure Analysis Services (modèle Tabulaire). SQL . Git et Azure DevOps pour la gestion des versions et l'intégration continue. 4. Compétences requises Le candidat idéal doit posséder une expérience avérée dans les domaines suivants : Maîtrise de PySpark : pour le traitement et l'optimisation des données dans Databricks. Expertise en modélisation de données : capacité à concevoir et optimiser des modèles de données pour améliorer la performance et la gestion des données financières. Maîtrise du modèle Tabulaire dans Azure Analysis Services : pour optimiser le rafraîchissement des données et améliorer les performances des cubes. Bonne compétences en SQL 5. Livrables attendus Les livrables de la mission incluent : . Mise en œuvre des optimisations dans Databricks et Azure Analysis Services. Documentation détaillée des modifications apportées et des bonnes pratiques mises en place. Transfert de connaissances aux équipes internes pour garantir une gestion continue des processus optimisés.

Freelance
CDI

Offre d'emploi
Data Engineer H/F

Atlanse
Publiée le
Azure Data Factory
Azure DevOps Server
Databricks

3 ans
10k-62k €
Châtillon, Île-de-France

Analyser des données en temps réel avec Azure Stream Analytics Collecter des données via des flux entre les bases de référence et Azure Afficher des données entrantes avec Event Hub Développer des programmes en Spark Scala Créer un pipeline Azure Data Factory pour exécuter Databricks notebook afin de traiter les données Traiter en batch des données Stocker des données dans le Datalake Azure Créer des projets et stocker du code sur Azure DevOps Réaliser la documentation avec Confluence (source des données, technos utilisées : Databricks, Azure Data Factory, Azure DevOps..., destination des données, stockage, monitoring…)

CDI
Freelance

Offre d'emploi
DATA ENGINEER AZURE SCALA PYSPARK

DATSUP
Publiée le
Azure
Databricks
PySpark

2 ans
10k-51k €
Île-de-France, France

Vous rejoindrez une Data Factory, dont l'objectif est de concevoir et déployer des solutions Analytics innovantes pour les magasins, les fonctions support, la logistique, et surtout, les consommateurs. Notre client visent à industrialiser nos pratiques pour accélérer la livraison de nos produits tout en maximisant l'utilisation de notre patrimoine de données. Vous intégrerez une squad dédiée au développement de cas d'usage en BI, Analytics et Data Science, sur leur plateforme Data hébergée sur le Cloud Azure.

Freelance
CDI

Offre d'emploi
skiils se renforce et cherche son Data engineer confirmé

skiils
Publiée le
Apache Airflow
Apache Spark
AWS Cloud

12 mois
10k-45k €
Hauts-de-France, France

Data Engineer maitrisant(e) pyspark et airflow qui aidera le client à construire de nouveaux indicateurs et à les fiabiliser. L"équipe Forecast a pour mission de mettre à disposition dans le Datalake , les datasets qui concernent les prévisions de ventes. Pour remplir à bien sa mission, le Data Engineer devra : - Comprendre un modèle de données et s'en servir, - Aider l'équipe à faire les meilleurs choix techniques, - Apporter une expertise sur la conception des indicateurs, - Maîtriser les bases de données et les outils de transformation, - Etre capable de transformer une donnée brute en un indicateur

Freelance

Mission freelance
DBA - Administrateur base de données

Comet
Publiée le
AWS Cloud
Azure
Base de données

44 jours
100-460 €
Boulogne-Billancourt, Île-de-France

Tâches de la mission : - Intégrer les projets applicatifs - évolutions de version, de migration sur les applications - Proposer des solutions techniques, proposer des architectures data - Réaliser les scripts, participer la mise en œuvre - Former / accompagner les membres de l’équipe à la montée en compétence sur databrick Ex de projet : - Migrer les Databrick en privé - Mettre en place la sécurité à travers Unity Catalogue - Conseil sur le design des catalogues - Le requêtage à travers les EndPoint SQL - Support prod sur des incidents de performance essentiellement (Bases de données classiques et Databrick ) - Savoir trouver la ou les requêtes qui sont longues sur la base - Savoir trouver le plan d’exécution en cours, le comprendre et l’analyser - Bien connaitre le fonctionnement du moteur base de données, la gestion de la mémoire, l’exploitation des tables systèmes - Scripter / automatiser : Powershell ou scripts dans Databrick - Contrôle / supervision / remédiation sur des actions d’administration classique - Rédaction de Roadbook de résolution - Rédaction de procédures (how to do)

Freelance

Mission freelance
Architecte cloud azure et Data

AVALIANCE
Publiée le
Azure
Azure Data Factory
Databricks

2 ans
100-800 €
Issy-les-Moulineaux, Île-de-France

Nous recherchons pour notre client un architecte cloud azure et data pour une mission longue a Issy les moulineaux -Réflexion & brain storming sur l’architecture et l’ensemble des composants Azure data à mettre en place pour chaque cas d’usage -Redaction des DAT HLD LLD -Mise en place des PoC -Réalisation des documents d’architecture technique pour chaque région et chaque cas d’usage (Data Science) -Réalisation des architectures de migration de certaines applications vers le cloud Azure (SQL Sever, SSIS, Azure data factory, Azure SQL database, etc…)

Freelance

Mission freelance
Devops/développeur Java

VISIAN
Publiée le
AWS Cloud
Azure
Databricks

1 an
100-700 €
Bagneux, Île-de-France

Contexte L’équipe Infrastructure au sein de la Direction des Systèmes d’Information du client recherche un(e) profil DevOps/Developpeur Full Stack pour la gestion opérationnelle de ses infrastructures. • Une infrastructure MultiCloud (AWS – 90%, Azure, GCP) • L’hébergement de Portails Web (10 portails) et Services Backend (+200 applications dockerisées) • L’hébergement d’une Factory DevOps (CICD/Testing/Monitoring) • L’hébergement d’une plateforme Data Analytics, DataViz, • L’hébergement d’une plafeforme d’Echange (Serveurs de fichiers, ETL, Bases de données) Principaux périmètres pour cette mission : Mise en place d'un portail de Self Service Infrastructure avec API AWS (gestion du frontend et backend) Participation à la mise en place d’une Landing Zone AWS en remplacement de deux comptes historiques Migration/Création de l’infrastructure de micro-services java, nodejs, php vers Landing zone Réalisations de nouvelles infrastructures pour les demandes des équipes applicatives Intégration des applications sur ECS, dockerisation, déploiement Intégration des applications dans l’écosystème DevOps (CI/CD, Monitoring, Testing) Création de pipelines CI/CD sur Jenkins et Gitlab CI Infrastructure as code avec Terraform Provisioning de l’Infrastructure avec Ansible Support aux équipes applicatives et troubleshooting sur les anomalies Gestion du RUN et des incidents de production Environnement technique: • Cloud : AWS (EC2, ECS, RDS, S3, EKS, ELK, …) / Azure / GCP • Langage applicatif : JBOSS, Widlfly, Spring, NodeJS, PHP, • IAC : Docker, Terraform, Ansible, • FACTORY : Jenkins, Okta, Grafana, Splunk, Gitlab, Kubernetes, Jira, Confluence, API Management • DATA : TIDB, Databricks, Informatica, MS-BI, Oracle GoldenGate, Hadoop, Spark, EMR, SAS, • DataBase : MySQL, SQL Server, MariaDB, MongoDB, ORACLE

Freelance

Mission freelance
Architecte data azure senior

UCASE CONSULTING
Publiée le
Azure
Databricks

3 ans
210-1 940 €
Paris, France

Bonjour, Pour le compte de notre client, nous recherchons actuellement un Architecte data cloud Azure. Livrable n°1 : Cadrage et chiffrage des projets Accompagnement au cadrage du besoin auprès de nos clients Réalisation d’études et formalisation des architectures envisagées en appui sur les solutions cloud adaptées au besoin Lot 3 : Contribution au chiffrage global du projet Lot 4 : Réalisation éventuelle de Proof Of Technologies le cas échéant Livrable n°2 : Conception technique de la solution Formalisation des documents standards (DAL, DAT) Lot 2 : Veiller à la conformité de la solution sur les plans standards technologiques et en phase à la politique de sécurisation du SI client. Livrable n°3 : Accompagner la prise en charge du build projet Assurer une passation aux équipes de réalisation Le cas échéant, apporter de l’expertise lors de la phase de build (automatisation…). Accompagner à la mise en robustesse et à l’identification des optimisations financières et techniques tout au long du projet.

Freelance

Mission freelance
Architecte Data / Databricks / PowerBI / Dataiku

VISIAN
Publiée le
Databricks
Dataiku
Microsoft Power BI

1 an
100-650 €
La Défense, Île-de-France

VISIAN est une société de conseil spécialisée autour de l'innovation, la conception produit, le développement et la data. Dans le cadre de nos projets clients, nous recherchons un Architecte Data avec une bonne connaissance de Databricks. Dans le cadre du développement de leur Data Platform, le client souhaite renforcer son équipe data, challenger son architecture et les aider dans le développement de la plateforme. Il doit également avoir connaissance de tous les aspects de l'architecture type modern data plateform : ingestion, chargement, exposition, visualisation Le profil doit être en mesure d'interagir avec l'architecture d'entreprise du client, cadrer les enablers globaux, définir les scénarios de mise en oeuvre pour les différentes équipes

Freelance

Mission freelance
Data analyst

Comet
Publiée le
Databricks
MySQL
Python

120 jours
500-550 €
Lille, Hauts-de-France

Les missions à pourvoir sont multiples : -Challenger les dashboards et les datasources existants. (accompagner du leader et ingénieur DATA) -S’appuyer sur les sources de données déjà existantes -Recueillir le besoin avec les équipes métiers -Construire si nécessaire les maquettes des dashboards pour validation avec nos utilisateurs clés -Construire et mettre à disposition les dashboards -Etre à l’écoute des nos utilisateurs afin d’adapter / corriger les dashboards mis à dispositions au fil du projet

Freelance

Mission freelance
Ingénieur Technique Data/MLOps

KEONI CONSULTING
Publiée le
CI/CD
Databricks
Terraform

12 mois
100-400 €
Niort, Nouvelle-Aquitaine

Contexte : Notre plateforme data science sur Azure est en construction, et nous avons besoin d'un renfort sur le rôle de Data/MLOps engineer. Le dataops a deux activités : - le déploiement de l'infrastructure as code sur le cloud - le développement de pipeline CI/CD pour les usages data science qui sont en cours d'industrialisation. MISSIONS : - Assurer le maintien en condition opérationnelle, l’évolutivité et la connaissance de la plateforme Microsoft Azure CLAUDI.IA - Accompagner les directions métiers et leurs data scientists dans la réalisation de leurs expérimentations et de leurs produits industriels de data science - Apporter un support fonctionnel et technique aux directions métiers En tant que data/mlops engineer sur notre plateforme CLAUD.IA.

38 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous