Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 360 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

CDI
Freelance

Offre d'emploi
Architecte Data Mlops

OBJECTWARE MANAGEMENT GROUP
Publiée le
Architecture
Data science

3 ans
10k-72k €
Île-de-France, France

Le bénéficiaire souhaite une prestation d´accompagnement dans l´objectif d´assurance des services d´ingénierie technique pour le pôle en charge du cloud IBM, notamment dans l´architecture & design des couches techniques basses. L´objectif principal est assurance de l’ hybridation au cloud IBM ainsi qu' autres fournisseurs au futur, et assurance de la cohésion entre le backend (Datalab Platform) et les produits. Les missions sont: - Définition, assurance et déploiement des architecture intimes des produits; - Définition, assurance et priorisation des produits; - Définition et assurance de la roadmap Produit; - Déploiement des solutions; - Participation au support des services construits, selon le principe "You Make it You Run it"; - Acceleration du développement de produits data dans le cloud. (calculs distribués, datascience, ETL, datahubs); - Création des services de terraformation des clouds internes/externes; - Création des pipelines de deploiements; - Sécurisation de tous les produits et services (MFA , encryption, etc).

Freelance
CDI

Offre d'emploi
Data Scientist / Actuariat - Paris, IDF

K-Lagan
Publiée le
Data science

2 ans
10k-50k €
Paris, France

Chez K-LAGAN & Kereon, nous parions sur vous ! 🚀 🔊 Vous êtes un(e) Data Manager passionné(e) par la gestion des données et à la recherche d’un projet stimulant et durable ? Si vous cherchez à approfondir vos compétences tout en évoluant dans un environnement de travail innovant, n'hésitez plus et rejoignez notre équipe ! K-LAGAN est un cabinet de conseil spécialisé dans la Data , l'ingénierie, la technologie de l'information et la gestion de projets. Présente à l'international, notre mission est d’accompagner nos clients dans des secteurs variés tels que l’assurance, la finance, l’industrie, l’automobile et les télécommunications, en leur proposant des solutions sur mesure. Nous recherchons un(e) Data Scientist spécialisé(e) en actuariat pour rejoindre notre équipe et travailler sur des projets stratégiques de gestion et valorisation de la donnée. 📍 Localisation : Paris, Île-de-France, France. Vos missions principales : Développer des modèles actuariels avancés pour l'analyse et la prédiction des risques. Analyser de grandes quantités de données afin d'identifier des tendances et des comportements pertinents pour les produits d'assurance. Collaborer avec les équipes techniques et métiers pour concevoir et implémenter des solutions basées sur la data science. Réaliser des études de solvabilité et soutenir les processus de conformité réglementaire. Présenter des insights et des recommandations stratégiques aux parties prenantes. Participer à la mise en place d'algorithmes de machine learning pour optimiser les modèles de tarification et d'analyse des sinistres.

Freelance
CDI

Offre d'emploi
Data engineer Databricks

VISIAN
Publiée le
Apache Spark
Databricks
PySpark

1 an
10k-70k €
La Défense, Île-de-France

Objet de la prestation Nous recherchons Un Data Engineer expérimenté H/F pour accompagner la mise en production de "data products" sur une plateforme d'analytics Databricks. Le candidat idéal aura un profil de développeur Python orienté data avec une expérience sur le traitement de grande volumétrie de données. Le candidat devra être capable d’intéragir avec des datascientists et avoir une bonne compréhension des principes algorithmiques. Le travail consiste, entre autre, à reprendre et industrialiser des preuves de concept (PoCs) développées par notre centre de recherche et de les déployer sur la plateforme Databricks. Activités · Participer avec l’équipe technique à la mise en place de la gouvernance de la platforme · Collaborer (en anglais) avec les chercheurs pour comprendre les algorithmes existants · Implémenter les pipelines d’ingestion de données brut · Implémenter et optimiser les algorithmes de traitement en pyspark · Suivre les jobs en production

Freelance
CDI

Offre d'emploi
Data Engineer

Atlanse
Publiée le
Apache Spark
Elasticsearch
Kubernetes

3 ans
10k-55k €
Île-de-France, France

En tant que Data Engineer, vous interviendrez dans la création de nouvelles offres Data et dans l’adaptation des offres existantes aux environnement client avec une forte dimension conseil et support. Votre rôle Construction d’offres Data · Packager de nouvelles offres pour un déploiement optimisé dans un environnement Kubernetes · Automatiser, industrialiser et documenter les solutions · Intégrer des solutions de monitoring, alerting et gestion des droits dans les offres · Assurer le RUN des solutions en production · Effectuer une veille technologique autour de la Data : réalisation de POC, tests de performance et comparaison de solutions Adaptation des offres Data existantes · Identifier les offres existantes pour évaluer leur maturité · Intégrer les offres Data dans l’infrastructure Client · Intégrer des solutions de monitoring, alerting et gestion de droits dans les offres Conseil Expert et support Client · Intervenir en assistance/expertise auprès des clients, recueillir leurs retours et comprendre leurs exigences pour adapter les solutions · Evaluer les tendances du marché pour définir une vision produit alignée avec la stratégie de l’entreprise · Collaborer avec les architectes pour identifier la solution la plus adaptée au besoin client · Préparer la mise en place du produit en illustrant sa valeur ajoutée par des présentations et des démonstrations · Définir et documenter les patterns d’usage

Offre premium
Freelance

Mission freelance
Développeur(se) MicroStrategy / Power BI Confirmé(e) – Grande Distribution – Nord de Paris (H/F)

EASY PARTNER
Publiée le
Agile Scrum
Azure
Microsoft Power BI

6 mois
440-450 €
Paris, France

🔦 Contexte du poste Notre entreprise, acteur majeur dans le secteur de la grande distribution est en pleine transformation digitale. La Direction Digital & Data, au sein de notre DSI pilote cette métamorphose en déployant des produits Analytics innovants pour nos fonctions support, logistique, nos magasins et surtout nos consommateurs. Avec la première phase de succès confirmés et des attentes croissantes, notre ambition est désormais de passer à la vitesse supérieure en adoptant une organisation Agile plus structurée et en industrialisant nos pratiques. Vous intégrerez une de nos squads dynamiques, chargée du développement des solutions BI, Analytics et Data Science sur notre plateforme Data Cloud Azure. Cette prestation intervient dans le cadre de l'élargissement de notre équipe Data Lab, pour répondre à des challenges technologiques de grande envergure. Poste : Développeur(se) MicroStrategy / Power BI Confirmé(e). ▶️ Missions Développer, tester et déployer des reporting et tableaux de bord sous MicroStrategy ou Power BI. Recueillir les besoins utilisateurs et rédiger les spécifications techniques. Optimiser les performances des solutions déployées et en assurer la maintenance. 🛠️ Stack technique A maîtriser : MicroStrategy 10.9 et plus (Developer, Portfolio, Workstation, Integrity Manager) Power BI SQL Méthodologie Agile : Scrum & Kanban Outils Agile (JIRA) Environnement global : Cloud Azure (facultatif, mais apprécié)

Freelance

Mission freelance
MLOPS ENGINEER

Groupe Aptenia
Publiée le
AWS Cloud
Big Data
DevOps

6 mois
550-600 €
Lyon, Auvergne-Rhône-Alpes

Contexte de la mission Intégré à une équipe Produit, l'ingénieur MLOPs contribue à l'industrialisation de modèles ML déjà développés. Nous avons besoin de quelqu'un qui peut nous aider à automatiser et à améliorer notre pipeline de ML, à mettre en place des pratiques de MLOps et à assurer la qualité des données. Objectifs et livrables Nous cherchons à atteindre les objectifs suivants : Implémenter les pipelines automatisés pour le déploiement et la surveillance des modèles (Gestion des alertes) Amélioration et automatisation du pipeline de ML Mise en place de pratiques de MLOps et d'outils IA Assurer la qualité des données Optimiser l'efficacité et la scalabilité des flux de travail ML

Freelance

Mission freelance
ARCHITECTE DATA / POWER BI & AZURE

PROPULSE IT
Publiée le
Azure
BI
Big Data

24 mois
275-550 €
Massy, Île-de-France

Nous recherchons un(e) DATA ARCHITECTE POWER BI / AZURE Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Responsabilités : • Analyser les besoins fonctionnels. • Localiser les données de production. • Déterminer les spécifications techniques. • Définir l'architecture. • Modéliser les datawarehouse (entrepôts de données) et les datamarts (magasins de données) dédiés à une fonction particulière dans l'entreprise. • Accompagner le client dans la réalisation du projet. • Maintenir les sources de données à jour • Mettre à disposition les données aux métiers • Superviser les flux de données et en contrôler l'intégrité

Freelance

Mission freelance
INGENIEUR DATA BI EXPERIMENTE

PROPULSE IT
Publiée le
BI
Big Data

24 mois
250-500 €
Paris, France

Nous recherchons un(e) ingénieur Data BI expérimenté Contexte Au sein d'une Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté, une expérience dans le secteur du e-commerce serait apprécié. La Data Factory de notre client joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Elle se concentre sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour les équipes. Description • Participe à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Rédaction des documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de la stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe Livrables Spécifications Techniques, Cahier de recette Technique, Document d'exploitation Reporting d'avancement des travaux Programme développés

Freelance

Mission freelance
DATA ENGINEER (H/F)

Come Together
Publiée le
Big Data

3 mois
420-440 €
Lille, Hauts-de-France

Notre client recherche un(e) Data Engineer. - Construire et optimiser les pipelines de données : collecte, transformation et publication des données. - Améliorer fiabilité, qualité, performance et FinOps des flux de données. - Garantir la conformité avec la gouvernance de données du groupe. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT. Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake. Une connaissance de la Supply Chain ou une forte curiosité métier est un atout clé, compte tenu de l’organisation.

Freelance
CDI

Offre d'emploi
Team Lead Data

VISIAN
Publiée le
Architecture
AWS Cloud
Big Data

1 an
10k-65k €
La Défense, Île-de-France

Le pôle Data Accelerator & IT BI / Monitoring, positionné au sein de la DSI a pour rôle de mettre à disposition les outils et les données de qualité nécessaires aux usages des différents métiers et de leurs applicatifs. La/le Team Lead Data – Platform & BI coordonne directement les activités du pôle dédiées au développements de rapports BI à destination des métiers ainsi que le manager de la plateforme Data. Il est responsable de l’ensemble des livrables associés à ce domaine. Il gère la relation avec le métier. La/le Team Lead recherché intègrera le pôle Data Accelerator et IT BI / Monitoring de la DSI. Il aura en charge les activités de deux équipes : Plateforme : Ingestion, stockage et exposition de la data BI Monitoring : Restitution à des fins de Business Intelligence & Monitoring dans les outils adéquat (gestion en direct de cette activité) Il est en charge du suivi et de la livraison des évolutions répondant à un besoin métier BI de bout en bout sur la chaîne IT, c’est-à-dire sur le business delivery de son pôle dédié mais également avec les Core IT des autres pôles. Il est aussi responsable de la production sur les composants gérés. Ses missions principales sont : Sur le plan technique :> Expérience significative attendue Garantir les choix techniques structurants et arbitrer en cas de désaccord e s’appuyant sur les techleads et le responsable de plateforme Définir la vision technique et architecturale des produits développés sur le périmètre S’assurer de la diffusion et de la mise en œuvre des bonnes pratiques ( développement et process) sur son domaine d’expertise au sein de l’équipe mais aussi plus largement au sein de la DSI et des métiers Déterminer et fixer la capacité donnée aux US techniques Participer à la planification et à la définition des solutions à mettre en place Sur le plan organisationnel et managérial Suivre et organiser la charge / capacité à faire de l’équipe en s’appuyant sur le responsable de la plateforme sur son périmètre Animer les scrum master/chef de projet de son domaine S’assurer du staffing des différentes features teams de son domaine, en adéquation avec le besoin Sur le plan fonctionnel et méthodologique : Accompagner le développement des compétences de l’équipe et faire monter en compétence les membres les plus juniors Maitriser les différents éléments (roadmap métier, dépendances inter-applicatives, charges...) pour planifier ses développements Principales interactions Les autres équipes du pôle : le Data Office pour les question de gouvernance et de qualité des données manipulées, ainsi que la data science qui s’appuie sur les données de la plateforme. Les autres équipe IT métiers Les métiers et en particulier l’équipe Monitoring de la Direction des Opérations en charge du pilotage du monitoring côté métier Le data architect et les experts cloud AWS Databricks

Freelance

Mission freelance
INGENIEUR DATA BI - GENIO

PROPULSE IT
Publiée le
BI
Big Data
SQL

24 mois
250-500 €
Paris, France

INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS

Freelance
CDI

Offre d'emploi
Développeur Talend

SYZAN
Publiée le
Big Data
Talend

1 an
10k €
Île-de-France, France

Contexte : Dans le cadre de la digitalisation et de l'optimisation de nos flux de données, nous recherchons un Développeur Talend pour renforcer notre équipe Data. Ce poste vous permettra d’intervenir sur l’ensemble du cycle de vie de nos projets d’intégration de données, avec une attention particulière à l’optimisation des flux et à la qualité des données. Vous collaborerez avec des équipes métier et techniques pour construire des solutions robustes et évolutives répondant aux besoins stratégiques de l’entreprise. Missions principales : Conception et développement des flux de données : Concevoir, développer et maintenir des flux ETL sous Talend pour assurer l’intégration et la transformation des données. Travailler en collaboration avec les équipes fonctionnelles et techniques pour identifier les besoins en intégration de données. Documenter les processus de développement et les transformations de données. Optimisation et maintenance des flux : Optimiser les processus d’intégration de données pour garantir performance et fiabilité. Assurer la maintenance corrective et évolutive des flux existants en fonction des besoins de l’entreprise. Effectuer des tests unitaires et fonctionnels, et veiller à la qualité des données tout au long des transformations. Gestion de la qualité des données : Mettre en place des contrôles qualité des données dans les flux pour garantir leur conformité et fiabilité. Contribuer à la mise en place des règles de gouvernance de la donnée et aux bonnes pratiques d’intégration. Participation aux projets transverses : Participer aux projets de migration, de consolidation de données et de gestion de référentiels de données. Collaborer avec les autres équipes de développement pour assurer une cohérence et une interopérabilité des données dans l’ensemble du SI. Contribuer à la veille technologique pour proposer des solutions innovantes et améliorer les processus d’intégration.

Freelance

Mission freelance
AWS Data Engineer

Groupe Aptenia
Publiée le
Apache Spark
AWS Cloud
Dataiku

6 mois
500-550 €
Paris, France

Les ingénieurs data de l’équipe ont deux missions principales : a. Maintien en condition opérationnelle de la plateforme : Assurer la disponibilité des données et des services de la plateforme Communiquer avec les utilisateurs de la plateforme Répondre aux demandes de données ad hoc ou à l'analyse des anomalies Développer des correctifs et des évolutions de la plateforme Contribuer à la qualité des données et à l’industrialisation de la plateforme b. Conception et développement de services et de pipelines de données performants et fiables : Mettre en place des flux d’acquisition et d’exportation de données Effectuer des modélisations de données Développer des pipelines de transformation Réaliser les tests unitaires et d'intégration Veiller à la qualité des développements et au respect des standards via les revues de code Gérer les dépendances entre les traitements et les ordonnancer Réaliser les déploiements dans tous les environnements Maintenir et enrichir la documentation de la plateforme

Freelance
CDI

Offre d'emploi
Développeur - Big Data | Spark (H/F)

CELAD
Publiée le
Apache Spark

1 an
42k-50k €
Lyon, Auvergne-Rhône-Alpes

📑 CDI (42-50K€) / Freelance / Portage Salarial - 🏠 10 jours de télétravail / mois - 📍 Lyon - 🛠 Expérience de 5 ans minimum 🌟 Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un(e) Développeur – Big Data | Spark pour intervenir chez un de nos clients. 💻💼 Contexte : vos missions tournent autour de 4 axes : - Fournir une expertise en Big Data pour simplifier la manipulation des données. - Concevoir des solutions techniques pour le traitement massif de données. - Implémenter des solutions de stockage de données (SQL, NoSQL, etc.). - Assurer la sécurité et la lisibilité des pipelines de données pour faciliter l'analyse et la transformation. Voici un aperçu détaillé de vos missions 🎯 : - Création, maintenance, optimisation et sécurisation des bases de données pour garantir leur intégrité et leur performance. - Détection, proposition et suivi des optimisations des requêtes SQL, PL/SQL afin d'assurer l'efficacité des applications métier en termes de traitement des données. - Fournir un soutien aux équipes de développement en identifiant et en recommandant des solutions SGBD adaptées aux besoins métier, tout en assurant leur performance et leur pertinence. - Effectuer une veille technologique sur les outils utilisés dans le cadre du projet, afin de maintenir la pertinence et la compétitivité des solutions mises en œuvre. - Partager et dispenser des formations sur les bonnes pratiques en matière de gestion des bases de données, contribuant ainsi à l'amélioration continue des processus et des compétences au sein de l'équipe.

CDI

Offre d'emploi
Senior Data engineer AWS/Snowflake - (H/F) - 75

Mindquest
Publiée le
AWS Cloud
Confluence
Databricks

70k-75k €
Paris, France

Mon client, faisant partie des leaders dans le domaine de la distribution numérique de musique, recrute un Data Engineer. Au sein de l'équipe organisée selon la pratique Scrum, en charge du Build et du Run de son périmètre, vous aurez pour responsabilité d'implémenter les flux de données depuis l'ingestion des nouvelles sources jusqu'à leur préparation pour exposition au travers des niveaux Bronze, Silver et Gold (warehouse) Vos missions seront les suivantes : La conception et le développement d'un pipeline d'ingestion sur AWS (Step function / python / S3) La transformation de données (Python, Spark Scala / Databricks, SQL) La modélisation Data en flocons Les pratiques de test (TU Python, TU Spark Scala) Les pratiques de run (surveillance, monitoring, fix) La rédaction de la documentation (Data galaxy / Confluence) Les enjeux de performances, de suivi des couts et de sécurité

Freelance

Mission freelance
Sysops big data

SKILL EXPERT
Publiée le
Active Directory
Apache Kafka
Apache Spark

1 an
100-600 €
Vélizy-Villacoublay, Île-de-France

la prestation consiste à : Ø Maintenir l’architecture Big Data en utilisant les dernières technologies ad-hoc Ø Participer à l’industrialisation, au déploiement, au maintien des clusters Cloudera existants (Cloudera Manager, HDFS, Yarn, Hive, Ranger, Nifi, Kerberos) Ø Mettre en place les nouveaux outils que notre SI souhaite explorer: Kafka, Iceberg, Impala … Ø Participer à l’exploitation quotidienne des plateformes (vérifier la santé des clusters, mettre à jours mensuellement les serveurs) Ø Gérer la sécurité et l’accès aux clusters Ø Monitorer les plateformes et communiquer sur les besoins futurs Ø Apporter un support technique aux équipes de développement (Data Engineers / Data Scientists) Ø Mener les réflexions sur les évolutions à apporter aux plateformes

360 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous