Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 931 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Consultant HPC (High Performance computing) et Data engineering / Slurm

Freelance.com
Publiée le
Big Data
Linux

90 jours
260-1k €
Paris, France

Le client, acteur de l'énergie dans le domaine de la recherche et développement (R&D), souhaite renforcer son infrastructure de calcul haute performance pour répondre aux besoins de ses chercheurs. Le consultant interviendra pour administrer et optimiser un DGX (système spécialisé intégrant des GPU) en fournissant des services de gestion, de maintenance et de mise à jour. L’objectif est de garantir aux équipes de recherche un accès optimisé et performant à cette infrastructure critique. Administration et Gestion du DGX : Assurer la gestion quotidienne de l’infrastructure DGX, incluant la maintenance, les mises à jour, et l’optimisation de l’accessibilité pour les équipes R&D. Support HPC pour la Recherche : Apporter un support technique aux chercheurs dans l’utilisation et l’optimisation de ressources HPC, incluant le déploiement de workflows adaptés aux calculs intensifs. Gestion des ressources avec Slurm : Utiliser Slurm pour la gestion de files d’attente, l’ordonnancement et l’allocation de ressources afin de maximiser l’efficacité du cluster HPC. Data Engineering et Intégration de Données : Apporter une expertise en data engineering pour la préparation, l'intégration, et le traitement des données issues des simulations et calculs. HPC (High Performance Computing) : Expérience significative en administration et optimisation d’infrastructures HPC, idéalement avec du matériel DGX ou des systèmes intégrant des GPU. Data Engineering : Maîtrise des processus d’intégration, de transformation et d’analyse de données dans un environnement HPC. Outil de gestion de ressources : Maîtrise de Slurm , indispensable pour l’ordonnancement et la gestion des files d’attente. Langages de Programmation : Compétence en langages de scripting (ex. Python, Bash) et en langages utilisés dans le calcul scientifique et HPC. Systèmes d’Exploitation : Bonne connaissance de Linux, notamment pour l’administration de systèmes utilisés dans les environnements HPC. Mettre à disposition une infrastructure DGX performante et stable, adaptée aux besoins évolutifs de la R&D. Assurer une gestion efficace des ressources HPC via Slurm, permettant aux chercheurs d’optimiser leurs calculs et simulations. Garantir un support technique pour résoudre les problématiques liées au HPC et à la gestion des données R&D. Cette mission représente une collaboration technique et stratégique essentielle pour optimiser les capacités de calcul de l’infrastructure R&D du client.

Freelance

Mission freelance
Data Scientist

KatchMe Consulting
Publiée le
Data visualisation
Databricks
Python

6 mois
100-790 €
Paris, France

Concernant le projet, le client est entrain de commercialiser des modules d'IA. Notre client recherche actuellement un Data Scientist maîtrisant : - Databricks (obligatoire) - Python (très bonne connaissance) - Compétences en gestion des utilisateurs et des droits - Gestion des utilisateurs - Gestion des droits - Plusieurs modèles de gestion de droit - Bonus : Connaissance de D3.js et des visualisations avec Databricks Ce consultant H/F doit également avoir une maitrise de l'environnement de l'immobilier ou de la banque/ assurance ou en crédit / finance.

Freelance
CDI

Offre d'emploi
Bigdata Engineer Cloud

Digistrat consulting
Publiée le
Apache Kafka
Big Data

3 ans
40k-60k €
Paris, France

💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket

Freelance
CDI

Offre d'emploi
Data Scientist / Actuariat - Paris, IDF

K-Lagan
Publiée le
Data science

2 ans
10k-50k €
Paris, France

Chez K-LAGAN & Kereon, nous parions sur vous ! 🚀 🔊 Vous êtes un(e) Data Manager passionné(e) par la gestion des données et à la recherche d’un projet stimulant et durable ? Si vous cherchez à approfondir vos compétences tout en évoluant dans un environnement de travail innovant, n'hésitez plus et rejoignez notre équipe ! K-LAGAN est un cabinet de conseil spécialisé dans la Data , l'ingénierie, la technologie de l'information et la gestion de projets. Présente à l'international, notre mission est d’accompagner nos clients dans des secteurs variés tels que l’assurance, la finance, l’industrie, l’automobile et les télécommunications, en leur proposant des solutions sur mesure. Nous recherchons un(e) Data Scientist spécialisé(e) en actuariat pour rejoindre notre équipe et travailler sur des projets stratégiques de gestion et valorisation de la donnée. 📍 Localisation : Paris, Île-de-France, France. Vos missions principales : Développer des modèles actuariels avancés pour l'analyse et la prédiction des risques. Analyser de grandes quantités de données afin d'identifier des tendances et des comportements pertinents pour les produits d'assurance. Collaborer avec les équipes techniques et métiers pour concevoir et implémenter des solutions basées sur la data science. Réaliser des études de solvabilité et soutenir les processus de conformité réglementaire. Présenter des insights et des recommandations stratégiques aux parties prenantes. Participer à la mise en place d'algorithmes de machine learning pour optimiser les modèles de tarification et d'analyse des sinistres.

Freelance

Mission freelance
INGENIEUR DATA BI - CLOUD AZURE

PROPULSE IT
Publiée le
Azure
BI
Big Data

24 mois
200-400 €
Paris, France

Pour l'un de nos clients, nous recherchons un(e) Ingénieur DATA BI & Cloud Azure pour renforcer leurs équipes IT. Votre poste et vos missions Membre de l'équipe IT & Digital, vous intervenez au cœur des différents projets de développement du Groupe sur un périmètre international. Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Mise en place d'une vraie démarche data-driven au niveau technique - Apporter votre expertise technique et vos idées lors de la mise en place de projets concernant les développement données / BI - Force de proposition sur des nouvelles architectures et solutions d'intégration des données - Connaissances des principes big data et IoT - Connaissances avancées en datawarehouse et modèles de gouvernance des données - Connaissances des API Data pour le temps réel

Freelance
CDI

Offre d'emploi
Data Scientist (H/F)

IT4B Consulting
Publiée le
Data analysis
Data science
PySpark

6 mois
10k-80k €
Paris, France

Nous recherchons pour notre client, grand compte, un Data Scientist confirmé pour une mission longue durée Notre client figure parmi les principaux gérants d'actifs mondiaux assurant la gestion active d'actions, d'obligations et de taux, la gestion passive de fonds indiciels ainsi que la gestion d'actifs non liquides (actifs immobiliers et dettes privées). Prérequis : Data Science : Apprentissage automatique et analyse de données Pratiques MLOps Déploiement de packages Python PySpark Pratiques LLMs LLMOps Rigoureux, organisé, Proactif

CDI

Offre d'emploi
Data Engineer

Tenth Revolution Group
Publiée le

40k-55k €
Paris, France

À propos de notre client : Notre client est un acteur majeur du prêt-à-porter, reconnu pour son innovation et sa présence internationale. Avec plus de 1 500 magasins dans plus de 50 pays, l'entreprise cultive une relation unique avec sa clientèle à travers ses marques phares. Poste : Data Engineer Confirmé (H/F) Dans le cadre de sa transformation digitale, notre client recherche un Data Engineer confirmé pour renforcer son équipe Data et participer à des projets stratégiques visant à optimiser l'expérience client et les processus internes. Vos missions : Concevoir, développer et maintenir des pipelines de données. Intégrer et transformer des données provenant de diverses sources pour répondre aux besoins métiers. Collaborer avec les équipes marketing, e-commerce et IT pour fournir des solutions data adaptées. Assurer la qualité, la sécurité et la performance des infrastructures de données. Participer à l'implémentation des meilleures pratiques en matière de gouvernance des données. Votre profil : Expérience : 3 à 5 ans en tant que Data Engineer Compétences techniques : Maîtrise des services GCP : BigQuery, Dataflow, Pub/Sub, Cloud Storage. Solides compétences en Python et SQL pour le développement de pipelines ETL. Connaissance des bases de données relationnelles et non relationnelles. Une expérience avec des outils tels qu'Airflow, Terraform ou Apache Beam est un plus. Qualités personnelles : Esprit analytique, autonomie, capacité à travailler en équipe et sens de l'innovation. Ce que nous offrons : Intégrer une entreprise leader dans son secteur, en pleine transformation digitale. Participer à des projets d'envergure avec des défis techniques stimulants. Un environnement de travail collaboratif et bienveillant. Télétravail partiel possible. Rémunération attractive selon profil et expérience. Lieu : Poste basé à Paris, avec possibilité de télétravail partiel. Rejoignez une entreprise innovante et contribuez à sa transformation digitale en apportant votre expertise en ingénierie des données !

Freelance

Mission freelance
Data Ingenieur / Data architect

ALLEGIS GROUP
Publiée le
Cloudera

12 mois
600-850 €
Le Plessis-Robinson, Île-de-France

Principales missions et tâches à effectuer : Accompagnement de l’équipe OPS pour la migration vers Cloudera Data Plateform Compléter la Roadmap Architecture et la mettre en place (Rationalisation des environnements ; distribution Hadoop; Stratégie de Backup; Process d'onboarding: nouveau cas d'usage, nouvel utilisateur; Secret Management; SSSD; Refonte de l'organisation LDAP; Gestion des permissions; SSO; Haute disponibilité; Catalogue de données et de usecase …) Poursuivre et mettre en place la politique de Gouvernance DATA sur la plateforme. Assister l'équipe exploitation en cas de blocage dans le déploiement des livraisons, l'installation des outils, le debug. Soutenir les travaux de développement de pipeline de l'équipe DATA ING (choix techniques, optimisation de perfs, bonnes pratiques etc.). Technos/Outils du projet : Les outils de stockage : Hadoop, Hive, Hbase, Postgresql, Ceph Les outils de gestion de calcul distribué : Spark, Yarn Les outils de prototypage : Jupyter, Dataiku, Hue, Airflow Les outils d’alimentation : Kafka, Nifi Les outils d’affichage : Grafana, Tableau Les outils d’administration : Kerberos, Zookeeper, Solr, Ranger, Atlas, Ldap Les outils de proxyfication : Knox, HAProxy Les outils de supervision : Prometheus Les outils de configuration management : Puppet, Ansible Outil de secret management: Vault Cloud Computing: Openstack

Freelance

Mission freelance
DATA ENGINEER (H/F)

Come Together
Publiée le
Big Data

3 mois
420-440 €
Lille, Hauts-de-France

Notre client recherche un(e) Data Engineer. - Construire et optimiser les pipelines de données : collecte, transformation et publication des données. - Améliorer fiabilité, qualité, performance et FinOps des flux de données. - Garantir la conformité avec la gouvernance de données du groupe. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT. Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake. Une connaissance de la Supply Chain ou une forte curiosité métier est un atout clé, compte tenu de l’organisation.

Offre premium
Freelance

Mission freelance
Architecte Cloud Data h/f à Lille

ITS GROUP
Publiée le
AWS Cloud
Azure Data Factory

12 mois
500-550 €
Lille, Hauts-de-France

Expertise permettant de couvrir les besoins en expertises d’Ingénierie Cloud sur les sujets et produits liés aux données : administration bases de données, expertise data, architecture cloud data, etc. Automatisation et réalisation de modules Terraform pour le provisionnement Expertise et accompagnement projet (DSM ou DSI) sur un périmètre de PaaS comme : poc, architecture, aide à l’utilisation, paramétrage spécifique, optimisation, etc. Proposer une vision bout-en-bout et end-user sur un périmètre PaaS Définir et mettre en œuvre des meilleures pratiques associées à l’optimisation de la consommation des services PaaS – FinOps et GreenIT. Assurer une veille technologique constante : étude d’opportunité, analyse des nouveaux modèles d'utilisation pour faire évoluer les services existants, proposer de nouveaux produits et fonctionnalités. Assurer le BUILD et le RUN d’un périmètre PaaS.

CDI
Freelance

Offre d'emploi
Data Manager - Poitiers

K-Lagan
Publiée le
Data analysis
Data management

2 ans
10k-45k €
Poitiers, Nouvelle-Aquitaine

Chez K-LAGAN & Kereon, nous parions sur vous ! 🚀 🔊 Vous êtes un(e) Data Manager passionné(e) par la gestion des données et à la recherche d’un projet stimulant et durable ? Si vous cherchez à approfondir vos compétences tout en évoluant dans un environnement de travail innovant, n'hésitez plus et rejoignez notre équipe ! K-LAGAN est un cabinet de conseil spécialisé dans la Data , l'ingénierie, la technologie de l'information et la gestion de projets. Présente à l'international, notre mission est d’accompagner nos clients dans des secteurs variés tels que l’assurance, la finance, l’industrie, l’automobile et les télécommunications, en leur proposant des solutions sur mesure. Nous recherchons un(e) Data Manager pour rejoindre notre équipe et travailler sur des projets stratégiques de gestion et valorisation de la donnée. 📍 Localisation : Poitiers, Nouvelle-Aquitaine, France. Vos missions principales : Gérer et structurer les données pour assurer leur intégrité, disponibilité et sécurité. Superviser les processus de collecte et de stockage des données. Collaborer avec des équipes multidisciplinaires (Data Analysts, Data Scientists, développeurs) pour optimiser les flux de données. Proposer et mettre en œuvre des stratégies de gestion de données en ligne avec les objectifs de l'entreprise. Assurer la conformité aux normes et réglementations en vigueur (RGPD, etc.). Suivre et analyser les performances des infrastructures de données et recommander des améliorations. Former et sensibiliser les équipes à l’importance de la bonne gestion des données.

Freelance

Mission freelance
Directeur Data

Cherry Pick
Publiée le
Direction
Microsoft Power BI
Snowflake

12 mois
700-750 €
Bordeaux, Nouvelle-Aquitaine

Cherry Pick est à la recherche d'un "Directeur Data" pour un client dans le secteur de la grande distribution Contexte de la mission Véritable ambassadeur sur les sujets data et IA, nous cherchons un profil qui saura apporter sa vision stratégique, fédérer les équipes autour de la transformation numérique et garantir l’évolution des plateformes data et IA en adéquation avec les ambitions de l’entreprise. Rattaché au CTO vous aurez en charge de : - Définir la stratégie et l'évolution des plateformes data et IA en lien avec la stratégie de l’entreprise, - Diffuser la culture data et IA (dont IA gen) au sein du groupe. - Garantir la disponibilité des plateformes Data et IA pour toutes les entités du groupe (Cdiscount,Octopia,Clogistic), - Conduire et assurer la transformation des équipes en mode produit, - Être l’ambassadeur de Peaksys lors d’évènements internes et externes sur des thématiques data et IA, - Organiser des évènements internes pour la promotion de la data et de l’IA - Manager une direction de 45 collaborateurs (dont prestataires locaux et offshore) répartis en 5 équipes avec des profils pluridisciplinaires (Mlops, Data ingénieur, Data architecte, Data manager, Ml ingénieur), - Assurer le recrutement des collaborateurs et leur évolution au sein de Peaksys. - Gestion des budgets, - Gestion de crises, - Participer aux comités internes et y représenter la data (Comité DSI, comité IA Gen, Copil B2B...), - Gérer les relations avec les principaux éditeurs et négocier les contrats de renouvellement (Snowflake et Microsoft), - Travailler en étroite collaboration avec les directions produits B2C, B2B, Advertising et Datascience afin d’anticiper les besoins et de construire les roadmaps des plateformes data et IA. Objectifs et livrables Pré-requis : Expérience d’au moins 7 ans sur un poste similaire Modalités de télétravail : 2 jours par semaine, 3 jours sur site le lundi, mardi et jeudi.

Freelance

Mission freelance
Développeur Oracle Data Integrator

EASY PARTNER
Publiée le
ODI Oracle Data Integrator
SQL
Talend

3 mois
200-350 €
Lyon, Auvergne-Rhône-Alpes

Dans le cadre du projet de mise en place d’un nouveau Système d’Information Collectif pour notre client dans le secteur de la santé, l’équipe Data Factory recherche un Développeur Oracle Data Integrator (ODI) . Vous rejoindrez une équipe dynamique et participerez activement à l'intégration des données nécessaires pour alimenter l’infocentre ASP. En tant que Développeur ODI, vous serez chargé(e) de : Développement et intégration de flux de données : Concevoir, développer et déployer des flux ETL avec Oracle Data Integrator (ODI) . Intervenir ponctuellement sur des flux développés avec Talend . Garantir la qualité, la robustesse et l’optimisation des flux créés. Maintenance et correction des flux existants : Assurer le support et la correction des flux pour répondre aux besoins des utilisateurs. Réagir rapidement en cas d’anomalies détectées pour garantir une continuité de service. Participation à l’alimentation de l’infocentre ASP : Alimenter l’infocentre ASP à partir du nouveau système d’information collectif. Veiller à l’exactitude et à la cohérence des données transformées et intégrées. Collaboration avec les équipes : Travailler en étroite collaboration avec les équipes techniques (DBA, DevOps, etc.) et fonctionnelles. Participer aux ateliers pour comprendre les besoins métiers et adapter les solutions techniques.

Freelance

Mission freelance
Data Ingénieur

KatchMe Consulting
Publiée le
BigQuery
Github
Microsoft Power BI

6 mois
100-590 €
Lille, Hauts-de-France

Dans le cadre d’un projet orienté Data, nous recherchons un Data Engineer pour : Alimentation des données RH (côté Data, sans intervention sur l’interface de l’application). Diffusion des données vers différents domaines (organisations, etc.) en mettant ces données à disposition de manière centralisée pour faciliter leur utilisation par d’autres applications. Activités principales : Gestion des flux de données : Utilisation d’un framework interne développé par le client , permettant de consommer des données sous différentes formes. Exploitation des données via BigQuery pour ingestion unitaire et transformation. Calculs et analyses de métriques clés (KPI) : Calcul d'ordre relatif aux informations RH (nombre d’employés présents, départs, dates correspondantes, etc.). Génération de statistiques et indicateurs pour la gestion des ressources humaines. Gestion des environnements techniques : GitHub pour la gestion du code source. Infrastructure as Code via Terraform . Automatisation des pipelines CI/CD pour déploiement et création d’infrastructures. Collaboration avec les équipes Data : Support pour les tâches de data analysis et reporting (outils comme Looker et Power BI).

Freelance
CDI

Offre d'emploi
Data Steward (F/H)

CELAD
Publiée le
Python

1 an
42k-49k €
Lyon, Auvergne-Rhône-Alpes

📑 CDI (42-50K€) / CDI OU Freelance OU Portage salarial - 🏠 2 jours de télétravail / semaine - 📍 Lyon - 🛠 Expérience de 5 ans minimum Si vous êtes passionné.e par l'Agilité et la Data, cette opportunité pourrait bien être celle que vous attendiez ! 🚀 Nous poursuivons notre croissance et avons besoin de votre expertise pour accompagner un de nos clients sur des projets ambitieux. En tant que Data Steward | Scrum Master, vous jouerez un rôle clé dans le déploiement des solutions data et l'optimisation des processus agiles. 💻💼 Vos missions au quotidien : - Accompagner l'équipe dans la gestion du backlog pour garantir le bon déploiement des offres à grande échelle - Piloter les cérémonies agiles (sprint planning, rétrospective, daily meetings) en tant que Scrum Master pour favoriser une démarche Agile fluide - Superviser la data gouvernance : gestion des demandes de validation, soutien aux équipes de production applicative et édition - Rédiger des documentations utilisateurs claires et précises pour accompagner le déploiement des solutions

CDI
Freelance

Offre d'emploi
Data Cloud Architect

1G-LINK CONSULTING
Publiée le
Snowflake

6 mois
10k-70k €
Courbevoie, Île-de-France

En tant que membre de l'équipe Data Capture , le poste requiert des connaissances techniques et architecturales ainsi qu'une solide expérience pratique des technologies Cloud, du développement de micro-services et de l'architecture pilotée par les événements. Il requiert également des relations de travail étroites avec les équipes informatiques du groupe/de la zone, les partenaires commerciaux, les partenaires externes et tous les membres de l'équipe d'intégration. Les compétences ci-dessous sont essentielles et obligatoires : Leadership et autonomie Engagement sur les sujets Capacité à faire des restitutions documentaires dans le cadre d'un audit par exemple ou d'un poc ou en matière de normes et d'architecture Concevoir et proposer des solutions sur les données en utilisant les technologies Azure Cloud dans notre cadre. Concevoir et proposer des solutions sur Snowflake Appliquer la stratégie « Data as a Service » dans le respect des bonnes pratiques architecturales Concevoir et développer des APIs / Micro services pour enrichir notre cadre de solutions Soutenir la stratégie Event Driven Architecture basée sur Azure Event Hub et Azure IoT Hub Contribuer à notre catalogue de services pour l'enrichissement en libre-service Contribuer à la modernisation et à la sensibilisation à la technologie au sein de l'équipe Data Capture et dans l'ensemble de l'organisation Data & Analytics. Être le référent au sein de l'équipe pour tous les sujets liés au cloud. Conduire des ateliers et faciliter la collecte des besoins Soutenir les ingénieurs de données sur les sujets liés au cloud Soutenir l'équipe de sécurité pour les sujets connexes Contribuer à la feuille de route et à l'évolution de la capture de données Défier et soutenir les vendeurs externes

931 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous