Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 235 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Offre premium
Freelance

Mission freelance
Développeur senior backend Node

DEV AND CONNECT
Publiée le
Cloud
Node.js

6 mois
400-550 €
Paris, France

👉 Contexte : Nous recherchons un Développeur Back-End Node.js senior et polyvalent pour rejoindre les équipes de notre client e-commerce. Vous participerez au développement, à l'optimisation et à la maintenance des applications et services. Vous pourriez être amené à travailler sur le front end, l'amélioration de la CI CD, l'observabilité, le monitoring ou encore le déploiement (selon votre profil et vos appétences). Concevoir et développer des APIs performantes et scalables en Node.js. Assurer la maintenance évolutive des systèmes existants et la gestion des mises à jour. Maintenir et optimiser des pipelines CI/CD pour garantir une livraison continue. Travailler avec les équipes DevOps pour assurer des déploiements sans interruption et garantir la haute disponibilité des services. Mettre en place des alertes et analyser les performances pour identifier et résoudre les problèmes avant qu’ils n'affectent les utilisateurs. Analyser et optimiser les performances des applications en termes de latence et de scalabilité.

Offre premium
Freelance

Mission freelance
Data engineer Sénior

CONSULT IT
Publiée le
Apache Airflow
Apache Kafka
BigQuery

2 ans
500 €
Lille, Hauts-de-France

Nous sommes à la recherche d'un data engineer sénior pour une mission longue durée pour un client de grand compte dans le secteur de la grande distribution. Contexte et missions : Conception et optimisation de pipelines de données sur GCP (BigQuery, Cloud Functions). Modélisation des données et optimisation des requêtes SQL. Mise en place de solutions de monitoring et maintenance des pipelines. Encadrement d'une petite équipe et collaboration avec les équipes métiers. Compétences requises : Maîtrise de GCP, SQL, Python. Connaissances Kafka, Airflow/Composer. Sens de la qualité des données et de la sécurité. Plus de 5 ans d'expérience autant que data engineer Connaissance Data Studio, Looker

Offre premium
Freelance

Mission freelance
DevOps GCP

NaxoTech
Publiée le
Google Cloud Platform

3 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes

Vous intégrerez une petite structure innovante, éditeur de logiciels spécialisé dans la data, pour intervenir sur des problématiques d'infrastructure et d'automatisation. En tant que DevOps GCP , vous serez en charge de : Concevoir et déployer des infrastructures cloud sur Google Cloud Platform . Mettre en place et optimiser des pipelines CI/CD. Superviser les environnements avec des outils adaptés Garantir la sécurité, la performance et la disponibilité des systèmes. Collaborer avec les équipes data et développement pour répondre aux besoins métiers.

Freelance

Mission freelance
Expert Data GCP

KatchMe Consulting
Publiée le
Data management
Google Cloud Platform

1 mois
Paris, France

Bonjour à tous, MISSION FREELANCE - DÉMARRAGE IMMÉDIAT !! TOUS LES PROFILS AYANT UN PRÉAVIS, LE CLIENT NE RETIENDRA PAS VOTRE PROFIL. Je recherche pour un de mes clients un expert Google Cloud Platform (GCP) avec des capacités en Data Modelling, Data Governance & Data Architecture. • Tâches de la mission : o Migration/Organisation du Projet Client dans GCP (7-10 jours de travail) o Data Mapping (au niveau information) : schéma entre les différentes tables (5 jours de travail) o Documentation des tables : décrire les tables du Datamart (15 jours de travail)

Freelance

Mission freelance
TECH LEAD - JAVASPRINGBOOT & GCP & SQL

HAYS France
Publiée le
Apache Kafka
Google Cloud Platform
Springboot

3 ans
100-550 €
Lille, Hauts-de-France

Description détaillée Dans le domaine Product Master Data, nous te proposons d’intervenir en tant que TechLead dans les équipes chargées de faire évoluer les produits digitaux gérant le référencement produit (vendus en ligne ou en magasin), à destination d’utilisateurs répartis dans les différents pays A ce titre, tu es notamment en charge : ● De concevoir et aider à la réalisation de solutions robustes et efficientes. ● De contribuer aux études et définitions des spécifications applicatives et techniques de la solution ● De participer à l’ensemble des rituels agiles (Daily meetings, Affinage, Sprint review, Retrospective) En tant que TechLead, tu connais les nouvelles tendances et opportunités technologiques et tu sais les partager. Tu es en relation avec les différents pôles au sein du domaine Product Master Data, et plus généralement de la plateforme digitale Produit (PDP). Profil et technologies : De formation technique, tu as acquis une expérience de 10 ans minimum dans le développement Java. Tu maîtrises parfaitement le développement d’API, l’utilisation de Kafka et les modèles de bdd.

Freelance

Mission freelance
Développeur FullStack

RED Commerce - The Global SAP Solutions Provider
Publiée le
Angular
Bash
Développement

4 mois
400-500 €
Île-de-France, France

Développeur FullStack C/Pro C/BASH/Shell Contexte Dans le cadre d’un projet stratégique, nous recherchons un Développeur FullStack expérimenté en C, Pro C et BASH/Shell pour assurer le développement et la maintenance d’applications critiques. Missions: Développement et maintenance en C, Pro C et BASH/Shell Analyse des besoins fonctionnels et techniques Développement des User Stories (JIRA) et correction des anomalies Relecture de code (Peer Review) et corrections Gestion des obsolescences techniques et recodage si nécessaire Mise à jour des versions système et logicielles Rédaction de documentation technique Réalisation de tests unitaires et d’intégration Participation aux réunions Agile (SCRUM) Support technique et gestion des incidents Astreinte d’une semaine par mois sur une application stratégique Livrables Attendues: Code source documenté sur GitLab Spécifications techniques et procédures User Stories et cahiers de tests unitaires

Freelance

Mission freelance
Un Architecte Solution GCP et GKE (Google Kubernetes Engine) sur Nantes

Smarteo
Publiée le
Google Cloud Platform

6 mois
100-400 €
Nantes, Pays de la Loire

Smarteo recherche pour l'un de ses clients, Un Architecte Solution GCP et GKE sur Nantes Description: Expertise en conception et déploiement de solutions sur Google Kubernetes Engine (GKE). Connaissance approfondie des services Google Cloud Platform (GCP). Expérience en architecture de microservices et conteneurisation (Docker, Kubernetes). Compétences en sécurité des applications cloud et gestion des identités. Capacité à fournir des solutions évolutives et résilientes. Expérience souhaitée en migration progressive de systèmes existants avec la mise en œuvre de modèle tels que le Strangler Pattern ou l'utilisation du DDD (Domain Driven Design) Si vous êtes disponible et intéressé, merci de me faire parvenir votre TJM ainsi que votre CV à jours en format word.

Freelance

Mission freelance
Product Owner Data/BI GCP

FF
Publiée le
Agile Scrum
BigQuery
Google Cloud Platform

1 an
580-680 €
Paris, France

Bonjour à tous, Je suis à la recherche d’un Product Owner Data/BI orienté technique qui maitrise l’environnement GCP – BigQuery (obligatoire). Vous avez une bonne connaissance de PowerBI dans l’idéal. Vous êtes rompus aux techniques de l’agilité SAFe et Scrum. Démarrage : mi-mars Lieu : Paris intra-muros Télétravail : 2 jours par semaine Durée de la mission : 1 an ou + Scope de la mission : Gestion de la Backlog : Prendre en charge la backlog autour de notre Dataplatform sur GCP Big Query, en veillant à ce qu'elle soit bien organisée, priorisée et alignée sur les objectifs de l'entreprise et les besoins de nos métiers Organisation du delivery : Planifier le delivery lors du PI planning en veillant à ce que l'équipe se concentre sur la livraison de fonctionnalités et d'améliorations à forte valeur ajoutée Rédaction des User Stories : Rédiger des user stories claires et concises, des critères d'acceptance et des spécifications techniques pour guider l'équipe de développement dans la livraison de solutions de qualité Amélioration continue : Piloter le plan d’amélioration des performances de notre Dataplatform, de la qualité de nos programmes, de notre stratégie de test et de réduction des couts Release management : Piloter les Releases de l’ensemble des équipes du département Data&BI

Freelance

Mission freelance
Data Engineer

Coriom Conseil
Publiée le
Google Cloud Platform
Microsoft Power BI

12 mois
100-550 €
Lille, Hauts-de-France

Cahiers de test Suivi d'avancement Dashbords / Explore Looker Compétences techniques Looker - Confirmé - Impératif GCP - Confirmé - Impératif SAP BI 4.2 (Univers et rapport ) - Junior - Souhaitable Connaissances linguistiques Anglais Professionnel (Impératif) Français Courant (Impératif) Description détaillée Le client a lancé un programme de migration de l’ensemble de ses rapports SAP BO vers deux solutions cibles (Power BI et Looker) Après une période de cadrage et de validation avec l’ensemble des BU, nous sommes aujourd’hui dans la phase de décommissionnement et de migration Les rapports SAP BO (ainsi que les univers) identifiés comme étant à migrer sous Looker sont migrés automatiquement via un partenaire, avant d’être enrichis/complétés, validés et mis à disposition pour les utilisateurs de chaque BU.

Freelance

Mission freelance
Devops - Cloud engineer

Pickmeup
Publiée le
Google Cloud Platform
Kubernetes

6 mois
600-650 €
Paris, France

En tant que Devops/cloud engineer, vous serez responsable de : La mise en place et l'optimisation de notre infrastructure as code avec Terraform sur GCP Le déploiement et la gestion de clusters Google Kubernetes Engine (GKE) L'automatisation des processus de déploiement et d'infrastructure La mise en place des bonnes pratiques DevOps et SRE L'amélioration continue de notre plateforme cloud Livrables Attendus Infrastructure as Code complète et documentée sur Terraform Clusters GKE optimisés et sécurisés Documentation technique détaillée Processus d'automatisation des déploiements Mise en place des bonnes pratiques et standards

CDI

Offre d'emploi
Data Engineer Finops

Pickmeup
Publiée le
BigQuery
Google Cloud Platform
Python

55k-72k €
Paris, France

À propos de l’entreprise Spécialisée dans l’analyse et l’activation des données issues de la grande distribution, l'entreprise développe des solutions technologiques innovantes permettant aux industriels d’engager leurs consommateurs grâce à l’ultra personnalisation et au gaming. Grâce à des technologies avancées en intelligence artificielle et en data engineering, ils offrent des solutions performantes d’animation e-commerce adaptées aux enjeux du secteur. Descriptif du poste Face à une forte croissance et à des ambitions d’expansion à l’international, nous renforçons notre équipe data en recrutant un Data Ops spécialisé en finops (H/F) . 📌 Missions principales Sous la responsabilité du Lead Infra , vous aurez pour mission de : Assurer la scalabilité et la fiabilité des services utilisant la donnée face à une forte croissance des volumes. Gérer l’ensemble des pipelines de données, processus ETL et transformations, avec des tests automatisés et manuels. Optimiser les services existants pour améliorer les performances et réduire les coûts. Être force de proposition sur les choix d’architecture et les innovations technologiques. Collaborer avec les différentes équipes (marketing, R&D, produit, finance) pour garantir la cohérence des projets. Assurer un reporting rigoureux des activités et résultats. 📌 Compétences requises Maîtrise d’un ou plusieurs langages structurés (Python, JavaScript, Java, C/C++, Scala…). Expérience avec les bases de données SQL et NoSQL. Connaissance des technologies Big Data et de la Modern Data Stack (dbt, Airflow…). Expérience sur une plateforme Cloud (GCP, Azure, AWS). Sensibilité aux enjeux FinOps et optimisation des coûts. Capacité à collaborer avec différentes disciplines et équipes.

Freelance

Mission freelance
Data Engineer GCP SSIS (Google Cloud Platform)

BEEZEN
Publiée le
Google Cloud Platform
Microsoft SSIS
Python

6 mois
400-550 €
Paris, France

Je recherche pour un de mes clients un Data Engineer GCP ayant des connaissances sur SSIS afin d' accompagner ce dernier dans le RUN SSIS et la migration sur GCP. Vous intégrer une équipe Hyper sympa. Vous participerez à l’analyse et planification de la migration SQL Serveur (on prem) vers GCP Experience avec Data Form Expérience dans la mise en place de pipeline ETL et ELT Maitrise des langages SQL et Python travailler en équipe et excellente compétence en communication Connaissance de SQL serveur serait un plus Certification GCP est un plus Capacité au former et faire monter une équipe en compétence sur GCP

Freelance

Mission freelance
Architecte Solution Big Data / RAG (H/F)

LeHibou
Publiée le
Google Cloud Platform
Python

6 mois
650 €
Boulogne-Billancourt, Île-de-France

Notre client grand compte recherche un architecte Big Data. Notre client développe une plateforme basée sur des agents intelligents tel que les agents de type Retrieval-Augmented Generation (RAG), dans un environnement Google Cloud Platform (GCP). Cette plateforme doit permettre aux utilisateurs métiers de créer et de personnaliser des assistants et des workflows utilisant l'IA générative pour améliorer nos processus et systèmes d'information (SI) existants. Le Solution Architecte va s’intégrer dans une équipe de plusieurs personnes. Le développement est réalisé en Python et Java. Les composants techniques sont réalisés dans une architecture micro-services exposés en partie à l’ensemble de l’entreprise. L’objet de la prestation sera de renforcer l’équipe « plateforme self-service d’agents GenAI » Les activités concernent principalement : • l’évolution et la maintenance de l’architecture des briques de gestion d’assistants, de gestion de la sécurité et de routing vers les services d’IA du marché • l’intégration de nouveaux services d’agent dans l’architecture existante, • l’amélioration et l’optimisation des composants d’ingestion de données non structurées et des agents RAG

Freelance

Mission freelance
Manager Réseau Sécurité Datacenter - Cloud privé

PROPULSE IT
Publiée le
Cloud

24 mois
450-900 €
Paris, Île-de-France

PROPULSE IT recherche un Manager/Pilote - Réseau et Sécurité Datacenter afin d'assister le client dans le pilotage de l'aquipe de consultants experts Le service s'occupe de la conception, la mise en œuvre et l'industrialisation de l'Infra réseau et sécurité au sein des datacenters et cloud privé. Cela, de l'élaboration de la stratégie, la conception, à la mise en œuvre technique et le support des Infras en datacenter (Cloud privé on premise) Le poste consiste à : - Seconder le manager des équipes d'experts - Accompagner l'établissement de la Roadmap - Optimiser les processus et les livrables, ainsi que l'organisation - Accompagner le pilotage des projets - Gérer les priorité, fluidifier le fonctionnement - Budgets Contexte des projets de l'équipe : Virtualisation, Stockage et le socle Réseau datacenter - Etude et analyse des opportunités d'évolution des infras Réseau & Sécurité - Mise en œuvre de projets d'infras réseau & sécurité - Support technique N3 sur les technologies réseau & sécurité Contexte technique • Réseaux LAN : Cisco Fabric Path/VxLAN, • Solutions de sécurité dans le cloud (Proxy ZScaler, Idp OKTA …) • Infras de Sécurité : Checkpoint, Fortinet, Palo Alto et F5 (LTM et APM) • Scripting Shell, Ansible Network Automation, Terraform • Système : Redhat linux 8, Windwos 2019 Les compétences fonctionnelles attendues sont les suivantes (par ordre de priorité) : • Conception des architectures et expertise • Support N3 en réseau et sécurité, notamment ZScaler, Checkpoint, Fortinet et F5 • Rédaction/ Enrichissement de base de connaissances • Reporting de l'activité projet au management

CDI
Freelance

Offre d'emploi
Data Engineer GCP, Scala/Java Confirmé | Casabalanca 100% Remote

skiils
Publiée le
Google Cloud Platform
PostgreSQL
Python

2 ans
36k-48k €
100-250 €
France

Nous recherchons un Data Engineer Confirmé (h/f) pour rejoindre les équipes Data d’un grand acteur du retail . L’objectif ? Concevoir, développer et maintenir des solutions de traitement de données à grande échelle dans un environnement 100% Cloud (GCP) et Full Remote . Tu évolueras dans un cadre stimulant où la data est au cœur des décisions stratégiques et où l’innovation technologique est une priorité ! Concevoir et développer des pipelines de données en Scala/Java et Spark Exploiter des outils GCP (BigQuery, BigTable, Dataproc) pour le stockage et le traitement des données Mettre en place des solutions de streaming en temps réel avec Kafka Travailler sur une architecture Data Centric , cassant les silos d’information pour fluidifier la gestion des données Assurer la qualité, la performance et la scalabilité des solutions Collaborer avec des équipes internationales et multidisciplinaires 🔧 Les technologies et outils que tu utiliseras : Cloud : GCP (BigQuery, BigTable, Dataproc, Cloud Storage) Développement : Scala, Java, SQL Big Data & Streaming : Spark, Kafka CI/CD & DevOps : Git, Kubernetes, GitLab CI/CD Méthodologies : Agile, Microservices

Freelance

Mission freelance
Architecte DATA expert GCP (mission courte)

Cherry Pick
Publiée le
BigQuery
Google Cloud Platform
Terraform

10 jours
850-900 €
La Défense, Île-de-France

Dans le cadre de son plan de transformation notre client recherche un profil Architecte DATA/ Expert GCP ayant également une expertise en modélisation et des compétences Power BI pour accompagner l’équipe DSI et métier dans le démarrage de sa data plateforme. Missions : Expertise architecture Data / Modélisation Garantir la performance et la qualité des données mises à disposition pour la DataViz Assurer la gouvernance et la cohérence des données (gestion des accès, conformité, catalogage). Définir l’architecture cible assurant une haute disponibilité et une performance optimale. Veille technologique et recommandations sur les meilleures pratiques Cloud & BI adaptées aux besoins métier. Assurer un accompagnement technique pour le choix des solutions d’ingestion de donnés dans bigQuery Produire les documents d’architecture générale et technique Émettre des recommandations priorisées, chiffrées et argumentées en termes de ROI/Bénéfice. Documentation rigoureuse des étapes clés du projet (DAT, PTI, DEX…). Développement et optimisation Expert de l’environnement GCP (BigQuery, dataform, Terraform) Maitrise de Power BI et de l’optimisation des performances des modèles Power BI (DAX, VertiPaq, Power Query). Assurer un accompagnement technique Sécurité et conformité Implémenter les meilleures pratiques en matière de gestion des accès et autorisations. Sécuriser les flux de données et garantir la conformité aux réglementations en vigueur (RGPD, best practices cloud). Définir et mettre en place une stratégie de sauvegarde et récupération des données.

1235 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous