Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 580 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Data Architect GCP

Groupe Aptenia
Publiée le
Architecture
Google Cloud Platform

3 ans
750-800 €
Paris, France

Nous sommes actuellement à la recherche d’un Data Architect pour renforcer notre équipe composée de quatre Data Architects . Le projet principal concerne une migration vers GCP : Responsabilités de l’équipe Data Architecture : Concevoir et valider l'implémentation des briques technologiques des plateformes de données (Collecte, Stockage, Traitement, Visualisation). Superviser le respect des principes établis au niveau du groupe en matière d’architecture, de sécurité et de protection des données dans les plateformes de données. Soutenir la stratégie NFR en collaboration avec les Data Tech Leads de chaque équipe Data Product. Accompagner la mise en œuvre de la stratégie Data , en s’appuyant sur des bases techniques telles que GCP, Google BigQuery, DBT et Airflow/Composer . Piloter et posséder la feuille de route technique des plateformes de données. Apporter une expertise en architecture et plateformes de données pour aider les différentes parties prenantes à aligner leurs initiatives sur la stratégie Data. Évaluer et optimiser les architectures de données . Documenter l’architecture sur Confluence et suivre les actions d’implémentation sur Jira .

Freelance
CDI
CDD

Offre d'emploi
Expert CGP H/F

SYD CONSEIL MANAGEMENT
Publiée le
Google Cloud Platform

6 mois
40k-55k €
400-690 €
Nantes, Pays de la Loire

Groupe SYD IM: Nous accompagnons nos clients à travers quatre métiers : Le conseil, l’intégration de solutions, le développement applicatif et l’infogérance. Chez SYD, les relations humaines sont guidées par trois valeurs essentielles qui façonnent notre façon de vivre et de travailler ensemble au quotidien : RESPECT, SOLIDARITÉ et INTÉGRITÉ. Nous avons posé nos valises dans le Grand Ouest, avec des équipes présentes à Nantes, Paris, Niort, Brest, Bordeaux, Rennes et Saint-Nazaire. Et parce que la RSE est inscrite dans notre ADN depuis le premier jour, nous sommes fiers d'être certifiés entreprise exemplaire par l'AFNOR, selon la norme ISO 26000. Nous recherchons pour l'un de nos clients sur Nantes un Expert/ consultant GCP H/F Poste à pourvoir ASAP Nous sommes ouverts à tous types de contrats: Free lance, portage salarial, CDI, CDD... Rejoignez-nous!

Freelance

Mission freelance
Consultant BI Expert

HAYS France
Publiée le
Business Object
ETL (Extract-transform-load)
Google Cloud Platform

3 ans
100-500 €
Lille, Hauts-de-France

Livrables : Création Explore Looker Documentation des livrables Support de formation Nous recherchons un consultant BI Expert afin d’accompagner nos équipes dans la migration de nos usages décisionnels (Self-BI , Dashboarding) de la solution SAP Business Objects vers Looker. Description de la mission : Le consultant aura pour missions principales : Analyse et diagnostic : - Audit des rapports existants sous SAP Business Objects. - Analyse des besoins métiers et identification des objets BO prioritaires pour la migration. Conception de la solution cible : - Définition des modèles de données Looker (élaboration des fichiers LookML). - Proposition des bonnes pratiques pour optimiser les performances et l’expérience utilisateur. Migration et développement : - Accompagnement technique des équipes de migration des rapports SAP Business Objects vers Looker. - Mise en place des connexions à vos sources de données existantes. - Déploiement et mise en production des explores Looker et des rapports sur l’environnement de production. Accompagnement et transfert de compétences : - Organisation d’ateliers de formation des équipes métiers. - Documentation des explores et des livrables associés. - Support aux utilisateurs pendant la phase de transition. Compétences requises : - Expertise en SAP Business Objects et Looker. - Maîtrise des concepts de modélisation de données (Data Warehousing, SQL complexe, LookML). - Gestion de repo Git - Bigquery - Plateforme Cloud de Google - Capacité à comprendre les besoins métiers et à les traduire en solutions techniques. - Communication et pédagogie.

Freelance
CDD

Offre d'emploi
Ingénieur Data avec Expertise GCP

GBNI
Publiée le
BigQuery
Google Cloud Platform

12 mois
40k-45k €
400-650 €
Lille, Hauts-de-France

Pour l'un de nos client grand compte nous recherchons une expertise en ingénierie des données pour renforcer notre équipe. Notre projet nécessite une maîtrise des technologies Google Cloud Platform (GCP), Big Query et Power BI. Nous valorisons une sensibilité aux enjeux de la Responsabilité Sociétale des Entreprises (RSE) pour intégrer des pratiques durables dans nos processus. Une bonne capacité relationnelle est essentielle pour collaborer efficacement avec les différentes parties prenantes. L'objectif est d'optimiser nos flux de données et de fournir des analyses précises et exploitables. Nous visons à améliorer notre prise de décision grâce à des insights basés sur les données.

Freelance

Mission freelance
Data Engineer

HAYS France
Publiée le
BI
BigQuery
CI/CD

3 ans
100-450 €
Lille, Hauts-de-France

Au cours de sa mission, le consultant : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud,

Freelance

Mission freelance
Cloud GCP Python Data Scientist - IA & Medias (H/F) - 13+75 & Remote

Mindquest
Publiée le
Google Cloud Platform
Python

6 mois
500-700 €
Paris, France

Vous ferez partie de l'équipe IA pour la mise en place de prototype à destination principalement des médias : Conception de Prototypes et Pilotes : Élaborer et développer des prototypes et des projets pilotes pour démontrer la faisabilité et la valeur des solutions IA. Framing des Projets IA : Définir et structurer les projets d'intelligence artificielle en collaboration avec les parties prenantes, en identifiant les objectifs, les ressources nécessaires et les étapes clés. Conseil et Accompagnement : Fournir des conseils stratégiques et techniques aux clients pour les aider à intégrer les solutions IA dans leurs processus métier. Livrables : Prototypes IA sur les médias Documentation, code propre Framing de sujet, comprenant ROI attendus, solution technique, architecture, etc.

Freelance

Mission freelance
POT8209-Un Chef de Projet Infrastructure Technique sur Orléans

Almatek
Publiée le
Google Cloud Platform

6 mois
100-300 €
Orléans, Centre-Val de Loire

Almatek recherche pour l'un de ses clients, Un Chef de Projet Infrastructure Technique sur Orléans Profil recherché : Expérience confirmée en gestion de projets techniques, idéalement dans le domaine des infrastructures IT. Bonne connaissance des environnements techniques (réseaux, systèmes, cloud, virtualisation). Capacité à travailler en mode transversal avec des équipes pluridisciplinaires. Excellentes compétences en communication et leadership. Connaissance des méthodologies Agile et/ou ITIL est un plus. Anglais courant (souhaité ) Compétences techniques : Environnements systèmes : Windows, Linux, virtualisation (VMware, Hyper-V). Réseaux : LAN, WAN, sécurité réseau. Outils de gestion de projet : MS Project, Jira, Confluence, etc. Solutions Cloud : AWS, Azure, ou GCP (un plus).

Freelance

Mission freelance
Data Engineer

Coriom Conseil
Publiée le
Apache Kafka
CI/CD
ETL (Extract-transform-load)

12 mois
100-460 €
Lille, Hauts-de-France

Présentiel obligatoire 3 jours sur site par semaine Le livrable est - Compétences techniques Expertise SQL, ETL - Expert - Impératif CI/CD, github, Terraform, Kafka - Confirmé - Important Power BI, Looker - Confirmé - Important Google Cloud Platform (GCS, BigQuery) - Confirmé - Souhaitable Connaissances linguistiques: Anglais Lu, écrit (Impératif) Description détaillée Au cours de sa mission, le consultant : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data

Freelance

Mission freelance
Expert Réseaux Multi Cloud Senior - PARIS

Sapiens Group
Publiée le
AWS Cloud
Google Cloud Platform
Réseaux

12 mois
500-700 €
Paris, France

Missions principales Vous serez en charge de la conception, l’optimisation et le déploiement d’architectures réseau dans des environnements multi Cloud (AWS, GCP, Azure, …), en assurant l’alignement avec les meilleures pratiques FinOps et DevOps. Vos principales responsabilités incluent : Définition d’architectures réseau pour des environnements multi Cloud. Optimisation des coûts Cloud dans une approche FinOps. Configuration et gestion des composants Cloud Provider, tels que DirectConnect, VIF, Proxy, Bucket S3, TGW, NLB/ALB, DNS hybride (Route53 / Infoblox), etc. Automatisation des tâches via des outils comme Ansible et Terraform. Intégration avec des environnements DevOps tels que GitLab et Proxmox. Gestion et administration des pare-feu Palo Alto.

Freelance
CDI

Offre d'emploi
Data Engineer GCP

CAT-AMANIA
Publiée le
Apache Airflow
Google Cloud Platform

3 ans
Île-de-France, France

Nous recherchons un Data Engineer confirmé GCP pour intervenir sur des projets stratégiques liés à la gestion et au traitement des données massives en temps réel dans un environnement Cloud moderne. Vos missions : Mettre en œuvre des chaînes complètes de traitement des données : ingestion, validation, croisement et enrichissement des données. Automatiser la production et la mise à disposition d’agrégats journaliers, hebdomadaires et mensuels. Collaborer avec l’équipe Agile pour développer et documenter des user stories en lien avec le Product Owner. Concevoir des scripts de déploiement et prioriser les corrections d’anomalies. Automatiser les tests fonctionnels et participer à la mise en place de chaînes de livraison continue.

Freelance

Mission freelance
Achitect Infrastructure

JCW Search Ltd
Publiée le
Big Data
Google Cloud Platform
Kubernetes

1 an
400-750 €
Île-de-France, France

JCW est à la recherche d'un Architect infrastructure pour l'un de ces clients. Profil recherché: Au moins 7-8 ans d'expérience en tant qu'architecte Expertise sur VMware - Kubertnestes/Redhat Openshift - GCP sera impératif Expertise sur Big Data et C4 Model sera également impératif Connaissance de d'autres outils sera appréciée La Mission: Démarrage ASAP Localisation: Ile-de-France Durée: 1 an renouvelable Fréquence: 3 jours sur site et deux jours de remote Langues: Francais et anglais impératif Si vous êtes intéressées, ou connaissez des personnes qui pourraient l'être, merci de m'envoyer vos/ leur CV à pour une considération immédiate.

Freelance

Mission freelance
Lead Développeur Fullstack

PGT GROUP
Publiée le
Angular
API
AWS Cloud

21 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes

Contexte du Projet Dans le cadre du programme Vision 2035, l'objectif est de concevoir un SI performant, collaboratif et basé sur des standards, permettant de répondre aux enjeux de sûreté, sécurité, productivité et performance. Ce projet vise à créer une plateforme technologique pour optimiser les coûts, améliorer la productivité, et garantir la sécurité des infrastructures cloud. Le Lead Développeur Fullstack intégrera l’équipe de la Stream DEV (4 développeurs + 1 UX Designer) au sein de la Plateforme d’Accélération Technologique (PAT). L’équipe adopte une approche itérative et agile, favorisant l’innovation rapide, l’amélioration continue et l’utilisation des standards technologiques. Responsabilités Principales Développement de standards transverses Concevoir et développer des socles techniques (librairies, concepts, exemples d’implémentation) pour standardiser et mutualiser les briques de code. Participer à la mise en place de pratiques d’innersourcing pour encourager la collaboration inter-équipe. Challenger les besoins métiers pour les traduire en solutions techniques adaptées. Assurer l’alignement des livrables avec les objectifs stratégiques. Pilotage de l’application vitrine Prendre le lead technique sur une application démontrant l’utilisation des standards développés. Tester en avance de phase les standards techniques (cloud, observabilité, alerting). Contribuer à une boucle d’amélioration continue pour optimiser les standards et leur adoption. Compétences Techniques Requises Pratiques de développement et de testing Approche TDD (Test-Driven Development). Automatisation des tests avec Cypress et Playwright . Tests de performance avec Gatling . Pratiques et outils DevOps Expertise avec GitLab CI/CD , SonarQube , Checkmarx , Renovate , KICS . Gestion des dépendances via Maven et Node.js . Technologies essentielles Frontend : Expertise en Angular . Backend : Maîtrise de Spring Boot et Node.js . Compétences en Python (atout supplémentaire). Développement mobile Compétences en Kotlin , PWA et Ionic . Architectures cloud et container Expertise sur AWS (GCP est un plus) : Conteneurs : Fargate , Docker , Kubernetes . Solutions serverless : Lambda , API Gateway . Gestion de l'infrastructure as code avec Terraform . Compétences Humaines Requises Capacité à structurer et piloter des initiatives techniques en autonomie. Excellentes compétences relationnelles pour collaborer avec des équipes multidisciplinaires. Leadership technique et aptitude à fédérer autour de standards communs. Certification Appréciée Certification AWS . Ce poste offre l’opportunité de travailler sur un projet d’envergure stratégique, avec une forte composante technique et une ambition de transformation à l’échelle.

Freelance

Mission freelance
Data Engineer GCP confirmé – Expertise Spark, Kafka, Scala – Secteur bancaire

CAT-AMANIA
Publiée le
Apache Kafka
Google Cloud Platform
SQL

1 an
400-450 €
Île-de-France, France

Nous recherchons un Data Engineer confirmé pour intervenir sur des projets stratégiques liés à la gestion et au traitement des données massives dans un environnement Cloud moderne. Vos missions : Mettre en œuvre des chaînes complètes de traitement des données : ingestion, validation, croisement et enrichissement des données. Automatiser la production et la mise à disposition d’agrégats journaliers, hebdomadaires et mensuels. Collaborer avec l’équipe Agile pour développer et documenter des user stories en lien avec le Product Owner. Concevoir des scripts de déploiement et prioriser les corrections d’anomalies. Automatiser les tests fonctionnels et participer à la mise en place de chaînes de livraison continue.

Freelance
CDI

Offre d'emploi
Data engineer GCP - H/F

Proxiad
Publiée le
Google Cloud Platform
HDFS (Hadoop Distributed File System)

3 ans
Île-de-France, France

Description : • Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise • Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent Activités et tâches : • Acheminement de la donnée • Mise à disposition de la donnée aux équipes utilisatrices • Mise en production de modèles statistiques • Suivi de projet de développement • Développement job spark • Traitement et ingestion de plusieurs formats des données • Développement des scripts • Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données • Développement des moyens de restitution via génération de fichier et ou API & Dashboarding • Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers • Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) • Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP • Participer à la conception, mise en place et administration de solutions Big Data • Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka • Normalisation et agrégation des données afin de produire les rapports sous forme de Business View

Freelance

Mission freelance
DevOps Kubernetes/Grafana/Open Telemetry

SELFING
Publiée le
Google Cloud Platform
Terraform

12 mois
200-300 €
Ronchin, Hauts-de-France

Au sein de notre du agence lilloise, pour le compte de notre client issu du secteur de la grande distribution, nous recherchons un DevOps pour accompagner l'équipe Observabilité et être acteur dans la construction de la plateforme d'observabilité composée de plusieurs outils d'alerting, monitoring, log management et APM pour des applications à la fois hébergées on Premise et dans le cloud. La mission est basée à Ronchin (59) Plus généralement, vos tâches seront les suivantes : - Contribution à la définition des spécifications générales, - Réalisation à l'analyse technique et l'étude détaillée, - Adaptation et paramétrage des progiciels applicatifs (ERP), - Réalisation du prototypage, - Elaboration des jeux d'essais pourles tests unitaires d'intégration, - Tests unitaires, - Identification et traitement des dysfonctionnements, - Réalisation des modules (objets et composants logiciels), - Assemblage des composants, - Rédaction des documentations, - Maintenance corrective et évolutive, - Administration des composants logiciels réutilisables et met à jour la nomenclature de ces composants. Plus particulièrement, vos taches seront les suivantes : - Design, intégration, templatisation, déploiement, paramétrage des composants de la plateforme d'observabilité, - Administration, gestion des incidents/problèmes, industrialisation, et amélioration continue des outils qui composent la plateforme d'observabilité, - Accompagnement et conseils des utilisateurs dans l'utilisation de la plateforme d'observabilité et sur l'amélioration de la performance des applications/projet métiers (à l'international), - Construction d'une stack open source d'observabilité, de la collecte (logs, métriques, traces) à l'exploitation dans les backends, - Rédaction de la documentation et des dossiers d’exploitation afin de former et de transférer les compétences aux équipes techniques internes. Livrables : - Code documenté suivant les règles et référentiels de l'entreprise - Indicateurs de performances : Nombre de corrections en phase de recette, performance des composants développés (via des benchmarks), respect du délai dans la réalisation des modifications, nombre de régressions

Freelance
CDD

Offre d'emploi
Data Engineer DWH GCP

Espritek
Publiée le
BigQuery
Google Cloud Platform
Oracle

12 mois
65k €
450 €
Noisy-le-Grand, Île-de-France

DÉBUT DE MISSION : ASAP DURÉE : 12 mois LIEU : Noisy-Le-Grand – Travail hybride CATÉGORIE TECHNIQUE : Systèmes (Infras, Cloud, DevOps, ...), Réseaux, Sécurité Nous recherchons pour l’un de nos clients grands comptes un Data Engineer DWH GCP expérimenté, pour contribuer à un projet de transformation IT ambitieux. Contexte du projet : Dans le cadre du programme de transformation IT, le département DATA mène un projet stratégique de migration du Data Warehouse France On-Premise (Oracle – PL/SQL) vers la Google Cloud Platform (Big Query). Ce projet inclut : L’utilisation de Dataform , Cloud Functions , et Cloud Run . La migration des données et processus existants, incluant un ETL développé en interne et certains programmes en Natural (éditeur SAG) . Vos missions principales : Participer à la migration du Data Warehouse vers Big Query sur GCP. Développer et optimiser des scripts en PL/SQL et Python pour les processus de transformation des données. Collaborer sur la conception et l’intégration des pipelines de données via les outils GCP. Analyser et réaliser des tests unitaires, d’intégration et de non-régression . Documenter les processus et assurer un transfert de compétences aux équipes. Participer activement aux rituels Agiles et utiliser Jira pour la gestion des tickets. Analyser les résultats des tests via des outils internes et ajuster les développements en conséquence. Créer et utiliser des scripts Linux KSH pour les opérations nécessaires. Profil recherché : Expérience : Minimum 8 ans dans un rôle similaire. Compétences techniques : Langages : PL/SQL (Confirmé), Python (Confirmé). Bases de données : Oracle et Big Query (Confirmé). Connaissance des outils GCP, y compris Dataform , Cloud Functions , Cloud Run . Familiarité avec des outils de Data Visualisation tels que Looker , SAP BO , ou Spotfire . Expérience en tests logiciels et outils de ticketing comme Jira . Bonne connaissance des environnements Linux et scripting KSH . Qualités personnelles : Capacité à travailler en équipe et dans un environnement Agile. Sens de l’analyse et autonomie dans l’exécution des tâches. Adaptabilité et capacité à gérer des environnements techniques complexes.

580 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous