Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 580 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Architecte DATA expert GCP (mission courte)

Cherry Pick
Publiée le
BigQuery
Google Cloud Platform
Terraform

10 jours
850-900 €
La Défense, Île-de-France

Dans le cadre de son plan de transformation notre client recherche un profil Architecte DATA/ Expert GCP ayant également une expertise en modélisation et des compétences Power BI pour accompagner l’équipe DSI et métier dans le démarrage de sa data plateforme. Missions : Expertise architecture Data / Modélisation Garantir la performance et la qualité des données mises à disposition pour la DataViz Assurer la gouvernance et la cohérence des données (gestion des accès, conformité, catalogage). Définir l’architecture cible assurant une haute disponibilité et une performance optimale. Veille technologique et recommandations sur les meilleures pratiques Cloud & BI adaptées aux besoins métier. Assurer un accompagnement technique pour le choix des solutions d’ingestion de donnés dans bigQuery Produire les documents d’architecture générale et technique Émettre des recommandations priorisées, chiffrées et argumentées en termes de ROI/Bénéfice. Documentation rigoureuse des étapes clés du projet (DAT, PTI, DEX…). Développement et optimisation Expert de l’environnement GCP (BigQuery, dataform, Terraform) Maitrise de Power BI et de l’optimisation des performances des modèles Power BI (DAX, VertiPaq, Power Query). Assurer un accompagnement technique Sécurité et conformité Implémenter les meilleures pratiques en matière de gestion des accès et autorisations. Sécuriser les flux de données et garantir la conformité aux réglementations en vigueur (RGPD, best practices cloud). Définir et mettre en place une stratégie de sauvegarde et récupération des données.

Freelance

Mission freelance
Data Engineer Big Query/GCP

TEOLIA CONSULTING
Publiée le
BigQuery
Google Cloud Platform

12 mois
400-600 €
Paris, France

Nous recherchons pour notre client un Data Engineer Big Query/GCP. Missions de l'équipe : - Prendre en charge le produit data Data4All aussi bien dans le build que dans le run : - Construire les nouveaux indicateurs issus de nouvelles sources ou de sources existantes - Mettre à jour et faire évoluer les indicateurs existants, en fonction des évolutions des données - Mettre à jour et faire évoluer les indicateurs existants, en fonction des évolutions des données - Traiter et corriger les anomalies - Concevoir les modèles de données adaptés aux besoins des utilisateurs - Accompagner les utilisateurs de Data4All dans leurs usages - Auditer et cartographier les données existantes de Data4All et proposer une vision cible performante, gouvernée et adaptée aux besoins et contraintes - Mettre en place le contrôle qualité sur les données Prestation attendue : En interaction avec les membres de l’équipe, la prestation consistera à participer à/au(x) : - La mise en place de pipelines de traitement de données - Développement des modèles de données - L’extraction et l’exposition des données issues de la zone silver de la plateforme data vers Data4All - L’industrialisation des différents environnements de Data4All, en collaboration avec l’équipe d’ops - Différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe - La veille technique pour l’amélioration de la stack - L’amélioration des performances et la maîtrise des coûts sur les différents environnements Data4All, sur la GCP

Freelance

Mission freelance
Data Engineer

HAYS France
Publiée le
BigQuery
ETL (Extract-transform-load)
Google Cloud Platform

4 ans
100-440 €
Lille, Hauts-de-France

NIVEAU Maîtrisant SA MISSION : Il est garant de l'accès qualitatif aux sources de données. Il s'assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d'en faciliter l'exploitation par les équipes (Data Analysts et Data Scientists). Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT, Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons, ). SON ACTIVITE : QUALIFICATION ET GESTION DES DONNÉES : - Capte les données (structurées et non structurées) produites dans les différentes applications ou à l'extérieur de l'entité - Intègre les éléments - Structure la donnée (sémantique, etc.) - Cartographie les éléments à disposition - Nettoie la donnée (élimination des doublons, ) - Valide la donnée - Éventuellement, il crée le référentiel de données SES LIVRABLES : - Data Lake approprié et partagé et son dimensionnement - Cartographie des données - Les éléments permettant de garantir la qualité de la donnée

Freelance

Mission freelance
Développeur Backend Golang

Mobiskill
Publiée le
Go (langage)
Google Cloud Platform
Kubernetes

6 mois
500-650 €
Paris, France

Rejoignez une équipe tech d’élite et façonnez l’avenir d’un réseau social en pleine ascension ! 🚀 Qui sont ils ? Je recrute pour une startup en pleine croissance qui révolutionne la manière dont les gens interagissent sur les réseaux sociaux. Leur mission ? Encourager l’authenticité et les connexions sincères. Aujourd’hui, ils comptent plus de 40 millions d’utilisateurs actifs mensuels et une équipe internationale de 30+ passionnés . Ils ont pour ambition de devenir un acteur incontournable du social media, utilisé par des centaines de millions de personnes à travers le monde. 🎯 Votre mission: Ils ont bâti notre produit avec une petite équipe d’ingénieurs ultra-talentueux , et ils comptent bien garder cette approche agile tout en passant à l’échelle. Ici, pas de bureaucratie : vous aurez une grande autonomie pour prendre des décisions et livrer des fonctionnalités innovantes plus vite que n’importe quel autre réseau social . Relevez des défis techniques uniques : des millions d’utilisateurs se connectent en seulement 2 minutes , un vrai challenge d’architecture et de scalabilité. Construisez une infrastructure robuste et performante capable de supporter une croissance massive. Collaborez étroitement avec les équipes produit et tech pour imaginer et développer de nouvelles fonctionnalités . Participez aux décisions techniques clés : trade-offs, architecture, performance, résilience. Apportez votre expertise en revue de code et en conception . 🔥 stack technique: 💾 Backend : Go 🖥️ Infrastructure : GCP, Kubernetes, Pub/Sub, GitHub Actions, ArgoCD 🗄️ Base de données : Spanner, PostgreSQL, Redis 💡 Le profil que nous recherchons : ✅ 5+ ans d’expérience sur des API en architecture distribuée ✅ Maîtrise de Go et expérience confirmée sur des microservices à fort volume ✅ Autonomie, sens de l’initiative et goût pour les défis techniques ✅ Expérience en startup ou environnement tech exigeant ✅ Anglais et français courants (notre équipe est internationale) ✅ Master en informatique ou domaine connexe ⚡ Pourquoi nous rejoindre ? 🔥 Un impact direct : chaque ligne de code que vous écrivez améliore l’expérience de millions d’utilisateurs. 🚀 Un challenge technique unique : travailler sur une plateforme avec des pics de charge impressionnants. 👩‍💻 Une équipe d’experts : travaillez avec des ingénieurs brillants et passionnés. 🌍 Un projet à dimension internationale : une croissance rapide, des opportunités infinies. 🎯 Un environnement agile et innovant : zéro lourdeur, place à l’efficacité et à la créativité. 📅 Disponibilité : ASAP 🎯 Vous croyez en notre vision et avez envie d’un vrai challenge ? Vous êtes au bon endroit. 📩 Prêt à relever le défi ? Postulez dès maintenant !

Freelance

Mission freelance
Data analyste (H/F)

Insitoo Freelances
Publiée le
Google Cloud Platform

2 ans
100-450 €
Lille, Hauts-de-France

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data analyste (H/F) à Lille, France. Contexte : Après une période de cadrage et de validation, nous sommes aujourd’hui dans la phase de décommissionnement et de migration Les rapports (ainsi que les univers) identifiés comme étant à migrer sous Looker sont migrés automatiquement via un partenaire, avant d’être enrichis/complétés, validés et mis à disposition pour les utilisateurs de chaque BU. Les missions attendues par le Data analyste (H/F) : C’est dans ce cadre que nous recherchons un Data Analyste qui sera en charge de : - Accompagnement technique de la migration - Mise en production des livrables validés - Tests intermédiaires des livrables - Analyse du niveau 1 des Bugs remontés Création des univers / explores Looker pour la Self BI - Soit à partir d’éléments migrés automatiquement - Soit une création complète des couches sémantiques Connaissance techniques : Looker(LookML) , SQL, Python, GIT

Freelance
CDI
CDD

Offre d'emploi
PRE EMBAUCHE Ingénieur SQL Server / BI Microsoft

EMMA-IT
Publiée le
Data Warehouse
Google Cloud Platform
Microsoft Analysis Services (SSAS)

3 ans
Paris, France

PRE EMBAUCHE Ingénieur SQL Server / BI Microsoft Bonjour, Nous recherchons un/ une Ingénieur SQL Server / BI Microsoft en PRE EMBAUCHE (CDI) au terme de 6 mois de prestation chez notre client Grand Compte. Vous justifiez de 3 à 5 ans d’expérience sur le maniement du SGBD SQL sachant que SQL Server Analyse de données doit absolument être maitrisé. Rémunération selon profil. Vous aurez la charge de concevoir, déployer et optimiser des pipelines de données tout en garantissant la qualité et la résilience des traitements. Vous interviendrez principalement sur les technologies Microsoft SSIS, SSAS, SSRS avec une ouverture recommandée sur Talend, OpenText et les solutions cloud de Google Cloud Platform (GCP). Description du poste : • Concevoir, développer et maintenir des workflows ETL robustes et optimisés avec SSIS, en exploitant pleinement les fonctionnalités avancées telles que la gestion des packages, l’optimisation des performances, l’orchestration des traitements complexes et l’intégration de différentes sources de données. Collaborer avec les équipes pour assurer une mise en œuvre fluide et scalable des processus ETL. • Exploiter SSAS pour le développement et la gestion de cubes OLAP afin d'optimiser les analyses multidimensionnelles. • Utiliser SSRS pour maintenir et faire évoluer des rapports interactifs et automatisés répondant aux besoins des utilisateurs métiers. • Analyser les besoins métiers pour traduire leurs attentes en solutions techniques adaptées. • Réaliser des analyses approfondies des données pour garantir leur pertinence et répondre efficacement aux besoins identifiés. • Identifier et résoudre les goulots d’étranglement affectant les performances des pipelines de données. • Intégrer, transformer et charger les données depuis différentes sources en assurant leur qualité et leur cohérence. • Mettre en place et optimiser des pipelines de données sur des environnements hybrides (on-premise et cloud). • Assurer la résilience et le monitoring des traitements de données. • Collaborer avec les équipes Data Analysts, Data Scientists et autres Data Engineers pour répondre aux besoins des métiers. • Rédiger la documentation technique associée aux pipelines et aux traitements. • Participer aux phases de recette et garantir la conformité des livrables. Compétences techniques : • Expertise avérée sur SSIS pour le développement de processus ETL complexes. • Connaissance des technologies Talend, OpenText (souhaité). • Expérience sur Google Cloud Platform, incluant les outils BigQuery, Dataform et Cloud Composer. • Maîtrise avancée en SQL pour la manipulation et l’optimisation des bases de données. • Connaissance des concepts de Data Warehousing et des modèles en étoile et en flocon. Compétence clée et obligatoire : SQL SQL Server Analyse de données

Freelance
CDI

Offre d'emploi
Ingénieur MLOPS GCP/Vertex IA

VISIAN
Publiée le
CI/CD
DevOps
Docker

2 ans
41k-91k €
400-640 €
Villejuif, Île-de-France

Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Ingenieur MLOPS sur GCP/Vertex IA Tâches: Conception jusqu’à la mise en production en prenant en charge les aspects techniques permettant d’obtenir un processus industriel depuis l’apprentissage d’un modèle IA jusqu’à la mise en production du modèle. Mise en en œuvre des technologies Devops et Mlops pour construire les livrables de façon sécurisée et le plus automatique possible. Réalisation des chaînes CICD et MLOPS. Construction des tableaux de bord avec des KPI adaptés pour permettre le monitoring de la solution IA en production. Si vous êtes actuellement à l'écoute du marché, je vous invite à m'envoyer votre candidature. Bien à vous, Nadia

Freelance
CDI

Offre d'emploi
Développeur Big Data GCP - ENTRE 3 ET 6 ANS

Digistrat consulting
Publiée le
Big Data
Google Cloud Platform
HDFS (Hadoop Distributed File System)

3 ans
40k-45k €
400-450 €
Paris, France

🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Objectifs et livrables Infos Complémentaires : Récupérer les données issues de sources externes • Utiliser la puissance du Datalake • Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. 💡Caractéristiques de la mission: Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le datalake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner. • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels Aspects Humains : • Grande capacité à travailler dans une équipe, en mode Scrum / Kanban. • Bonnes compétences relationnelles et grand sens de la communication (capacité à entrer dans le détail). • Sensible et informé des évolutions technologiques sur les piles logicielles pratiquées.

Freelance

Mission freelance
Data Ops

ESENCA
Publiée le
Docker
Git
Google Cloud Platform

1 an
400-430 €
Lille, Hauts-de-France

Nous recherchons un consultant DataOps Engineer pour la mise en place et l'optimisation d'infrastructures fiables et scalables pour répondre aux besoins des produits digitaux Eco-responsables et sociaux du Groupe. L'objectif de ces produits digitaux est de mesurer l'impact environnemental et social des produits vendus par les BU du groupe pour identifier des axes d'amélioration et les simuler. STACK TECHNIQUE : - Terraform, Docker, Kubernetes, Git, - Connaissance Cloud GCP - Python PS : La présence sur site est obligatoire à hauteur de 3j par semaine.

Freelance

Mission freelance
Ingénieur Devops Azure / GCP / On-Premise

Onetribe SAS
Publiée le
Ansible
Azure
Bash

3 ans
400-580 €
Paris, France

Automatisation des déploiements : En collaboration avec les différentes équipes techniques, l’ingénieur participera à la conception et la gestion des automatismes du système d'information : intégration, déploiement en continu en utilisant des services des Cloud public tels qu’Azure et GCP ou des solutions logicielles et infrastructures OnPremise. Le déploiement se fera via les outils Gitlab CI, Broadcom Nolio, et s’appuiera sur des technologies tel qu’Ansible, Terraform et Docker. Intégration dans les pipelines CI/CD : Travaillant en étroite collaboration avec les équipes de développement, l’ingénieur devra intégrer les meilleures pratiques dans les pipelines CI/CD. Cela inclus l’automatisation du déploiement, la gestion des secrets, la mise en place de tests d’intégration, la gestion des artefacts, etc. Garantir l'intégrité permanente des automatismes au regard des évolutions des produits Résolution des problèmes : L’ingénieur devra être en mesure de diagnostiquer et résoudre des problèmes de nature multiples (CI, CD, configuration, infrastructure, etc..). Cela peut inclure des problèmes de performance, de sécurité, de disponibilité, etc. Il/elle devra également fournir un support aux équipes d’exploitation dans le cadre du traitement d’alertes ou d’incidents. Gestion des outils ALM : L’ingénieur devra s’assurer de bon fonctionnement et de l’évolution des outils ALM (Gitlab, Sonar, TFS, JIRA, etc…). Il/elle devra surveiller les performances, optimiser les coûts et s’assurer que les ressources sont correctement dimensionnées. Collaboration avec les équipes : Travailler en étroite collaboration avec les développeurs, les ingénieurs de production et les autres membres de l’équipe afin de garantir que les solutions proposées conjuguent les meilleures pratiques Devops, les contraintes techniques et de sécurité ainsi que les besoins des projets. Il/elle participera à des réunions d’équipe, partager les connaissances et contribuer à l’amélioration continue des processus. Contribuera au déploiement des pratiques DevOps au sein de l’entreprise. Participera au cadrage des projets dans son domaine de compétences : analyse des besoins et contribution aux chiffrages de la partie technique

Freelance

Mission freelance
Data Engineer Maitrisant Looker

HAYS France
Publiée le
Google Cloud Platform
SAP

3 ans
100-450 €
Lille, Hauts-de-France

Les livrables sont Cahiers de test Suivi d'avancement Dashbords / Explore Looker Compétences techniques Looker - Confirmé - Impératif GCP - Confirmé - Impératif SAP BI 4.2 (Univers et rapport ) - Junior - Souhaitable Connaissances linguistiques Anglais Professionnel (Impératif) Français Courant (Impératif) Description détaillée Le projet Board Next : lancement d'un programme de migration de l’ensemble de ses rapports SAP BO vers deux solutions cibles (Power BI et Looker) Après une période de cadrage et de validation avec l’ensemble des BU, nous sommes aujourd’hui dans la phase de décommissionnement et de migration C’est dans ce cadre que nous recherchons un Data Analyste qui sera en charge de : - Accompagnement technique de la migration pour les BU - Mise en production des livrables validés par les BU - Tests intermédiaires des livrables suite à la livraison OpenAudit (Notre partenaire en charge de la migration automatique) et mise à disposition à la BU - Analyse du niveau 1 des Bugs remontés par les BU puis remonté à Open Audit Création des univers / explores Looker pour la Self BI - Soit à partir d’éléments migrés automatiquement par le partenaire (Univers Board -> Explores looker) - Soit une création complète des couches sémantiques

Freelance

Mission freelance
Data engineer

ESENCA
Publiée le
Git
Google Cloud Platform
Python

1 an
400-430 €
Lille, Hauts-de-France

Le projet consiste à migrer l’ensemble de ses rapports SAP BO vers deux solutions cibles (Power BI et Looker) Après une période de cadrage et de validation avec l’ensemble des BU, nous sommes aujourd’hui dans la phase de décommissionnement et de migration Les rapports SAP BO (ainsi que les univers) identifiés comme étant à migrer sous Looker sont migrés automatiquement via un partenaire, avant d’être enrichis/complétés, validés et mis à disposition pour les utilisateurs de chaque BU. C’est dans ce cadre que nous recherchons un Data Analyste qui sera en charge de : - Accompagnement technique de la migration pour les BU - Mise en production des livrables validés par les BU - Tests intermédiaires des livrables suite à la livraison OpenAudit (Notre partenaire en charge de la migration automatique) et mise à disposition à la BU - Analyse du niveau 1 des Bugs remontés par les BU puis remonté à Open Audit Création des univers / explores Looker pour la Self BI - Soit à partir d’éléments migrés automatiquement par le partenaire (Univers Board -> Explores looker) - Soit une création complète des couches sémantiques Connaissance techniques : Looker(LookML) , SQL, Python, GIT

Freelance
CDI

Offre d'emploi
Data Engineer MSBI & GCP (indispensable)

4 Impact
Publiée le
Google Cloud Platform
Microsoft Power BI
MSBI

12 mois
45k-55k €
400-450 €
Hauts-de-Seine, France

Contexte Intégrez la Direction de la Transformation au sein des Centres de Services Partagés (CSP) d’une grande organisation. Vous évoluerez dans une équipe dédiée au développement et à la maintenance de solutions IT couvrant une large gamme de technologies : développement applicatif, DevSecOps, intelligence artificielle, gestion documentaire, IoT, portails web et bien d'autres. Vous interviendrez au sein des départements Solutions Lab et Solutions Groupe , qui construisent et maintiennent les paliers techniques de composants logiciels. L’objectif est de fournir des solutions fiables, évolutives et répondant aux attentes métier. Missions Dans le cadre d’un projet BI pour la Direction Nucléaire, vos principales missions seront : Ateliers et chiffrage : Participer à la collecte des besoins utilisateurs et aux ateliers de définition des exigences métiers. Documentation : Produire la documentation des réalisations et études dans les outils collaboratifs de la plateforme DevOps (Cloud GCP ). Build et MCO : Contribuer au développement des applications BI et à leur maintenance en conditions opérationnelles. Démarche DevSecOps : Intégrer la qualité et la sécurité dans une démarche DevSecOps pour assurer des produits robustes et performants.

CDI

Offre d'emploi
Ingénieur Cloud Terraform

CAT-AMANIA
Publiée le
AWS Cloud
Azure
Cloud

45k-53k €
Toulouse, Occitanie

Nous recherchons un(e) Ingénieur(e) Cloud Terraform expérimenté pour le compte de l'un de nos clients dans le domaine des télécommunications. Missions : Conception et déploiement des infrastructures Cloud via Terraform Rédaction et maintien des scripts d’automatisation Collaboration avec équipes DevOps et Développement Gestion du cycle de vie des ressources Cloud et optimisation des coûts Mise en place des pipelines CI/CD pour automatiser les déploiements Diagnostic et résolution des problèmes liées aux infras.

Freelance

Mission freelance
Data Analytics Engineer

Phaidon London- Glocomms
Publiée le
Big Data
BigQuery
Data analysis

6 mois
450-600 €
Paris, France

Dans le cadre d'un projet de transformation digitale, nous recherchons un Data Analytics Engineer pour rejoindre notre client à la fin du premier trimestre. Rôle : Ingénieur en analyse de données Durée : 6 mois (extensible) Lieu : Paris Travail hybride : 2 jours à distance par semaine Date de début : Mars/Avril Principales responsabilités : Recueillir les besoins opérationnels et analytiques de l'entreprise Collaborer étroitement avec les gestionnaires de données et les ingénieurs de données pour définir le modèle de données cible Définir les vues pour exposer les données à d'autres outils (viz, outils prod, etc) Développer la nouvelle offre de visualisation des données en développant de nouveaux tableaux de bord Optimiser et fournir un support sur les pipelines de données

Freelance

Mission freelance
Data Engineer

WHEEL OF WORK
Publiée le
Apache Kafka
CI/CD
Google Cloud Platform

2 ans
350-550 €
Lille, Hauts-de-France

Contexte de la Mission: Nous recherchons un Data Engineer, intégrant une équipe spécialisée pour piloter des initiatives clés liées à la gestion et l'optimisation des données. Présence sur site requise trois jours par semaine pour une collaboration efficace. Profil Recherché: Maîtrise avancée en SQL et ETL avec des capacités éprouvées dans la gestion de flux de données complexes. Expérience dans l'implémentation de pratiques CI/CD et l'utilisation de GitHub, Terraform et Kafka. Connaissance pratique de Power BI et Looker, avec une familiarité dans la création de visualisations de données. Compétences en Google Cloud Platform, notamment GCS et BigQuery, sont hautement souhaitables. Aptitude à communiquer clairement en anglais, tant à l'écrit qu'à l'oral.

580 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous