Trouvez votre prochaine offre d’emploi ou de mission freelance Google Drive

Votre recherche renvoie 167 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Data Architect

NAVIGACOM
Publiée le
Apache Airflow
Architecture
Big Data

6 mois
500-700 €
Paris, France

Missions Pour l’un de nos clients du secteur du luxe, vous intervenez sur des missions à forte valeur ajoutée en tant que Architecte Data. En étroite collaboration avec vos interlocuteurs, vous accompagnez et conseillez notre client dans le cadre de la gestion du cycle de vie de ses infrastructures actuelles et participez au projet d’évolution et au maintien en condition opérationnelle. Vos tâches seront les suivantes : Conception de l’architecture et vérification de l’implémentation des briques technologiques des plateformes de données (Collecte, Stockage, Traitement, Visualisation). Responsable du suivi des principes établis au niveau du groupe (architecture, sécurité et confidentialité des données) dans les plateformes de données. Soutien à la stratégie NFR en lien avec le Data Tech Lead de chaque équipe Data Product. Support à la stratégie de données définie par l’équipe Data (fondations techniques : GCP, Google Big Query, DBT et Airflow/Composer). Conduire et prendre en charge la feuille de route technique des plateformes de données. Apporter une expertise sur les architectures et les plateformes de données pour aider les différents acteurs à suivre la stratégie de données. Piloter l’évaluation et l’optimisation des architectures de données. Documenter l’architecture (Confluence) et assurer le suivi des actions d’implémentation (Jira).

Freelance

Mission freelance
Data engineer

ESENCA
Publiée le
BigQuery
Github
Google Cloud Platform

1 an
400-430 €
Lille, Hauts-de-France

Nous recherchons un consultant Data pour la création et l'amélioration continue des produits digitaux Eco-responsable et sociaux. L'objectif de ces produits digitaux est de mesurer l'impact environnemental et social des produits vendus par les BU du groupe pour identifier des axes d'amélioration. Le consultant Data aura une dominance Data Engineer mais des compétences de Data Analyst sont également attendues - Collecter les données via des PIPELINE - Mesurer la qualité des données - Historiser les données - Créer des modèles optimisés - Créer des dashboards pour répondre aux besoins métiers Environnement technique sur lesquels une expérience significative est attendue et non une première formation - GCP & BigQuery - Terraform & Github - PowerBI Gen 2

Freelance

Mission freelance
Responsable Run

ESENCA
Publiée le
Google Cloud Platform
JIRA
Run

1 an
400-450 €
Lille, Hauts-de-France

PS : Mission à Lille, présence obligatoire 3j/semaine Votre mission : Construire avec le product manager et mettre en place la roadmap autour de la paie Piloter les indicateurs de performance et la qualité de service des éditeurs via les SLI/SLO/SLA Mettre en oeuvre et piloter la supervision des flux, Assister et conseiller les équipes métier dans le traitement des anomalies Assurer le bon fonctionnement de la chaîne de support et l'expertise N3 sur les incidents techniques S'assurer de la mise en œuvre des exigences digitales, de la sécurité et de la protection des données Assurer l'exposition des données au sein de la data platform (GCP) et en mesurer la qualité Être l'interlocuteur privilégié de l'éditeur du produit sur les aspects techniques Traduire les besoins d'évolution métiers en fonctionnalités IT au travers de spécifications Mesurer l'adoption utilisateur en tenant compte des feedbacks des collaborateurs La mission nécessite une forte implication sur le domaine métiers et fonctionnels des produits autour de la paie et de la gestion administrative (Produit Saas, briques internes). Les interactions avec les équipes métiers sont fortes et nombreuses

CDI
Freelance

Offre d'emploi
Support cloud

AVA2I
Publiée le
AWS Cloud
Azure
Google Cloud Platform

3 ans
40k-60k €
400-650 €
Vincennes, Île-de-France

En tant qu'Ingénieur Support Cloud, vous serez responsable de la gestion et du support des environnements cloud de BNP Paribas. Vous travaillerez en étroite collaboration avec les équipes d'ingénierie, d'infrastructure et de développement pour assurer la disponibilité, la performance et la sécurité des services cloud. Responsabilités : Assurer le support technique des environnements cloud (IBM, AWS, Azure, Google). Gérer les incidents et les demandes de service liés aux infrastructures cloud. Participer à la mise en place et à l'amélioration des processus de gestion des incidents et des changements. Collaborer avec les équipes de développement pour optimiser les déploiements et les configurations cloud. Surveiller les performances des systèmes et proposer des améliorations. Documenter les procédures et les configurations mises en place. Qualifications : Diplôme en informatique, ingénierie ou domaine connexe. Minimum de 5 ans d'expérience en opérations IT ou en ingénierie logicielle. Au moins 2 ans d'expérience pratique avec un fournisseur de cloud (IBM, AWS, Azure, Google). Expérience avec Ansible, Docker et Kubernetes. Certification Red Hat Enterprise Linux Automation avec Ansible (RH294) et Certified Kubernetes Application Developer (CKAD) sont un plus1. Compétences requises : Excellentes compétences en communication et en résolution de problèmes. Capacité à travailler en équipe et à gérer plusieurs tâches simultanément. Rigueur et attention aux détails. Disponibilité pour des astreintes et interventions en dehors des heures de bureau si nécessaire.

Freelance

Mission freelance
Ingénieur Cloud & Production IT

NAVIGACOM
Publiée le
Azure
CI/CD
Google Cloud Platform

6 mois
400-500 €
La Défense, Île-de-France

Missions Dans le cadre d’un projet pour un client du secteur du luxe , nous recherchons un Ingénieur Cloud & Production IT spécialisé sur Azure et GCP , avec une forte expertise en gestion des infrastructures Cloud et en automatisation des services. La mission est composée à 80 % de RUN (OS / Cloud) et à 20 % de DevOps . Vos tâches seront les suivantes : Gestion des infrastructures Cloud : Administration et exploitation des services IaaS et PaaS en collaboration avec les partenaires Cloud. Supervision et gestion des serveurs Windows (90%) et Linux (5%) sur Azure (85%) et GCP (10%) . Maintien en condition opérationnelle de niveau 3, en lien avec les hébergeurs et infogérants. Automatisation et optimisation : Déploiement et gestion des services via Terraform et outils CI/CD . Rédaction et mise à jour des documents techniques (DINS, DEX, cahiers des charges, documentation d’architecture et d’exploitation) . Support et amélioration continue : Identification et mise en œuvre d’améliorations sur les infrastructures existantes. Participation à l’élaboration des bonnes pratiques ITIL pour optimiser l’exploitation Cloud.

Freelance

Mission freelance
Ingenieur SYSTEME WINDOWS & CLOUD AZURE & GCP

IBSI
Publiée le
Azure
Cloud
Google Cloud Platform

36 mois
500-550 €
Paris, France

Poste : Ingénieur Système Windows CLOUD (GCP) Missions Maitrise de l’offre Cloud Microsoft Azure et GCP Gestion des serveurs cloud et outillages associés Installer et Administrer les services IaaS et PaaS en relation avec nos partenaires Cloud Maintien en condition opérationnelle de niveau 3 sur les environnements Cloud, Windows Servers, Linux Servers en lien avec les hébergeurs et infogérant. Documenter l’ensemble des solutions (DINS, DEX,..) Compétences et qualités personnelles Vous avez une expérience solide sur Azure et GCP ainsi que sur les outils d’automatisation (Terraform) et de CI/CD. Bonnes connaissances des serveurs Windows et Linux Bonne qualité rédactionnelle Connaissances dans la rédaction de cahier des charges, documentation d’architecture et d’exploitation Connaissance du référentiel ITIL serait un plus Vous êtes autonome, rigoureux et polyvalent. Vous avez un bon niveau d'anglais. Télétravail : 2 jours par semaine

CDI

Offre d'emploi
Lead Data Analyst pour Plateforme Tech de Voyage Leader en Europe - Aix en Provence (H/F)

EASY PARTNER
Publiée le
Data analysis
Google Cloud Platform
Nosql

52k-78k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Description Rejoignez une entreprise innovante au cœur du secteur du voyage en ligne, basée dans le sud de la France. Nous sommes à l'aube d'une transformation digitale majeure visant 2025, mettant les données au centre de notre stratégie de développement. L'équipe, à laquelle vous serez rattaché, est composée de professionnels passionnés par la technologie et par l'amélioration continue de l'expérience de voyage de nos millions d'utilisateurs. Nous recherchons un(e) Lead Data Analyst pour structurer notre exploitation des données et piloter notre croissance future. Ce poste est clé pour accompagner notre ambition de devenir une référence mondiale sur notre secteur d’activité. Missions Principales : - Piloter l'analyse avancée des données pour épauler la prise de décision stratégique. - Définir et superviser les KPIs essentiels des différents départements. - Encadrer et développer l'équipe Data Analytics. - Collaborer avec les équipes Data Science pour optimiser l'usage des données dans les projets d'IA. Annexes : - Améliorer les outils et process d'analyse et de visualisation des données. - Organiser et piloter des sessions de brainstorming pour l'amélioration continue des méthodes de travail. Stack technique A maîtriser : - Google Cloud Platform (BigQuery, GCS, ) - Python, SQL, Airflow, dbt - Tableau, Looker - GitLab Avantages - Salaire attractif et participation aux bénéfices. - Télétravail flexible, jusqu'à 2 jours par semaine. - Accès à un cadre de vie unique avec salle de sport et terrain de padel. - Offres exclusives sur les voyages. Pourquoi nous rejoindre ? - Prenez part à une mission passionnante au sein d'une entreprise révolutionnant le secteur du voyage en ligne. - Contribuez à une transformation digitale ambitieuse centrée sur les données. - Travaillez dans un environnement dynamique et innovant, bénéficiant d'une culture d'entreprise forte et engagée envers le développement personnel. - Rejoignez une équipe talentueuse dans un cadre de vie exceptionnel favorisant l'équilibre entre vie professionnelle et personnelle. Venez marquer l'histoire du voyage en ligne avec nous. Postulez dès maintenant pour être le Lead Data Analyst qui conduira notre succès futur !

Freelance

Mission freelance
DATA ENGINEER SIRH INFORMATICA

Sapiens Group
Publiée le
Google Cloud Platform
Informatica

2 ans
500-600 €
Île-de-France, France

Mission de Data Engineer expérimenté ayant une forte maitrise de l'ETL Informatica. Au sein d'une équipe de 5 Data Engineer, vous travaillerez en collaboration avec les métiers SIRH. Modélisation de données RH ... Objectif principal : Concevoir, développer et maintenir des solutions d'ingestion, de traitement et d'analyse des données pour assurer leur disponibilité, qualité et performance. Responsabilités : Collecte et intégration des données : Intégrer des sources de données internes et externes dans les systèmes de traitement. Conception des pipelines de données : Créer et maintenir des pipelines pour le traitement, le nettoyage et l’enrichissement des données. Gestion des bases de données : Assurer le stockage efficace et sécurisé des données dans des bases de données relationnelles ou NoSQL. Optimisation des performances : Analyser et optimiser les flux de données pour garantir une efficacité maximale. Collaboration avec les équipes : Travailler avec les Data Scientists et Analystes pour comprendre les besoins en données et fournir les solutions adaptées. Compétences requises : Techniques : Maîtrise de SQL, Python, Spark, Hadoop, et outils ETL INFORMATICA Outils de gestion de données : Expérience avec des systèmes de gestion de bases de données (PostgreSQL, MongoDB, Redshift ) Data Warehousing & Big Data : Connaissance des architectures de données à grande échelle et des environnements cloud (AWS, GCP, Azure). Automatisation et performance : Capacité à automatiser les processus et optimiser les performances des systèmes. Profil recherché : Formation : Bac +5 en Informatique, Data Science, ou équivalent. Expérience : 7 ans dans un rôle similaire en Data Engineering. Langues : Maîtrise du français, l'anglais est un plus

Freelance

Mission freelance
DEVELOPPEUR BACK ref 1181

Coriom Conseil
Publiée le
Google Cloud Platform
Java
Python

12 mois
400-550 €
Lille, Hauts-de-France

Python - Expert - Impératif GCP - Confirmé - Important Java - Junior - Souhaitable Terraform - Junior - Souhaitable Connaissances linguistiques: Anglais Lu, écrit (Impératif) Description détaillée Nous sommes à la recherche d'un développeur backend expert Python (Pas de profiles Data) En tant Développeur Back-end, vous interviendrez sur le produit Pipelines, qui rassemble un ensemble d’outils permettant aux équipes produits de construire et monitorer leurs data pipelines en complète autonomie. A ce titre, voici vos missions : Développer des microservice en APIs first Participer aux prises de décisions relatives à l’architecture et à la sécurité des solutions dans un environnement Cloud (GCP). Concevoir des outils facilitant le développement de modules. Communication entre micro service Développement d’un scheduler / Développement d’un dispatcher Mise en place d’outils de monitoring Assistance des utilisateurs sur le run technique MOB, Pair review

Freelance
CDI

Offre d'emploi
Data Engineer

SELENE
Publiée le
BigQuery
ETL (Extract-transform-load)
Google Cloud Platform

1 an
40k-45k €
410-550 €
Paris, France

L'Ingénieur Data intégrera une équipe spécialisée en gestion et valorisation des données. Il/Elle sera responsable de l'acquisition et de la modélisation des données afin de fournir des résultats exploitables pour l'analytique et la data science. Le rôle impliquera la création de modèles de données consommables et de visualisations, tout en assurant la gestion complète du cycle de vie des données, de leur ingestion à leur traitement et préparation. Il/Elle travaillera en étroite collaboration avec les équipes data et métiers afin d’assurer la cohérence et la fiabilité des produits de données développés. Traduire les besoins métier en spécifications techniques, en collaboration avec les parties prenantes. Estimer, planifier, gérer et diriger les projets/tâches d'intégration des données. Coordonner les tâches et la charge de travail avec les autres ingénieurs data. Concevoir et développer des processus ETL/ELT et des flux de données pour fournir des résultats exploitables en analytique et data science. Créer des modèles de données et des visualisations intuitives et performantes. Collaborer avec les équipes de support pour assurer la cohérence et l’exactitude des données ainsi que la performance des flux livrés. Fournir un support de niveau 3 lorsque nécessaire. Définir et promouvoir les meilleures pratiques et principes de conception pour l'architecture Data Warehouse et Analytics.

Freelance

Mission freelance
Ingénieur Cloud GCP F/H

SOFTEAM
Publiée le
Google Cloud Platform
Terraform

6 mois
400-550 €
Yvelines, France

Vos responsabilités : Gestion et administration des environnements GCP : Concevoir, provisionner et maintenir des infrastructures Cloud sur GCP en respectant les meilleures pratiques. Implémenter et gérer les services GCP pour répondre aux besoins métier. Exploiter et maintenir les services GCP en Prod Accompagner les Développeurs des Tribu / Squad à maintenir leur Pipeline et développer leur nouveaux pipelines, Terraform et CICD sur GCP - Accompagner les développeurs à respecter les golden Rules GCP - Exploiter et maintenir les services GCP en Prod - Accompagner et monter en compétences les DevOps du cluster BPC sur l'offre GCP

Freelance

Mission freelance
Consultant BI

HAYS France
Publiée le
Big Data
BigQuery
Dash

1 an
400-460 €
Lille, Hauts-de-France

Dans le cadre de la transformation digitale, nous recherchons un consultant BI Expert pour accompagner nos équipes dans la migration de nos usages décisionnels (Self-BI, Dashboarding) de SAP Business Objects vers Looker. Vos missions principales : Analyse et diagnostic : Audit des rapports existants sous SAP Business Objects. Analyse des besoins métiers et identification des objets BO prioritaires pour la migration. Conception de la solution cible : Définition des modèles de données Looker (élaboration des fichiers LookML). Proposition des bonnes pratiques pour optimiser les performances et l’expérience utilisateur. Migration et développement : Accompagnement technique des équipes de migration des rapports SAP Business Objects vers Looker. Mise en place des connexions aux sources de données existantes. Déploiement et mise en production des explores Looker et des rapports sur l’environnement de production. Accompagnement et transfert de compétences : Organisation d’ateliers de formation des équipes métiers. Documentation des explores et des livrables associés. Support aux utilisateurs pendant la phase de transition. Compétences requises Expertise en SAP Business Objects et Looker. Maîtrise des concepts de modélisation de données (Data Warehousing, SQL complexe, LookML). Gestion de repo Git BigQuery Plateforme Cloud de Google Capacité à comprendre les besoins métiers et à les traduire en solutions techniques. Communication et pédagogie.

CDI

Offre d'emploi
Expert transformation et Exchange H/F

GROUPE ARTEMYS
Publiée le
Azure
Exchange Online
Microsoft OneDrive

55k-64k €
Île-de-France, France

Contexte de la mission PROJET : Expertise transformation et Exchange Les missions principales L'infrastructure est basée sur les solutions Microsoft globalement (« OnPrem » mais également « OnLine »). Afin de gérer ces infrastructures et ce plan de transformation, des compétences solides sont nécessaires sur les solutions Microsoft mais aussi sur les solutions du même plan : • Les bonnes pratiques de la Messagerie dans le cadre d’une intégration entre 2 SI • Les outils de migrations inter-Tenant (Quest / BitTitan / Autres) • Les solutions M365 (Tenant / Sharepoint / OneDrive / etc) • Exchange OnPrem et OnLine • E-Discovery • Powershell, pour avoir la capacité de maintenir, transformer mais également créer des scripts • Les serveurs Windows en générale (AD \ DNS \ DHCP \ …) • La gestion des certificats • Et de manière générale, tout ce qui est en liaison, de prêt, comme de loin, avec le workplace. Le Bénéficiaire souhaite améliorer la qualité de la gestion de ses systèmes informatiques. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes d'Expertise système d'exploitation réseau telecom. Dans ce cadre la prestation consiste à contribuer à/au(x) : • La MCO des services infrastructures • Passer l’ensemble des modifications du service au Cab : Expertise des impacts et les rollbacks • Support de niveau 3 à nos bénéficiaires • Projets divers • La gestion des procédures \ DAT et tous autres documents relatifs au périmètre. Environnement technique MS Azure MS Exchange MS Windows Powershell Suite Office (Exchange OnLine, OneDrive, O365…) Les livrables attendus sont Documentation des processus mis en place (architecture, exploitation, etc), outillage nécessaire à la mise en œuvre des standards de Sécurité (scripts, applications, dashboards, datalake, serveurs, etc), Fourniture (si possible) automatisée des preuves de conformité à ces standards, conduite du changement des entités opérationnelles. Conditions de travail : Quand ? ASAP Où ? La défense Télétravail : 50% Environnement anglophone

Freelance

Mission freelance
Data Engineer

ICSIS
Publiée le
Apache Kafka
CI/CD
ETL (Extract-transform-load)

2 ans
400-500 €
Lille, Hauts-de-France

La mission consiste à : - Exposer les données utiles à l’entreprise pour les analyser et les utiliser afin d’améliorer l’expérience utilisateur et la productivité - Transformer des données issues du DataLake afin de les normaliser - Modéliser la sphère de données - Développer les flux - Exposer des données brutes et/ou agrégées au bon niveau de granularité aux différents métiers de l’entreprise - Travailler en lien avec des Data Scientists sur les données qu’il aura exposées - Mettre en place des rapports de Dataviz - Mission basée en métropole lilloise avec présence sur site 3j/semaine obligatoire Compétences demandées : - Formation supérieure en école d’ingénieur, école d’informatique ou Master spécialisé dans la Data Science - Première expérience en Data Engineering indispensable - GCP, BigQuery, SQL, Python, Stambia, Shell, Data Studio, Power BI, Qlikview,... - Excellents savoir-être : rigueur, esprit analytique et de synthèse, communication... - Méthode Agile - Anglais

Freelance

Mission freelance
Développeur full stack Java / Vue.JS

Ositel France
Publiée le
Google Cloud Platform
Java
Méthode Agile

6 mois
400-450 €
Lille, Hauts-de-France

Nous recherchons un Développeur full stack Java / Vue.JS pour une mission longue à Lille. Le développeur aura en charge de : - Réaliser du Build et du Run sur des produits digitaux composés d'API, de front et de back. - Travailler en mode Agile avec l'équipe de dev, du PO, OPS et des équipes transverses. - Livrer le code source et d'être garant de la qualité de celui-ci - Réaliser la documentation nécessaire pour permettre la compréhension de son code - Réaliser des codes review avec les autres développeurs - Suivre parfois des cours de formation pour monter en compétence sur la sécurité au sein de son code - Réaliser en collaboration avec l'OPS de l'équipe des tâches d'observabilité

Freelance
CDI

Offre d'emploi
Business Data Analyst DATAIKU H/F

Proxiad
Publiée le
Azure
Dataiku
Google Cloud Platform

3 ans
Île-de-France, France

Descriptif général de la mission / Livrables et dates associées Vous avez une expérience réussie au sein d’une DSI et vous justifiez d’une connaissance dans le domaine de l’assurance de personnes. Autonome et organisé, vous êtes reconnu(e) pour votre esprit d'analyse et de synthèse. Appréciant le travail en équipe, vous êtes force de proposition / d'innovation et savez travailler en transverse, tout en faisant preuve d'adaptation au changement. Vous avez également le sens de la communication et du service. Maitrise l'infrastructure GCP - l'outillage de data Prep (Dataïku) - les infrastructures IA" Environnement fonctionnel & technique "Les équipes DATA interviennent pour l'ensemble des activités de Métier Assurances De Personnes ( Equipes de la finance (et en particulier les actuaires - les comptables) / les équipes produits / les équipes réglementaire / la DUX… ) Vous intervenez sur toutes les phases du projet et pouvez en coordination avec les équipes d'architecture DATA être amener à préconiser des solutions techniques spécifiques Méthodes & Outils "méthode agile safe JIRA Confluence GCP / AZURE SQL / Big Query Dataïku / Power Bi

167 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous