Trouvez votre prochaine offre d’emploi ou de mission freelance Google Drive

Votre recherche renvoie 93 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

CDI
Freelance

Offre d'emploi
Account Manager SEA/SMO confirmé - Paris

Sapiens Group
Publiée le
Google ads
Marketing digital
SEO

12 mois
10k-45k €
Paris, France

Nous recherchons pour le compte de l'un de nos clients un Account Manager SEA/SMO confirmé Critères importants : Formation Bac+3 minimum dans le domaine du marketing ou selon expérience 3 ans d'expérience minimum sur un poste similaire (profil confirmé) Bonnes connaissances des plateformes Adwords (certification Google AdWords avancée requise), Facebook et Twitter Ads Connaissances approfondies des outils analytics, moteurs de recherche et outils SEO Capacité à gérer de multiples clients Anglais courant – Arabe Mission : Création, optimisation et développement des campagnes d'acquisition Search, Display, Social Pilotage des campagnes en fonction de leurs objectifs stratégiques (KPIs, branding, rentabilité…) et de leurs impératifs opérationnels (opérations marketing par exemple) Suivi des performances au jour le jour, analyses régulières, reportings, planification des besoins Utilisation des synergies SEO et WebAnalytics pour développer et optimiser la fréquentation Recommandations

Freelance

Mission freelance
Data Engineer GCP H/F

LeHibou
Publiée le
Google Cloud Platform

6 mois
500-600 €
Charenton-le-Pont, Île-de-France

Notre client dans le secteur Banque et finance recherche un/une Data Engineer GCP H/F Description de la mission: Contexte / Objectifs : Récupérer les données issues de sources externes • Utiliser la puissance du Datalake • Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le datalake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner. • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels Description : • Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise • Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent Activités et tâches : • Acheminement de la donnée • Mise à disposition de la donnée aux équipes utilisatrices • Mise en production de modèles statistiques • Suivi de projet de développement • Développement job spark • Traitement et ingestion de plusieurs formats des données • Développement des scripts • Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données • Développement des moyens de restitution via génération de fichier et ou API & Dashboarding • Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers • Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) • Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP • Participer à la conception, mise en place et administration de solutions Big Data • Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka • Normalisation et agrégation des données afin de produire les rapports sous forme de Business View Compétences / Qualités indispensables : Plateforme et environnement GCP (indispensable), • Environnement GKE, • Stockage : HDFS / GCS, • Traitement: Maitrise de l’écosystème Spark / Kafka / Scala, • Planification : Airflow / Composer, • DWH : SQL, BigQuery, BigTable, • Delivery : Git, Ansible, Docker, Terraform, Jenkins / Cloud Build Informations concernant le télétravail : 2 jours

Freelance

Mission freelance
Data steward

CAT-AMANIA
Publiée le
Google Cloud Platform
Gouvernance

6 mois
100-500 €
Lille, Hauts-de-France

Le service observabilité est une entité transverse de la direction du système d’information et du Digital, au service des Directions Métiers et de la DSID. Sa mission est de définir et de mettre en œuvre les solutions de supervision techniques, applicatives et fonctionnelles. Dans le cadre d'un nouveau programme, nous devons renforcer la capacité du produit observabilité à déployer de nouvelles solutions. MAITRISER ET DOCUMENTER LA DONNEE METIER • Apporte un conseil personnalisé répondant aux problématiques des acteurs de la donnée • Qualifie et enrichie la donnée en s’assurant que l’utilisateur dispose du plus grand nombre d’informations (catalogue de données, validation de la définition de la donnée) • Accompagne la cartographie de la donnée • Optimise la prise en main et l’utilisation et de la donnée en facilitant sa compréhension • Accompagne les acteurs de la donnée dans le maintien de la connaissance de la donnée (dictionnaire, référentiels de contrôle) GARANTIR LA METHODOLOGIE ET LE MAINTIEN DE LA QUALITE DES DONNEES • Accompagne les acteurs de la donnée dans le respect des règlementations en vigueur (RGPD, …) et des règles d’éthique définies au sein du Groupe. • Apporte un conseil pour fiabiliser la provenance de la donnée afin d’en maitriser son usage (cycle de vie) • Accompagne les acteurs de la donnée dans la maitrise de la qualité de leurs données : diagnostic, suivi de leur procédure de qualité • Déployer et pérenniser les procédures de détection et de correction des problèmes de qualité des données

CDI
Freelance

Offre d'emploi
Ingénieur Infra Cloud (AZURE/ GCP)

OCSI
Publiée le
Azure
Google Cloud Platform

12 mois
10k-61k €
Île-de-France, France

Rôle principal : Concevoir, déployer et maintenir les infrastructures cloud robustes et évolutives. Collaborer étroitement avec les équipes de développement logiciel, les équipes techniques et les architectes pour garantir des solutions performantes et sécurisées. Déploiement d’architectures cloud : En collaboration avec les architectes, l’ingénieur participera à l’élaboration des architectures cloud robustes en utilisant des services tels qu’Azure ou GCP. Le déploiement se fera via des outils comme Terraform et Ansible, qui permettent de décrire l’infrastructure en code et de la déployer de manière reproductible. Gestion des ressources cloud : L’ingénieur sera responsable de la création, de la configuration et de la gestion des ressources cloud. Il/elle devra surveiller les performances, optimiser les coûts et s’assurer que les ressources sont correctement dimensionnées. Intégration dans les pipelines CI/CD : Travaillant en étroite collaboration avec les équipes de développement, l’ingénieur devra intégrer les meilleures pratiques d’infrastructure dans les pipelines CI/CD. Cela peut inclure l’automatisation du déploiement, la gestion des secrets, la mise en place de tests d’intégration, etc. Principales tâches : Résolution des problèmes d’infrastructure : Diagnostiquer et résoudre les problèmes liés à l’infrastructure cloud. Gestion des ressources cloud : Création, configuration et gestion des ressources cloud. Surveiller les performances, optimiser les coûts et s’assurer que les ressources sont correctement dimensionnées. Intégration dans les pipelines CI/CD : Intégrer les meilleures pratiques d’infrastructure dans les pipelines CI/CD. Cela peut inclure l’automatisation du déploiement, la gestion des secrets, la mise en place de tests d’intégration, etc. Résolution des problèmes d’infrastructure : Diagnostiquer et résoudre les problèmes liés à l’infrastructure cloud. Cela peut inclure des problèmes de performance, de sécurité, de disponibilité, etc. Collaboration avec les équipes : Travailler en étroite collaboration avec les développeurs, les ingénieurs de production, les architectes et les autres membres de l’équipe afin de garantir que l’infrastructure répond aux besoins des applications. Participer à des réunions d’équipe, partager les connaissances et contribuer à l’amélioration continue des processus

Freelance

Mission freelance
Data Engineer GCP Finance

HIGHTEAM
Publiée le
Apache Spark
BigQuery
Google Cloud Platform

3 ans
400-550 €
Île-de-France, France

Dans ce cadre, nous recherchons un développeur Full Stack, ayant une solide expérience dans le Cloud GCP Récupérer les données issues de sources externes • Utiliser la puissance du Data Lake • Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le data Lake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner. • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels • Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise • Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent • Acheminement de la donnée • Mise à disposition de la donnée aux équipes utilisatrices • Mise en production de modèles statistiques • Suivi de projet de développement • Développement job spark • Traitement et ingestion de plusieurs formats des données • Développement des scripts • Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données • Développement des moyens de restitution via génération de fichier et ou API & Dashboarding • Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers • Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des Spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) • Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP • Participer à la conception, mise en place et administration de solutions Big Data • Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data Lake via des topics Kafka • Normalisation et agrégation des données afin de produire les rapports sous forme de Business View

CDI

Offre d'emploi
Databricks Architect

KOMEET TECHNOLOGIES
Publiée le
AWS Cloud
Azure
Databricks

52k-85k €
Paris, France

Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP

Freelance

Mission freelance
ARCHITECTE GENERALISTE MOVE TO CLOUD AZURE ET GCP

PROPULSE IT
Publiée le
architecte
Azure
Cloud

24 mois
325-650 €
Paris, France

Au sein d'une équipe Architecture d'une Direction des Infrastructures et de la Production de l'un de nos clients, nous recherchons un(e) architecte technique généraliste qui contribuera aux activités suivantes : - Etudes techniques & Design - Cadrage budgétaire - Définition des best practices d'architecture - Documentation (DAT) - Accompagnement de la stratégie Move2Cloud - Accompagnement des équipes d'exploitation et de développement Environnement général : - Plateformes E-commerce - Plateformes BackOffice & Logistique - Cloud Public Azure & GCP - Cloud Privé (Infrastructure VMWARE Infogérée) - CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) - Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle - Big Data Hadoop, Terradata, MapR, BigQuery, DataBricks - Conteneurisation Docker & Orchestration AKS - Progiciels SAP, Siebel, HRAccess

Freelance

Mission freelance
DevOps Confirmé(e)

SELFING
Publiée le
Google Cloud Platform
Kubernetes
Terraform

12 mois
300-350 €
Ronchin, Hauts-de-France

Nous recherchons un(e) DevOps Confirmé(e) pour rejoindre une équipe dynamique et innovante. Votre mission principale sera d'accompagner les équipes applicatives dans la mise en œuvre, le maintien en condition opérationnelle et l’industrialisation de leurs produits. Vous jouerez un rôle essentiel dans la diffusion des bonnes pratiques DevOps et l'amélioration continue des performances et de la sécurité des systèmes. La mission est basée sur le site de Ronchin (59) avec la possibilité de télétravailler 3 jours. Missions principales : · Diffuser les bonnes pratiques DevOps auprès des équipes de développement. · Déployer et configurer des environnements (hors-production et production). · Mettre en place des chaînes CI/CD. · Accompagner les équipes dans la mise en œuvre de leur observabilité (monitoring et alerting, SLI/SLO). · Participer aux analyses d'incidents, définir et mettre en œuvre des plans d’action post-mortems. · Proposer des solutions pour améliorer la performance et la sécurité des systèmes. · Mener une démarche FinOps pour optimiser les coûts tout en assurant un service de qualité. · Participer au Run transverse et prendre en charge les tickets des Business Units utilisatrices. · Participer aux astreintes en rotation avec l’équipe Ops. · À la demande du Métier, vous analysez, paramétrez et codez les composants logiciels applicatifs en respectant les normes et procédures en place. · Analyser les spécifications générales et réaliser l'étude technique. · Paramétrer les progiciels applicatifs (ERP). · Concevoir et assembler les modules logiciels. · Effectuer les tests unitaires et assurer la maintenance corrective/évolutive. Environnement technique: · Langages de développement/scripting : Python (++), Bash (++), Terraform (++) · Monitoring : Datadog (++), PagerDuty (++) · DevOps : GitHub/GitHub Actions (++), Vault (++) , Jfrog (++), Jira (+) · Cloud : Google Cloud Platform (GCP) (++) · Conteneurs : Kubernetes/GKE (++), Docker (++) · OS : Linux Redhat & CentOS (++) · Bases de données : PostgreSQL (++), MongoDB (++) , MySQL (++) · ITSM : ServiceNow (+

Freelance

Mission freelance
DEVOPS

Coriom Conseil
Publiée le
Google Cloud Platform
Kubernetes
Terraform

12 mois
100-550 €
Lille, Hauts-de-France

Contexte international et gestion de la Production (avec astreintes) Compétences techniques Kubernetes - Confirmé - Impératif Google Cloud Platform (GCP) - Confirmé - Impératif Terraform - Confirmé - Impératif Datadog - Confirmé - Important Connaissances linguistiques Anglais Professionnel (Impératif) Missions : - Diffuser auprès des équipes de développement les bonnes pratiques liées aux Opérations. - Déploiement d’infrastructures et configuration d’environnements (hors-production et production). - Mise en place de chaînes de CI/CD. - Accompagnement des équipes dans la mise en œuvre de leur observabilité (monitoring et alerting, SLI/SLO). - Participation aux analyses avec les équipes en cas d’incident, définition et mise en œuvre de plans d’action suite aux post-mortems. - Proposer des solutions pour améliorer les performances, la sécurité des systèmes ou des plateformes. - Mener une démarche FinOps afin de fournir le bon service au juste coût et la diffuser auprès des équipes (mise en oeuvre des bonnes pratiques, suivi des consommations, mise en place de plans d’action si nécessaire) - Participer au Run transverse sur le domaine (prise en charge de tickets créés par nos Business Units utilisatrices en amont des équipes produit). - Participer aux astreintes sur le domaine (rotation avec les autres Ops de l'équipe).

Freelance

Mission freelance
Administrateur Citrix

ESENCA
Publiée le
Citrix
Google Cloud Platform

3 mois
400-430 €
Lille, Hauts-de-France

Responsabilités: ---------- Analyse les besoins des clients et conçoit des solutions Citrix efficaces Implémente et maintient les solutions Citrix pour les clients Fournit des services de support technique pour les solutions Citrix existantes Développe des programmes de formation pour les clients et les employés Surveille les tendances et les développements technologiques dans le domaine de Citrix Évalue régulièrement et améliore les processus de prestation de services Citrix Exigences: ---------- Expérience antérieure dans la gestion d'environnements Citrix Cloud, Netscaler et Citrix Workspace Expérience dans l'optimisation des environnements pour un accès distant efficace Bonne connaissance des protocoles de connexion Solides compétences en résolution de problèmes pour traiter les problèmes liés à Citrix, Netscaler et Google Cloud Plateforme Compétences en gestion de projet pour coordonner les déploiements de la solution Citrix et la maintenance des systèmes Connaissance approfondie des systèmes d'exploitation Windows pour être en mesure de travailler efficacement sur des environnements Citrix Bonne capacité à documenter les solutions et à former les utilisateurs finaux Esprit d'équipe et capacité à travailler efficacement avec les autres membres de l'équipe informatique

Freelance

Mission freelance
Data Analytics Engineer H/F

Insitoo Freelances
Publiée le
Github
Google Cloud Platform
Microsoft Power BI

2 ans
420-500 €
Lille, Hauts-de-France

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Analytics Engineer H/F à Lille, Hauts-de-France, France. Contexte : Au sein de la direction Data International, nous recherchons un Analytics Engineer afin de renforcer la palette de compétences présentes au sein de nos équipes composées de Product owner, Data Analyst & Data Engineer Les missions attendues par le Data Analytics Engineer H/F : - Conçoit , déploie et assure le RUN des data pipelines, datasets et KPI - Crée à partir des données présentes dans la plate-forme Data la modélisation et les traitements nécessaires à l’exploitation des données, à destination des usages analytiques. - Assure la maintenance de ce qui a été produit. - Réalise des recettes techniques et fonctionnelles. - Veille au respect des normes et des pratiques de référence de la Data. - Accompagne les consommateurs ou utilisateurs de solutions data dans leur choix d’indicateurs et leur expression de besoin d’accès aux données - Garantit l’alignement et la cohérence des solutions data - Travaille en étroite collaboration aussi bien avec les équipes techniques que métier.

Freelance

Mission freelance
Ingénieur Windows Workplace

Groupe Aptenia
Publiée le
Google Workspace
Microsoft Windows
Objet de stratégie de groupe (GPO)

12 mois
100-600 €
Paris, France

Au sein du département de la DSI, la communauté « Digital Workplace » a en charge la conception, le déploiement et le support de l’écosystème de l’expérience bureautique digital des employés. Reparti sur 3 grandes régions (AMERICAS, EMEA et APAC). Cette communauté opère sur les niveaux de changement (L3) et d’architecture (L4). La présente demande vise à remplacer un ingénieur Workplace spécialisé Windows au sein de l’équipe Conception (L4) En détail, les compétences requises : Système : - Creation package applicatif Windows - Creation Script PowerShell Active Directory - Création/modification de GPO VMWare - Workspace One - suivi des déploiements en masse - Création de profil (CSP) ou Baseline - Mise a jour master Windows 10 WS1 Divers - Support technique sur tout type de problème d’infrastructure et applicatif - Participation a des meetings hebdo de revue WW ou Meeting sur les incidents - Création documentation Reporting

Freelance

Mission freelance
Ingénieur Réseaux et sécurité H/F

LeHibou
Publiée le
Google Cloud Platform
Réseaux

1 an
490-700 €
Guyancourt, Île-de-France

Les principaux services fournis se composent des infrastructures (Datacenters, Réseau LAN MAN WAN et télécom, Sécurité, Serveurs, stockage, service desk, services de production des applications métier). Les priorités concernent la fiabilisation des traitements, le contrôle et la cohérence du dispositif international ainsi que l’optimisation des processus, du dispositif et des relations clients. La mission se déroule au sein du service "International Network Services" (INS) en charge des activités Build Réseaux & Sécurité (Ingénierie, Conception et Delivery) qui gère un parc de plus de 4000 équipements Réseaux & Sécurité et de 60 sites internationaux (sites terminaux, hubs et Data Center). Description de la mission: Au sein de l’équipe build Réseaux & Sécurité, vous aurez en charge l'ensemble des sujets d’implémentation Réseaux & Sécurité de la phase projet à la mise en production.

CDI
Freelance

Offre d'emploi
Data analyst - Spécialiste Data visualisation

skiils
Publiée le
BigQuery
Google Cloud Platform
MySQL

6 mois
41k-200k €
Île-de-France, France

Cette annonce est principalement ouverte aux salariés. Nous recherchons un ou une Data Analyst confirmé(e) pour rejoindre notre équipe, avec une solide expertise en Data Visualisation . Vous serez responsable de transformer des données complexes en visualisations claires et impactantes, aidant ainsi les équipes à prendre des décisions éclairées. Une maîtrise des outils tels que GCP , SQL/BigQuery , Looker Studio , et Tableau est essentielle pour ce poste. Si vous avez une expérience avérée et un goût pour les défis, nous serions ravis de vous accueillir.

Freelance

Mission freelance
Data Analyst

Coriom Conseil
Publiée le
Github
Google Cloud Platform
Microsoft Power BI

12 mois
100-580 €
Lille, Hauts-de-France

Les livrables sont Script SQL Dashboard Pv de recette Compétences techniques sql - Expert - Impératif github - Confirmé - Impératif GCP - Confirmé - Impératif Power BI - Confirmé - Important Connaissances linguistiques Français Professionnel (Impératif) Anglais Courant (Impératif) Compétences : SQL / GCP / GITHUB / POWER BI / PYTHON

Freelance

Mission freelance
Architecte technique infrastructure On premise & Cloud Azure et GCP

PROPULSE IT
Publiée le
architecte
Azure
Cloud

24 mois
350-700 €
Paris, France

o Au sein de l'équipe Architecture de la Direction des Infrastructures et de la Production du groupe, le consultant contribuera aux activités : • Cadrages techniques et budgétaires en collaboration avec les chefs de projet • Définition des best practices d'architecture • Documentation (DAT, HLD…) • Accompagnement de la stratégie Move2Cloud • Accompagnement des équipes d'exploitation et de développement • Veille technologique Environnement général o Plateformes E-commerce o Plateformes BackOffice & Logistique o Cloud Public Azure & GCP o Cloud Privé (Infrastructure VMWARE Infogérée) o CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) o Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle o Big Data Terradata, MapR, BigQuery, DataBricks o Conteneurisation Docker & Orchestration AKS o Progiciels SAP, Siebel, HRAccess DESCRIPTION DE LA MISSION Missions à prévoir et Expérience acquise Etude des besoins issus des équipes de développement : 5 à 10 ans Etude de l'évolution des composants de plateformes techniques ou de l'intégration de nouveaux services : 5 à 10 ans Rédaction des documents d'architecture et d'intégration générale et détaillée : 5 à 10 ans Rédaction des supports d'aide à l'exploitation et accompagnement des équipes d'exploitation durant la transition : 5 à 10 ans Contribution à l'évaluation budgétaire des solutions mises en œuvre : 5 à 10 ans Support N3 des équipes d'exploitation : 5 à 10 ans Une grande majorité des sujets actuellement adressés par l'équipe d'architecture technique concerne les environnements OnPrem.

93 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous