Trouvez votre prochaine offre d’emploi ou de mission freelance Google Analytics

Votre recherche renvoie 154 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Data Quality Analyst

HIGHTEAM
Publiée le
Data analysis
Google Cloud Platform
Python

3 ans
400-550 €
Île-de-France, France

Ce poste est rattaché à la Directrice Data . Au sein d'une équipe composée de data analystes intégrée aux rituels Product, vous participez à l'évolution fonctionnelle et technique de nos produits data en environnement Agile. Vous aurez l’opportunité de collaborer avec l’ensemble des équipes product, tech et métiers autour des missions suivantes : ● Explorer, analyser et documenter les données du data Warehouse du groupe. ● Contribuer à l’amélioration de la qualité du data Warehouse : mettre en place le plan d’action défini sur 2024 : contrôles, monitoring et alerting. ● Réaliser des travaux d’automatisation afin de gagner en productivité et efficacité. rôle support, retro-engineering et documentation, mise en place de tests de qualité de données (data quality/observabilité) via Sifflet/Python/SQL et Looker/Looker Studio Encadrer une équipe de 3 data analystes : les former aux pratiques Links, les challenger sur leurs réalisations, les monter en compétence sur la partie technique. Notre stack data : GCP, BigQuery, Python, Looker Studio

CDI

Offre d'emploi
Expert Splunk - CDI - (H/F)

SWING-ONE
Publiée le
Automatisation
Cloud
Data analysis

55k-75k €
Île-de-France, France

CONTEXTE : Nous recherchons des Expert(e)s Splunk pour rejoindre notre équipe et nos clients, dans le cadre de l’optimisation des performances, l’observabilité et la gestion des services IT. Vous serez responsable de l' implémentation et du déploiement des solutions Splunk avancées, en intégrant des outils comme Dynatrace et ITSI pour améliorer la visibilité et la gestion des infrastructures et des applications. MISSIONS RECHERCHÉES : 1) Implémentation et Déploiement Splunk : Concevoir, déployer et maintenir des solutions Splunk adaptées aux besoins de l'entreprise, incluant la configuration de la collecte de logs, la gestion des alertes et des dashboards. 2) Observabilité : Mettre en place des solutions d’ observabilité avec Splunk pour surveiller l’état des applications, des services et des infrastructures, et garantir une visibilité complète des performances en temps réel. 3) ITSI (IT Service Intelligence) : Implémenter et optimiser Splunk ITSI pour une surveillance proactive des services IT et une gestion des incidents basée sur les KPIs et les indicateurs de performance 4) Dynatrace : Intégrer Dynatrace avec Splunk pour centraliser les données de performance et améliorer le monitoring applicatif et l’analyse des incidents en temps réel. 4) Analyse des logs et performance : Analyser les logs et données collectées, identifier les anomalies de performance et prendre des mesures pour résoudre rapidement les incidents. 5) Encadrement et expertise technique : Diriger une équipe technique, encadrer les projets de mise en œuvre de Splunk, et partager vos connaissances pour améliorer les compétences internes. 6) Veille technologique : Assurer une veille sur les évolutions de Splunk , Dynatrace , ITSI et les meilleures pratiques du secteur pour garantir la performance optimale des systèmes.

Freelance

Mission freelance
Ingénieur(e) Splunk - Freelance - (Junior/Confirmé)

SWING-ONE
Publiée le
Automatisation
Cloud
Data analysis

1 an
300-600 €
Île-de-France, France

CONTEXTE : Nous recherchons des Ingénieurs Splunk Junior ou Confirmé pour rejoindre notre équipe, et nos clients. Vous travaillerez sur des projets variés dans un environnement dynamique et innovant, où vous aurez l’opportunité d'évoluer rapidement et d'acquérir de nouvelles compétences. MISSIONS RECHERCHÉES : 1) Implémentation : Gérer l’ implémentation de solutions Splunk sur les infrastructures locales ou cloud, en fonction des besoins et de l’architecture spécifique de l’entreprise. Configurer et déployer des modules Splunk IT Service Intelligence (ITSI) et d'autres applications spécifiques pour automatiser la collecte de données pertinentes. Collaborer avec les équipes de développement pour mettre en place des alertes et des dashboards personnalisés en fonction des besoins de l’organisation. 2) Déploiement : Déployer des instances Splunk sur des environnements complexes (cloud, hybride, on-premise) en respectant les meilleures pratiques d'architecture et de sécurité. Assurer le déploiement de nouvelles fonctionnalités sur Splunk, en garantissant la continuité des services et en minimisant les interruptions. Implémenter des solutions de monitoring de la performance pour les applications et systèmes, en utilisant Splunk et d’autres outils comme Dynatrace pour suivre les métriques de déploiement. 3) Observabilité : Implémenter et configurer des solutions d’ observabilité sur la plateforme Splunk , permettant une surveillance proactive des performances, des logs et des événements des systèmes informatiques. Assurer la visualisation des métriques , des logs, et des traces pour garantir une vue d'ensemble des performances des applications et de l'infrastructure. Créer des dashboards interactifs dans Splunk pour assurer une observabilité en temps réel, facilitant la détection des anomalies et la résolution des incidents. 4) ITSI (IT Service Intelligence) : Implémenter Splunk ITSI pour la surveillance proactive des services IT et garantir la visibilité des performances des applications et des systèmes. Créer et déployer des Service Monitoring Dashboards dans ITSI pour suivre l’état de santé des services IT en temps réel. Configurer des notifiers dans ITSI pour assurer que des alertes sont générées en cas de détection d’incidents dans l’infrastructure ou les applications. 5) Dynatrace : Assurer l'intégration et l'interopérabilité entre Splunk et Dynatrace , permettant une visibilité complète sur les performances applicatives et l'infrastructure. Utiliser Dynatrace pour collecter des données de performance des applications et des environnements cloud, puis les analyser dans Splunk pour des actions correctives plus efficaces. Travailler sur l' automatisation du monitoring et des remontées d’informations entre Dynatrace et Splunk , pour une réponse plus rapide aux anomalies.

CDI

Offre d'emploi
Ingénieur Splunk - CDI - (Junior/Confirmé)

SWING-ONE
Publiée le
Automatisation
Cloud
Data analysis

30k-60k €
Île-de-France, France

CONTEXTE : Nous recherchons des Ingénieurs Splunk Junior ou Confirmé pour rejoindre notre équipe, et nos clients. Vous travaillerez sur des projets variés dans un environnement dynamique et innovant, où vous aurez l’opportunité d'évoluer rapidement et d'acquérir de nouvelles compétences. MISSIONS RECHERCHÉES : 1) Implémentation : Gérer l’ implémentation de solutions Splunk sur les infrastructures locales ou cloud, en fonction des besoins et de l’architecture spécifique de l’entreprise. Configurer et déployer des modules Splunk IT Service Intelligence (ITSI) et d'autres applications spécifiques pour automatiser la collecte de données pertinentes. Collaborer avec les équipes de développement pour mettre en place des alertes et des dashboards personnalisés en fonction des besoins de l’organisation. 2) Déploiement : Déployer des instances Splunk sur des environnements complexes (cloud, hybride, on-premise) en respectant les meilleures pratiques d'architecture et de sécurité. Assurer le déploiement de nouvelles fonctionnalités sur Splunk, en garantissant la continuité des services et en minimisant les interruptions. Implémenter des solutions de monitoring de la performance pour les applications et systèmes, en utilisant Splunk et d’autres outils comme Dynatrace pour suivre les métriques de déploiement. 3) Observabilité : Implémenter et configurer des solutions d’ observabilité sur la plateforme Splunk , permettant une surveillance proactive des performances, des logs et des événements des systèmes informatiques. Assurer la visualisation des métriques , des logs, et des traces pour garantir une vue d'ensemble des performances des applications et de l'infrastructure. Créer des dashboards interactifs dans Splunk pour assurer une observabilité en temps réel, facilitant la détection des anomalies et la résolution des incidents. 4) ITSI (IT Service Intelligence) : Implémenter Splunk ITSI pour la surveillance proactive des services IT et garantir la visibilité des performances des applications et des systèmes. Créer et déployer des Service Monitoring Dashboards dans ITSI pour suivre l’état de santé des services IT en temps réel. Configurer des notifiers dans ITSI pour assurer que des alertes sont générées en cas de détection d’incidents dans l’infrastructure ou les applications. 5) Dynatrace : Assurer l'intégration et l'interopérabilité entre Splunk et Dynatrace , permettant une visibilité complète sur les performances applicatives et l'infrastructure. Utiliser Dynatrace pour collecter des données de performance des applications et des environnements cloud, puis les analyser dans Splunk pour des actions correctives plus efficaces. Travailler sur l' automatisation du monitoring et des remontées d’informations entre Dynatrace et Splunk , pour une réponse plus rapide aux anomalies.

Freelance

Mission freelance
Développeur Back-End Python

SELFING
Publiée le
Google Cloud Platform
Java
Python

12 mois
300-350 €
Ronchin, Hauts-de-France

Nous recherchons un Développeur Back-End Python passionné(e) et expérimenté(e) pour rejoindre notre équipe de développement et contribuer au développement du produit Data Pipelines, un ensemble d’outils innovants permettant aux équipes produits de construire et monitorer leurs data pipelines en toute autonomie. La mission est localisée à Ronchin (59) avec 3 jours de télétravail autorisés. La mission concerne les produits qui gèrent le réseau d’artisans partenaires, de leur sourcing à la gestion de leurs partenariats. Vous travaillerez dans une équipe composée d’un tech lead, de deux développeurs, d’un PM et d’un designer. L’équipe privilégie une ambiance de travail alliant rigueur, amélioration continue, et bonne humeur. Vos missions : · Développer des microservices en adoptant l’approche API-first. · Participer aux prises de décisions stratégiques concernant l’architecture et la sécurité des solutions dans un environnement Cloud (GCP). · Concevoir et développer des outils facilitant le développement de modules et la communication entre microservices. · Développer et optimiser un scheduler et un dispatcher. · Mettre en place et améliorer des outils de monitoring pour garantir la fiabilité des services. · Assister les utilisateurs sur le support technique de l’environnement de production (run technique). · Collaborer activement en MOB et réaliser des revues de code en pair programming.

Freelance

Mission freelance
Data Anlyst/Expert Power BI

Trait d'Union Consulting
Publiée le
Data analysis
Microsoft Power BI

4 mois
440-530 €
Boulogne-Billancourt, Île-de-France

Contexte de la mission : Dans le cadre d’un remplacement de congé paternité, notre client, acteur clé dans le domaine du service client, recherche un Consultant Data et Automatisation. La mission débute le 10 janvier avec une période de transition de 15 jours. Vous interviendrez au sein d’une équipe en charge d’améliorer l’expérience client, d’automatiser les processus, et d’optimiser le pilotage des call centers. Objectifs principaux de la mission : Améliorer l’expérience client : mise en place de pratiques Lean Management et Data-Driven Management pour optimiser les interactions clients via téléphone, e-mail et chat. Automatiser et digitaliser les processus : simplifier et fluidifier les workflows des call centers pour des économies et une meilleure productivité. Optimiser les prévisions et le pilotage : utilisation des données pour anticiper les pics d’activité dans une logique d’aplatissement des flux et de réduction des remontées clients. Missions principales : Analyse et visualisation de données : Effectuer du data crunching pour analyser les flux d'activité client et anticiper les variations liées à une activité imprévisible. Créer des visualisations de données pour faciliter la prise de décision via des outils tels que Power BI . Automatisation et optimisation : Automatiser les calculs et prévisions liés à l’activité des call centers. Contribuer à l’automatisation des prévisions sur l’activité Optimiser les processus pour améliorer le Customer Feedback Management . Gestion des anomalies et suivi : Identifier, suivre et résoudre les anomalies remontées par les outils et le CRM. Garantir la fiabilité et la qualité des données utilisées dans le CRM et les tableaux de bord. Collaboration avec l'équipe technique et métier : Utiliser le CRM PEGA (2 systèmes distincts intégrés avec le SID en temps réel). Participer à l’amélioration des intégrations entre API et outils de reporting. Faciliter la connexion entre Power BI et le SID pour améliorer le suivi et le pilotage des performances. Compétences requises : Expertise en data visualisation avec des outils comme Power BI . Bonne connaissance des CRM, en particulier PEGA et leurs intégrations API. Expérience en automatisation de processus et en gestion des flux de données. Compétences en prévisions et data crunching , notamment pour des activités irrégulières et imprévisibles. Sensibilité au Lean Management et à l’amélioration de l’expérience client. Environnement technique : CRM PEGA avec intégration temps réel via SID. Outils de visualisation et de data crunching, principalement Power BI . API pour la gestion et l’automatisation des flux. Durée de la mission : 4 mois Profil recherché : Minimum 3 ans d’expérience en gestion et visualisation de données, avec une expertise avérée en automatisation et optimisation des processus . Une bonne compréhension des environnements CRM et des call centers. Forte capacité d’adaptation face à des pics d'activité et des problématiques complexes liées à des flux imprévisibles.

Freelance
CDI

Offre d'emploi
Data Scientist (H/F)

IT4B Consulting
Publiée le
Data analysis
Data science
PySpark

6 mois
10k-80k €
Paris, France

Nous recherchons pour notre client, grand compte, un Data Scientist confirmé pour une mission longue durée Notre client figure parmi les principaux gérants d'actifs mondiaux assurant la gestion active d'actions, d'obligations et de taux, la gestion passive de fonds indiciels ainsi que la gestion d'actifs non liquides (actifs immobiliers et dettes privées). Prérequis : Data Science : Apprentissage automatique et analyse de données Pratiques MLOps Déploiement de packages Python PySpark Pratiques LLMs LLMOps Rigoureux, organisé, Proactif

Offre premium
Freelance

Mission freelance
Devops

ESENCA
Publiée le
Administration linux
BigQuery
Docker

3 mois
400-430 €
Lille, Hauts-de-France

Vous participez au quotidien à la bonne mise en oeuvre des éléments suivants : - Un déploiement régulier des applications - Des montés de version régulières des applications - Une pratique des tests dans un environnement similaire à celui de production - Une intégration continue incluant des « tests continus » ; - Une surveillance étroite de l'exploitation et de la qualité de production via des métriques factuelles - Une Analyse des problèmes de performances - Une Gestion des outils de CI/CD - Une Mise en place d'outils / de rapports pour les équipes de développement - Une Gestion et automatisation des environnements des développeurs - Une prise en compte de la sécurité dès la conception - Vous êtes en capacité de traiter le développement d'api ou de solutions en backend pour de petites applications. - Mise en place des bonnes pratiques auprès des utilisateurs - Participations ponctuelles aux guildes des leaders techniques Vous maintenez en conditions opérationnelles les environnements applicatifs et la plateforme. - Gestion des incidents - Gestion des tickets de RUN remontés par les utilisateurs Hard Skills : - Stockage des données: PostgreSQL, ElasticSearch, BigQuery, MongoDB - Orchestrateurs : Kubernetes, Helm, Docker - Administration systèmes Gnu / Linux (Debian/Ubuntu/Alpine …) - Administration réseau (réseau VPC, VPN, Firewall, Traefik, load balancing) - CI/CD : GitHub Action, Terraform - Monitoring : Prometheus, AlertManager, Grafana, GCP StackDriver, Datadog - Cloud : Google Cloud Platform - Sécurité : IAM, Gestion de droits, gestion d'accès applicatifs, Vault (appRole / policies) - Langages : Shell, Python - Frameworks : FastApi, Django - Echange de données : Kestra, Kafka Soft Skills : - Empathie - Pragmatisme - Disponibilité - Curiosité - Adaptabilité - Bonne communication Mission long terme, présence sur site (Région lilloise) exigée 3j/semaine

Freelance

Mission freelance
Business Analyst - Valorisation et Data Market

NEXORIS
Publiée le
Data analysis

6 mois
540-550 €
Paris, France

Notre Client recherche un consultant Business Analyst - Valorisation et Data Market (H/F). Renforcer l'équipe fonctionnelle en charge du référentiel de données de marché, répondre aux besoins des utilisateurs pour valoriser de nouvelles opérations, et participer aux projets d'évolution de l'outil d'administration des données de marché. - Analyser les besoins des études métiers, techniques et spécifiques nécessaires à la réalisation des projets - Assurer l’expertise et le diagnostic métier et technique en intégrant les besoins spécifiques aux traitements des données de marché pour les clients - Rédiger les spécifications et la documentation des livrables - Garantir la qualité des livrables attendus et l’intégration dans l’existant - Identifier les besoins prévisionnels en Maitrise d’Ouvrage en lien avec les métiers et proposer et concevoir des actions/solutions correspondantes - Assurer une veille sur l’ensemble des problématiques Maitrise d’Ouvrage en relation avec les objectifs de l’entreprise - Elaborer des plans de tests, exécuter des recettes, produire des procès-verbaux et intégrer ces cas de tests aux plans récurrents - Assurer une assistance aux utilisateurs en support de second niveau (50 % de votre temps).

Freelance

Mission freelance
Data Engineer SQL DBT (F/H) - Lille

Espace Freelance
Publiée le
Google Cloud Platform
SQL

3 mois
100-470 €
Lille, Hauts-de-France

Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : un Data Engineer SQL DBT (F/H) - Lille Mission à pourvoir en régie en région Parisienne Présence sur site : 3 jours / semaine Le consultant devra être en mesure d’assurer les missions suivantes : Construction et optimisation de pipelines de données : collecte, transformation (SQL, BigQuery), et publication Mise en place de tests de qualité et conformité des données Amélioration continue en matière de fiabilité, performance, et FinOps

Freelance

Mission freelance
Consultant Data / BI

Bek Advisory
Publiée le
Data analysis
Microsoft Power BI
SQL

6 mois
500-600 €
Paris, France

Nous recherchons pour notre client, un consultant Data pour accompagner les équipes métier. Missions : Recueil des besoins opérationnels auprès des directions Produits (CP, acheteurs, chefs de groupes, directeurs), de la direction Appro Rédaction du besoin Formalisation du besoin en user story Définition des indicateurs : règles de calcul détaillées, règles d’agrégation Identification / qualification des sources de données nécessaires pour enrichir le modèle existant (coordination équipes IT + Data Factory) Suivi de la mise en œuvre par Data Factory (daily notamment) Recette : plan de recette, réalisation, accompagnement des référents métiers pour recette métier finale Support des équipes métiers à la mise en œuvre et au-delà Garant de la cohérence (ou des justifications d’écarts) de ces indicateurs avec l’existant (patrimoine Microstrat, Qlick View notamment) et avec les autres projets fortement consommateurs de données Rédaction de livrables Plan de recette et réalisation de la recette Support aux utilisateurs

Freelance
CDI

Offre d'emploi
Ingénieur Sysops GCP H/F

AMAGO EXPERTISE
Publiée le
Ansible
DevOps
Google Cloud Platform

12 mois
10k-55k €
Nantes, Pays de la Loire

Amago IT recherche pour l'un de ses clients grands comptes dans le cadre d'une mission de longue durée, basée à Nantes : un Ingénieur Sysops GCP H/F Au sein de l'équipe plateforme sur GCP dans un fonctionnement agile (PO, Scrum master, Leader technique, architectes) : Mission : -Conception / Création / Implémentation / Landing zone GCP -Capacité à expliquer, vulgariser, acculturer et former -Posture de coach technique pour l'ensemble de l'équipe - Savoir fédérer autour de nouvelles pratiques ou des nouveaux outils

Freelance
CDI

Offre d'emploi
Tech Lead Java Senior h/f

Ela Technology
Publiée le
Apache Kafka
API
Architecture

6 mois
30k-200k €
Nord, France

Contexte : Dans le cadre de notre développement, nous recherchons un.e Tech Lead Java Senior. L’objectif de notre client est de créer une nouvelle plateforme de 0 afin de collecter, afficher et analyser les avis laissés par leurs clients sur leurs produits et services et ceux de leurs partenaires. Cette nouvelle plateforme sera le lancement de leur nouvelle stratégie en terme de captation des contenus générés par leurs clients (social media, questions/réponses, vidéo, images, ...). Mission : Dans le cadre de la construction de cette nouvelle plateforme, nous cherchons un Tech Lead Java Senior afin de faire le design puis l'implémentation de la plateforme. Environnement technique : - Back : Java, PostgreSQL, Elasticsearch, Kafka - Cloud : GCP, K8S - CI/CD : GitHub, Github action, Docker - Monitoring : Datadog

Freelance

Mission freelance
DevOps NANTES

AKERWISE
Publiée le
Bash
FTP (File Transfert Protocol)
Google Cloud Platform

1 an
100-2 940 €
Nantes, Pays de la Loire

🚩🚩🚩🚩🚩🚩🚩🚩 ➡️Merci de nous adresser un bref message expliquant les raisons de votre candidature et votre intérêt pour cette mission. ✅ Par ailleurs, merci nous confirmer que vous avez bien pris en compte le lieu de la mission ainsi que l’obligation de présence sur site trois jours par semaine. 🔴 La mission ne peut pas se faire en full Remote (Présence sur site hebdo obligatoire - Condition non négociable) 🚩🚩🚩🚩🚩🚩🚩🚩 Intégrer l'équipe Plateforme Echanges PDV & Partenaires dans un contexte Agile (Product Owner+Agile Master) Participation à l'exécution des tâches du backlog Travailler sur les plateformes d'Échanges : EDU,, EDI(Saas), CFT, DEX,, Media Transfer, Console de supervision. Prestation attendue : Maintenance et évolutions des infrastructures Gestion des incidents (N3) Mise en place des procédures et bonnes pratiques, Intégration des solutions DEX/Media Transfer pour les nouveaux serveurs Accompagner au niveau de la supervision des flux

Freelance

Mission freelance
Tech lead SAP S4 Hana

Cherry Pick
Publiée le
Google Cloud Platform
SAP

12 mois
600-700 €
Neuilly-sur-Seine, Île-de-France

Cherry Pick est à la recherche d'un Tech lead SAP S4 Hana pour un client dans le secteur de luxe Objectifs et livrables Leadership Technique : Superviser l'architecture technique des solutions SAP S/4HANA, en garantissant leur scalabilité, sécurité, et performance. Guider et accompagner les équipes techniques dans le développement et la mise en œuvre des solutions SAP S/4HANA y compris l’orchestrateur control-m. Connaissance des solutions d’infrastructures cloud en particulier l'intégration de SAP S/4HANA avec les services GCP. Capacité à définir et mettre en œuvre des architectures hybrides ou multi-cloud incluant SAP S/4HANA. Gestion de Projet : Collaborer avec les chefs de projet pour assurer le respect des délais, des budgets et de la qualité des livrables techniques. Collaborer étroitement avec les parties prenantes (métier, DSI, prestataires) pour aligner les solutions SAP avec les besoins stratégiques. Rendre compte de l'avancement des chantiers aux parties prenantes par des rapports réguliers.

Freelance

Mission freelance
Data Engineer

HAYS MEDIAS
Publiée le
BigQuery
ETL (Extract-transform-load)
Google Cloud Platform

1 an
100-430 €
Lille, Hauts-de-France

Il est garant de l'accès qualitatif aux sources de données. Il s'assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d'en faciliter l'exploitation par les équipes (Data Analysts et Data Scientists). Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT. Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons).

154 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous