Trouvez votre prochaine offre d’emploi ou de mission freelance Google Analytics
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php

Mission freelance
Data Engineer GCP confirmé – Expertise Spark, Kafka, Scala – Secteur bancaire
Nous recherchons un Data Engineer confirmé pour intervenir sur des projets stratégiques liés à la gestion et au traitement des données massives dans un environnement Cloud moderne. Vos missions : Mettre en œuvre des chaînes complètes de traitement des données : ingestion, validation, croisement et enrichissement des données. Automatiser la production et la mise à disposition d’agrégats journaliers, hebdomadaires et mensuels. Collaborer avec l’équipe Agile pour développer et documenter des user stories en lien avec le Product Owner. Concevoir des scripts de déploiement et prioriser les corrections d’anomalies. Automatiser les tests fonctionnels et participer à la mise en place de chaînes de livraison continue.

Mission freelance
Lead dev Java/vuejs
contexte du projet : Dans un contexte de transformation digitale et d’organisation d’entreprise en mode plateforme, nous travaillons sur la modernisation de notre SI. Nous te proposons d’intégrer, au sein de l'enjeu digital data l’équipe Configurateurs pour travailler sur la réalisation du configurateur Volets Battants sur une architecture cloud ready (GCP/openshift). Ce nouveau configurateur a fait l'objet d'une nouvelle étude UX. Les wireframes du projet sont déjà réalisées (un UI se chargera d'effectuer le découpage et la mise aux normes) Pour cela, tu collabores au sein d'une squad composée de plusieurs développeurs, d’un Product Owner, d'un UX et d'un UI. La méthodologie Agile Scrum ainsi que le BDD (Behaviour-Driven Development) et le TDD devront être utilisés pour ce projet. En tant que lead développeur, ton rôle est de concevoir ce nouveau configurateur en collaboration avec ta squad. Tu es notamment en charge : De concevoir et réaliser des solutions standardisées (Back & Front) De déployer et maintenir nos solutions (Evolutions & corrections) De garantir la sécurité de nos solutions (accès au SI, stockage des données, …) De contribuer aux études et définitions des spécifications applicatives et techniques De garantir la qualité des livraisons En tant que développeur tu connais les nouvelles tendances & opportunités technologiques et tu sais les partager (Slack, Workplace, Confluence). Tu es également très autonome et force de propositions. Tu es en relation avec les autres équipes en charge des applications de vente.

Mission freelance
Lead Développeur Fullstack
Contexte du Projet Dans le cadre du programme Vision 2035, l'objectif est de concevoir un SI performant, collaboratif et basé sur des standards, permettant de répondre aux enjeux de sûreté, sécurité, productivité et performance. Ce projet vise à créer une plateforme technologique pour optimiser les coûts, améliorer la productivité, et garantir la sécurité des infrastructures cloud. Le Lead Développeur Fullstack intégrera l’équipe de la Stream DEV (4 développeurs + 1 UX Designer) au sein de la Plateforme d’Accélération Technologique (PAT). L’équipe adopte une approche itérative et agile, favorisant l’innovation rapide, l’amélioration continue et l’utilisation des standards technologiques. Responsabilités Principales Développement de standards transverses Concevoir et développer des socles techniques (librairies, concepts, exemples d’implémentation) pour standardiser et mutualiser les briques de code. Participer à la mise en place de pratiques d’innersourcing pour encourager la collaboration inter-équipe. Challenger les besoins métiers pour les traduire en solutions techniques adaptées. Assurer l’alignement des livrables avec les objectifs stratégiques. Pilotage de l’application vitrine Prendre le lead technique sur une application démontrant l’utilisation des standards développés. Tester en avance de phase les standards techniques (cloud, observabilité, alerting). Contribuer à une boucle d’amélioration continue pour optimiser les standards et leur adoption. Compétences Techniques Requises Pratiques de développement et de testing Approche TDD (Test-Driven Development). Automatisation des tests avec Cypress et Playwright . Tests de performance avec Gatling . Pratiques et outils DevOps Expertise avec GitLab CI/CD , SonarQube , Checkmarx , Renovate , KICS . Gestion des dépendances via Maven et Node.js . Technologies essentielles Frontend : Expertise en Angular . Backend : Maîtrise de Spring Boot et Node.js . Compétences en Python (atout supplémentaire). Développement mobile Compétences en Kotlin , PWA et Ionic . Architectures cloud et container Expertise sur AWS (GCP est un plus) : Conteneurs : Fargate , Docker , Kubernetes . Solutions serverless : Lambda , API Gateway . Gestion de l'infrastructure as code avec Terraform . Compétences Humaines Requises Capacité à structurer et piloter des initiatives techniques en autonomie. Excellentes compétences relationnelles pour collaborer avec des équipes multidisciplinaires. Leadership technique et aptitude à fédérer autour de standards communs. Certification Appréciée Certification AWS . Ce poste offre l’opportunité de travailler sur un projet d’envergure stratégique, avec une forte composante technique et une ambition de transformation à l’échelle.

Offre d'emploi
Développeur FullStack Java/React
Rejoignez une Digital Factory dynamique en tant que Développeur FullStack Java/React, afin de travailler sur plusieurs projets FromScratch. Une expérience de 3 ans à minima est demandé. Nous recherchons des profil smart ayant une approche agnostique. Princip Solid / Clean Code et autres règles de bonnes pratiques sont sollicités Compétences indispensables : Bonnes connaissances de React (3 ans d'expérience minimum ) Bonnes connaissances de Java et Spring (3 ans d'expérience minimum) Bonne connaissances de NextJS & NodeJS Maîtrise des architectures modernes: Event Driven , Micro-services, Serverless Maîtrise de SGBD SQL Solides compétences en développement responsive Travailler avec les UX/UI pour avoir des interfaces ergonomiques et facile d'utilisation Bonnes connaissances des méthodologies de versionning ( gitflow ) Sensible à l'expérience utilisateur et aux interfaces mobiles Maitriser les outils de ticketing ( Jira ) Savoir travailler en agilité ( Scrum ou Kanban ) Maîtrise d’une solution d’automatisation open source: Cucumber , Selenium , Robotframework Maîtrise de l'approche BDD (Behaviour Driven Development). Connaissance d'un outil de scripting et Postman . Maîtrise du cycle Agile / Scrum . Maîtrise de GIT et Gitlab Maîtrise de Could Provider: GCP & AWS Compétences souhaitables : Maîtrise de la démarche DEVOPS et CI/CD Expériences avec le framework Strapi Expériences avec le framework Flutter Expériences avec le framework Sylius Maitrise de Cloud Function de GCP Maitrise de PostgreSQL Maitrise d'outils d'automatisation des tests: idéalement Selenium et Cucumber . Esprit pédagogique de partage constructive Faire progresser les équipes. Assurer une veille technologique fréquente Environnement technique : → React, Java, Spring, NextJs, NodeJS, PostgresSQL, JavaScript, AWS, GCP, GitLab, API REST
Offre d'emploi
Data engineer GCP - H/F
Description : • Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise • Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent Activités et tâches : • Acheminement de la donnée • Mise à disposition de la donnée aux équipes utilisatrices • Mise en production de modèles statistiques • Suivi de projet de développement • Développement job spark • Traitement et ingestion de plusieurs formats des données • Développement des scripts • Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données • Développement des moyens de restitution via génération de fichier et ou API & Dashboarding • Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers • Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) • Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP • Participer à la conception, mise en place et administration de solutions Big Data • Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka • Normalisation et agrégation des données afin de produire les rapports sous forme de Business View

Mission freelance
DevSecOps Engineer
· Gestion de la sécurité Kubernetes : Configurer et maintenir la sécurité des clusters Kubernetes (politiques réseau, secrets, surveillance des activités, etc.). · Développement et optimisation des pipelines CI/CD sécurisés pour automatiser les déploiements et les tests de sécurité. · Pilotage des systèmes de détection et de réponse aux incidents en utilisant des outils tels que Prometheus, Grafana, … · Implémentation des solutions sécurisées pour la gestion des secrets et des accès avec Vault · Conformité des environnements avec les standards de sécurité (ISO 27001, PCI-DSS, RGPD, etc.), en réalisant des audits réguliers et en documentant les processus. · Collaboration avec les équipes de développement et d’infrastructure pour intégrer la sécurité dans chaque étape du cycle de vie des applications. · Analyse et réaction aux incidents de sécurité en mettant en oeuvre des correctifs, et faire des recommandations pour renforcer la résilience. · Formation et sensibilisation des équipes internes aux bonnes pratiques en matière de sécurité, notamment autour de Kubernetes et des conteneurs.

Mission freelance
DevOps Kubernetes/Grafana/Open Telemetry
Au sein de notre du agence lilloise, pour le compte de notre client issu du secteur de la grande distribution, nous recherchons un DevOps pour accompagner l'équipe Observabilité et être acteur dans la construction de la plateforme d'observabilité composée de plusieurs outils d'alerting, monitoring, log management et APM pour des applications à la fois hébergées on Premise et dans le cloud. La mission est basée à Ronchin (59) Plus généralement, vos tâches seront les suivantes : - Contribution à la définition des spécifications générales, - Réalisation à l'analyse technique et l'étude détaillée, - Adaptation et paramétrage des progiciels applicatifs (ERP), - Réalisation du prototypage, - Elaboration des jeux d'essais pourles tests unitaires d'intégration, - Tests unitaires, - Identification et traitement des dysfonctionnements, - Réalisation des modules (objets et composants logiciels), - Assemblage des composants, - Rédaction des documentations, - Maintenance corrective et évolutive, - Administration des composants logiciels réutilisables et met à jour la nomenclature de ces composants. Plus particulièrement, vos taches seront les suivantes : - Design, intégration, templatisation, déploiement, paramétrage des composants de la plateforme d'observabilité, - Administration, gestion des incidents/problèmes, industrialisation, et amélioration continue des outils qui composent la plateforme d'observabilité, - Accompagnement et conseils des utilisateurs dans l'utilisation de la plateforme d'observabilité et sur l'amélioration de la performance des applications/projet métiers (à l'international), - Construction d'une stack open source d'observabilité, de la collecte (logs, métriques, traces) à l'exploitation dans les backends, - Rédaction de la documentation et des dossiers d’exploitation afin de former et de transférer les compétences aux équipes techniques internes. Livrables : - Code documenté suivant les règles et référentiels de l'entreprise - Indicateurs de performances : Nombre de corrections en phase de recette, performance des composants développés (via des benchmarks), respect du délai dans la réalisation des modifications, nombre de régressions

Offre d'emploi
Data Engineer DWH GCP
DÉBUT DE MISSION : ASAP DURÉE : 12 mois LIEU : Noisy-Le-Grand – Travail hybride CATÉGORIE TECHNIQUE : Systèmes (Infras, Cloud, DevOps, ...), Réseaux, Sécurité Nous recherchons pour l’un de nos clients grands comptes un Data Engineer DWH GCP expérimenté, pour contribuer à un projet de transformation IT ambitieux. Contexte du projet : Dans le cadre du programme de transformation IT, le département DATA mène un projet stratégique de migration du Data Warehouse France On-Premise (Oracle – PL/SQL) vers la Google Cloud Platform (Big Query). Ce projet inclut : L’utilisation de Dataform , Cloud Functions , et Cloud Run . La migration des données et processus existants, incluant un ETL développé en interne et certains programmes en Natural (éditeur SAG) . Vos missions principales : Participer à la migration du Data Warehouse vers Big Query sur GCP. Développer et optimiser des scripts en PL/SQL et Python pour les processus de transformation des données. Collaborer sur la conception et l’intégration des pipelines de données via les outils GCP. Analyser et réaliser des tests unitaires, d’intégration et de non-régression . Documenter les processus et assurer un transfert de compétences aux équipes. Participer activement aux rituels Agiles et utiliser Jira pour la gestion des tickets. Analyser les résultats des tests via des outils internes et ajuster les développements en conséquence. Créer et utiliser des scripts Linux KSH pour les opérations nécessaires. Profil recherché : Expérience : Minimum 8 ans dans un rôle similaire. Compétences techniques : Langages : PL/SQL (Confirmé), Python (Confirmé). Bases de données : Oracle et Big Query (Confirmé). Connaissance des outils GCP, y compris Dataform , Cloud Functions , Cloud Run . Familiarité avec des outils de Data Visualisation tels que Looker , SAP BO , ou Spotfire . Expérience en tests logiciels et outils de ticketing comme Jira . Bonne connaissance des environnements Linux et scripting KSH . Qualités personnelles : Capacité à travailler en équipe et dans un environnement Agile. Sens de l’analyse et autonomie dans l’exécution des tâches. Adaptabilité et capacité à gérer des environnements techniques complexes.

Mission freelance
Software Engineer IA & Computer Vision | Casablanca 100% Remote
Dans le cadre de l'industrialisation de modèles d'intelligence artificielle basés sur des techniques de computer vision , vous serez intégré(e) au service Data Science pour contribuer à la mise en place et à l’optimisation des pipelines de données et des workflows IA. Vos responsabilités Collaborer avec l’équipe Data Science pour déployer et maintenir des modèles d’IA en production. Concevoir, développer et optimiser des pipelines de données avec Apache Airflow pour garantir une gestion efficace des workflows. Mettre en place des infrastructures cloud sur Google Cloud Platform (GCP) , en utilisant des outils comme Docker et Kubernetes pour une gestion scalable et robuste des environnements. Intégrer les meilleures pratiques DevOps/DataOps (CI/CD, monitoring, automatisation) dans les projets IA. Garantir l’intégration des modèles basés sur des bibliothèques de data science et computer vision dans des systèmes opérationnels. Participer à l’amélioration continue des process d’industrialisation des modèles IA. Environnement technique Outils et technologies : Docker, Kubernetes (expertise requise), Airflow, Git. Cloud : Google Cloud Platform (GCP). Domaines d'application : Intelligence artificielle, Computer Vision, Data Science. Langages et bibliothèques : Python (librairies data science comme TensorFlow, PyTorch, OpenCV, etc.).

Mission freelance
Devops GCP
Au sein des équipes opérationnelles, la mission de devops consiste à - assurer l'intégration continue des solutions développées - maintenir les plateformes - Suivre le monitoring de la plateforme - Implémenter des évolutions sur les scripts de fichiers sources de l'usine logicielle (script de packaging/paramétrage, job de build / livraison). - Implémenter les outillages et procédures de répétitions (ex: backup, automatisation, test de paramétrage). - Supporter des équipes de développements et de recette sur les activités de BUILD et de RUN. Le poste requiert des astreintes

Mission freelance
Data Engineer
Il est garant de l'accès qualitatif aux sources de données. Il s'assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d'en faciliter l'exploitation par les équipes (Data Analysts et Data Scientists). Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT, Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons, ). SON ACTIVITE : QUALIFICATION ET GESTION DES DONNÉES : - Capte les données (structurées et non structurées) produites dans les différentes applications ou à l'extérieur de l'entité - Intègre les éléments - Structure la donnée (sémantique, etc.) - Cartographie les éléments à disposition - Nettoie la donnée (élimination des doublons, ) - Valide la donnée - Éventuellement, il crée le référentiel de données SES LIVRABLES : - Data Lake approprié et partagé et son dimensionnement - Cartographie des données - Les éléments permettant de garantir la qualité de la donnée

Mission freelance
Senior Data Scientist
Rôle : Data Scientist senior Durée du contrat : 6 mois (extensible) Travail à distance* (déplacements occasionnels dans les 2 bureaux du client) Date de début : ASAP Responsabilités : Concevoir et développer des prototypes et des projets pilotes pour démontrer la valeur des solutions d'intelligence artificielle. Définir et structurer les projets d'IA, en travaillant en étroite collaboration avec les parties prenantes. Identifier les objectifs et les ressources nécessaires pour assurer la faisabilité du projet Fournir aux clients des conseils stratégiques et techniques pour les aider à intégrer les solutions d'IA dans leurs processus d'affaires. Processus de documentation précis N'hésitez pas à nous contacter si ce poste vous intéresse !

Mission freelance
Ingénieur Réseaux Hybrides/ Devops (aws, gcp, cisco et palo alto)
Nous recherchons pour notre client, un grand média, un(e) ingénieur(e) DevOps, expert en réseaux hybrides (Cisco, PaltoAlto, AWS et GCP). Notre client recherche un candidat sénior avec de fortes compétences techniques sur ses environnements "réseaux hybrides" pour assurer le support niveau 3 et le MCO dans un contexte réseaux OnPrem et Cloud public (Cisco, PaloAlto, AWS, GCP, Azure...). Le candidat doit être en mesure de maitriser les solutions réseaux hybrides déployées chez le client et maitriser les outils DevOps (Proxmox, Gitlab...) qui sont déployées pour la production et l’exploitation des réseaux hybrides Détail de la prestation : o Maintenir en condition opérationnelle des réseaux hybrides (support niveau 3 pour le MCO). o Supporter l’exploitation (traitement des tickets escaladés). o Analyser et proposer des améliorations continues sur le MCO des réseaux hybrides (niveau 1, niveau 2 et niveau 3). o Assurer des interventions ou des astreintes ponctuelles en HNO. o Concevoir les changements réseaux hybrides rendues nécessaires pour le MCO. o Automatiser les déploiements via les outils France Télévisions. o Transférer la connaissance aux équipes Ingénierie et Support. o Livrables : ▪ Documents de MCO de l'architecture réseaux hybrides ▪ Documents d’automatisation (code source commenté) ▪ Documents d’Exploitation ▪ Cahier de recette des changements

Offre d'emploi
Chef de projet Data H/F
Nous recherchons pour un de nos clients, spécialisé dans le domaine bancaire un Chef de projet Data H/F pour une mission à pourvoir dès que possible sur le secteur du Luxembourg ville. Vos missions : • Planifier, organiser et diriger les projets de l’initiation à la clôture. • Assurer le suivi de l’avancement des projets et la gestion des risques. • Coordonner les équipes internes et externes, veillant à une communication efficace et à la collaboration entre les parties prenantes. • Assurer la liaison entre les équipes techniques et les utilisateurs pour garantir une compréhension mutuelle des exigences et des solutions. • Collaborer avec les équipes de développement pour s’assurer que les solutions proposées sont mises en œuvre conformément aux spécifications. • Proposer des solutions adaptées aux points bloquants identifiés et participer à leur validation. • Faciliter les réunions de travail de projet, les ateliers de travail et les sessions de revue. • Préparer et présenter des rapports d’avancement aux parties prenantes.

Mission freelance
Ingénieur réseaux
Le poste à pouvoir se situe à Villeneuve d’Ascq, avec une présence sur site obligatoire à hauteur de 3j par semaine. PS : L'ensemble des compétences recherchées sont obligatoires. Dans ce cadre, le candidat sera amené à intervenir sur les différents périmètres de responsabilité de l’équipe à savoir : Reporting sur la qualité et les coûts pour les principales activités et projets Evolution et fonctionnement des composants et fonctions réseaux : -Escalade de l’exploitation sur les incidents / problèmes -Maintenance en condition opérationnelle Gestion des évolutions -Roadmap des composants ou des services -Gestion de l’obsolescence -Catalogues de services -Projets techniques / Sprints -Amélioration des compétences / évolutions technologiques Industrialisation / Automatisation Contenu non exhaustif de la mission : Rédaction de spécifications techniques détaillées et mise en place des composants réseaux. Accompagnement des utilisateurs techniques et non-techniques Proposition d’évolutions du SI à apporter dans une optique de fiabilité Traiter les incidents et les demandes réseaux et piloter les résolutions en toute autonomie Contribuer à l’élaboration / mise à jour -des architectures techniques et des roadmaps -des guidelines et du catalogue de services -du corpus documentaire -de l’outillage et de la mise en place du socle de base (assets, observabilité, capacityplanning, …) Assurer l’industrialisation des solutions (infra as code) Assurer une veille technologique adaptée des solutions Les Interlocuteurs Équipes IT du département Opérations (Réseau, IaaS/PaaS, DBA, PM, ...) Équipes Projet et les Chefs de Projet, BO/PO/TL Équipes Techniques en BU

Offre d'emploi
Ingénieur DATA / IA (Automation)
CONTEXTE Notre client (grand groupe Bancaire) recherche un Ingénieur Data / IA. Au sein de la division Data du groupe, l'équipe DataLab propose de multiples produits d'IA/ML/LLM aux clients internes du groupe. L'équipe est composée d'une dizaine d'experts qui sont répartis sur 3 pôles d'activité (AI Competency Centre, Automation, GPU Grid System). La mission est à pourvoir au sein de l'équipe Automation, qui fournit plus d'une dizaine de plateformes de Data science de production (Cloud et on premise) pour +400 utilisateurs. Ces offres de Data Science / AI pour les clients internes du groupe sont proposés sous forme de produits digitaux et/ou programmatiques ("as code").
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
Les métiers et les missions en freelance pour Google Analytics
Community manager / social media manager
Le/La Social Media Manager utilise Google Analytics pour suivre les performances des campagnes sur les réseaux sociaux et améliorer l'engagement des audiences.
Explorez les offres d'emploi ou de mission freelance pour Community manager / social media manager .
Découvrir les offresExpert·e / Consultant·e SEO (référencement)
Le/La Consultant SEO utilise Google Analytics pour analyser les sources de trafic organique et optimiser le positionnement des sites web sur les moteurs de recherche.
Explorez les offres d'emploi ou de mission freelance pour Expert·e / Consultant·e SEO (référencement) .
Découvrir les offresContent manager
Le/La Content Manager utilise Google Analytics pour identifier les contenus les plus populaires et ajuster la stratégie éditoriale en fonction des données.
Explorez les offres d'emploi ou de mission freelance pour Content manager .
Découvrir les offres