Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Offre de mission : Profil DevOps CloudOps - Freelance
Pixie Services recrute un(e) DevOps CloudOps confirmé Mission : Pixie Services, spécialiste dans le staffing IT, recherche un(e) expert(e) DevOps pour une mission de longue durée. Compétences techniques requises : GKE/GCP : Confirmé (impératif) Ansible : Confirmé (impératif) GitlabCI : Confirmé Helm : + Français courant Anglais professionnel Description de la mission : Intégration de solutions logicielles et matérielles dans un environnement Cloud (GCP/OpenShift) Déploiement des applications via CICD Support d'incidents en production Mise en exploitation de nouvelles applications ou versions Expertise des technologies Cloud et des services des grands Cloud providers Maîtrise de la conteneurisation, de l'automatisation et de la CI/CD Accompagnement des développeurs et mise en place d'une démarche DevOps Missions principales : Analyse des besoins et veille technologique : Recueillir l'information nécessaire Préconiser des solutions Rédiger des cahiers des charges et assurer une veille technologique continue. Mise en place et intégration : Concevoir et adapter les logiciels Configurer et dimensionner les solutions Tester les systèmes et assurer la validation technique. Exploitation : Valider l'intégration des nouveaux outils Traiter les incidents et anomalies Participer à la maintenance corrective et améliorer les ressources existantes. Sécurité : Assurer le respect des règles de sécurité Gérer les sauvegardes et la sécurité physique des données. Type de contrat : Mission freelance, longue durée Si cette mission vous intéresse, merci de postuler avec votre Cv à jour.
Offre d'emploi
DATA ENGINEER GCP DBT
Je recherche pour un de mes clients dans le domaine de la Banque/Assurance un Data Engineer GCP&DBT confirmé : Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement • Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants • Rédiger la documentation technique des data products • Assurer un support aux testeurs • Reporter de ton activité à ta Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Réaliser du code applicatif à l’état de l’art sur notre nouvelle Data Platform • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Faire des propositions techniques Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, GCP Dataflow, Data Build Tool (DBT) • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab, Flamingo • Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Autonomie, rigueur, proactivité et prise d’initiative • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Capacité à communiquer, à travailler en équipe et excellent relationnel Une pratique opérationnelle de l’anglais est également nécessaire pour la rédaction de la documentation et la participation à certaines cérémonies. Une expérience professionnelle significative dans le domaine de la banque de détail est un plus.
Offre d'emploi
DevOps GCP (H/F)
ANALYSE DES BESOINS ET VEILLE TECHNOLOGIQUE : Recueillir l'information nécessaire et étudie les besoins d'équipements matériels et logiciels Préconiser et conseille sur les choix des solutions informatiques en relation avec les architectes, les experts des autres domaines et les besoins du métier dans le respect des patterns techniques définis par l'entreprise Rédiger le cahier des charges contenant les spécifications techniques des équipements Rédiger les appels d'offre et analyse les propositions des constructeurs en termes de performance, fiabilité et compatibilité Assurer une veille technologique pour garantir l'optimisation des ressources systèmes de l'entreprise MISE EN PLACE ET INTÉGRATION : Conçoit ou adapte (paramètre) les logiciels sélectionnés Configure et dimensionne les solutions hardware retenues en fonction des performances requises par les logiciels Teste les systèmes mis en place et veille à la compatibilité des éléments entre eux Participe aux phases de validation technique lors des mises en production Veille à la sécurité et à la fiabilité des systèmes de l'entreprise EXPLOITATION : Valide l'installation et l'intégration des nouveaux outils (systèmes, ou réseaux et télécoms) Traite les incidents ou anomalies avec diagnostic de l'incident, identification, formulation et suivi de sa résolution Participe aux actions correctives de maintenance en veillant à leur qualité Propose des améliorations pour optimiser les ressources existantes et leur organisation Rédige et met à jour la documentation des procédures et consignes d'exploitation. Effectue le transfert de compétences et l'assistance technique des procédures aux équipes d'exploitation et participe éventuellement à leur formation SÉCURITÉ : Respecte et suit les règles de sécurité définie par l'entreprise Applique les plans de sauvegarde et de secours définis Assure la sécurité physique des données en termes de sauvegarde et d'archivage
Offre d'emploi
Devops GCP H/F
Groupe SYD IM Nous recherchons pour l'un de nos clients sur Nantes un DEVOPS GCP H/F Missions : Travail en agilité (Scrum, Kanban) Réalisation de solutions techniques vis à vis des éléments priorisés du backlog produit par le PO et le leadtech Ecriture de documentation technique Travail en petit groupe avec d'autres DevOps sur des sujets d'analyse ou de réalisation ou de gestion des incidents, selon les besoins Compétences attendues Réaliser des scripts en python, des modules terraform et des playbook ansible A l'aise avec la gestion de VM sous Linux et/ou sous Windows Posture de communicant et de partage des connaissances Environnement technique/fonctionnel Google Cloud Platform (GCE, GCS, CloudFunction) Terraform Ansible Github Jenkins Administration des Systèmes d'exploitation Windows Server RHEL Python Télétravail partiel ok rejoignez-nous!
Mission freelance
Développeur Golang - JAVASCRIPT - GCP - BIGQUERY - DOCKER - K8S
Développeur Vous rejoindrez le pôle développement de la direction technique, au sein de l'équipe "Data". En collaboration avec d'autres développeurs et le Technical Lead, vos principales missions seront : Maintenance applicative : gérer et améliorer notre outil de collecte de données et les APIs associées. Développement de fonctionnalités : concevoir, tester, monitorer et faire des revues de code. Support et amélioration continue : garantir la continuité de service et participer aux initiatives d'optimisation. Vous interviendrez sur un stack varié dans un environnement collaboratif et agile : Backend : Go (Golang) et PHP (Phalcon), pour nos APIs RPC et REST. Frontend : JavaScript. Bases de données : MySQL, Redis, BigQuery. Cloud et DevOps : Google Cloud Platform (GKE, Pub/Sub, Logging, Monitoring), Docker. Outils : Jira, Git, GitHub. Expérience : plus de 3 ans en développement web. Bonne maîtrise de Go, avec expérience en développement, test et monitoring d'APIs RPC et REST. Compétence en JavaScript, avec capacité à développer, tester et maintenir des librairies. Familiarité avec des outils tels que GCP (Pub/Sub, Logging, Monitoring), Docker, Kubernetes et la CI/CD.
Offre d'emploi
SYSOPS H/F
Groupe SYD IM Nous recherchons pour l'un de nos clients sur Nantes un Sysops H/F Missions : Travail en agilité (Scrum, Kanban) Réalisation de solutions techniques vis à vis des éléments priorisés du backlog produit par le PO et le leadtech Ecriture de documentation technique Travail en petit groupe avec d'autres DevOps sur des sujets d'analyse ou de réalisation ou de gestion des incidents, selon les besoins Compétences attendues Réaliser des scripts en python, des modules terraform et des playbook ansible A l'aise avec la gestion de VM sous Linux et/ou sous Windows Posture de communicant et de partage des connaissances Environnement technique/fonctionnel Google Cloud Platform (GCE, GCS, CloudFunction) Terraform Ansible Github Jenkins Administration des Systèmes d'exploitation Windows Server RHEL Python Télétravail partiel ok rejoignez-nous!
Mission freelance
Data Engineer
Il est garant de l'accès qualitatif aux sources de données. Il s'assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d'en faciliter l'exploitation par les équipes (Data Analysts et Data Scientists). Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT, Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons, ). SON ACTIVITE : QUALIFICATION ET GESTION DES DONNÉES : - Capte les données (structurées et non structurées) produites dans les différentes applications ou à l'extérieur de l'entité - Intègre les éléments - Structure la donnée (sémantique, etc.) - Cartographie les éléments à disposition - Nettoie la donnée (élimination des doublons, ) - Valide la donnée - Éventuellement, il crée le référentiel de données SES LIVRABLES : - Data Lake approprié et partagé et son dimensionnement - Cartographie des données - Les éléments permettant de garantir la qualité de la donnée
Offre d'emploi
Architecte Google Cloud
👉 Contexte : Pour le compte d'un de nos clients, nous recherchons un Architecte Google Cloud qui jouera un rôle central dans l’adoption de Google Cloud en fournissant des conseils techniques experts, en élaborant des solutions sur mesure et en renforçant des partenariats solides. Ce rôle est à pourvoir en agence. Vos responsabilités couvriront les activités de pré-vente, la conception d’architectures, le développement de solutions et le support continu, en veillant à ce que les clients tirent pleinement parti des technologies Google Cloud. Il s'agit donc d'un rôle transverse. Apporter un leadership et une expertise aux équipes internes et aux clients, en les aidant à concevoir et à mettre en œuvre des solutions robustes sur Google Cloud. Fournir une expertise technique en pré-vente pour de nouvelles opportunités, en participant à la collecte des besoins, à la rédaction de propositions et de SOW (Statement of Work). Conseiller les clients sur leurs pratiques architecturales et d’ingénierie Google Cloud, en animant des ateliers si nécessaire. Travailler sur divers projets tels que : Projets de données modernes, d’IA et de GenAI (Intelligence Artificielle Générative), en utilisant les dernières technologies sur la plateforme Google. Développement de solutions et applications Greenfield sur Google Cloud. Programmes de migration de charges de travail et de modernisation des applications et infrastructures. Accompagner les équipes de développement dans les processus de développement et de déploiement de logiciels sur Google Cloud, en promouvant son utilisation et en aidant à concevoir et architecturer des POC. Produire une documentation de haute qualité dans le cadre du développement de vos solutions. Être un point de contact avec Google, en travaillant avec les ingénieurs partenaires et clients de Google pour s’assurer que nos équipes commerciales et projet reçoivent le soutien nécessaire de la part du fournisseur. Assister le Directeur des Solutions dans le développement de nos capacités et de notre portefeuille de services. Participer à des événements techniques et briefings Google Cloud, en utilisant les connaissances acquises pour aider à renforcer les compétences de l’équipe.
Mission freelance
Expert(e) CloudOps
Expert(e) CloudOps Contexte : Intègre la solution logicielle ou matérielle livrée par les services Etudes dans l’environnement de production Cloud (GCP/OpenShift). Intègre l’application et en assure le déploiement via CICD Gère le support nécessaire de l’application lors des incidents en production Intervient dans la mise en exploitation d’une nouvelle application ou la livraison d’une nouvelle version de cette application Est un spécialiste des technologies du cloud et des services proposés par les grands cloud providers Maîtrise généralement les concepts de conteneurisation, d’automatisation et de CI/CD* qui lui permettent d’accompagner les développeurs et de mettre en place une démarche DevOps dans l’entreprise Compétence recherchée : GKE/GCP - Confirmé - Impératif Ansible (Tower) - Confirmé - Impératif GitlabCI - Confirmé - Impératif Helm - Confirmé – Important
Mission freelance
Data Steward
En tant que Data Steward pour le domaine, vous dirigerez les initiatives de modélisation des données et d'amélioration de la qualité, en travaillant en étroite collaboration avec les équipes métiers, produit et techniques pour garantir une gouvernance des données appropriée et une conformité aux normes. Qualité des données & Modélisation : Piloter les initiatives de modélisation des données en suivant les exigences internes. Garantir l'utilisation sémantique appropriée et la cardinalité dans les modèles de données. Valider les structures de données avec l'équipe d'architecture. Maintenir les standards de qualité des données dans le domaine concerné. Animation des parties prenantes : Coordonner avec les Chefs de Projet (propriétaires des données). Faciliter les discussions entre les équipes métiers et techniques. Guider les équipes techniques dans l'amélioration des structures API/événements. Travailler en étroite collaboration avec les équipes produit pour intégrer les sujets de données dans la feuille de route. Collaborer avec l'équipe d'architecture pour la validation des modèles. Compréhension des processus métier : Analyser les processus métier existants. Proposer des recommandations initiales pour l'architecture des données. Garantir l'alignement entre les besoins métiers et les structures de données. Documenter les flux de données et les dépendances. Support à la mise en œuvre technique (20%) : Guider l’exposition des données selon les modèles validés. Supporter la restructuration des sujets Kafka et des API de points de terminaison. Superviser la mise en œuvre de la qualité des données. Valider les solutions techniques.
Offre d'emploi
Ingénieur Système GCP H/F
Groupe SYD IM Nous recherchons pour l'un de nos clients sur Nantes un Ingénieur système GCP H/F Missions : Travail en agilité (Scrum, Kanban) Réalisation de solutions techniques vis à vis des éléments priorisés du backlog produit par le PO et le leadtech Ecriture de documentation technique Travail en petit groupe avec d'autres DevOps sur des sujets d'analyse ou de réalisation ou de gestion des incidents, selon les besoins Compétences attendues Réaliser des scripts en python, des modules terraform et des playbook ansible A l'aise avec la gestion de VM sous Linux et/ou sous Windows Posture de communicant et de partage des connaissances Environnement technique/fonctionnel Google Cloud Platform (GCE, GCS, CloudFunction) Terraform Ansible Github Jenkins Administration des Systèmes d'exploitation Windows Server RHEL Python Télétravail partiel ok rejoignez-nous!
Offre d'emploi
Ingénieur sécurité et réseaux CLOUD / GCP
Nous recherchons pour notre client final (grand compte) deux Ingénieurs Sécurité Cloud pour le maintien en condition des équipements de sécurité : Mise en place des infrastructures réseau et sécurité au sein des clouds GCP et Azure. Mise en place des solutions d'interconnexion. Support de niveau 3 sur tout incident opérationnel concernant les équipements de sécurité dans l'environnement cloud et les datacenters associés. Identification et mise en place des correctifs, ainsi que l'évolution de l'ingénierie si nécessaire. Rédaction de procédures et de documents techniques à suivre par les équipes de niveaux 1 et 2. Accompagnement des projets pour la mise en place de l'environnement réseau associé (flux, routage, etc.). Participation aux projets de modernisation des différents services réseaux (firewalls, DNS, routeurs, etc.). Suivi des actions de remédiation pour corriger les vulnérabilités de sécurité et mise en conformité des équipements, réseaux et systèmes de sécurité concernés.
Offre d'emploi
Product Owner Big Data - SQL - RGPD - CNIL
La Direction Data met en œuvre l’ensemble de la chaîne de traitement et de valorisation des données pour en accélérer l’usage. Elle accompagne les différentes offres et la croissance des offres (Acquisition, Réseaux sociaux, Partenariats, CRM) dans le développement d’outils de pilotage, la compréhension des usages et l’amélioration de l’expérience utilisateurs. Pour maximiser la valeur ajoutée issue de nos données, nous avons mis en place une Data Platform structurée en trois zones : - Une zone Bronze qui collecte, nettoie, centralise, et expose la donnée brute - Une zone Silver qui transforme les données brutes en données raffinées pour servir tous les usages métiers dans leur ensemble - Une zone Gold qui transforme les données raffinées pour servir les cas d’usages métiers du pilotage, de la personnalisation et de la data Science L’équipe en charge de la zone Bronze est l’équipe big Data composée d’un Product Owner Data, de 3 Data Ingénieurs, dont un lead, et est à la recherche d’une prestation de Product Owner. Missions de l’équipe Big Data - Conception et maintenance de la zone Bronze : Gérer les données brutes, de leur collecte à leur centralisation, en assurant leur nettoyage, - Intégration en continue : Assurer l’intégration, le nettoyage et la validation continue des données, - Optimisation des flux de données : Améliorer les pipelines pour garantir des traitements efficaces et scalables, - Veille technologique : Intégrer les meilleures pratiques et innovations en Big Data pour optimiser la gestion de données brutes.
Mission freelance
Développeur Data/IA : Python & JS - mission longue - Anglophone
Bonjour, Nous recherchons un développeur fullstack pour des projets Data/IA ambitieux. L'objectif du projet est de construire une application web pour libérer la créativité de l'équipe Marketing, accélérer la campagne de communication digitale et améliorer la qualité et la performance de leur campagne de communication. Le projet se concentre sur le développement de l'application web, toutes les capacités génératives seront disponibles à travers l'API (Ex : Firefly, Gemini ou une API construite en interne) Description du poste : - Front end : 1. Collaboration avec les designers UI/UX pour mettre en œuvre des designs visuellement attrayants et conviviaux. 2. Conception et développement d'interfaces utilisateur réactives. - Back end : 1. Développement de fonctionnalités robustes et évolutives côté serveur sur la base de l'histoire de l'utilisateur. 2. Mise en œuvre et exposition d'API pour permettre la communication entre le front-end et le back-end. 3. Conception et maintenance de la base de données (Firestore) et optimisation des performances des requêtes. Fonctions transversales : 1. Assurer les meilleures pratiques de développement (tests unitaires, documentation). 2. Collaboration avec les autres membres de l'équipe. - Environnement technique : 1. Environnement GCP lié au développement : Cloudrun, Firestore, CloudStorage etc... 2. Back-end : Python, fastapi 3. Front-end : React, Typescript, ViteJS, Material UI - Expertise supplémentaire : L'expertise du modèle de génération d'images est un plus
Mission freelance
Data Engineer
Nous recherchons un consultant Data pour la création et l'amélioration continue des produits digitaux Eco-responsable et sociaux. L'objectif de ces produits digitaux est de mesurer l'impact environnemental et social des produits vendus notre client. Le consultant Data aura une dominance Data Engineer mais des compétences de Data Analyst sont également attendues - Collecter les données via des PIPELINE - Mesurer la qualité des données - Historiser les données - Créer des modèles optimisés - Créer des dashboards pour répondre aux besoins métiers Environnement technique sur lesquels une expérience significative est attendue et non une première formation - GCP & BigQuery - Terraform & Github - PowerBI Gen 2 - Python
Mission freelance
Data Scientist IA
Nous recherchons un Data Engineer /Scientiste avec la capacité de mettre en place du dataViz (PowerBI/ loocker) Pour mettre en place des produits/Alghoritmes Data avec de l'IA /machine learning au sein du périmètre marketing client Automatiser des process et aider le business à prendre des décisions stratégiques en se basant sur la Data Cartographie des données Datamesh approprié et partagé et son dimensionnement Datamesh avec les sondes qui garantit la qualité de la donnée Qualification et Gestion des données: - Capte les données (structurées et non structurées) produites dans les différentes applications ou à l'extérieur de l'entité - Intègre les éléments - Structure la donnée (sémantique, etc.) - Cartographie les éléments à disposition - Nettoie la donnée (élimination des doublons, ) Stack technique: Python,Shell, CI/CD, Airflow, Dataflow - Expert AppEngine, FastAPI - Expert GIT, GitHub, bigQuery, Finder, PowerBI/loocker Méthode Scrum, Kanban
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.