Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
DATA Engineer GCP H/F
Intégrer l’équipe Move To Cloud pour réaliser la migration dans le cloud GCP. KARMA est le système de Revenue Management du groupe 100% migration cloud GCP Intégration d’une équipe de 6 personnes Présence sur site (Sophia Antipolis) obligatoire 1x par semaine. Présence sur site (Sophia Antipolis) obligatoire 3x par semaine pendant les 3 premiers mois (on boarding) Communication, leadership, autonomie, coaching Profils séniors uniquement Anglais niveau B2 Obligatoire Data engineering / Big Data Development Hadoop et Spark pour migration dans le cloud GCP
Mission freelance
Tech Lead / Architecte Looker
Dans le cadre du déploiement de Looker comme solution de Data Visualization, l’équipe DataViz recherche un Lead Technique / Architecte Looker pour participer à l’intégration et l’optimisation de cette solution au sein de l’organisation. Le Lead Looker joue un rôle clé dans la définition et la mise en œuvre de la stratégie de visualisation des données. Il sera un acteur central dans l’accompagnement de la transition vers Looker et dans l’innovation des pratiques de DataViz au sein du groupe. La mission s’articule autour de deux axes principaux : Accompagnement des projets Looker: Le consultant expert Looker sera chargé d’explorer et d’intégrer de nouveaux usages ainsi que des fonctionnalités innovantes pour optimiser et renouveler les approches de la visualisation des données. L’objectif est d’identifier et de mettre en place les meilleures pratiques et solutions pour répondre aux besoins des différentes entités du groupe. Migration des systèmes existants : Une part importante de la mission consiste à superviser la migration des outils de Business Intelligence existants, notamment le passage de SAP Business Object vers Looker. Ce projet vise à moderniser les outils BI du groupe, avec pour ambition de proposer des solutions plus agiles et performantes, adaptées aux exigences spécifiques de chaque marque sous l’égide du groupe.
Offre d'emploi
Offre de mission : Profil DevOps CloudOps - Freelance
Pixie Services recrute un(e) DevOps CloudOps confirmé Mission : Pixie Services, spécialiste dans le staffing IT, recherche un(e) expert(e) DevOps pour une mission de longue durée. Compétences techniques requises : GKE/GCP : Confirmé (impératif) Ansible : Confirmé (impératif) GitlabCI : Confirmé Helm : + Français courant Anglais professionnel Description de la mission : Intégration de solutions logicielles et matérielles dans un environnement Cloud (GCP/OpenShift) Déploiement des applications via CICD Support d'incidents en production Mise en exploitation de nouvelles applications ou versions Expertise des technologies Cloud et des services des grands Cloud providers Maîtrise de la conteneurisation, de l'automatisation et de la CI/CD Accompagnement des développeurs et mise en place d'une démarche DevOps Missions principales : Analyse des besoins et veille technologique : Recueillir l'information nécessaire Préconiser des solutions Rédiger des cahiers des charges et assurer une veille technologique continue. Mise en place et intégration : Concevoir et adapter les logiciels Configurer et dimensionner les solutions Tester les systèmes et assurer la validation technique. Exploitation : Valider l'intégration des nouveaux outils Traiter les incidents et anomalies Participer à la maintenance corrective et améliorer les ressources existantes. Sécurité : Assurer le respect des règles de sécurité Gérer les sauvegardes et la sécurité physique des données. Type de contrat : Mission freelance, longue durée Si cette mission vous intéresse, merci de postuler avec votre Cv à jour.
Offre d'emploi
DATA ENGINEER GCP DBT
Je recherche pour un de mes clients dans le domaine de la Banque/Assurance un Data Engineer GCP&DBT confirmé : Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement • Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants • Rédiger la documentation technique des data products • Assurer un support aux testeurs • Reporter de ton activité à ta Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Réaliser du code applicatif à l’état de l’art sur notre nouvelle Data Platform • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Faire des propositions techniques Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, GCP Dataflow, Data Build Tool (DBT) • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab, Flamingo • Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Autonomie, rigueur, proactivité et prise d’initiative • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Capacité à communiquer, à travailler en équipe et excellent relationnel Une pratique opérationnelle de l’anglais est également nécessaire pour la rédaction de la documentation et la participation à certaines cérémonies. Une expérience professionnelle significative dans le domaine de la banque de détail est un plus.
Offre d'emploi
Cloud DevOps GCP
Poste : Ingénieur Cloud DevOps GCP Durée : Longue (Voire 3 ans) Lieu : Ile De France Description du Poste : Dans le cadre d’un projet stratégique pour le compte d’une banque de renom , nous recherchons un Ingénieur Cloud DevOps spécialisé GCP . Vous serez chargé de concevoir, déployer et optimiser des solutions d’infrastructure cloud sur la plateforme Google Cloud Platform (GCP) , en assurant leur robustesse, leur performance et leur alignement avec les objectifs métiers. Responsabilités : - Expertise approfondie des services GCP et des outils natifs pour la conception et la gestion d'infrastructures cloud complexes ; - Solides compétences en Terraform et Ansible pour l'infrastructure as code et l'automatisation ; - Maîtrise de la mise en place et de la gestion de pipelines CI/CD avec GitLab CI , adaptés aux exigences d’un secteur bancaire ; - Orchestrer et gérer des conteneurs avec Kubernetes et Docker , en exploitant pleinement les capacités de Google Kubernetes Engine (GKE) ; - Bonne connaissance des outils ArgoCD , Maven , et SonarQube pour la gestion des configurations, des builds, et de la qualité logicielle ; - Optimiser les coûts et l’efficacité des ressources cloud en exploitant des services GCP tels que Compute Engine , Cloud Storage , et BigQuery .
Offre d'emploi
Devops GCP H/F
Groupe SYD IM Nous recherchons pour l'un de nos clients sur Nantes un DEVOPS GCP H/F Missions : Travail en agilité (Scrum, Kanban) Réalisation de solutions techniques vis à vis des éléments priorisés du backlog produit par le PO et le leadtech Ecriture de documentation technique Travail en petit groupe avec d'autres DevOps sur des sujets d'analyse ou de réalisation ou de gestion des incidents, selon les besoins Compétences attendues Réaliser des scripts en python, des modules terraform et des playbook ansible A l'aise avec la gestion de VM sous Linux et/ou sous Windows Posture de communicant et de partage des connaissances Environnement technique/fonctionnel Google Cloud Platform (GCE, GCS, CloudFunction) Terraform Ansible Github Jenkins Administration des Systèmes d'exploitation Windows Server RHEL Python Télétravail partiel ok rejoignez-nous!
Offre d'emploi
DevOps GCP (H/F)
ANALYSE DES BESOINS ET VEILLE TECHNOLOGIQUE : Recueillir l'information nécessaire et étudie les besoins d'équipements matériels et logiciels Préconiser et conseille sur les choix des solutions informatiques en relation avec les architectes, les experts des autres domaines et les besoins du métier dans le respect des patterns techniques définis par l'entreprise Rédiger le cahier des charges contenant les spécifications techniques des équipements Rédiger les appels d'offre et analyse les propositions des constructeurs en termes de performance, fiabilité et compatibilité Assurer une veille technologique pour garantir l'optimisation des ressources systèmes de l'entreprise MISE EN PLACE ET INTÉGRATION : Conçoit ou adapte (paramètre) les logiciels sélectionnés Configure et dimensionne les solutions hardware retenues en fonction des performances requises par les logiciels Teste les systèmes mis en place et veille à la compatibilité des éléments entre eux Participe aux phases de validation technique lors des mises en production Veille à la sécurité et à la fiabilité des systèmes de l'entreprise EXPLOITATION : Valide l'installation et l'intégration des nouveaux outils (systèmes, ou réseaux et télécoms) Traite les incidents ou anomalies avec diagnostic de l'incident, identification, formulation et suivi de sa résolution Participe aux actions correctives de maintenance en veillant à leur qualité Propose des améliorations pour optimiser les ressources existantes et leur organisation Rédige et met à jour la documentation des procédures et consignes d'exploitation. Effectue le transfert de compétences et l'assistance technique des procédures aux équipes d'exploitation et participe éventuellement à leur formation SÉCURITÉ : Respecte et suit les règles de sécurité définie par l'entreprise Applique les plans de sauvegarde et de secours définis Assure la sécurité physique des données en termes de sauvegarde et d'archivage
Mission freelance
Développeur Golang - JAVASCRIPT - GCP - BIGQUERY - DOCKER - K8S
Développeur Vous rejoindrez le pôle développement de la direction technique, au sein de l'équipe "Data". En collaboration avec d'autres développeurs et le Technical Lead, vos principales missions seront : Maintenance applicative : gérer et améliorer notre outil de collecte de données et les APIs associées. Développement de fonctionnalités : concevoir, tester, monitorer et faire des revues de code. Support et amélioration continue : garantir la continuité de service et participer aux initiatives d'optimisation. Vous interviendrez sur un stack varié dans un environnement collaboratif et agile : Backend : Go (Golang) et PHP (Phalcon), pour nos APIs RPC et REST. Frontend : JavaScript. Bases de données : MySQL, Redis, BigQuery. Cloud et DevOps : Google Cloud Platform (GKE, Pub/Sub, Logging, Monitoring), Docker. Outils : Jira, Git, GitHub. Expérience : plus de 3 ans en développement web. Bonne maîtrise de Go, avec expérience en développement, test et monitoring d'APIs RPC et REST. Compétence en JavaScript, avec capacité à développer, tester et maintenir des librairies. Familiarité avec des outils tels que GCP (Pub/Sub, Logging, Monitoring), Docker, Kubernetes et la CI/CD.
Mission freelance
Data Engineer
Il est garant de l'accès qualitatif aux sources de données. Il s'assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d'en faciliter l'exploitation par les équipes (Data Analysts et Data Scientists). Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT, Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons, ). SON ACTIVITE : QUALIFICATION ET GESTION DES DONNÉES : - Capte les données (structurées et non structurées) produites dans les différentes applications ou à l'extérieur de l'entité - Intègre les éléments - Structure la donnée (sémantique, etc.) - Cartographie les éléments à disposition - Nettoie la donnée (élimination des doublons, ) - Valide la donnée - Éventuellement, il crée le référentiel de données SES LIVRABLES : - Data Lake approprié et partagé et son dimensionnement - Cartographie des données - Les éléments permettant de garantir la qualité de la donnée
Offre d'emploi
SYSOPS H/F
Groupe SYD IM Nous recherchons pour l'un de nos clients sur Nantes un Sysops H/F Missions : Travail en agilité (Scrum, Kanban) Réalisation de solutions techniques vis à vis des éléments priorisés du backlog produit par le PO et le leadtech Ecriture de documentation technique Travail en petit groupe avec d'autres DevOps sur des sujets d'analyse ou de réalisation ou de gestion des incidents, selon les besoins Compétences attendues Réaliser des scripts en python, des modules terraform et des playbook ansible A l'aise avec la gestion de VM sous Linux et/ou sous Windows Posture de communicant et de partage des connaissances Environnement technique/fonctionnel Google Cloud Platform (GCE, GCS, CloudFunction) Terraform Ansible Github Jenkins Administration des Systèmes d'exploitation Windows Server RHEL Python Télétravail partiel ok rejoignez-nous!
Offre d'emploi
Architecte Google Cloud
👉 Contexte : Pour le compte d'un de nos clients, nous recherchons un Architecte Google Cloud qui jouera un rôle central dans l’adoption de Google Cloud en fournissant des conseils techniques experts, en élaborant des solutions sur mesure et en renforçant des partenariats solides. Ce rôle est à pourvoir en agence. Vos responsabilités couvriront les activités de pré-vente, la conception d’architectures, le développement de solutions et le support continu, en veillant à ce que les clients tirent pleinement parti des technologies Google Cloud. Il s'agit donc d'un rôle transverse. Apporter un leadership et une expertise aux équipes internes et aux clients, en les aidant à concevoir et à mettre en œuvre des solutions robustes sur Google Cloud. Fournir une expertise technique en pré-vente pour de nouvelles opportunités, en participant à la collecte des besoins, à la rédaction de propositions et de SOW (Statement of Work). Conseiller les clients sur leurs pratiques architecturales et d’ingénierie Google Cloud, en animant des ateliers si nécessaire. Travailler sur divers projets tels que : Projets de données modernes, d’IA et de GenAI (Intelligence Artificielle Générative), en utilisant les dernières technologies sur la plateforme Google. Développement de solutions et applications Greenfield sur Google Cloud. Programmes de migration de charges de travail et de modernisation des applications et infrastructures. Accompagner les équipes de développement dans les processus de développement et de déploiement de logiciels sur Google Cloud, en promouvant son utilisation et en aidant à concevoir et architecturer des POC. Produire une documentation de haute qualité dans le cadre du développement de vos solutions. Être un point de contact avec Google, en travaillant avec les ingénieurs partenaires et clients de Google pour s’assurer que nos équipes commerciales et projet reçoivent le soutien nécessaire de la part du fournisseur. Assister le Directeur des Solutions dans le développement de nos capacités et de notre portefeuille de services. Participer à des événements techniques et briefings Google Cloud, en utilisant les connaissances acquises pour aider à renforcer les compétences de l’équipe.
Mission freelance
Expert(e) CloudOps
Expert(e) CloudOps Contexte : Intègre la solution logicielle ou matérielle livrée par les services Etudes dans l’environnement de production Cloud (GCP/OpenShift). Intègre l’application et en assure le déploiement via CICD Gère le support nécessaire de l’application lors des incidents en production Intervient dans la mise en exploitation d’une nouvelle application ou la livraison d’une nouvelle version de cette application Est un spécialiste des technologies du cloud et des services proposés par les grands cloud providers Maîtrise généralement les concepts de conteneurisation, d’automatisation et de CI/CD* qui lui permettent d’accompagner les développeurs et de mettre en place une démarche DevOps dans l’entreprise Compétence recherchée : GKE/GCP - Confirmé - Impératif Ansible (Tower) - Confirmé - Impératif GitlabCI - Confirmé - Impératif Helm - Confirmé – Important
Offre d'emploi
Chef de Projet Group Supply Chain
Notre client, acteur majeur de l'industrie Française, recherche au sein de la DSI leur chef de projet pour piloter le volet IT et déployer la solution sur un périmètre Groupe d'un projet stratégique d'amélioration de la Supply Chain. Rattaché(e) au responsable du Domaine Business Solution Order to Cash, vous aurez également la responsabilité de manager une petite équipe en charge de la maintenance et du support de la solution en production. Vos principales responsabilités seront : En tant que Chef de Projet IT, sous la responsabilité fonctionnelle du directeur Projet Supply Chain Planning: o Organiser, planifier et suivre l’avancement des travaux IT, o Coordonner l’ensemble des acteurs IT impliqués (ressources internes et externes dont des équipes de développement off-shore, des équipes IT locales dans les pays assurant les développements sur les ERP à connecter à ANAPLAN) o Gérer le Budget IT du Projet , o Animer un Comité de Pilotage IT, o Mettre en place l’organisation pour assurer le RUN de la solution. En tant que responsable du Secteur Supply Chain Planning, au sein de l’équipe Business Solution Order to Cash: o Piloter le Support et la Maintenance des solutions Supply Chain Planning o Participer aux projets de déploiement o Animer la relation IT/métier sur le périmètre Supply Chain Planning
Mission freelance
System Architect Pega
Vous intégrez un projet Parcours Client qui permet d'offrir au client la meilleure expérience possible via les canaux omnicanaux, en se dotant des nouvelles capacités fonctionnelles de gestion de tunnel de transformation et de gestion des dossiers portées par la solution Pega. L'équipe projet assure la première phase de Build la mise en oeuvre de la plateforme et son intégration au SI, le delivery du Core Model et l'accompagnement des projets. Dans un second temps, elle intervient sur les activités de Run et de gestion de la Road Map éditeur. Vos missions consisteront à contribuer à/au(x): Développer les US du Core Model en technologie Low Code dans le respect des best pratices Pega, Tester les configurations, corriger les défauts, Documenter les réalisations, Suivre les release Notes de l'éditeur pour aligner les choix de développement avec les nouveautés de la plateforme, Accompagner les projets dans la déclinaison des recommandations,
Mission freelance
Data Governance Practitioner (€460 MAX)
Hanson Regan recherche actuellement un Data Governance Practitioner (€460 MAX) des données pour un client français réputé, en télétravail - Intitulé du poste : Data Governance Practitioner - Accompagnement à la conception d'une stratégie et d'une orientation pour la gouvernance des données des voitures connectées dans une perspective centrée sur l'entreprise et le client avec une vision et une feuille de route claires. - Établir un programme de conformité pour Connected Technologies et assurer le respect des règles de confidentialité pour tous les projets de Connected Technologies (RGPD / Conformité / Réglementation / Confidentialité des données / Droit de la concurrence / Anonymisation des données / Minimisation des données). - Réaliser des évaluations d'impact sur la confidentialité des nouveaux produits, fonctionnalités et services afin d'identifier et d'atténuer les risques liés à la confidentialité. - Collaborer avec les équipes de développement de produits pour intégrer les principes de confidentialité dès la conception dans le cycle de vie du développement. - Communiquer avec les parties prenantes concernées pour les projets de confidentialité et être capable de comprendre toutes les exigences techniques et fonctionnelles. - Fournir des conseils et un soutien aux parties prenantes internes sur les questions liées à la confidentialité, y compris les pratiques de collecte, de traitement et de partage des données. - Surveiller les changements dans les lois, les réglementations et les normes de l'industrie en matière de confidentialité afin de garantir la conformité et l'adaptation continues des programmes de confidentialité. - Collaborer avec les conseillers juridiques et les consultants externes selon les besoins pour résoudre les problèmes complexes de confidentialité et assurer l'alignement avec les exigences légales. - Définir et fournir une formation sur pourquoi/comment/quand nous utilisons les données des véhicules au sein de l'organisation TME, des sociétés nationales de marketing et de vente, des détaillants. Télétravail complet depuis la France mais une fois par mois, la ressource doit se rendre à Bruxelles. - Langues : seul l'anglais est requis En raison des restrictions imposées par le client, nous ne pouvons accepter que les candidatures de candidats travaillant par l'intermédiaire de leur propre entreprise française. Malheureusement, nous ne sommes pas en mesure de travailler avec des solutions d'externalisation pour cette mission. Si cela vous intéresse, veuillez nous contacter dès que possible avec un CV à jour en utilisant les coordonnées ci-dessous.
Mission freelance
Data Steward
En tant que Data Steward pour le domaine, vous dirigerez les initiatives de modélisation des données et d'amélioration de la qualité, en travaillant en étroite collaboration avec les équipes métiers, produit et techniques pour garantir une gouvernance des données appropriée et une conformité aux normes. Qualité des données & Modélisation : Piloter les initiatives de modélisation des données en suivant les exigences internes. Garantir l'utilisation sémantique appropriée et la cardinalité dans les modèles de données. Valider les structures de données avec l'équipe d'architecture. Maintenir les standards de qualité des données dans le domaine concerné. Animation des parties prenantes : Coordonner avec les Chefs de Projet (propriétaires des données). Faciliter les discussions entre les équipes métiers et techniques. Guider les équipes techniques dans l'amélioration des structures API/événements. Travailler en étroite collaboration avec les équipes produit pour intégrer les sujets de données dans la feuille de route. Collaborer avec l'équipe d'architecture pour la validation des modèles. Compréhension des processus métier : Analyser les processus métier existants. Proposer des recommandations initiales pour l'architecture des données. Garantir l'alignement entre les besoins métiers et les structures de données. Documenter les flux de données et les dépendances. Support à la mise en œuvre technique (20%) : Guider l’exposition des données selon les modèles validés. Supporter la restructuration des sujets Kafka et des API de points de terminaison. Superviser la mise en œuvre de la qualité des données. Valider les solutions techniques.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.