Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Mission Longue d'Architecte Snowflake référent
Notre client est un media Français ayant une grande culture Tech. Cette mission vous permettra de rejoindre son équipe Architecture & Data Engineering faisant partie de sa Direction DATECH (Data & AdTech). Cette équipe est chargée de la maintenance et de l’évolution de la Data Platform à disposition des équipes Collectes, Analytics, Data Science & IA, CRM, Pub, Audience, Finance... Mission Au quotidien, vous menez les travaux de définition et de revue d’architecture du Data Warehouse / Data Platform, dont les produits Snowflake sur Azure sont les fondations premières. Vos principales missions seront : - Développement et maintenance de la stratégie RBAC - Revues de performances - Suivi de coûts par application - Modernisation des paradigmes d’ingestion, de transformation et d’exposition de données - Apporter du support au quotidien sur la plateforme - Revues de code SQL - Mise en place de solutions de monitoring et d’alerting - Formalisation et planification de la roadmap produit afin de tirer profit des dernières fonctionnalités de Snowflake à 3, 6 et 12 mois Contexte : Vous intervenez sur la conception de l’ensemble des travaux liés données du client. Vous accompagnez également leurs équipes (Architecture & Data engineering, Data science & Analytics, ML & IA) pour informer de la faisabilité des demandes en prenant en considération les contraintes de coûts, de délais et de qualité. Vous garantissez la pérennité des développements déployés en production. Vous êtes le référent technique Snowflake des Data Engineer et des Data Analysts pour leurs développements. Un projet de refonte des schémas de stockage des données pour basculer vers un modèle RBAC est en cours. Vous travaillez avec une équipe de 15 personnes travaillant en méthode Agile de type Scrum et faites progresser au quotidien la démarche DevSecOps. De manière générale, vous jouez un rôle de facilitateur et d’expert Snowflake entre les équipes Data, AdTech et les autres équipes du client.
Mission freelance
Lead Data GCP Python Power BI
Nous recherchons un(e) Lead Data Engineer expérimenté(e) pour rejoindre une équipe digitale dynamique dédiée à la gestion des données. Vous serez en charge de l’industrialisation de l’infrastructure data, ainsi que de la qualité, de la sécurité, et du respect de la vie privée des données. Vous travaillerez sur des environnements Cloud (GCP et AWS) et piloterez une équipe de 2 Data Engineer . Mise en place d’environnements cloisonnés (Dev, Préprod, Production). Automatisation du déploiement et de la maintenance via des outils Infrastructure as Code (Terraform) . Implémentation de solutions d’observabilité (monitoring, alerting). Maintenance et développement de pipelines de données en Python (batch et streaming). Création de pipelines SQL/SQLX avec Data-Form (similaire à DBT). Déploiement et gestion d’un outil de data quality (ex. Great Expectations). Développement de workers AWS pour gérer les flux entre Kafka et Pub Sub sur GCP. Connaissance de DataFlow (Apache Beam) appréciée. Standardisation du code avec linting, CI/CD et divers tests. Documentation des processus internes et schémas d’architecture. Coopération avec les équipes Data (analystes, SEO/SEA, emailing). Respect du RGPD avec anonymisation et archivage des données. Sécurisation de l’infrastructure, des données et du code
Offre d'emploi
Développeur FullStack
Dans le cadre de l’accompagnement qu’apporte S&I aux équipes de la DSI, nous recherchons un profil « Java Full Stack Senior Developper » avec une expérience significative de développement JAVA au tour de GCP pour pouvoir contribuer aux travaux de conception, d'architecture, de développement de POCs et des solutions innovantes sur des environnements Cloud, OnPrem et Big data. Pour cela, nous attendons du consultant : • D’avoir une expérience significative en développement GCP / une certification Certification Professional Cloud Developer serait un plus • Une maîtrise des langages de développement cités ainsi que des méthodologies Agiles et des pratiques et outils Devops
Offre d'emploi
INGENIEUR CLOUD - GCP - KUBERNETES
INGENIEUR CLOUD - GCP - KUBERNETES Démarrage : ASAP Durée : 1 an renouvelable Localisation : Ile de France - Proche de Paris Télétravail : 50% Mission : Maintenir en condition opérationnelle les infrastructures en diagnostiquant les pannes et les dysfonctionnements - Configurer et dimensionner les plateformes en fonction des performances requises - Industrialiser les architectures cibles et configurer les équipements (CI / CD) - Mettre en place des procédures et outils de surveillance permettant de garantir la haute disponibilité des infrastructures - Veiller à la sauvegarde des données, à la sécurité des accès (mise en place des systèmes de gestion des droits des utilisateurs) et à la fiabilité des solutions déployées - Participer aux phases de validation technique lors des mises en production ou des évolutions. - Effectuer le suivi des coûts des différents composants et applications (FinOps)
Mission freelance
Data Engineer GCP Senior H/F
Intégrer l’équipe Move To Cloud pour réaliser la migration dans le cloud GCP. KARMA est le système de Revenue Management du groupe 100% migration cloud GCP Intégration d’une équipe de 6 personnes Présence sur site (Sophia Antipolis) obligatoire 1x par semaine. Présence sur site (Sophia Antipolis) obligatoire 3x par semaine pendant les 3 premiers mois (on boarding) Communication, leadership, autonomie, coaching Profils séniors uniquement Anglais niveau B2 Obligatoire Data engineering / Big Data Development Hadoop et Spark pour migration dans le cloud GCP
Mission freelance
Data Ingénieur
Contrainte forte du projet GCP bigquery, looker, powerBI Les livrables sont Flux d'ingestion de données Dashboard powerBI ou looker Compétences techniques Google BigQuery - Confirmé - Impératif Microsoft powerBI - Confirmé - Important Google Cloud Platform - Junior - Important Connaissances linguistiques Anglais Professionnel (Impératif) Description détaillée Le data ingénieur aura en charge en collaboration avec les équipes de développement : * de corriger et de créer des nouvelles features d'intégration de données sur plusieurs produits digitaux (Customer project & configurators) de notre plate-forme e-commerce. * de créer des pipeline d'intégration des données des produits digitaux à l'aide de nos outils d'entreprise vers Google BigQuery (DBT par exemple) * de transformer les données sur des modèles conceptuel de données * de mettre en place des dashboard powerBI (ou looker) en collaboration avec les équipes métier
Offre d'emploi
Consultant DevOps (CDI)
Rôle principal : Le consultant DevOps est chargé d’accompagner les équipes techniques dans la mise en place des pratiques DevOps, visant à optimiser les processus de développement, de déploiement, et d'exploitation des applications. Son objectif est d'améliorer l'efficacité, la rapidité et la qualité des livraisons logicielles tout en assurant la fiabilité et la scalabilité des infrastructures. Responsabilités : 1. Analyse des besoins et audit des systèmes existants : Analyser l'infrastructure actuelle et les processus de développement (intégration continue, livraison continue, monitoring, etc.). Identifier les points de blocage, les risques, et les axes d'amélioration dans les pratiques de développement et d'opérations. 2. Mise en place des outils et méthodologies DevOps : Concevoir et implémenter des pipelines CI/CD (Intégration Continue / Déploiement Continu). Automatiser les processus de déploiement, de gestion des environnements et des tests. Mettre en œuvre des outils de gestion de configuration (Ansible, Puppet, Chef). Optimiser l’utilisation des outils de conteneurisation (Docker, Kubernetes). 3. Gestion des infrastructures : Concevoir et mettre en œuvre des infrastructures cloud (AWS, Azure, Google Cloud). Garantir l’évolutivité, la haute disponibilité et la résilience des systèmes. Automatiser la gestion de l’infrastructure avec des outils comme Terraform ou CloudFormation. 4. Surveillance et optimisation des performances : Mettre en place des systèmes de monitoring et d'alertes pour surveiller la performance des applications et des infrastructures. Analyser les incidents et proposer des solutions pour améliorer la stabilité et la performance des systèmes. 5. Formation et accompagnement des équipes : Former les équipes de développement et d'exploitation sur les outils et les méthodologies DevOps. Favoriser la culture DevOps au sein de l'organisation, en promouvant la collaboration entre les équipes. 6. Sécurité des infrastructures : Intégrer des pratiques de sécurité dès la phase de développement (DevSecOps). S’assurer que les systèmes respectent les meilleures pratiques en matière de sécurité, de conformité et de gestion des accès. 7. Veille technologique : Se tenir informé des dernières tendances et technologies DevOps pour proposer des solutions innovantes. Participer à des projets pilotes pour évaluer de nouvelles technologies avant leur déploiement à grande échelle.
Mission freelance
Acheteur projet
Dans le cadre du développement de la plateforme X, nous renforçons nos équipes achat et recherchons un Acheteur Projet expérimenté pour rejoindre notre équipe dynamique. Le candidat idéal aura une solide expérience dans les achats en milieu pharmaceutique et sera capable de gérer efficacement les projets d’achat tout en assurant la conformité aux normes de qualité et de réglementation. Il aura atout de savoir développer des plateformes orienté achat. Tout en ayant un très bon niveau d'anglais (Lu, Parlé, Ecrit).
Mission freelance
Développeur Full Stack - Python/GO
Au sein de notre équipe Cloud Databases, tu seras un renfort dans notre équipe en charge du Build de notre solution de déploiement et de management de base de données dans le Cloud. Tu es un développeur full stack confirmé, Curieux, force de proposition, tu souhaites t'investir au sein d 'une équipe de qualité. Tes principales missions seront les suivantes : configurer l'infrastructure matérielle et le système d'exploitation ainsi que les dépendances entre les différents composants logiciels à utiliser ; concevoir, manipuler et interroger des bases de données ; concevoir le code de 'back-end' et les API d'accès à ces données sous forme de webservices, en utilisant des langages tels que Java, Python, Ruby, PHP ; concevoir le code de 'front-end' qui est exécuté sur la plate-forme de l'utilisateur, le plus souvent un smartphone ou un navigateur Web, dans des langages tels queJavascript et ses bibliothèques, HTML, CSS ; être capable de gérer et planifier un projet avec des méthodes de développement agiles telles que Scrum ou Kanban, pouvoir interagir avec le client et ses besoins,et documenter l'ensemble des parties du projet. Même s'il a souvent une affinité ou des compétences plus étendues dans l'une des couches front ou back, le développeur full stack doit être familiarisé avec chacune d'entre elles.
Offre d'emploi
Expert Sécurité Google Cloud Platform (GCP) (H/F)
🙌🔽 Vous aurez les missions principales suivantes : 🔽🙌 🔸 Évaluer l'architecture de sécurité actuelle sur GCP et particulièrement sur les architectures projet de type data 🔸 Qualifier et étudier les évolutions de services GCP de type Private Service Connect et être en mesure de proposer des solutions si des problèmes sécurité sont remontées 🔸 Identifier les vulnérabilités et les risques à l’utilisation des services GCP (Vertex AI, Worflow, Dataflow, Apigee, GKE, Composer, …) et proposer des recommandations sécurité 🔸 Mettre en place des contrôles de sécurité dans les outils de type CSMP 🔸 Accompagner l'équipe interne projets et transverses dans la mise en œuvre des recommandations 🔸 Mise en application de la Politique de Sécurité 🔸 Contrôle de la Politique de Sécurité, notamment par des Contrôles Périodiques de Niveau 1 🔸 Valide et instruit les dérogations contrevenant à la Politique de Sécurité. 🔸 Maintien en Conditions Opérationnelles des Infrastructures de Sécurité (supervision, prise en charge et résolution des incidents/problèmes, installation et configuration) 🔸 Participation aux audits (internes / externes) 🔸 Mise en applications des recommandations d'audit et des demandes de remise en conformité 🔸 Rédaction de guides et standards de sécurité 🔸 Donne son avis pour l'implémentation des solutions de sécurité 🔸 Proposition de solutions innovantes pour améliorer la sécurité, la qualité, les performances et les coûts d'exploitation 🔸 Assure la veille technologique
Mission freelance
Data Engineer
Nous recherchons pour le compte d'un de nos clients dans le secteur des médias un Ingénieur Data freelance pour une durée de 12 mois sur la base d'un projet. Rôle : Data Ingénieur Lieu de travail : Paris Durée du contrat : 12 mois Travail hybride Date de début : Novembre/Décembre Principales responsabilités : Construire et améliorer les produits de données pour soutenir une culture axée sur les données et des expériences utilisateur personnalisées. Travailler au sein de l'équipe d'ingénierie analytique pour : Collecter des données brutes à partir de systèmes dorsaux, d'interactions avec les utilisateurs et d'autres sources. Transformer les données en ensembles de données et métriques de haute qualité et bien définis. Fournir un accès aux données via des tableaux de bord en libre-service, des API et d'autres plateformes. Collaborer avec des analystes, des développeurs et des parties prenantes au sein de différentes équipes (produit, marketing, ventes, finance, juridique, etc.). Assurer la fiabilité, l'exactitude et l'accessibilité des systèmes de données. Environnement Technique : Principale pile technologique : Google Cloud Platform, BigQuery, Scala, Airflow, Google Dataflow, dbt, Tableau, Mixpanel, Terraform. Si le rôle vous intéresse, veuillez postuler directement!
Mission freelance
Tech Lead Python
Votre mission, en tant que Tech Lead, sera : D’assurer la performance et l’évolutivité des solutions ML Solutions. D’encadrer techniquement une équipe en forte croissance. De veiller à l’alignement des solutions avec les standards technologiques et stratégiques du groupe. L'équipe, actuellement composée de 5 collaborateurs, prévoit une montée en charge rapide, avec des recrutements en cours pour soutenir les objectifs ambitieux du projet. Fédérer et guider l’équipe technique : Créer un environnement collaboratif et motivant, tout en assurant le respect des meilleures pratiques de développement (DevOps, CI/CD, tests automatisés, monitoring). Piloter la roadmap produit : Collaborer avec les Product Owners pour prioriser les fonctionnalités et garantir leur alignement avec la stratégie technologique. Prendre des décisions clés : Assumer les choix architecturaux et techniques, notamment sur les aspects liés à la sécurité, la scalabilité et l'optimisation des performances. Superviser la production : Assurer la stabilité, la fiabilité et la performance des systèmes en production. Interopérabilité : Travailler en synergie avec les autres Tech Leads et les équipes transverses pour garantir la cohérence des solutions au sein de la plateforme. Standardisation : Instaurer des pratiques modernes (Infrastructure as Code, observabilité) pour une gestion optimisée des pipelines MLOps. Support et relation utilisateurs : Être un point de contact clé pour les utilisateurs finaux, comprendre leurs besoins et garantir leur satisfaction. Amélioration continue : Participer activement aux revues de code (MOB programming, pair reviews) pour maintenir un haut niveau de qualité. Conformité aux standards : Intégrer les guidelines du framework technologique global et veiller à leur application.
Mission freelance
EXPERT GCP ENGINEER
Titre du poste : Expert GCP Engineer Durée du contrat : 12 mois (avec possibilité de prolongation) Lieu : Télétravail complet (bureaux à Londres et Paris) Présentation : Nous recherchons un Expert GCP Engineer pour rejoindre une initiative de transformation cloud menée par une grande banque. Ce rôle est essentiel pour concevoir, implémenter et optimiser des solutions basées sur GCP, répondant aux exigences strictes du secteur bancaire en matière d'évolutivité, de sécurité et de performance. Responsabilités principales : Concevoir et implémenter une infrastructure GCP pour soutenir des applications bancaires critiques, tout en respectant les meilleures pratiques de l'industrie et les normes de conformité (ex. : RGPD, DORA). Développer et gérer des infrastructures en tant que code ( IaC ) avec Terraform , garantissant des déploiements cohérents et reproductibles. Optimiser les configurations réseau sur GCP, notamment la conception de VPC , la connectivité hybride ( Cloud VPN , Interconnect ) et les politiques IAM. Assurer une haute disponibilité et une tolérance aux pannes des services bancaires en utilisant des outils GCP tels que Cloud Load Balancer , Cloud Monitoring et Cloud Operations Suite . Collaborer avec les équipes de sécurité pour mettre en œuvre des mesures de sécurité avancées , incluant le chiffrement, les configurations de pare-feu et la gestion des accès. Automatiser les pipelines CI/CD avec Cloud Build ou Jenkins , pour déployer efficacement des applications basées sur des microservices. Surveiller et résoudre les problèmes des services GCP ( BigQuery , Cloud Functions , Pub/Sub ) afin de garantir les performances attendues. Fournir une documentation détaillée et transférer les connaissances aux équipes internes pour renforcer leur maîtrise des bonnes pratiques sur GCP. Compétences clés : Expertise approfondie de Google Cloud Platform (GCP) avec une expérience pratique sur Compute Engine , Kubernetes Engine (GKE) et BigQuery . Maîtrise de Terraform et Git pour l’automatisation de l’infrastructure. Expérience confirmée en réseaux GCP , incluant Cloud NAT , Cloud Armor et IAM . Compétences avancées en scripting ( Python ou Bash ) pour l’automatisation et la création d’outils personnalisés. Solide compréhension des technologies de containerisation telles que Docker et orchestration avec Kubernetes. Connaissance des cadres de conformité bancaire (ex. : PCI DSS , RGPD ). Exigences : Expérience avérée dans la livraison de solutions GCP au sein d'environnements à grande échelle et fortement réglementés. Excellentes compétences analytiques et de résolution de problèmes avec une attitude proactive. Capacité à travailler de manière autonome et à produire des résultats en télétravail. Atouts : Expérience des architectures multi-cloud (ex. : Azure, AWS). Certifications telles que Google Professional Cloud Architect ou Google Professional Data Engineer .
Mission freelance
Ingénieur Python - GCP
Dans un contexte d'accompagnement juridique des entreprises, nous construisons un Chatbot basé sur de l'IA générative. Dans ce cadre, je recherche pour l’un de mes clients, un freelance expérimenté en Python disponible à très court terme pour une mission avec les objectifs suivants : Réaliser de l'intégration de données dans notre solution IA. Co-construction du backend du chatbot IA situé entre l'IHM conversationnelle, et notre solution RAG-as-a-service. Développement de pipelines d'intégration de données publiques. Co - création de dashboard de monitoring de la solution. Amélioration continue de l'outil : CI/CD sur Github Actions.
Mission freelance
ARCHITECTE GENERALISTE MOVE TO CLOUD AZURE ET GCP
Au sein d'une équipe Architecture d'une Direction des Infrastructures et de la Production de l'un de nos clients, nous recherchons un(e) architecte technique généraliste qui contribuera aux activités suivantes : - Etudes techniques & Design - Cadrage budgétaire - Définition des best practices d'architecture - Documentation (DAT) - Accompagnement de la stratégie Move2Cloud - Accompagnement des équipes d'exploitation et de développement Environnement général : - Plateformes E-commerce - Plateformes BackOffice & Logistique - Cloud Public Azure & GCP - Cloud Privé (Infrastructure VMWARE Infogérée) - CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) - Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle - Big Data Hadoop, Terradata, MapR, BigQuery, DataBricks - Conteneurisation Docker & Orchestration AKS - Progiciels SAP, Siebel, HRAccess
Mission freelance
Data Engineer
Contexte international, migration, formation Les livrables sont: Développements et enrichissement de data lake Migration et refonte d'expositions de données Formation et passation aux équipes run IT Compétences techniques GCP (dev+admin) - Confirmé - Impératif SQL - Confirmé - Impératif IAC (terraform) - Confirmé - Important Architecture data mesh - Junior - Souhaitable Connaissances linguistiques Français Courant (Impératif) anglais Professionnel (Impératif) Télétravail: 2 jours par semaine - 3 jours sur site
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Calcul frais télétravail en étant propriétaire
- Besoin de conseils pour rebondir professionnellement 2025 ?
- Close de non concurrence freelance à portgae salarial
- situation compliquée fin de mission pression client comment gèrer ?
- Peut-on créer une société au nom de son conjoint pour facturer ses prestations en étant sous ARE ?
- Calcul de crédit impôt - cas pratique