Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 397 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

CDI
Freelance

Offre d'emploi
Expert Sécurité Google Cloud Platform (GCP) (H/F)

CITECH
Publiée le
Firewall
Google Cloud Platform
IAM

3 ans
50k-80k €
Charenton-le-Pont, Île-de-France

🙌🔽 Vous aurez les missions principales suivantes : 🔽🙌 🔸 Évaluer l'architecture de sécurité actuelle sur GCP et particulièrement sur les architectures projet de type data 🔸 Qualifier et étudier les évolutions de services GCP de type Private Service Connect et être en mesure de proposer des solutions si des problèmes sécurité sont remontées 🔸 Identifier les vulnérabilités et les risques à l’utilisation des services GCP (Vertex AI, Worflow, Dataflow, Apigee, GKE, Composer, …) et proposer des recommandations sécurité 🔸 Mettre en place des contrôles de sécurité dans les outils de type CSMP 🔸 Accompagner l'équipe interne projets et transverses dans la mise en œuvre des recommandations 🔸 Mise en application de la Politique de Sécurité 🔸 Contrôle de la Politique de Sécurité, notamment par des Contrôles Périodiques de Niveau 1 🔸 Valide et instruit les dérogations contrevenant à la Politique de Sécurité. 🔸 Maintien en Conditions Opérationnelles des Infrastructures de Sécurité (supervision, prise en charge et résolution des incidents/problèmes, installation et configuration) 🔸 Participation aux audits (internes / externes) 🔸 Mise en applications des recommandations d'audit et des demandes de remise en conformité 🔸 Rédaction de guides et standards de sécurité 🔸 Donne son avis pour l'implémentation des solutions de sécurité 🔸 Proposition de solutions innovantes pour améliorer la sécurité, la qualité, les performances et les coûts d'exploitation 🔸 Assure la veille technologique

CDI

Offre d'emploi
Data Engineer H/F

AMD Blue
Publiée le
Apache Hive
Big Data
Cloudera

56k-66k €
Auvergne-Rhône-Alpes, France

Notre client recherche un Développeur Big Data senior pour l’accompagner dans l'organisation et la mise en œuvre d'une solution Cloudera au sein de son dispositif technique. L'équipe est actuellement composée de 3 personnes pour le POC, qui devrait être terminé fin septembre, mais il y a des retards techniques : La possibilité de faire des mises à jour par rapport à Teradata Hadoop est plus permissif Trouver une solution de requêtage facile pour les statisticiens Descriptif de la mission : Rattaché au responsable Fabrication Décisionnel & Big Data, vous aurez pour principales missions : Concevoir techniquement les traitements dans le respect de l'architecture mise en place des exigences du client. Codifier les traitements des applications et rédiger la documentation technique dans le respect des normes de développement et des processus établis à notre client. Prendre en charge les maintenances correctives (modification d'une application existante pour corriger des erreurs techniques ou fonctionnelles) Réaliser les tests unitaires pour chaque composant : nouvelle fonctionnalité et non-régression, dans le cas de la maintenance ; Réaliser les tests d'assemblage des composants décrivant une fonction applicative : nouvelle fonctionnalité et non-régression, dans le cas de la maintenance ; premier niveau de vérification des performances et de l'exploitabilité. Transformation du SI BI : Passage de Datastage / Cognos à Hadoop / Power BI.

CDI

Offre d'emploi
Manager Data

AVALIANCE
Publiée le
Big Data

10k-100k €
Colombes, Île-de-France

Nous recherchons pour notre client un manager Data pour rejoindre notre groupe basé a Colombes Responsabilités : Alignement stratégique avec les objectifs de l'entreprise : Contribuer à la définition et à la mise en œuvre de la stratégie de la Business Unit DATA en accord avec les objectifs globaux de l'entreprise. Assurer la cohérence des projets DATA avec les priorités stratégiques de l'entreprise et les besoins des clients. Suivre les tendances du marché et les évolutions technologiques pour adapter la stratégie DATA en conséquence. Préparer et présenter des rapports réguliers à la direction, mettant en évidence les progrès réalisés et les axes d'amélioration. Management des collaborateurs : Superviser et encadrer l'équipe DATA, en veillant à leur développement professionnel et à leur motivation. Organiser des réunions régulières pour suivre l'avancement des projets et résoudre les éventuels problèmes. Définir les objectifs individuels et collectifs de l'équipe, et évaluer les performances. Promouvoir un environnement de travail collaboratif et stimulant, favorisant l'innovation et l'excellence. Développement business : Identifier et exploiter de nouvelles opportunités commerciales pour élargir le portefeuille clients de la Business Unit DATA. Développer et maintenir des relations solides avec les clients existants, en assurant leur satisfaction et en répondant à leurs besoins. Participer activement à la prospection de nouveaux marchés et à la préparation des propositions commerciales. Collaborer avec les autres Business Units et départements pour développer des offres de services innovantes et compétitives ainsi d’assurer une cohérence globale.

Freelance

Mission freelance
Tech Lead Python

Archytas Conseil
Publiée le
BigQuery
CI/CD
Google Cloud Platform

12 mois
100-550 €
Lille, Hauts-de-France

Votre mission, en tant que Tech Lead, sera : D’assurer la performance et l’évolutivité des solutions ML Solutions. D’encadrer techniquement une équipe en forte croissance. De veiller à l’alignement des solutions avec les standards technologiques et stratégiques du groupe. L'équipe, actuellement composée de 5 collaborateurs, prévoit une montée en charge rapide, avec des recrutements en cours pour soutenir les objectifs ambitieux du projet. Fédérer et guider l’équipe technique : Créer un environnement collaboratif et motivant, tout en assurant le respect des meilleures pratiques de développement (DevOps, CI/CD, tests automatisés, monitoring). Piloter la roadmap produit : Collaborer avec les Product Owners pour prioriser les fonctionnalités et garantir leur alignement avec la stratégie technologique. Prendre des décisions clés : Assumer les choix architecturaux et techniques, notamment sur les aspects liés à la sécurité, la scalabilité et l'optimisation des performances. Superviser la production : Assurer la stabilité, la fiabilité et la performance des systèmes en production. Interopérabilité : Travailler en synergie avec les autres Tech Leads et les équipes transverses pour garantir la cohérence des solutions au sein de la plateforme. Standardisation : Instaurer des pratiques modernes (Infrastructure as Code, observabilité) pour une gestion optimisée des pipelines MLOps. Support et relation utilisateurs : Être un point de contact clé pour les utilisateurs finaux, comprendre leurs besoins et garantir leur satisfaction. Amélioration continue : Participer activement aux revues de code (MOB programming, pair reviews) pour maintenir un haut niveau de qualité. Conformité aux standards : Intégrer les guidelines du framework technologique global et veiller à leur application.

Freelance

Mission freelance
EXPERT GCP ENGINEER

Phaidon London- Glocomms
Publiée le
Google Cloud Platform
Jenkins
Kubernetes

12 mois
600-750 €
France

Titre du poste : Expert GCP Engineer Durée du contrat : 12 mois (avec possibilité de prolongation) Lieu : Télétravail complet (bureaux à Londres et Paris) Présentation : Nous recherchons un Expert GCP Engineer pour rejoindre une initiative de transformation cloud menée par une grande banque. Ce rôle est essentiel pour concevoir, implémenter et optimiser des solutions basées sur GCP, répondant aux exigences strictes du secteur bancaire en matière d'évolutivité, de sécurité et de performance. Responsabilités principales : Concevoir et implémenter une infrastructure GCP pour soutenir des applications bancaires critiques, tout en respectant les meilleures pratiques de l'industrie et les normes de conformité (ex. : RGPD, DORA). Développer et gérer des infrastructures en tant que code ( IaC ) avec Terraform , garantissant des déploiements cohérents et reproductibles. Optimiser les configurations réseau sur GCP, notamment la conception de VPC , la connectivité hybride ( Cloud VPN , Interconnect ) et les politiques IAM. Assurer une haute disponibilité et une tolérance aux pannes des services bancaires en utilisant des outils GCP tels que Cloud Load Balancer , Cloud Monitoring et Cloud Operations Suite . Collaborer avec les équipes de sécurité pour mettre en œuvre des mesures de sécurité avancées , incluant le chiffrement, les configurations de pare-feu et la gestion des accès. Automatiser les pipelines CI/CD avec Cloud Build ou Jenkins , pour déployer efficacement des applications basées sur des microservices. Surveiller et résoudre les problèmes des services GCP ( BigQuery , Cloud Functions , Pub/Sub ) afin de garantir les performances attendues. Fournir une documentation détaillée et transférer les connaissances aux équipes internes pour renforcer leur maîtrise des bonnes pratiques sur GCP. Compétences clés : Expertise approfondie de Google Cloud Platform (GCP) avec une expérience pratique sur Compute Engine , Kubernetes Engine (GKE) et BigQuery . Maîtrise de Terraform et Git pour l’automatisation de l’infrastructure. Expérience confirmée en réseaux GCP , incluant Cloud NAT , Cloud Armor et IAM . Compétences avancées en scripting ( Python ou Bash ) pour l’automatisation et la création d’outils personnalisés. Solide compréhension des technologies de containerisation telles que Docker et orchestration avec Kubernetes. Connaissance des cadres de conformité bancaire (ex. : PCI DSS , RGPD ). Exigences : Expérience avérée dans la livraison de solutions GCP au sein d'environnements à grande échelle et fortement réglementés. Excellentes compétences analytiques et de résolution de problèmes avec une attitude proactive. Capacité à travailler de manière autonome et à produire des résultats en télétravail. Atouts : Expérience des architectures multi-cloud (ex. : Azure, AWS). Certifications telles que Google Professional Cloud Architect ou Google Professional Data Engineer .

Freelance

Mission freelance
Ingénieur Python - GCP

Celexio
Publiée le
CI/CD
Github
Google Cloud Platform

3 mois
100-430 €
Hauts-de-Seine, France

Dans un contexte d'accompagnement juridique des entreprises, nous construisons un Chatbot basé sur de l'IA générative. Dans ce cadre, je recherche pour l’un de mes clients, un freelance expérimenté en Python disponible à très court terme pour une mission avec les objectifs suivants : Réaliser de l'intégration de données dans notre solution IA. Co-construction du backend du chatbot IA situé entre l'IHM conversationnelle, et notre solution RAG-as-a-service. Développement de pipelines d'intégration de données publiques. Co - création de dashboard de monitoring de la solution. Amélioration continue de l'outil : CI/CD sur Github Actions.

Freelance

Mission freelance
ARCHITECTE GENERALISTE MOVE TO CLOUD AZURE ET GCP

PROPULSE IT
Publiée le
architecte
Azure
Cloud

24 mois
325-650 €
Paris, France

Au sein d'une équipe Architecture d'une Direction des Infrastructures et de la Production de l'un de nos clients, nous recherchons un(e) architecte technique généraliste qui contribuera aux activités suivantes : - Etudes techniques & Design - Cadrage budgétaire - Définition des best practices d'architecture - Documentation (DAT) - Accompagnement de la stratégie Move2Cloud - Accompagnement des équipes d'exploitation et de développement Environnement général : - Plateformes E-commerce - Plateformes BackOffice & Logistique - Cloud Public Azure & GCP - Cloud Privé (Infrastructure VMWARE Infogérée) - CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) - Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle - Big Data Hadoop, Terradata, MapR, BigQuery, DataBricks - Conteneurisation Docker & Orchestration AKS - Progiciels SAP, Siebel, HRAccess

Freelance

Mission freelance
Etude Data IA

REWORK
Publiée le
Azure Data Factory

6 mois
100-600 €
Montrouge, Île-de-France

Objectif Cette étude vise à : Identifier les solutions de gestion de données les plus appropriées qu’elles soient on premise ou sur le cloud souverain, en prenant en compte notre volonté de développer à la fois des cas d’usage data et IA, pour des données sensibles qui ne peuvent pas bénéficier de notre plateforme data existante (Azure) Rationaliser, dans la mesure du possible, les plateformes data existantes Définir le périmètre fonctionnel optimal de chacune de nos briques applicatives Nos capacités de traitement "data" sont actuellement réparties sur deux plateformes. Une plateforme unique pourrait-elle améliorer la performance/les délais de réalisations des projets ? Qu'elles seraient les gains associés à une solution unifiées de gestion de la donnée ? Est-ce que les opérateurs de cloud souverains proposent des solutions suffisamment matures pour hébergés de manière efficace une plateforme data/IA (GPU, scalabilité …) ?

Freelance

Mission freelance
Data Engineer

Coriom Conseil
Publiée le
Google Cloud Platform
SQL
Terraform

6 mois
100-570 €
Lille, Hauts-de-France

Contexte international, migration, formation Les livrables sont: Développements et enrichissement de data lake Migration et refonte d'expositions de données Formation et passation aux équipes run IT Compétences techniques GCP (dev+admin) - Confirmé - Impératif SQL - Confirmé - Impératif IAC (terraform) - Confirmé - Important Architecture data mesh - Junior - Souhaitable Connaissances linguistiques Français Courant (Impératif) anglais Professionnel (Impératif) Télétravail: 2 jours par semaine - 3 jours sur site

Freelance
CDI

Offre d'emploi
Data Engineer Migration SAS / PySpark – Spécialiste Azure H/F

Amontech
Publiée le
Azure Data Factory
PySpark
Python

1 an
10k-53k €
Île-de-France, France

Dans le cadre d’une transformation technologique majeure, nous recherchons un Consultant Data Engineer spécialisé en PySpark et Power BI, avec une solide expérience en décommissionnement de SAS, pour accompagner notre client dans une mission stratégique. Votre rôle principal sera de migrer les processus existants de SAS vers PySpark sur une infrastructure Azure , tout en assurant une documentation claire et exhaustive pour une reprise par une équipe novice. Power BI sera utilisé pour la visualisation des données . Migration des programmes SAS : Réécriture et optimisation en PySpark sur Azure. Documentation et qualité du code : Rédaction détaillée des étapes et respect des standards de codage. Formation des équipes : Accompagnement d’une équipe novice en PySpark pour une prise en main autonome. Mise en œuvre de dashboards Power BI : Création de tableaux de bord interactifs et adaptés aux besoins métiers. Gestion des délais : Respect de l’échéance stratégique pour le décommissionnement de SAS d’ici fin 2024.

Offre premium
Freelance

Mission freelance
Architecte Cloud Data h/f à Lille

ITS GROUP
Publiée le
AWS Cloud
Azure Data Factory

12 mois
500-550 €
Lille, Hauts-de-France

Expertise permettant de couvrir les besoins en expertises d’Ingénierie Cloud sur les sujets et produits liés aux données : administration bases de données, expertise data, architecture cloud data, etc. Automatisation et réalisation de modules Terraform pour le provisionnement Expertise et accompagnement projet (DSM ou DSI) sur un périmètre de PaaS comme : poc, architecture, aide à l’utilisation, paramétrage spécifique, optimisation, etc. Proposer une vision bout-en-bout et end-user sur un périmètre PaaS Définir et mettre en œuvre des meilleures pratiques associées à l’optimisation de la consommation des services PaaS – FinOps et GreenIT. Assurer une veille technologique constante : étude d’opportunité, analyse des nouveaux modèles d'utilisation pour faire évoluer les services existants, proposer de nouveaux produits et fonctionnalités. Assurer le BUILD et le RUN d’un périmètre PaaS.

Freelance

Mission freelance
Profil DevOps GCP Kubernetes

KUBE Partners S.L. / Pixie Services
Publiée le
DevOps
Google Cloud Platform
Kubernetes

12 mois
100-600 €
Paris, France

Bonjour je recherche un profil DevOps GCP Kubernetes pour un de mes clients Retail, Responsable de la conception, du déploiement, et de la gestion des infrastructures cloud, principalement sur GCP et des solutions basées sur Kubernetes. Ce rôle implique non seulement la maîtrise des technologies d'infrastructure et d'automatisation, mais aussi un accompagnement des équipes de développement sur les bonnes pratiques CI/CD. Implémentation de solutions sécurisées et performantes, tout en garantissant la disponibilité des systèmes critiques en production Analyse des dysfonctionnements/améliorations techniques et fonctionnelles Elaboration des procédures d’intégration, de tests et de rollback Création des pipelines CI/CD pour intégration et déploiement des modules Mise en place du processus d’Infrastructure As Code Développement des modules Terraform de déploiement des clusters basé sur AWS EKS. Mise en place de Private EC2, VPS, AWS CloudFormation, Terraform, Ansible Automatisation des opérations de migration de données (Python) Mettre en place la stack technique ELK sur des EC2. Création des Dashboards de monitorings des données en temps réelle d'une base PostgreSQL. - Certifications GCP & Kubernetes obligatoire - Linux / Postgre - Dynatrace Prometheus / Grafana /CICD - Terrafome / Ansible / Archi microservice - Finops

Freelance
CDI

Offre d'emploi
Ingénieur Cybersécurité Cloud GCP H/F

AMD Blue
Publiée le
Cybersécurité
Google Cloud Platform
IAM

3 ans
48k-57k €
Île-de-France, France

Rejoignez l’équipe de Maguen Cyber Maguen Cyber est né de la volonté d’un accompagnement innovant et adapté en cybersécurité en fonction des besoins de nos clients. Maguen Cyber se positionne en tant que pure-Player cybersécurité avec une couverture internationale et nous avons l’ambition de s’imposer comme une référence du secteur, avec vous à nos côtés. Nous recherchons un(e) Ingénieur Cybersécurité Cloud GCP pour une opportunité de mission de longue durée à pourvoir chez l’un de nos clients situés en IDF. Contexte de la mission : Dans le cadre de la transition vers le cloud opérée en 2018 chez notre client et de leurs utilisations croissantes de Google Cloud Platform (GCP). Détail de la mission : · Évaluer l'architecture de sécurité actuelle sur GCP et particulièrement sur les architectures projet de type data · Qualifier et étudier les évolutions de services GCP de type Private Service Connect et être en mesure de proposer des solutions si des problèmes sécurité sont remontées · Identifier les vulnérabilités et les risques à l’utilisation des services GCP (Vertex AI, Worflow, Dataflow, Apigee, GKE, Composer, …) et proposer des recommandations sécurité · Mettre en place des contrôles de sécurité dans les outils de type CSPM · Accompagner l'équipe interne projets et transverses dans la mise en œuvre des recommandations. · Mise en application de la Politique de Sécurité. · Contrôle de la Politique de Sécurité, notamment par des Contrôles Périodiques de Niveau 1 · Valide et instruit les dérogations contrevenant à la Politique de Sécurité. · Maintien en Conditions Opérationnelles des Infrastructures de Sécurité (supervision, prise en charge et résolution des incidents/problèmes, installation et configuration) · Participation aux audits (internes / externes) · Mise en applications des recommandations d'audit et des demandes de remise en conformité · Rédaction de guides et standards de sécurité · Donne son avis pour l'implémentation des solutions de sécurité · Proposition de solutions innovantes pour améliorer la sécurité, la qualité, les performances et les coûts d'exploitation · Assure la veille technologique

Freelance
CDI

Offre d'emploi
Senior Data Engineer Azure / Lead

KLETA
Publiée le
Apache Spark
Azure Data Factory
Databricks

3 ans
10k-75k €
Paris, France

En tant que Senior Data Engineer Azure, vous jouerez un rôle clé dans la conception, l'implémentation et l'optimisation des solutions de données cloud. Vous travaillerez en étroite collaboration avec les équipes de développement, les data scientists et les analystes pour construire et maintenir une architecture de données robuste et scalable. Concevoir et développer des pipelines de données sur la plateforme Azure en utilisant des technologies telles qu’Azure Data Factory, Databricks, Synapse, etc. Garantir la qualité, la sécurité et la gouvernance des données. Optimiser les performances des bases de données et des entrepôts de données. Collaborer avec les équipes métiers pour comprendre les besoins en données et concevoir des solutions adaptées. Assurer la maintenance, la supervision et le monitoring des pipelines et des flux de données. Réaliser des audits techniques et des revues de code pour garantir les bonnes pratiques en matière de développement de données. Assurer une veille technologique et recommander des évolutions architecturales et technologiques.

Freelance

Mission freelance
Devops GCP

ESENCA
Publiée le
Google Cloud Platform
Terraform

3 mois
400-420 €
Lille, Hauts-de-France

Von futur rôle : Tu instilleras la culture DevOps au sein des Features Teams. Tu veilleras et garantiras l’exploitabilité et la fiabilité des applications. Tu garantiras le haut niveau de qualité de construction et de mise en production des applications Tu piloteras la fourniture des environnements de développement, d’intégration et de tests en accord avec la politique technique client. Tu automatiseras, fiabiliseras et optimiseras les déploiements (chaîne CI/CD avec évolution vers le Déploiement en production). Tu piloteras la fourniture des environnements Cloud, de leur bonne utilisation (coûts, optimisation). Tu garantiras la prise en compte de la sécurité au plus tôt des phases de conception dans une approche Secured by Design, DevSecOps. Tu codes et binômes avec les équipes de développement.

Freelance

Mission freelance
Technical manager

Tenth Revolution Group
Publiée le
Docker
Google Cloud Platform
Grafana

3 ans
100-450 €
Île-de-France, France

🚀 Technical manager 🚀 Mon client recherche un Technical Manager (niveau confirmé, 4-6 ans d'expérience) pour intégrer la team de production Delta sur des projets stratégiques et transverses. 📍 Lieu : Île-de-France 💻 Télétravail : 3 jours/semaine 📅 Durée : Jusqu’au 05/11/2027 ✈️ Déplacements : Oui 🔍 Les principales responsabilités : Suivi des versions : Coordination des livrables, tests techniques, monitoring et reporting pour garantir des mises en production fluides. Pilotage transverse : Gestion de projets stratégiques, analyse des risques, documentation et reporting régulier. Accompagnement des équipes : Sensibilisation au RUN, facilitation des priorisations et amélioration continue de la qualité de service. 💻 Stack technique : Gestion des environnements (paramétrage, versions). Supervision des outils de monitoring et d’alerting. Coordination avec des outils et process comme Padmé, IAM, SIEM , et des environnements intégrant GCP, Docker, Vault, Grafana . 🎯 Compétences recherchées : Gestion de projets informatiques. Capacité d’analyse, de synthèse et excellent relationnel. Force de proposition et communication fluide. 💼 Un rôle clé dans des projets stratégiques d’envergure, au sein d’une équipe dynamique et innovante !

397 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous