Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 115 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI

Offre d'emploi
Offre de mission : Profil DevOps CloudOps - Freelance

KUBE Partners S.L. / Pixie Services
Publiée le
DevOps
Google Cloud Platform
Openshift

6 mois
11k-60k €
100-500 €
Île-de-France, France

Pixie Services recrute un(e) DevOps CloudOps confirmé Mission : Pixie Services, spécialiste dans le staffing IT, recherche un(e) expert(e) DevOps pour une mission de longue durée. Compétences techniques requises : GKE/GCP : Confirmé (impératif) Ansible : Confirmé (impératif) GitlabCI : Confirmé Helm : + Français courant Anglais professionnel Description de la mission : Intégration de solutions logicielles et matérielles dans un environnement Cloud (GCP/OpenShift) Déploiement des applications via CICD Support d'incidents en production Mise en exploitation de nouvelles applications ou versions Expertise des technologies Cloud et des services des grands Cloud providers Maîtrise de la conteneurisation, de l'automatisation et de la CI/CD Accompagnement des développeurs et mise en place d'une démarche DevOps Missions principales : Analyse des besoins et veille technologique : Recueillir l'information nécessaire Préconiser des solutions Rédiger des cahiers des charges et assurer une veille technologique continue. Mise en place et intégration : Concevoir et adapter les logiciels Configurer et dimensionner les solutions Tester les systèmes et assurer la validation technique. Exploitation : Valider l'intégration des nouveaux outils Traiter les incidents et anomalies Participer à la maintenance corrective et améliorer les ressources existantes. Sécurité : Assurer le respect des règles de sécurité Gérer les sauvegardes et la sécurité physique des données. Type de contrat : Mission freelance, longue durée Si cette mission vous intéresse, merci de postuler avec votre Cv à jour.

Freelance
CDI

Offre d'emploi
DATA ENGINEER GCP DBT

UCASE CONSULTING
Publiée le
Google Cloud Platform
Python

6 mois
78k-128k €
550-950 €
Paris, France

Je recherche pour un de mes clients dans le domaine de la Banque/Assurance un Data Engineer GCP&DBT confirmé : Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement • Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants • Rédiger la documentation technique des data products • Assurer un support aux testeurs • Reporter de ton activité à ta Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Faire des propositions techniques Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, GCP Dataflow, Data Build Tool (DBT) • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab, Flamingo • Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Autonomie, rigueur, proactivité et prise d’initiative • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Capacité à communiquer, à travailler en équipe et excellent relationnel Une pratique opérationnelle de l’anglais est également nécessaire pour la rédaction de la documentation et la participation à certaines cérémonies. Une expérience professionnelle significative dans le domaine de la banque de détail est un plus.

Freelance
CDI

Offre d'emploi
SYSOPS H/F

SYD CONSEIL MANAGEMENT
Publiée le
Google Cloud Platform

6 mois
31k-50k €
350-550 €
Nantes, Pays de la Loire

Groupe SYD IM Nous recherchons pour l'un de nos clients sur Nantes un Sysops H/F Missions : Travail en agilité (Scrum, Kanban) Réalisation de solutions techniques vis à vis des éléments priorisés du backlog produit par le PO et le leadtech Ecriture de documentation technique Travail en petit groupe avec d'autres DevOps sur des sujets d'analyse ou de réalisation ou de gestion des incidents, selon les besoins Compétences attendues Réaliser des scripts en python, des modules terraform et des playbook ansible A l'aise avec la gestion de VM sous Linux et/ou sous Windows Posture de communicant et de partage des connaissances Environnement technique/fonctionnel Google Cloud Platform (GCE, GCS, CloudFunction) Terraform Ansible Github Jenkins Administration des Systèmes d'exploitation Windows Server RHEL Python Télétravail partiel ok rejoignez-nous!

Freelance

Mission freelance
Expert(e) CloudOps

INFRASTRUCTURE SERVICES
Publiée le
Ansible
GitLab CI
Google Cloud Platform

1 an
600-650 €
Châtillon, Île-de-France

Expert(e) CloudOps Contexte : Intègre la solution logicielle ou matérielle livrée par les services Etudes dans l’environnement de production Cloud (GCP/OpenShift). Intègre l’application et en assure le déploiement via CICD Gère le support nécessaire de l’application lors des incidents en production Intervient dans la mise en exploitation d’une nouvelle application ou la livraison d’une nouvelle version de cette application Est un spécialiste des technologies du cloud et des services proposés par les grands cloud providers Maîtrise généralement les concepts de conteneurisation, d’automatisation et de CI/CD* qui lui permettent d’accompagner les développeurs et de mettre en place une démarche DevOps dans l’entreprise Compétence recherchée : GKE/GCP - Confirmé - Impératif Ansible (Tower) - Confirmé - Impératif GitlabCI - Confirmé - Impératif Helm - Confirmé – Important

Freelance
CDI
CDD

Offre d'emploi
Ingénieur Système GCP H/F

SYD CONSEIL MANAGEMENT
Publiée le
Google Cloud Platform

6 mois
10k-50k €
100-600 €
Nantes, Pays de la Loire

Groupe SYD IM Nous recherchons pour l'un de nos clients sur Nantes un Ingénieur système GCP H/F Missions : Travail en agilité (Scrum, Kanban) Réalisation de solutions techniques vis à vis des éléments priorisés du backlog produit par le PO et le leadtech Ecriture de documentation technique Travail en petit groupe avec d'autres DevOps sur des sujets d'analyse ou de réalisation ou de gestion des incidents, selon les besoins Compétences attendues Réaliser des scripts en python, des modules terraform et des playbook ansible A l'aise avec la gestion de VM sous Linux et/ou sous Windows Posture de communicant et de partage des connaissances Environnement technique/fonctionnel Google Cloud Platform (GCE, GCS, CloudFunction) Terraform Ansible Github Jenkins Administration des Systèmes d'exploitation Windows Server RHEL Python Télétravail partiel ok rejoignez-nous!

Freelance

Mission freelance
Data Steward

CAT-AMANIA
Publiée le
Apache Kafka
ETL (Extract-transform-load)
Google Cloud Platform

3 mois
400-550 €
Lille, Hauts-de-France

En tant que Data Steward pour le domaine, vous dirigerez les initiatives de modélisation des données et d'amélioration de la qualité, en travaillant en étroite collaboration avec les équipes métiers, produit et techniques pour garantir une gouvernance des données appropriée et une conformité aux normes. Qualité des données & Modélisation : Piloter les initiatives de modélisation des données en suivant les exigences internes. Garantir l'utilisation sémantique appropriée et la cardinalité dans les modèles de données. Valider les structures de données avec l'équipe d'architecture. Maintenir les standards de qualité des données dans le domaine concerné. Animation des parties prenantes : Coordonner avec les Chefs de Projet (propriétaires des données). Faciliter les discussions entre les équipes métiers et techniques. Guider les équipes techniques dans l'amélioration des structures API/événements. Travailler en étroite collaboration avec les équipes produit pour intégrer les sujets de données dans la feuille de route. Collaborer avec l'équipe d'architecture pour la validation des modèles. Compréhension des processus métier : Analyser les processus métier existants. Proposer des recommandations initiales pour l'architecture des données. Garantir l'alignement entre les besoins métiers et les structures de données. Documenter les flux de données et les dépendances. Support à la mise en œuvre technique (20%) : Guider l’exposition des données selon les modèles validés. Supporter la restructuration des sujets Kafka et des API de points de terminaison. Superviser la mise en œuvre de la qualité des données. Valider les solutions techniques.

Freelance

Mission freelance
Développeur Data/IA : Python & JS - mission longue - Anglophone

Montreal Associates
Publiée le
Firestore
Google Cloud Platform
Javascript

1 an
500-650 €
Nanterre, Île-de-France

Bonjour, Nous recherchons un développeur fullstack pour des projets Data/IA ambitieux. L'objectif du projet est de construire une application web pour libérer la créativité de l'équipe Marketing, accélérer la campagne de communication digitale et améliorer la qualité et la performance de leur campagne de communication. Le projet se concentre sur le développement de l'application web, toutes les capacités génératives seront disponibles à travers l'API (Ex : Firefly, Gemini ou une API construite en interne) Description du poste : - Front end : 1. Collaboration avec les designers UI/UX pour mettre en œuvre des designs visuellement attrayants et conviviaux. 2. Conception et développement d'interfaces utilisateur réactives. - Back end : 1. Développement de fonctionnalités robustes et évolutives côté serveur sur la base de l'histoire de l'utilisateur. 2. Mise en œuvre et exposition d'API pour permettre la communication entre le front-end et le back-end. 3. Conception et maintenance de la base de données (Firestore) et optimisation des performances des requêtes. Fonctions transversales : 1. Assurer les meilleures pratiques de développement (tests unitaires, documentation). 2. Collaboration avec les autres membres de l'équipe. - Environnement technique : 1. Environnement GCP lié au développement : Cloudrun, Firestore, CloudStorage etc... 2. Back-end : Python, fastapi 3. Front-end : React, Typescript, ViteJS, Material UI - Expertise supplémentaire : L'expertise du modèle de génération d'images est un plus

Freelance

Mission freelance
Data Engineer

CAT-AMANIA
Publiée le
Google Cloud Platform
Microsoft Power BI
Python

3 mois
400-550 €
Lille, Hauts-de-France

Nous recherchons un consultant Data pour la création et l'amélioration continue des produits digitaux Eco-responsable et sociaux. L'objectif de ces produits digitaux est de mesurer l'impact environnemental et social des produits vendus notre client. Le consultant Data aura une dominance Data Engineer mais des compétences de Data Analyst sont également attendues - Collecter les données via des PIPELINE - Mesurer la qualité des données - Historiser les données - Créer des modèles optimisés - Créer des dashboards pour répondre aux besoins métiers Environnement technique sur lesquels une expérience significative est attendue et non une première formation - GCP & BigQuery - Terraform & Github - PowerBI Gen 2 - Python

Freelance

Mission freelance
Data Scientist IA

ESENCA
Publiée le
Apache Airflow
BigQuery
Data science

3 mois
400-500 €
Lille, Hauts-de-France

Nous recherchons un Data Engineer /Scientiste avec la capacité de mettre en place du dataViz (PowerBI/ loocker) Pour mettre en place des produits/Alghoritmes Data avec de l'IA /machine learning au sein du périmètre marketing client Automatiser des process et aider le business à prendre des décisions stratégiques en se basant sur la Data Cartographie des données Datamesh approprié et partagé et son dimensionnement Datamesh avec les sondes qui garantit la qualité de la donnée Qualification et Gestion des données: - Capte les données (structurées et non structurées) produites dans les différentes applications ou à l'extérieur de l'entité - Intègre les éléments - Structure la donnée (sémantique, etc.) - Cartographie les éléments à disposition - Nettoie la donnée (élimination des doublons, ) Stack technique: Python,Shell, CI/CD, Airflow, Dataflow - Expert AppEngine, FastAPI - Expert GIT, GitHub, bigQuery, Finder, PowerBI/loocker Méthode Scrum, Kanban

Freelance

Mission freelance
Développeur Back

ESENCA
Publiée le
Apache Kafka
Bash
Git

3 mois
350-400 €
Lille, Hauts-de-France

CONTEXTE Dans un contexte de modernisation des applications legacy, nous recherchons un développeur pour intervenir sur les applications liées au référencement des données de l’offre (produit, fournisseur, prix…). La mission permettra des interventions sur toute la chaine de la conception jusqu'au déploiement ainsi qu'à la gestion du run (culture DevOps). MISSIONS En tant que développeur, vous intégrerez une équipe agile composée d'un PO et de 3 à 4 développeurs. Dans cette équipe, vous serez garant de la qualité des features développées dans le respect des bonnes pratiques de développement et des choix technologiques sur les différents composants du périmètre. Des ressources externes à l’équipe seront disponible pour permettre l’atteinte des objectifs. Le candidat devra comprendre rapidement l’éco-système au sein d'un contexte de modernisation Sera capable de prendre en charge les développements sur différents langages Sera capable d'utiliser la CI/CD pour intégrer les nouvelles features au produit Sera capable d'utiliser / analyser les sujets API du périmètre Une expertise dans le retail serait un plus pour le candidat Hard skills recherchées : Maîtrise technique indispensables SQL, BASH / SHELL / UNIX, NodeJS Maîtrise technique souhaitable : Java, C , GCP, KAFKA Bonne connaissance de GIT Anglais Impératif Professionnel Soft Skills indispensables : Esprit d’analyse et de synthèse Coopération, Rigoureux, Curieux

Freelance

Mission freelance
Expert(e) en Intelligence Artificielle

SELFING
Publiée le
Apache Spark
Azure
CI/CD

12 mois
500-550 €
Saint-Rémy-lès-Chevreuse, Île-de-France

Nous recherchons pour le compte de notre partenaire issu du secteur de l’Energie , un(e) Expert(e) en Intelligence Artificielle passionné(e) et expérimenté(e) pour accompagner l’exécution de notre feuille de route stratégique en IA. Vous jouerez un rôle central dans la mise en œuvre de notre vision, en challengeant nos orientations stratégiques et en assurant le succès des projets prioritaires. La mission est basée à Saint-Rémy-Lès-Chevreuse (78) et inclura 2 jours de télétravail par semaine. Plus précisément, vos tâches seront les suivantes : 1. Challenger la roadmap AI existante • Analyser la feuille de route AI et les matrices de priorisation des cas d’usage. • Apporter une perspective critique et des recommandations pour renforcer l’impact stratégique des initiatives. • Identifier les opportunités d’optimisation ou de nouveaux cas d’usage alignés avec les objectifs de l’entreprise. 2. Mise en œuvre de la stratégie Data et infrastructure • Collaborer avec les équipes internes Infra, archi et data pour établir les bases d’une infrastructure Data solide et évolutive pour nos POC AI. • Superviser la mise en place de pipelines de données, des outils de traitement et des architectures nécessaires aux projets IA. • Assurer l’intégration des outils et des plateformes technologiques sélectionnés dans le cadre de la stratégie AI. 3. Gouvernance et pilotage des projets pilotes (PoC) • Superviser les Proofs of Concept pour expérimenter et valider les choix technologiques et organisationnels de la gouvernance AI. • Assurer la coordination entre les parties prenantes internes (DSI, métiers, Data teams) et les partenaires externes. • Évaluer les résultats des PoC et fournir des recommandations pour le passage à l’échelle (industrialisation). 4. Accompagnement à la prise de décision stratégique (Make or Buy) • Participer activement aux discussions stratégiques sur la matrice make or buy pour les solutions IA. • Apporter une expertise pour évaluer les solutions externes et les capacités internes. 5. Support opérationnel et accompagnement des équipes • Transférer des compétences aux équipes internes pour garantir l’autonomie progressive dans la gestion des projets IA. • Apporter un soutien technique sur la conception, l’entraînement, et le déploiement des modèles IA en production. • Mettre en œuvre les bonnes pratiques en matière d’explicabilité, de robustesse et d’éthique des modèles IA. 6. Veille technologique et innovation • Assurer une veille active sur les technologies émergentes et les meilleures pratiques dans le domaine de l’IA et de la Data Science.

Freelance
CDI

Offre d'emploi
Ingénieur sécurité et réseaux CLOUD / GCP

NETSEC DESIGN
Publiée le
Google Cloud Platform

2 ans
40k-76k €
400-600 €
Guyancourt, Île-de-France

Nous recherchons pour notre client final (grand compte) deux Ingénieurs Sécurité Cloud pour le maintien en condition des équipements de sécurité : Mise en place des infrastructures réseau et sécurité au sein des clouds GCP et Azure. Mise en place des solutions d'interconnexion. Support de niveau 3 sur tout incident opérationnel concernant les équipements de sécurité dans l'environnement cloud et les datacenters associés. Identification et mise en place des correctifs, ainsi que l'évolution de l'ingénierie si nécessaire. Rédaction de procédures et de documents techniques à suivre par les équipes de niveaux 1 et 2. Accompagnement des projets pour la mise en place de l'environnement réseau associé (flux, routage, etc.). Participation aux projets de modernisation des différents services réseaux (firewalls, DNS, routeurs, etc.). Suivi des actions de remédiation pour corriger les vulnérabilités de sécurité et mise en conformité des équipements, réseaux et systèmes de sécurité concernés.

CDI
Freelance
CDD

Offre d'emploi
Consultant cybersécurité (H/F)

ESENCA
Publiée le
Firewall
Google Cloud Platform

1 an
43k-58k €
450-600 €
Lille, Hauts-de-France

Gestion des processus de sécurité : Maintenir les procédures, la documentation et les KPIs liés à la sécurité opérationnelle. Opérations de sécurité : Gérer les outils (WAF, SIEM, CDN, Datadog), exécuter les tâches récurrentes, surveiller et analyser les activités suspectes. Réponse aux incidents : Identifier les menaces, analyser les alertes, coordonner les réponses, appliquer les correctifs et gérer les vulnérabilités. Intégration de la sécurité : Collaborer avec les équipes projets pour intégrer des pratiques sécurisées dans les applications et infrastructures. Audits et conformité : Participer aux audits annuels, évaluer les risques, gérer les accès privilégiés, et remédier aux vulnérabilités identifiées.

Freelance
CDI

Offre d'emploi
Expert APIGEE AND GCP

AVA2I
Publiée le
Google Cloud Platform

3 ans
40k-70k €
400-600 €
Vincennes, Île-de-France

Dans un contexte de transformation digitale et d’adoption des technologies Cloud, nous cherchons à renforcer nos équipes avec un Expert Apigee & GCP , qui jouera un rôle clé dans la gestion et l’évolution de nos solutions API et Cloud. Concevoir, implémenter et maintenir des solutions de gestion d’API sur la plateforme Apigee. Garantir la performance, la sécurité et l’évolutivité des passerelles API. Participer à la conception des politiques API (authentification, contrôle de trafic, monitoring, etc.). Assurer une veille technologique sur Apigee et proposer des améliorations adaptées aux besoins du groupe. Concevoir et déployer des solutions sur Google Cloud Platform, en garantissant la conformité avec les standards de sécurité et de performance. Collaborer avec les équipes DevOps pour automatiser et optimiser les processus de déploiement et de gestion des ressources Cloud. Assurer la gestion des coûts et optimiser l’utilisation des ressources GCP. Fournir une expertise technique aux équipes projet et métier. Identifier et résoudre les incidents critiques liés à Apigee et GCP. Former et accompagner les équipes internes sur les meilleures pratiques Apigee et Cloud. Participer aux projets de transformation digitale en intégrant les solutions Cloud et API. Collaborer avec les architectes pour définir des architectures hybrides ou Cloud-native robustes. Garantir la conformité des solutions avec les normes internes et les réglementations en vigueur.

Freelance

Mission freelance
Développeur Java/GCP

ESENCA
Publiée le
Google Cloud Platform
Java

3 mois
400-450 €
Lille, Hauts-de-France

Développeur JAVA GCP. Dans le cadre du développement et du déploiement d'une application de gestion backoffice dans plusieurs pays européens Les principales missions sont : - Participer au développement de nouvelles fonctionnalités - Apporter des conseils et de l'expertise technique pour l'intégration des projets micro-services. - Mise en place et suivi de l'outillage pour optimiser la performance, la sécurité, l'observabilité des composants logiciels. - Maintien et amélioration de la plateforme d'intégration continue Environnement technique : Java/Spring/NodeJS/VueJS MongoDB Kafka Kubernetes (GKE)/Terraform justifiez d'une expérience significative dans un environnement cloud (GCP de préférence)

Freelance

Mission freelance
Data Engineer GCP & JAVA

IDEMYS
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform

1 an
100-550 €
Île-de-France, France

Nous recherchons, pour le compte de notre client, une entreprise de premier plan dans son secteur, un Data Engineer expérimenté avec une expertise confirmée sur la plateforme Google Cloud Platform (GCP) . Ce poste clé offre une opportunité unique de contribuer à des projets ambitieux et stratégiques dans un environnement technique avancé et collaboratif. En tant que Data Engineer, vous serez responsable de la conception, du développement et de l'optimisation des pipelines de données pour répondre aux besoins métiers et techniques du client. Vous jouerez un rôle essentiel dans la gestion des flux de données, l’automatisation des processus et l’exploitation des données dans un environnement cloud moderne. Vous serez amené(e) à : Concevoir et implémenter des pipelines de données robustes et scalables. Collaborer avec les équipes Data, IT et métier pour comprendre les besoins et définir les solutions adaptées. Optimiser les performances des systèmes de données pour garantir rapidité et fiabilité. Assurer la qualité et la gouvernance des données en suivant les meilleures pratiques. Automatiser et orchestrer les flux de données avec des outils tels qu’Apache Airflow. Contribuer à l’amélioration continue de l’infrastructure Data, notamment via Terraform. Pour réussir dans ce rôle, vous devrez démontrer une expertise sur les technologies et outils suivants : Langages et Frameworks : Maîtrise de Java et du framework Spring Boot . Utilisation avancée de Maven pour la gestion des dépendances et la construction des projets. Big Data & Cloud : Expertise dans l’utilisation de BigQuery pour l’analyse et la gestion des données à grande échelle. Solide expérience avec Dataflow pour le traitement des données en temps réel ou par lots. Familiarité avec Cloud Run pour déployer et exécuter des conteneurs applicatifs. Orchestration et automatisation : Expérience significative avec Apache Airflow pour la gestion et l’aut

115 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous