Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 580 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
DevSecOps Engineer

Phaidon London- Glocomms
Publiée le
Ansible
Automatisation
AWS Cloud

1 an
350-550 €
Paris, France

· Gestion de la sécurité Kubernetes : Configurer et maintenir la sécurité des clusters Kubernetes (politiques réseau, secrets, surveillance des activités, etc.). · Développement et optimisation des pipelines CI/CD sécurisés pour automatiser les déploiements et les tests de sécurité. · Pilotage des systèmes de détection et de réponse aux incidents en utilisant des outils tels que Prometheus, Grafana, … · Implémentation des solutions sécurisées pour la gestion des secrets et des accès avec Vault · Conformité des environnements avec les standards de sécurité (ISO 27001, PCI-DSS, RGPD, etc.), en réalisant des audits réguliers et en documentant les processus. · Collaboration avec les équipes de développement et d’infrastructure pour intégrer la sécurité dans chaque étape du cycle de vie des applications. · Analyse et réaction aux incidents de sécurité en mettant en oeuvre des correctifs, et faire des recommandations pour renforcer la résilience. · Formation et sensibilisation des équipes internes aux bonnes pratiques en matière de sécurité, notamment autour de Kubernetes et des conteneurs.

Freelance

Mission freelance
Software Engineer IA & Computer Vision | Casablanca 100% Remote

skiils
Publiée le
Apache Airflow
Computer vision
Docker

12 mois
100-350 €
France

Dans le cadre de l'industrialisation de modèles d'intelligence artificielle basés sur des techniques de computer vision , vous serez intégré(e) au service Data Science pour contribuer à la mise en place et à l’optimisation des pipelines de données et des workflows IA. Vos responsabilités Collaborer avec l’équipe Data Science pour déployer et maintenir des modèles d’IA en production. Concevoir, développer et optimiser des pipelines de données avec Apache Airflow pour garantir une gestion efficace des workflows. Mettre en place des infrastructures cloud sur Google Cloud Platform (GCP) , en utilisant des outils comme Docker et Kubernetes pour une gestion scalable et robuste des environnements. Intégrer les meilleures pratiques DevOps/DataOps (CI/CD, monitoring, automatisation) dans les projets IA. Garantir l’intégration des modèles basés sur des bibliothèques de data science et computer vision dans des systèmes opérationnels. Participer à l’amélioration continue des process d’industrialisation des modèles IA. Environnement technique Outils et technologies : Docker, Kubernetes (expertise requise), Airflow, Git. Cloud : Google Cloud Platform (GCP). Domaines d'application : Intelligence artificielle, Computer Vision, Data Science. Langages et bibliothèques : Python (librairies data science comme TensorFlow, PyTorch, OpenCV, etc.).

Freelance

Mission freelance
Devops GCP

ESENCA
Publiée le
Docker
Google Cloud Platform
Kubernetes

1 an
400-450 €
Lille, Hauts-de-France

Au sein des équipes opérationnelles, la mission de devops consiste à - assurer l'intégration continue des solutions développées - maintenir les plateformes - Suivre le monitoring de la plateforme - Implémenter des évolutions sur les scripts de fichiers sources de l'usine logicielle (script de packaging/paramétrage, job de build / livraison). - Implémenter les outillages et procédures de répétitions (ex: backup, automatisation, test de paramétrage). - Supporter des équipes de développements et de recette sur les activités de BUILD et de RUN. Le poste requiert des astreintes

Freelance

Mission freelance
Senior Data Scientist

Phaidon London- Glocomms
Publiée le
Big Data
FastAPI
Google Cloud Platform

6 mois
500-600 €
Île-de-France, France

Rôle : Data Scientist senior Durée du contrat : 6 mois (extensible) Travail à distance* (déplacements occasionnels dans les 2 bureaux du client) Date de début : ASAP Responsabilités : Concevoir et développer des prototypes et des projets pilotes pour démontrer la valeur des solutions d'intelligence artificielle. Définir et structurer les projets d'IA, en travaillant en étroite collaboration avec les parties prenantes. Identifier les objectifs et les ressources nécessaires pour assurer la faisabilité du projet Fournir aux clients des conseils stratégiques et techniques pour les aider à intégrer les solutions d'IA dans leurs processus d'affaires. Processus de documentation précis N'hésitez pas à nous contacter si ce poste vous intéresse !

Freelance

Mission freelance
Ingénieur Réseaux Hybrides/ Devops (aws, gcp, cisco et palo alto)

ODHCOM - FREELANCEREPUBLIK
Publiée le
AWS Cloud
Google Cloud Platform
Palo Alto

12 mois
400-600 €
Paris, France

Nous recherchons pour notre client, un grand média, un(e) ingénieur(e) DevOps, expert en réseaux hybrides (Cisco, PaltoAlto, AWS et GCP). Notre client recherche un candidat sénior avec de fortes compétences techniques sur ses environnements "réseaux hybrides" pour assurer le support niveau 3 et le MCO dans un contexte réseaux OnPrem et Cloud public (Cisco, PaloAlto, AWS, GCP, Azure...). Le candidat doit être en mesure de maitriser les solutions réseaux hybrides déployées chez le client et maitriser les outils DevOps (Proxmox, Gitlab...) qui sont déployées pour la production et l’exploitation des réseaux hybrides Détail de la prestation : o Maintenir en condition opérationnelle des réseaux hybrides (support niveau 3 pour le MCO). o Supporter l’exploitation (traitement des tickets escaladés). o Analyser et proposer des améliorations continues sur le MCO des réseaux hybrides (niveau 1, niveau 2 et niveau 3). o Assurer des interventions ou des astreintes ponctuelles en HNO. o Concevoir les changements réseaux hybrides rendues nécessaires pour le MCO. o Automatiser les déploiements via les outils France Télévisions. o Transférer la connaissance aux équipes Ingénierie et Support. o Livrables : ▪ Documents de MCO de l'architecture réseaux hybrides ▪ Documents d’automatisation (code source commenté) ▪ Documents d’Exploitation ▪ Cahier de recette des changements

Freelance

Mission freelance
expert(e) AWS – Reconstruction rapide dans le Cloud/fa

WorldWide People
Publiée le
AWS Cloud
CI/CD
Google Cloud Platform

12 mois
400-600 €
Guyancourt, Île-de-France

expert(e) AWS – Reconstruction rapide dans le Cloud - Expérimenté avec un minimum de 4 ans d’expériences sur des projets similaires. Localisation Guyancourt (78)/ Télétravail Durée de la mission : 2 ans Projet : Rédiger des procédures et des avis techniques, ainsi que des feuilles de route à destination des chefs de projet et des équipes opérationnelles. La maitrise de l’anglais est donc essentielle . Principaux livrables : Continuer les actions d'automatisation et de fiabilisation ; Opérer les revues de code ; Tester et contribuer à la conception de la solution ; Paramétrer, développer et qualifier des solutions applicatives ; Établir l’analyse et les diagnostics pour donner suite aux incidents rencontrés et lancer les actions nécessaires pour que ces incidents ne se reproduisent plus ; Mettre en place, mener ou piloter le déploiement des applications développées ; Rédiger et/ou participer à la rédaction des dossiers de conception générale et/ou détaillée ; Analyser les traitements pour réaliser les études détaillées ou les études d’impact ; Participer à la veille technologique de le l’équipe ; Réaliser des présentations techniques ; Assurer le support technique niveau 3 auprès des développeurs ; Assistance et support technique aux diverses équipes utilisant le Cloud public AWS Compétences requises : Expertise et expérience significative sur Terraform Définition de module Terraform Expertise sur le Cloud public AWS (GCP si possible) Maitrise des outils de déploiements automatisés Pipeline CICD (gitlab-ci, Ansible, AWX, Jenkins etc.), langage de développement Python Connaissance sur les technologies Kubernetes Une expérience de projet type "lift&shift" serait souhaitable. La mission pourrait nécessiter des astreintes et/ou opérations ponctuelles en HNO.

Freelance

Mission freelance
Data Engineer GCP

Enterprise Digital Resources Ltd
Publiée le
Data analysis
Google Cloud Platform

1 an
100-550 €
Lille, Hauts-de-France

Je recherche en ce moment un Data Engineer pour accompagner un de mes client sur différents projets autour de GCP Missions Conception et développement : Concevoir et développer des pipelines de données robustes et évolutifs sur GCP, en utilisant principalement BigQuery et Cloud Functions. Modéliser les données, optimiser les requêtes SQL et les schémas pour améliorer les performances. Mettre en place des solutions de monitoring et d'alerting pour assurer la disponibilité des traitements. Maintenance et évolution : Assurer la maintenance et l'évolution des pipelines existants. Identifier et résoudre les problèmes techniques. Mettre en œuvre de nouvelles fonctionnalités et améliorer les performances. Collaboration : Travailler en étroite collaboration avec les équipes métiers pour comprendre leurs besoins et leur fournir des solutions adaptées. Participer aux choix techniques et à l'amélioration continue des processus.

Freelance

Mission freelance
Data Engineer

HAYS France
Publiée le
BigQuery
Google Cloud Platform
SQL

3 ans
100-450 €
Lille, Hauts-de-France

Il est garant de l'accès qualitatif aux sources de données. Il s'assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d'en faciliter l'exploitation par les équipes (Data Analysts et Data Scientists). Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT, Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons, ). SON ACTIVITE : QUALIFICATION ET GESTION DES DONNÉES : - Capte les données (structurées et non structurées) produites dans les différentes applications ou à l'extérieur de l'entité - Intègre les éléments - Structure la donnée (sémantique, etc.) - Cartographie les éléments à disposition - Nettoie la donnée (élimination des doublons, ) - Valide la donnée - Éventuellement, il crée le référentiel de données SES LIVRABLES : - Data Lake approprié et partagé et son dimensionnement - Cartographie des données - Les éléments permettant de garantir la qualité de la donnée

Freelance
CDI

Offre d'emploi
Ingénieur SYSOPS H/F

SYD CONSEIL MANAGEMENT
Publiée le
Administration linux
Google Cloud Platform

6 mois
40k-60k €
400-700 €
Nantes, Pays de la Loire

Groupe SYD IM. SYD accompagne votre transformation continue et vous permet de prendre l’ampleur qui est la vôtre. Donnons du sens à vos initiatives digitales, embarquons chacun à vos côtés. Nous recherchons pour l'un de nos clients sur Nantes un Ingénieur SYSOPS H/F Sysops / Ingenieur Systeme /Cloud Engineer Principales technologies: Windows linux cloud gcp terraform python ansible vmware Poste à pourvoir ASAP Nous sommes ouverts à tous types de contrats: Free lance/Portage salarial/CDI... Rejoignez-nous!!

CDI

Offre d'emploi
Data Engineer - AKS

AGH CONSULTING
Publiée le
Google Cloud Platform
Python
SQL

40k-50k €
Massy, Île-de-France

Dans le cadre d'un projet majeur de transformation digitale pour notre client, nous recherchons un(e) Data Engineer Senior pour renforcer ses équipes pendant 12 mois. Ce projet s'inscrit au cœur de la révolution numérique du client, où la data et le digital sont placés au centre de la stratégie. Votre mission : Intégré(e) à l'équipe data de notre client, vous contribuerez à : Concevoir et développer des pipelines de données robustes pour des projets de machine learning Optimiser les architectures de traitement de données existantes Participer aux revues de code et au développement des bonnes pratiques Collaborer avec une équipe d'experts (data scientists, engineers, devops) Assurer l'intégration de nouvelles sources de données Garantir la qualité technique des solutions déployées

Freelance

Mission freelance
Ops / Site Reliability Engineer

ESENCA
Publiée le
Docker
Google Cloud Platform
Kubernetes

1 an
400-450 €
Lille, Hauts-de-France

Nous recherchons une personne pour une mission de Ops / Site Reliability Engineer (SRE) afin de compléter l’équipe Operations de la Global Tech & Data Platform. Ton expérience des architectures techniques cloud, de la sécurité, du réseau et des pratiques de CI/CD te permettront : - de développer des solutions pour concevoir, construire et exploiter des systèmes à grande échelle de manière évolutive, fiable et efficace - d’intervenir dans les choix d’architecture technique en opérant à l’intersection du développement logiciel, de l'ingénierie des systèmes et de la sécurité - d’intervenir sur les systèmes critiques pour l’entreprise à la demande du product owner / leader - de trouver toutes les root causes complexes des problèmes en production et de faire les bons choix pour permettre à notre plateforme de passer à l’échelle sans difficultés - de guider les équipes produit en respectant les outils et pratiques recommandées Tu seras co-responsable, avec les équipes produit, de l'amélioration constante de la fiabilité de nos services utilisés quotidiennement par l’ensemble des Business Units. Les 5 piliers du SRE Tech & Data : le « SPADH » – Service : fournir un service incroyable, hors du commun – Passion : être passionné(e), toujours prendre du plaisir – Ambition : être ambitieux(se), n’avoir aucune limite – Détermination : être résolu(e), passer par la porte ou par la fenêtre pour atteindre l’objectif – Humilité : être humble et à l’écoute Les enjeux - Participer au maintien durable des niveaux de service de haute disponibilité de la plateforme Tech&Data groupe. - Maintenir et faire évoluer le haut niveau d’automatisation et de résilience de la plateforme Les Missions - Accompagnement des équipes produits sur l'amélioration du run de leur produit (stack ops, metrologie, automatisation, etc.) - Maintien en condition opérationnelle des outils Ops (Cloud compliance, gestion des SLO, …) - Évolution et management de l’infrastructure (Infrastructure As Code) - Contribution à la création de la CI/CD automatisée - Suivi de production (capacity planning, gestion des incidents) - Développement de nouveaux produits et features, automatisation, scaling, documentation

Freelance

Mission freelance
Expert sécurité GCP / IAM GCP / SECURITE RESEAUX / TERRAFORM / ANGLAIS (H/F)

Octopus Group
Publiée le
Administration réseaux
Google Cloud Platform
IAM

1 an
400-600 €
Paris, France

Nous recherchons pour le compte de notre client dans le domaine bancaire un expert Sécurité cloud GCP. Objectif global : Accompagner la mise en œuvre de la sécurité du cloud GCP Description détaillée : Évaluer l'architecture de sécurité actuelle sur GCP et particulièrement sur les architectures projet de type data Qualifier et étudier les évolutions de services GCP de type Private Service Connect et être en mesure de proposer des solutions si des problèmes sécurité sont remontées Identifier les vulnérabilités et les risques à l’utilisation des services GCP (Vertex AI, Worflow, Dataflow, Apigee, GKE, Composer, …) et proposer des recommandations sécurité Mettre en place des contrôles de sécurité dans les outils de type CSMP Accompagner l'équipe interne projets et transverses dans la mise en œuvre des recommandations. Définition du profil : Mise en application de la Politique de Sécurité. - Contrôle de la Politique de Sécurité, notamment par des Contrôles Périodiques de Niveau 1 - Valide et instruit les dérogations contrevenant à la Politique de Sécurité. - Maintien en Conditions Opérationnelles des Infrastructures de Sécurité (supervision, prise en charge et résolution des incidents/problèmes, installation et configuration) - Participation aux audits (internes / externes) - Mise en applications des recommandations d'audit et des demandes de remise en conformité - Rédaction de guides et standards de sécurité - Donne son avis pour l'implémentation des solutions de sécurité - Proposition de solutions innovantes pour améliorer la sécurité, la qualité, les performances et les coûts d'exploitation - Assure la veille technologique

CDI

Offre d'emploi
Intégrateur DevOps

AGH CONSULTING
Publiée le
AWS Cloud
Azure
Google Cloud Platform

10k-50k €
Paris, France

Contexte de la mission : Au sein de notre département Product Factory , vous intégrerez une équipe dynamique fonctionnant en mode agile . Votre mission principale sera de participer au développement des produits mis à disposition de nos exploitants et clients, permettant la gestion de leurs applicatifs dans des environnements AWS , GCP , FE et Azure , en particulier sur des clusters Kubernetes . Missions principales : Dans le cadre de votre mission, vous serez responsable des tâches suivantes au sein de la feature team Infrastructure : Gestion du cycle de vie des composants d’infrastructure (tels que Vault , Bastion , Keycloak ) et de leur configuration associée. Prise de lead technique sur l’intégration de la stack d’infrastructure. Prise en compte des contraintes techniques , notamment la performance , l' endurance , la robustesse et l’ exploitabilité des solutions mises en œuvre.

CDI

Offre d'emploi
Ingénieur de production

HN SERVICES
Publiée le
CI/CD
Google Cloud Platform

38k-45k €
Paris, France

Nous sommes à la recherche d'un(e) ingénieur(e) de production pour rejoindre notre service Production Data Métiers. Les principales missions qui vous seront confiées : - Surveillance et maintenance : Assurer la surveillance et la maintenance de notre service de production afin de garantir sa performance et sa disponibilité. - Conception et optimisation : Concevoir, mettre en place et optimiser les pipelines pour améliorer l'efficacité de notre travail. - Automatisation des processus : Automatiser les processus de déploiement et industrialiser les livraisons des infrastructures pour renforcer la fiabilité et la rapidité. - Documentation : Rédiger et maintenir la documentation des processus et des systèmes mis en place pour assurer la traçabilité et la réversibilité.

Freelance

Mission freelance
Architecte technique Expert

HAYS France
Publiée le
Data management
Google Cloud Platform

3 ans
400-550 €
Lille, Hauts-de-France

Nous recherchons un Tech Lead sénior orienté architecture solution pour concevoir, piloter l’architecture technique et guider l'équipe d'implémentation de notre plateforme Customer Conversation AI, Voicebot/chatbot de conversation Client, intégrée dans notre suite de produits digitaux gérant le service client dans son ensemble (Genesys Cloud, Zendesk...) A date, notre première implémentation MVP, en production est un chatbot Web (Google DialogFlow/RAG/Google Gemini), mais cela demande à évoluer, remettant potentiellement en question ces premiers choix techniques. Une partie clé de la mission est de réaliser un benchmark des solutions possibles pour cette plateforme Customer Conversation AI afin de challenger les outils Google et choisir la meilleure solution dans notre contexte. Cette dernière doit automatiser efficacement en particulier les interactions sur le canal voix / Voicebot. Le Tech Lead devra guider les équipes techniques, garantir l’interopérabilité des systèmes, et s’assurer que les solutions déployées soient scalables, performantes et alignées sur les besoins métier. Il s'agit ensuite de guider les premières implémentations pour aller rapidement en production sur la voix.

Freelance

Mission freelance
Développeur API d’IA génératives

Ositel France
Publiée le
API
CI/CD
Docker

6 mois
Lyon, Auvergne-Rhône-Alpes

Nous recherchons un Développeur API d’IA génératives pour une mission longue à Lyon. Concevoir et implémenter des API innovantes d’IA générative : Utiliser des API sécurisées cloud d’IA générative (LLM). Mettre en place des flux de données de type Retrieval-Augmented Generation (RAG). Créer et optimiser des prompts. Déployer des API sur le cloud (AWS). Mettre en place un front simple via Streamlit pour tester les API. Administrer les droits d'accès des utilisateurs sur les API, en veillant à la sécurité et à la conformité des données. Participer activement au travail d'équipe : Gestion de versions. Documentation technique et fonctionnelle. Revues de code. Former les équipes internes et rédiger des guides d'utilisation détaillés pour les API développées. Évaluer les risques techniques et financiers associés aux solutions développées et apporter des recommandations pour optimiser les coûts. Mettre en place des processus d'intégration continue et de déploiement continu (CI/CD) : Automatiser les tests et les déploiements pour assurer une mise à jour continue et fiable des API. Analyser et optimiser les performances des API d’IA générative : garantir une latence minimale et une haute disponibilité, mettre en place des outils de surveillance des API, et intervenir rapidement en cas de problème et proposer des solutions pour éviter leur récurrence. Réaliser une veille technologique continue pour rester à jour avec les dernières avancées en matière d’IA générative et de développement d'API. Niveau d’anglais professionnel.

580 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous