Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 524 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Data ingénieur - Python - GCP

Archytas Conseil
Publiée le
BigQuery
CI/CD
Google Cloud Platform

12 mois
100-550 €
Lille, Hauts-de-France

Assurer la performance et l’évolutivité des solutions Data & ML : Concevoir et optimiser des pipelines de données robustes et évolutifs (ETL/ELT). Garantir la qualité des données et leur disponibilité pour les modèles de Machine Learning et les équipes métier. Implémenter des solutions scalables pour le traitement de grands volumes de données. Encadrer techniquement une équipe en forte croissance : Accompagner une équipe de Data Engineers et Data Scientists, en participant activement à leur montée en compétences. Fédérer et guider l’équipe dans un environnement collaboratif et motivant. Assurer l’adoption des meilleures pratiques de développement (DevOps, CI/CD, tests automatisés, monitoring). Aligner les solutions Data avec les standards technologiques du groupe : Veiller à la cohérence des solutions avec les stratégies globales de l’entreprise. Introduire des standards modernes comme l’Infrastructure as Code, l’observabilité et le monitoring avancé. Roadmap produit et décisionnel : Collaborer avec les Product Owners pour prioriser les fonctionnalités liées à la gestion et au traitement des données. Assurer les choix architecturaux et techniques clés pour garantir la sécurité, la scalabilité et les performances des systèmes. Interopérabilité et standardisation : Travailler avec les autres Tech Leads et équipes transverses pour une intégration fluide des solutions au sein de l’écosystème global. Standardiser les pratiques liées aux pipelines de données et au MLOps. Supervision de la production et amélioration continue : Assurer la stabilité et la fiabilité des systèmes de données en production. Participer activement aux revues de code (MOB programming, pair reviews) pour maintenir un haut niveau de qualité technique. Être force de proposition pour des initiatives d’amélioration continue. Support et relation utilisateurs : Être le point de contact clé pour les utilisateurs finaux, comprendre leurs besoins et garantir leur satisfaction. Former les parties prenantes à l’utilisation des solutions déployées. L'équipe, actuellement composée de 5 collaborateurs, est en forte expansion avec des recrutements en cours pour répondre aux objectifs ambitieux du projet. Vous évoluerez dans un cadre mêlant innovation, technologies avancées et défis stratégiques, avec une véritable autonomie pour construire des solutions Data & ML d’envergure. Expertise confirmée en ingénierie des données (5+ ans) avec une solide maîtrise des technologies Cloud (AWS, GCP ou Azure). Compétences avancées en Python, Spark, Kafka, SQL ou outils de traitement des données distribuées. Expérience en MLOps et dans la mise en œuvre de pipelines automatisés. Leadership technique et capacité à encadrer une équipe technique. Forte capacité à communiquer, à collaborer et à prendre des décisions stratégiques.

Freelance

Mission freelance
Data Scientist

ESENCA
Publiée le
Google Cloud Platform
Python

3 mois
400-500 €
Lille, Hauts-de-France

Votre mission consistera à : - Travailler avec les équipes Business & Digital pour spécifier en détail les problèmes business à résoudre avec l'IA. - Mettre en œuvre en mode des modèles ML et autres solutions IA pour répondre aux problématiques business - Collaborer avec les autres Data scientist de l'équipe - Industrialiser les solutions R&D - Assurer le RUN des services IA en production. - En fonction de la qualité du profil un rôle de Lead Data Scientist peu être envisageable Compétences techniques : Python - Expert - Impératif GCP - Confirmé - Impératif VertexAI - Expert - Impératif GenAI - Confirmé - Impératif

Freelance

Mission freelance
Développeur ElasticSerach/OpenSearch

TEOLIA CONSULTING
Publiée le
AWS Cloud
Elasticsearch

36 mois
550-600 €
La Défense, Île-de-France

Réaliser la migration ElasticSearch V1.8 d'une application existante vers OpenSearch sur AWS Implémenter, développer et maintenir les fonctionnalités en JAVA/Angular 7+ Réaliser les tests unitaires et les tests de bout en bout avec l’appui du PO Participer à l’animation de l’équipe (daily meeting, atelier de partage) Produire les documents techniques correspondants (spécifications techniques) Travail dans un cadre agile Safe et participation aux rituels (PI planning, démo, …) Forte autonomie ; esprit d’analyse, de synthèse et de pédagogie ; capacités à documenter, à communiquer ainsi qu’à convaincre. Excellent relationnel, capacité à interagir aussi bien avec les équipes DEV qu’avec les équipes OPS.

Freelance

Mission freelance
Data Analyst

Coriom Conseil
Publiée le
Google Cloud Platform

12 mois
100-450 €
Lille, Hauts-de-France

Intégration de la solution Looker Accompagnement des équipes DEV pour la mise en place de solution Looker Optimisation de la plateforme Looker ( Gestion des coûts, intégration des nouvelles fonctionnalitées, ...) Compétences techniques Looker - Confirmé - Impératif GCP - Confirmé - Impératif Connaissances linguistiques Anglais Professionnel (Impératif) Français Professionnel (Impératif) Description détaillée Dans le cadre du déploiement de la plateforme Looker, la mission vise à mettre en place l'infrastructure nécessaire et à la rendre accessible aux Business Units (BU) ainsi qu'aux autres plateformes pour leur usage quotidien de la visualisation de données.

Freelance

Mission freelance
DATA Engineer GCP H/F

Karma Partners
Publiée le
Google Cloud Platform

6 mois
400-500 €
Nice, Provence-Alpes-Côte d'Azur

Intégrer l’équipe Move To Cloud pour réaliser la migration dans le cloud GCP. KARMA est le système de Revenue Management du groupe 100% migration cloud GCP Intégration d’une équipe de 6 personnes Présence sur site (Sophia Antipolis) obligatoire 1x par semaine. Présence sur site (Sophia Antipolis) obligatoire 3x par semaine pendant les 3 premiers mois (on boarding) Communication, leadership, autonomie, coaching Profils séniors uniquement Anglais niveau B2 Obligatoire Data engineering / Big Data Development Hadoop et Spark pour migration dans le cloud GCP

Freelance

Mission freelance
Ingénieur CloudOPS GCP

Cherry Pick
Publiée le
Ansible
Gitlab
Google Cloud Platform

12 mois
550-600 €
Châtillon, Île-de-France

Dans le cadre du renforcement de son équipe infra cloud, notre client recherche un nouveau profil orienté cloud GCP afin de prendre part au maintien et à l'évolution de l'infra des projets du client. En ce sens, vos missions seront : Analyse et veille technologique Recueillir et analyser les besoins techniques en collaboration avec les équipes d’architectes et métiers. Préconiser les meilleures solutions cloud pour répondre aux exigences de performance et de fiabilité. Participer à la rédaction des spécifications techniques et appels d’offre. Assurer une veille active pour rester à la pointe des innovations technologiques. Déploiement et intégration Déployer, configurer et automatiser les solutions sur des environnements cloud (GKE/GCP). Utiliser Helm pour la gestion des déploiements Kubernetes. Mettre en place et optimiser des pipelines CI/CD avec GitLab CI . Automatiser les configurations d’infrastructure avec Ansible (Tower) . Exploitation et amélioration continue Gérer les incidents techniques : diagnostic, résolution et suivi. Participer aux phases de validation et aux mises en production. Proposer des optimisations pour améliorer la performance, la scalabilité et la sécurité des environnements existants. Rédiger et maintenir la documentation technique. Sécurité des systèmes Appliquer les règles de sécurité et les plans de sauvegarde définis par l’entreprise. Garantir l’intégrité et la disponibilité des données. Processus : 2 entretiens Go - No Go

Freelance

Mission freelance
Ingénieur DevOps GCP/CICD/Automatisation

IHC Conseil
Publiée le
Ansible
GitLab CI
Google Cloud Platform

6 mois
400-550 €
Montrouge, Île-de-France

Nous recherchons un(e) Expert(e) CloudOps confirmé(e) avec une spécialisation en Google Cloud Platform (GCP) pour intégrer notre équipe et participer à l'accompagnement du Pôle DevOps sur des projets innovants et stratégiques dans le domaine du Cloud et de l'automatisation. Le candidat idéal devra posséder une solide expérience en gestion des environnements Cloud GCP, en particulier GKE/OpenShift, et maîtriser les processus d'automatisation des déploiements via CI/CD. Responsabilités : Intégrer les solutions logicielles ou matérielles livrées par les services d'études dans l'environnement de production Cloud GCP. Assurer le déploiement des applications via CI/CD et gérer le support nécessaire lors des incidents en production. Participer activement à la mise en exploitation de nouvelles applications ou versions.

CDI
Freelance

Offre d'emploi
Data Analyst (H/F)

VISIAN
Publiée le
AWS Cloud
Dataiku
DAX

1 an
40k-45k €
400-500 €
Montpellier, Occitanie

Contexte • Mission : Support transverse pour améliorer la performance opérationnelle des métiers via la valorisation des données. • Objectifs : Maintenir et développer des tableaux de bord Power BI pour des besoins métiers variés, améliorer la qualité des données et sensibiliser les métiers à leur importance. • Livrables attendus : Tableaux de bord Power BI, alertes qualités ciblées, vues / datasets spécifiés pour développement par le Data Engineer, et plans de test pour recette, supports et comptes-rendus des réunions avec les métiers, reporting projet, documentation des tableaux de bord, des règles qualités, des règles métiers, des erreurs rencontrées en production. • Lieu et télétravail : Montpellier, 3 jours sur site / 2 jours de télétravail • Début : Entretiens à partir du 03/01/2025.

Freelance

Mission freelance
Data Engineer

ESENCA
Publiée le
Apache Kafka
BigQuery
Google Cloud Platform

3 mois
400-450 €
Lille, Hauts-de-France

Il est garant de l'accès qualitatif aux sources de données. Il s'assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d'en faciliter l'exploitation par les équipes (Data Analysts et Data Scientists). Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT, Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons, ). SON ACTIVITE : QUALIFICATION ET GESTION DES DONNÉES : - Capte les données (structurées et non structurées) produites dans les différentes applications ou à l'extérieur de l'entité - Intègre les éléments - Structure la donnée (sémantique, etc.) - Cartographie les éléments à disposition - Nettoie la donnée (élimination des doublons, ) - Valide la donnée - Éventuellement, il crée le référentiel de données SES LIVRABLES : - Data Lake approprié et partagé et son dimensionnement - Cartographie des données - Les éléments permettant de garantir la qualité de la donnée

Freelance
CDI
CDD

Offre d'emploi
Devops GCP H/F

SYD CONSEIL MANAGEMENT
Publiée le
Google Cloud Platform

6 mois
10k-50k €
100-600 €
Nantes, Pays de la Loire

Groupe SYD IM Nous recherchons pour l'un de nos clients sur Nantes un DEVOPS GCP H/F Missions : Travail en agilité (Scrum, Kanban) Réalisation de solutions techniques vis à vis des éléments priorisés du backlog produit par le PO et le leadtech Ecriture de documentation technique Travail en petit groupe avec d'autres DevOps sur des sujets d'analyse ou de réalisation ou de gestion des incidents, selon les besoins Compétences attendues Réaliser des scripts en python, des modules terraform et des playbook ansible A l'aise avec la gestion de VM sous Linux et/ou sous Windows Posture de communicant et de partage des connaissances Environnement technique/fonctionnel Google Cloud Platform (GCE, GCS, CloudFunction) Terraform Ansible Github Jenkins Administration des Systèmes d'exploitation Windows Server RHEL Python Télétravail partiel ok rejoignez-nous!

Freelance

Mission freelance
Tech Lead / Architecte Looker

ESENCA
Publiée le
Google Cloud Platform

3 mois
450-550 €
Lille, Hauts-de-France

Dans le cadre du déploiement de Looker comme solution de Data Visualization, l’équipe DataViz recherche un Lead Technique / Architecte Looker pour participer à l’intégration et l’optimisation de cette solution au sein de l’organisation. Le Lead Looker joue un rôle clé dans la définition et la mise en œuvre de la stratégie de visualisation des données. Il sera un acteur central dans l’accompagnement de la transition vers Looker et dans l’innovation des pratiques de DataViz au sein du groupe. La mission s’articule autour de deux axes principaux : Accompagnement des projets Looker: Le consultant expert Looker sera chargé d’explorer et d’intégrer de nouveaux usages ainsi que des fonctionnalités innovantes pour optimiser et renouveler les approches de la visualisation des données. L’objectif est d’identifier et de mettre en place les meilleures pratiques et solutions pour répondre aux besoins des différentes entités du groupe. Migration des systèmes existants : Une part importante de la mission consiste à superviser la migration des outils de Business Intelligence existants, notamment le passage de SAP Business Object vers Looker. Ce projet vise à moderniser les outils BI du groupe, avec pour ambition de proposer des solutions plus agiles et performantes, adaptées aux exigences spécifiques de chaque marque sous l’égide du groupe.

Freelance
CDI

Offre d'emploi
Offre de mission : Profil DevOps CloudOps - Freelance

KUBE Partners S.L. / Pixie Services
Publiée le
DevOps
Google Cloud Platform
Openshift

6 mois
11k-60k €
100-500 €
Île-de-France, France

Pixie Services recrute un(e) DevOps CloudOps confirmé Mission : Pixie Services, spécialiste dans le staffing IT, recherche un(e) expert(e) DevOps pour une mission de longue durée. Compétences techniques requises : GKE/GCP : Confirmé (impératif) Ansible : Confirmé (impératif) GitlabCI : Confirmé Helm : + Français courant Anglais professionnel Description de la mission : Intégration de solutions logicielles et matérielles dans un environnement Cloud (GCP/OpenShift) Déploiement des applications via CICD Support d'incidents en production Mise en exploitation de nouvelles applications ou versions Expertise des technologies Cloud et des services des grands Cloud providers Maîtrise de la conteneurisation, de l'automatisation et de la CI/CD Accompagnement des développeurs et mise en place d'une démarche DevOps Missions principales : Analyse des besoins et veille technologique : Recueillir l'information nécessaire Préconiser des solutions Rédiger des cahiers des charges et assurer une veille technologique continue. Mise en place et intégration : Concevoir et adapter les logiciels Configurer et dimensionner les solutions Tester les systèmes et assurer la validation technique. Exploitation : Valider l'intégration des nouveaux outils Traiter les incidents et anomalies Participer à la maintenance corrective et améliorer les ressources existantes. Sécurité : Assurer le respect des règles de sécurité Gérer les sauvegardes et la sécurité physique des données. Type de contrat : Mission freelance, longue durée Si cette mission vous intéresse, merci de postuler avec votre Cv à jour.

Freelance
CDI

Offre d'emploi
DATA ENGINEER GCP DBT

UCASE CONSULTING
Publiée le
Google Cloud Platform
Python

6 mois
78k-128k €
550-950 €
Paris, France

Je recherche pour un de mes clients dans le domaine de la Banque/Assurance un Data Engineer GCP&DBT confirmé : Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement • Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants • Rédiger la documentation technique des data products • Assurer un support aux testeurs • Reporter de ton activité à ta Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Faire des propositions techniques Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, GCP Dataflow, Data Build Tool (DBT) • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab, Flamingo • Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Autonomie, rigueur, proactivité et prise d’initiative • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Capacité à communiquer, à travailler en équipe et excellent relationnel Une pratique opérationnelle de l’anglais est également nécessaire pour la rédaction de la documentation et la participation à certaines cérémonies. Une expérience professionnelle significative dans le domaine de la banque de détail est un plus.

Freelance
CDI

Offre d'emploi
Ingénieur.e Infrastructure Big Data AWS

Atlanse
Publiée le
Apache Airflow
AWS Cloud
Big Data

3 ans
40k-65k €
400-600 €
Île-de-France, France

Vous interviendrez au sein de l’équipe Data et serez chargé.e de concevoir, déployer et optimiser les environnements techniques permettant le traitement des données. Vous assurerez la fiabilité, la scalabilité et la sécurité des infrastructures Big data. Votre rôle Conception et déploiement d’infrastructures Big Data · Concevoir et déployer des architectures distribuées pour les plateformes Big Data · Intégrer les solutions Big Data dans des environnements cloud AWS · Assurer la scalabilité et la haute disponibilité des infrastructures Automatisation et maintenance des environnements · Automatiser le déploiement des environnements · Maintenir et mettre à jour les environnements existants, en assurant leur stabilité et leur performance · Gérer les pipelines CI/CD pour l’intégration continue des workflows Big Data Surveillance et sécurité des systèmes · Surveiller la performance des systèmes · Garantir la sécurité des infrastructures Big Data · Implémenter des mécanismes de sauvegarde et de récupération des données Collaboration et support technique · Collaborer avec les équipes Data (data engineers, data scientists) pour comprendre les besoins métier · Apporter un support technique aux équipes en cas de dysfonctionnement ou d’incidents sur les systèmes Big Data Veille technologique et amélioration continue · Suivre les évolutions des technologies Big Data et des bonnes pratiques · Proposer des améliorations pour anticiper les besoins futurs de l'entreprise

Freelance

Mission freelance
Data Engineer

Tenth Revolution Group
Publiée le
Apache Spark
AWS Cloud
Databricks

12 mois
400-750 €
Paris, France

Participer à des projets de data engineering basés sur un framework méthodologique Développer, industrialiser et maintenir des pipelines de données (principalement ETL et ML) Effectuer de l’exploration de données et du prototypage rapide Mettre en application les meilleures pratiques : versioning, tests automatisés, CI/CD Participer activement à l’automatisation des infrastructures basées sur des services de Cloud Computing Implémenter des architectures de type Lakehouse pour casser les silos Déployer des algorithmes de machine learning at scale et sur des flux de streaming Collaborer avec l’ensemble des équipes depuis les spécifications fonctionnelles jusqu’aux validations métiers des solutions implémentées Contribuer à la mise en place de méthodologies Agile de type Scrum

Freelance
CDI

Offre d'emploi
ARCHITECTE SOLUTION N3 F/H | TOULOUSE (31)

HIGHTEAM GRAND SUD
Publiée le
API
Architecture
AWS Cloud

3 ans
40k-45k €
100-500 €
Toulouse, Occitanie

VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez notre client et concevrez des architectures permettant de répondre aux besoins actuels et futurs du Groupe, vous définirez, maintiendrez et veillerez au respect des principes d'urbanisme et d'architecture fonctionnelle. A ce titre, vous serez en charge de : Définir et maintenir l’architecture technique (référentiel) de tout ou partie du système d’information en veillant à la cohésion entre les aspects matériels, applicatifs, systèmes d'exploitation, réseaux… Garantir la cohérence, la pérennité et analyse les impacts techniques des nouvelles solutions et leur cohérence avec l'architecture existante Etablir des préconisations pour tout nouveau projet ou nouvelle technologie et conseille l'urbaniste sur l'utilisation et les implémentations possibles des outils Communiquer l'architecture auprès des équipes projet (conception, développement, intégration, tests...) Organiser les choix de veille technologique Garantir les bonnes performances de l'architecture, de la stabilité, d'évolution, et des délais de réponse des services Définir l’architecture technique du ou des systèmes d’information Vérifier et analyser les impacts techniques des nouvelles solutions et leur cohérence avec l'architecture existante Définition et gestion du référentiel du système informatique sur les plans : outils, procédures, normes, vocabulaire, sécurité… Définition et gestion des standards techniques Pour tout nouveau projet ou toute nouvelle technologie, participer à l’étude d’impact sur l’architecture existante ou prévisionnelle Préconiser des choix techniques en vue d’assurer la cohérence de cette évolution Conseiller l'urbaniste sur l’utilisation et les implémentations possibles des outils informatiques et de télécommunications Organiser les choix de veille technologique Travailler en équipe avec l'Urbaniste des SI Promouvoir l’architecture technique auprès des informaticiens Environnement Technique : Scrum, SAFe, Jira, Confluence, Angular, API, Java, COBOL, CICS, DB2, SQL Server, Oracle, EXADATA, Cloud AWS et GCP Le poste est basé à Toulouse (31). Dans le cadre de vos fonctions, vous pourrez bénéficier de 2 jours de télétravail par semaine.

524 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous