Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 284 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

CDI

Offre d'emploi
Lead Data Analyst pour Plateforme Tech de Voyage Leader en Europe - Aix en Provence (H/F)

EASY PARTNER
Publiée le
Data analysis
Google Cloud Platform
Nosql

52k-78k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Description Rejoignez une entreprise innovante au cœur du secteur du voyage en ligne, basée dans le sud de la France. Nous sommes à l'aube d'une transformation digitale majeure visant 2025, mettant les données au centre de notre stratégie de développement. L'équipe, à laquelle vous serez rattaché, est composée de professionnels passionnés par la technologie et par l'amélioration continue de l'expérience de voyage de nos millions d'utilisateurs. Nous recherchons un(e) Lead Data Analyst pour structurer notre exploitation des données et piloter notre croissance future. Ce poste est clé pour accompagner notre ambition de devenir une référence mondiale sur notre secteur d’activité. Missions Principales : - Piloter l'analyse avancée des données pour épauler la prise de décision stratégique. - Définir et superviser les KPIs essentiels des différents départements. - Encadrer et développer l'équipe Data Analytics. - Collaborer avec les équipes Data Science pour optimiser l'usage des données dans les projets d'IA. Annexes : - Améliorer les outils et process d'analyse et de visualisation des données. - Organiser et piloter des sessions de brainstorming pour l'amélioration continue des méthodes de travail. Stack technique A maîtriser : - Google Cloud Platform (BigQuery, GCS, ) - Python, SQL, Airflow, dbt - Tableau, Looker - GitLab Avantages - Salaire attractif et participation aux bénéfices. - Télétravail flexible, jusqu'à 2 jours par semaine. - Accès à un cadre de vie unique avec salle de sport et terrain de padel. - Offres exclusives sur les voyages. Pourquoi nous rejoindre ? - Prenez part à une mission passionnante au sein d'une entreprise révolutionnant le secteur du voyage en ligne. - Contribuez à une transformation digitale ambitieuse centrée sur les données. - Travaillez dans un environnement dynamique et innovant, bénéficiant d'une culture d'entreprise forte et engagée envers le développement personnel. - Rejoignez une équipe talentueuse dans un cadre de vie exceptionnel favorisant l'équilibre entre vie professionnelle et personnelle. Venez marquer l'histoire du voyage en ligne avec nous. Postulez dès maintenant pour être le Lead Data Analyst qui conduira notre succès futur !

Freelance
CDI

Offre d'emploi
Business Data Analyst DATAIKU H/F

Proxiad
Publiée le
Azure
Dataiku
Google Cloud Platform

3 ans
Île-de-France, France

Descriptif général de la mission / Livrables et dates associées Vous avez une expérience réussie au sein d’une DSI et vous justifiez d’une connaissance dans le domaine de l’assurance de personnes. Autonome et organisé, vous êtes reconnu(e) pour votre esprit d'analyse et de synthèse. Appréciant le travail en équipe, vous êtes force de proposition / d'innovation et savez travailler en transverse, tout en faisant preuve d'adaptation au changement. Vous avez également le sens de la communication et du service. Maitrise l'infrastructure GCP - l'outillage de data Prep (Dataïku) - les infrastructures IA" Environnement fonctionnel & technique "Les équipes DATA interviennent pour l'ensemble des activités de Métier Assurances De Personnes ( Equipes de la finance (et en particulier les actuaires - les comptables) / les équipes produits / les équipes réglementaire / la DUX… ) Vous intervenez sur toutes les phases du projet et pouvez en coordination avec les équipes d'architecture DATA être amener à préconiser des solutions techniques spécifiques Méthodes & Outils "méthode agile safe JIRA Confluence GCP / AZURE SQL / Big Query Dataïku / Power Bi

Freelance

Mission freelance
Data Engineer

ICSIS
Publiée le
Apache Kafka
CI/CD
ETL (Extract-transform-load)

2 ans
400-500 €
Lille, Hauts-de-France

La mission consiste à : - Exposer les données utiles à l’entreprise pour les analyser et les utiliser afin d’améliorer l’expérience utilisateur et la productivité - Transformer des données issues du DataLake afin de les normaliser - Modéliser la sphère de données - Développer les flux - Exposer des données brutes et/ou agrégées au bon niveau de granularité aux différents métiers de l’entreprise - Travailler en lien avec des Data Scientists sur les données qu’il aura exposées - Mettre en place des rapports de Dataviz - Mission basée en métropole lilloise avec présence sur site 3j/semaine obligatoire Compétences demandées : - Formation supérieure en école d’ingénieur, école d’informatique ou Master spécialisé dans la Data Science - Première expérience en Data Engineering indispensable - GCP, BigQuery, SQL, Python, Stambia, Shell, Data Studio, Power BI, Qlikview,... - Excellents savoir-être : rigueur, esprit analytique et de synthèse, communication... - Méthode Agile - Anglais

Freelance
CDI

Offre d'emploi
Data Engineer

SELENE
Publiée le
BigQuery
ETL (Extract-transform-load)
Google Cloud Platform

1 an
40k-45k €
410-550 €
Paris, France

L'Ingénieur Data intégrera une équipe spécialisée en gestion et valorisation des données. Il/Elle sera responsable de l'acquisition et de la modélisation des données afin de fournir des résultats exploitables pour l'analytique et la data science. Le rôle impliquera la création de modèles de données consommables et de visualisations, tout en assurant la gestion complète du cycle de vie des données, de leur ingestion à leur traitement et préparation. Il/Elle travaillera en étroite collaboration avec les équipes data et métiers afin d’assurer la cohérence et la fiabilité des produits de données développés. Traduire les besoins métier en spécifications techniques, en collaboration avec les parties prenantes. Estimer, planifier, gérer et diriger les projets/tâches d'intégration des données. Coordonner les tâches et la charge de travail avec les autres ingénieurs data. Concevoir et développer des processus ETL/ELT et des flux de données pour fournir des résultats exploitables en analytique et data science. Créer des modèles de données et des visualisations intuitives et performantes. Collaborer avec les équipes de support pour assurer la cohérence et l’exactitude des données ainsi que la performance des flux livrés. Fournir un support de niveau 3 lorsque nécessaire. Définir et promouvoir les meilleures pratiques et principes de conception pour l'architecture Data Warehouse et Analytics.

Freelance

Mission freelance
Ingénieur Cloud GCP F/H

SOFTEAM
Publiée le
Google Cloud Platform
Terraform

6 mois
400-550 €
Yvelines, France

Vos responsabilités : Gestion et administration des environnements GCP : Concevoir, provisionner et maintenir des infrastructures Cloud sur GCP en respectant les meilleures pratiques. Implémenter et gérer les services GCP pour répondre aux besoins métier. Exploiter et maintenir les services GCP en Prod Accompagner les Développeurs des Tribu / Squad à maintenir leur Pipeline et développer leur nouveaux pipelines, Terraform et CICD sur GCP - Accompagner les développeurs à respecter les golden Rules GCP - Exploiter et maintenir les services GCP en Prod - Accompagner et monter en compétences les DevOps du cluster BPC sur l'offre GCP

Freelance
CDI

Offre d'emploi
Ingénieur Sécurité Cloud (AZURE/GCP)

Groupe Aptenia
Publiée le
Azure
Cloud
Google Cloud Platform

6 mois
40k-45k €
400-500 €
Toulouse, Occitanie

Soutenir la mise en œuvre de notre stratégie de sécurité du Cloud public (Azure/GCP). Développer, mettre en œuvre et appliquer des politiques, des normes et des procédures de sécurité. Mise en œuvre des solutions d'audit et de journalisation pour suivre et rapporter les événements et anomalies liés à la sécurité. Mettre en place et maintenir les outils pour une surveillance proactive des événements de sécurité. Contrôler l'application en temps voulu des correctifs et des mises à jour de sécurité aux ressources Azure et GCP. Fournir des programmes de formation et de sensibilisation sur les meilleures pratiques et les risques en matière de sécurité. Diriger la mise en œuvre de plans de remédiation et d'amélioration continus.

Freelance

Mission freelance
Développeur full stack Java / Vue.JS

Ositel France
Publiée le
Google Cloud Platform
Java
Méthode Agile

6 mois
400-450 €
Lille, Hauts-de-France

Nous recherchons un Développeur full stack Java / Vue.JS pour une mission longue à Lille. Le développeur aura en charge de : - Réaliser du Build et du Run sur des produits digitaux composés d'API, de front et de back. - Travailler en mode Agile avec l'équipe de dev, du PO, OPS et des équipes transverses. - Livrer le code source et d'être garant de la qualité de celui-ci - Réaliser la documentation nécessaire pour permettre la compréhension de son code - Réaliser des codes review avec les autres développeurs - Suivre parfois des cours de formation pour monter en compétence sur la sécurité au sein de son code - Réaliser en collaboration avec l'OPS de l'équipe des tâches d'observabilité

Freelance

Mission freelance
Un Ingénieur Système Cloud GCP sur Le 78

Smarteo
Publiée le
Google Cloud Platform

2 ans
100-400 €
Yvelines, France

Smarteo recherche pour l'un de ses clients, grand compte, Un Ingénieur Système Cloud GCP sur Le 78 Projet : Continuer les actions d'automatisation et de fiabilisation ; Opérer les revues de code ; Opérer la veille technologique ; Réaliser des présentations techniques ; Assurer le support technique niveau 3 auprès des développeurs traiter tant les aspects techniques et fonctionnels et intervenir sur l'ensemble des environnements de l'intégration à la production y compris dans le cadre de projets. Gestion production/run des projets (astreintes) Vous serez aussi amenés à rédiger des dossiers techniques précis, des avis techniques, ainsi que des feuilles de route à destination des chefs de projet et des opérationnels devant mettre en oeuvre et exploiter les solutions. Principaux livrables : Concevoir la solution ; Paramétrer, développer et qualifier des solutions applicatives ; Établir l'analyse et le diagnostic sur les incidents et les éradiquer ; Mettre en place, mener ou piloter le déploiement des applications développées ; Rédiger ou participer à la rédaction des dossiers de conception générale et/ou détaillée ; Analyser les traitements pour réaliser les études détaillées ou les études d'impact. Compétences requises : Expertise et expérience significative sur Terraform. Définition de module Terraform Expertise sur le Cloud GCP et AWS si possible . Maitrise des outils de déploiement automatisés Pipeline CI CD (gitlab-ci, ansible, AWX, jenkins etc.), language python Connaissance sur les technologies kubernetes Si vous êtes disponible et intéressé merci de me faire parvenir votre TJM+CV à jour dès que possible.

Freelance

Mission freelance
Ingénieur Data

HAYS France
Publiée le
Apache Kafka
BigQuery
CI/CD

3 ans
450-500 €
Lille, Hauts-de-France

Au cours de sa mission, le consultant : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation

Freelance
CDI

Offre d'emploi
Architecte technique IT

FIRST CONSEIL
Publiée le
Azure
Big Data
Google Cloud Platform

12 mois
Paris, France

Le poste est au sein de l'équipe architecture du groupe. Cette équipe est composée d'un architecte infrastructure, d'un architecte fonctionnel, d'un architecte usine de développement, d'un architecte Datascience. Suivi et conseil aux équipes de conception Participation à la définition des infrastructures techniques Gestion de projets d'infrastructure Suivi et amélioration des processus Bonne connaissance du système d'information global et de l'architecture SI Excellente connaissance des systèmes d'exploitation (notamment Windows, UNIX/LINUX), des réseaux et télécommunications, des bases de données, du stockage (NAS/SAN/DAS) Connaissance des technologies et outils de virtualisation Vmware. Maîtrise des environnements de conteneurisation tels que Kubernetes, Redhat OpenShift. Bonne connaissance des environnements Cloud (Azure, GCP), BigData Maîtrise des risques liés à la sécurité des infrastructures et à la dématérialisation Connaissance des normes dans le domaine de l'archivage et du chiffrement. Bonne connaissance du modèle C4 Adaptabilité et curiosité technique car les évolutions technologiques sont rapides et doivent être assimilées pour pouvoir optimiser l'existant. Polyvalence, goût pour la technique et créativité pour identifier les solutions techniques appropriées Rigueur et esprit critique pour faire la part des choses entre la technique et le discours marketing Capacité à travailler avec des équipes d'experts Bonne ouverture relationnelle afin de travailler avec les autres services de l'entreprise (achats, services commerciaux notamment).

Freelance
CDI

Offre d'emploi
Ingénieur Data expérimenté

OMICRONE
Publiée le
Apache Kafka
Apache Spark
AWS Cloud

2 ans
40k-60k €
400-580 €
Île-de-France, France

Bonjour, Nous recherchons des talents passionnés pour renforcer notre équipe Data. En tant qu’Ingénieur(e) Data, vous jouerez un rôle clé dans la conception et la mise en œuvre de solutions robustes pour traiter et analyser de grands volumes de données. Vos missions principales : Développer, optimiser et automatiser des pipelines ETL/ELT. Concevoir des architectures Big Data performantes et évolutives. Implémenter des solutions de stockage, de traitement et de modélisation des données. Assurer la qualité, la sécurité et la gouvernance des données. Collaborer étroitement avec les Data Scientists, les Analystes et les équipes DevOps.

CDI

Offre d'emploi
Data Engineer (H/F)

Proxiad
Publiée le
Analyse
Google Cloud Platform
Python

38k-45k €
Lille, Hauts-de-France

Bienvenue à bord de la galaxie Proxiad ! Créée en 1997 et spécialisée dans les services numériques, Proxiad accompagne ses clients dans leurs projets innovants, grâce aux expertises de ses collaborateurs. 1200 salariés, répartis entre la France et l’étranger, développent en permanence leur savoir-faire et leur savoir-être afin d’apporter de la valeur ajoutée aux activités de nos entreprises partenaires. Proxiad met tout en œuvre pour accompagner ses Talents dans l’acquisition de compétences, et dans leur plan de carrière. L’entreprise porte une attention toute particulière au bien-être de ses collaborateurs, grâce à un suivi RH renforcé, en complément du suivi de mission avec le manager. Ecoute, proximité, bienveillance, c’est ce qui vous attend chez Proxiad ! Afin de rassembler ses collaborateurs et de partager des moments conviviaux, l’entreprise organise régulièrement des évènements : afterworks, team event, meet-up, challenges… Quoi d’autre ? Chaque salarié perçoit un package composé d’une rémunération sur 12 mois, et d’éléments variables : titres-restaurant, mutuelle familiale, indemnités transports en commun ou mobilité douce, prime d'intéressement aux bénéfices, prime de cooptation, compte épargne-temps, ainsi que des tarifs préférentiels pour vos sorties culturelles grâce à notre CSE. Alors, envie de rejoindre l’aventure ? Actuellement, nous recherchons un Data Engineer (H/F) sur la métropole lilloise. Vos principales responsabilités seront de : - Concevoir et maintenir des pipelines de données (ETL, automatisation des flux de données, optimisation des performances du système…) - Gérer l’infrastructure de donnée (configuration et maintenance de la BDD, mise en place de data warehouses et datalakes, gestion du stockage, de la scalabilité…) - Assurer la qualité et la sécurité des données (contrôles qualité, sécurisation de données sensibles, respect des réglementations et normes…)

CDI

Offre d'emploi
Architecte solution Smartmetering IoT & Cloud

INFOGENE
Publiée le
AWS Cloud
Azure
DevOps

40k-60k €
Paris, France

Dans le contexte général des développements de solutions , mission à réaliser au profit de l'équipe Software, la mission porte sur la définition de l’architecture d’une plateforme logicielle IoT & Cloud pour adresser de nouveaux marchés. Le scope de la mission est de concevoir, sur la base d’un cahier des charges, l’architecture de la solution qui doit être : · Scalable et optimisée en coût de déploiement · Hautement disponible · Modulaire · Multimodes de déploiement : Cloud (Azure, AWS, GCP) et on-prem · Intégralement gérée en CI/CD · Multi-tenants · Sécurisée en termes de confidentialité, intégrité et disponibilité · Multi-énergie : la solution doit être suffisamment flexible pour intégrer les spécificités et les contraintes des compteurs d’eau, de gaz et d’électricité, et prendre en charge une variété de protocoles et profils de communication

Freelance

Mission freelance
Chef de projet SRE

HAYS France
Publiée le
DevOps
Google Cloud Platform
Pilotage

3 ans
120-450 €
Lille, Hauts-de-France

Au sein de l’équipe Opération garante de la qualité de service de la plateforme Tech & Data (150 produits/ 500 personnes qui maintiennent les fondations techniques de l’ensemble du groupe) La mission comprend : 40% d’animation et de suivi de l’ensemble des équipes produits sur des problématiques Ops Animation des niveau de service (SLO) des produits Bonnes pratiques ITSM (Incidentologie, change management) Animation mensuelle d’un comité avec le domaine dont le consultant sera en responsabilité et suivi des sujets au quotidien (obsolescence, suivi de conformité, suivi des indicateurs selon nos objectifs...) 30 % de RUN / accompagnement plus technique des équipes produits Accompagnement sur l’Observabilité (chaîne de monitoring/alerting : configuration datadog, pagerduty, servicenow, SLO…). Utilisation d’infra as code (terraform) Accompagnement des produits sur nos produits Ops (définition de SLO, création d’automatisation Ansible) 30% de BUILD sur les produits de l’équipe Outil de calcul et centralisation de nos indicateurs de disponibilité (stack gcp + python) Outil d’automatisation basé sur AWX qui automatise notamment la remédiation d’une grande partie de nos incidents (30k automatisations/mois) Construction de dashboard (+ requêtes SQL) pour pouvoir animer les différents sujets Ops à partir des données de l’entreprise

Freelance

Mission freelance
Développeur Back Python

Etixway
Publiée le
Google Cloud Platform
Python

1 an
100-450 €
Lille, Hauts-de-France

Développement en Python Le livrable est - Compétences techniques Python - Expert - Impératif GCP - Confirmé - Important Java - Junior - Souhaitable Terraform - Junior - Souhaitable Connaissances linguistiques Anglais Lu, écrit (Impératif) Description détaillée Nous sommes à la recherche d'un développeur backend expert Python (Pas de profiles Data) A ce titre, voici vos missions : Développer des microservice en APIs first Participer aux prises de décisions relatives à l’architecture et à la sécurité des solutions dans un environnement Cloud (GCP). Concevoir des outils facilitant le développement de modules. Communication entre micro service Développement d’un scheduler / Développement d’un dispatcher Mise en place d’outils de monitoring Assistance des utilisateurs sur le run technique MOB, Pair review

Freelance

Mission freelance
Data Engineer GCP & Dbt

IDEMYS
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform

1 an
Île-de-France, France

Nous recherchons pour le compte de notre client, une entreprise de premier plan reconnue pour son innovation et son excellence, un Lead Data Engineer expérimenté doté d’une expertise en environnement Google Cloud Platform ( GCP ). Ce rôle stratégique s’adresse à un professionnel qui saura combiner compétences techniques pointues et compréhension des enjeux métiers pour accompagner notre client dans l’exploitation et l’optimisation de ses données. Expertise en BigQuery Expérience solide avec Apache Airflow Expertise en Dbt Conaissance de la CICD Expertise en BigQuery Expérience avec Apache Airflow Utilisation de Cloud Run Connaissance de Terraform

284 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous