Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 743 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Ingénieur réseaux

ESENCA
Publiée le
AWS Cloud
Azure
Firewall

1 an
400-450 €
Villeneuve-d'Ascq, Hauts-de-France

Le poste à pouvoir se situe à Villeneuve d’Ascq, avec une présence sur site obligatoire à hauteur de 3j par semaine. PS : L'ensemble des compétences recherchées sont obligatoires. Dans ce cadre, le candidat sera amené à intervenir sur les différents périmètres de responsabilité de l’équipe à savoir : Reporting sur la qualité et les coûts pour les principales activités et projets Evolution et fonctionnement des composants et fonctions réseaux : -Escalade de l’exploitation sur les incidents / problèmes -Maintenance en condition opérationnelle Gestion des évolutions -Roadmap des composants ou des services -Gestion de l’obsolescence -Catalogues de services -Projets techniques / Sprints -Amélioration des compétences / évolutions technologiques Industrialisation / Automatisation Contenu non exhaustif de la mission : Rédaction de spécifications techniques détaillées et mise en place des composants réseaux. Accompagnement des utilisateurs techniques et non-techniques Proposition d’évolutions du SI à apporter dans une optique de fiabilité Traiter les incidents et les demandes réseaux et piloter les résolutions en toute autonomie Contribuer à l’élaboration / mise à jour -des architectures techniques et des roadmaps -des guidelines et du catalogue de services -du corpus documentaire -de l’outillage et de la mise en place du socle de base (assets, observabilité, capacityplanning, …) Assurer l’industrialisation des solutions (infra as code) Assurer une veille technologique adaptée des solutions Les Interlocuteurs Équipes IT du département Opérations (Réseau, IaaS/PaaS, DBA, PM, ...) Équipes Projet et les Chefs de Projet, BO/PO/TL Équipes Techniques en BU

Freelance

Mission freelance
Développeur C (full remote)

Cherry Pick
Publiée le
Google Cloud Platform

3 mois
500-510 €
Paris, France

Cherry Pick est à la recherche d'un Développeur C pour un de ses clients dans le secteur de l'automobile. Missions : Le client recherche une prestation de développement pour la maintenance corrective et évolutive des applications liées à la production industrielle et à la supply chain. Compétences requises : Développement FullStack Langages et technologies : C, Pro C, CMake Bash/Shell, Autosys Oracle, Tuxedo, CFT Visual Basic, Angular, NodeJS, Java GCP (Google Cloud Platform) GitLabee, JIRA/Confluence/Xray Linux Redhat Méthodologies et certifications : Agile (SCRUM) Certification SAFe (souhaitée) Maîtrise de l’anglais (un plus) Bonus : Connaissance du monde automobile et du séquencement des voitures dans les usines d’assemblage.

Freelance

Mission freelance
Tech Lead Data Engineer

WHEEL OF WORK
Publiée le
Docker
Google Cloud Platform
Microservices

1 an
400-510 €
Lille, Hauts-de-France

Contexte et Mission : Nous recherchons un Tech Lead Data Engineer expérimenté. Ce rôle clé contribuera de manière significative à la transformation digitale de l'entreprise par le biais de la gestion, de la modélisation, et de l'optimisation de données dans un environnement cloud avancé. Développer et optimiser les flux de données pour l'alimentation, le stockage, la modélisation et la restitution. Superviser la qualité des développements réalisés par l'équipe et maintenir les solutions existantes. Contribuer à l'architecture et à la mise en place de nouvelles solutions sur Google Cloud Platform, en intégrant des pratiques agiles et CI/CD. Compétences Techniques Requises : Expertise avérée en SQL et ETL ; compétence approfondie en Python nécessaire. Expérience avec Microservices/API , et Docker . Familiarité avec DBT , CI/CD , GitHub , Terraform , et Kafka . Connaissance pratique de Power BI, Looker et préférablement Google Cloud Platform (GCS, BigQuery) . Maîtrise de l'anglais à l'écrit et à l'oral impérative.

Freelance

Mission freelance
Data engineer

ESENCA
Publiée le
BigQuery
Github
Google Cloud Platform

1 an
400-430 €
Lille, Hauts-de-France

Nous recherchons un consultant Data pour la création et l'amélioration continue des produits digitaux Eco-responsable et sociaux. L'objectif de ces produits digitaux est de mesurer l'impact environnemental et social des produits vendus par les BU du groupe pour identifier des axes d'amélioration. Le consultant Data aura une dominance Data Engineer mais des compétences de Data Analyst sont également attendues - Collecter les données via des PIPELINE - Mesurer la qualité des données - Historiser les données - Créer des modèles optimisés - Créer des dashboards pour répondre aux besoins métiers Environnement technique sur lesquels une expérience significative est attendue et non une première formation - GCP & BigQuery - Terraform & Github - PowerBI Gen 2

Freelance

Mission freelance
Consultant BI

HAYS France
Publiée le
Big Data
BigQuery
Dash

1 an
400-460 €
Lille, Hauts-de-France

Dans le cadre de la transformation digitale, nous recherchons un consultant BI Expert pour accompagner nos équipes dans la migration de nos usages décisionnels (Self-BI, Dashboarding) de SAP Business Objects vers Looker. Vos missions principales : Analyse et diagnostic : Audit des rapports existants sous SAP Business Objects. Analyse des besoins métiers et identification des objets BO prioritaires pour la migration. Conception de la solution cible : Définition des modèles de données Looker (élaboration des fichiers LookML). Proposition des bonnes pratiques pour optimiser les performances et l’expérience utilisateur. Migration et développement : Accompagnement technique des équipes de migration des rapports SAP Business Objects vers Looker. Mise en place des connexions aux sources de données existantes. Déploiement et mise en production des explores Looker et des rapports sur l’environnement de production. Accompagnement et transfert de compétences : Organisation d’ateliers de formation des équipes métiers. Documentation des explores et des livrables associés. Support aux utilisateurs pendant la phase de transition. Compétences requises Expertise en SAP Business Objects et Looker. Maîtrise des concepts de modélisation de données (Data Warehousing, SQL complexe, LookML). Gestion de repo Git BigQuery Plateforme Cloud de Google Capacité à comprendre les besoins métiers et à les traduire en solutions techniques. Communication et pédagogie.

Freelance

Mission freelance
Fourniture de Ressources d’Hébergement Cloud

TEKTEO
Publiée le
Azure
Azure DevOps

1 an
400-550 €
Nouvelle-Aquitaine, France

Le client utilise Microsoft Azure pour l’hébergement de ses applications et services numériques. L’agence souhaite optimiser l’achat, la gestion et la surveillance de ses ressources cloud afin d’améliorer la performance, la sécurité et la maîtrise des coûts. Ce lot est mono-attributaire, fonctionnant avec des bons de commande pour l’acquisition de nouvelles ressources, l’optimisation des infrastructures et le suivi des consommations cloud. 1. État des Lieux et Optimisation des Ressources Cloud Audit des ressources Azure utilisées (machines virtuelles, bases de données, stockage, réseau) Identification des opportunités d’optimisation pour réduire les coûts Proposition d’un plan de rationalisation et d’optimisation des infrastructures 2. Fourniture et Gestion des Ressources Cloud Acquisition et déploiement des machines virtuelles, bases de données, espaces de stockage Paramétrage des ressources cloud en fonction des besoins métiers Mise en place de solutions scalables et résilientes 3. Sécurisation et Supervision des Infrastructures Mise en œuvre des meilleures pratiques de sécurité cloud (firewalls, IAM, monitoring) Surveillance et alerte en cas d’anomalie ou de surconsommation Sauvegarde et gestion de la continuité des services 4. Automatisation et Intégration Continue Déploiement des infrastructures via CI/CD (Azure DevOps, Terraform, Ansible) Automatisation des tâches récurrentes pour améliorer l’efficacité Documentation des configurations et des bonnes pratiques 5. Reporting et Suivi des Consommations Élaboration de rapports mensuels sur l’utilisation des ressources cloud Alertes et recommandations pour éviter les dépassements budgétaires Sensibilisation des équipes ADI N-A aux bonnes pratiques de gestion du cloud

Freelance

Mission freelance
Data Architect

NAVIGACOM
Publiée le
Apache Airflow
Architecture
Big Data

6 mois
500-700 €
Paris, France

Missions Pour l’un de nos clients du secteur du luxe, vous intervenez sur des missions à forte valeur ajoutée en tant que Architecte Data. En étroite collaboration avec vos interlocuteurs, vous accompagnez et conseillez notre client dans le cadre de la gestion du cycle de vie de ses infrastructures actuelles et participez au projet d’évolution et au maintien en condition opérationnelle. Vos tâches seront les suivantes : Conception de l’architecture et vérification de l’implémentation des briques technologiques des plateformes de données (Collecte, Stockage, Traitement, Visualisation). Responsable du suivi des principes établis au niveau du groupe (architecture, sécurité et confidentialité des données) dans les plateformes de données. Soutien à la stratégie NFR en lien avec le Data Tech Lead de chaque équipe Data Product. Support à la stratégie de données définie par l’équipe Data (fondations techniques : GCP, Google Big Query, DBT et Airflow/Composer). Conduire et prendre en charge la feuille de route technique des plateformes de données. Apporter une expertise sur les architectures et les plateformes de données pour aider les différents acteurs à suivre la stratégie de données. Piloter l’évaluation et l’optimisation des architectures de données. Documenter l’architecture (Confluence) et assurer le suivi des actions d’implémentation (Jira).

CDI

Offre d'emploi
Intégrateur DevOps

AGH CONSULTING
Publiée le
AWS Cloud
Azure
Google Cloud Platform

10k-50k €
Paris, France

Contexte de la mission : Au sein de notre département Product Factory , vous intégrerez une équipe dynamique fonctionnant en mode agile . Votre mission principale sera de participer au développement des produits mis à disposition de nos exploitants et clients, permettant la gestion de leurs applicatifs dans des environnements AWS , GCP , FE et Azure , en particulier sur des clusters Kubernetes . Missions principales : Dans le cadre de votre mission, vous serez responsable des tâches suivantes au sein de la feature team Infrastructure : Gestion du cycle de vie des composants d’infrastructure (tels que Vault , Bastion , Keycloak ) et de leur configuration associée. Prise de lead technique sur l’intégration de la stack d’infrastructure. Prise en compte des contraintes techniques , notamment la performance , l' endurance , la robustesse et l’ exploitabilité des solutions mises en œuvre.

Freelance

Mission freelance
Responsable Run

ESENCA
Publiée le
Google Cloud Platform
JIRA
Run

1 an
400-450 €
Lille, Hauts-de-France

PS : Mission à Lille, présence obligatoire 3j/semaine Votre mission : Construire avec le product manager et mettre en place la roadmap autour de la paie Piloter les indicateurs de performance et la qualité de service des éditeurs via les SLI/SLO/SLA Mettre en oeuvre et piloter la supervision des flux, Assister et conseiller les équipes métier dans le traitement des anomalies Assurer le bon fonctionnement de la chaîne de support et l'expertise N3 sur les incidents techniques S'assurer de la mise en œuvre des exigences digitales, de la sécurité et de la protection des données Assurer l'exposition des données au sein de la data platform (GCP) et en mesurer la qualité Être l'interlocuteur privilégié de l'éditeur du produit sur les aspects techniques Traduire les besoins d'évolution métiers en fonctionnalités IT au travers de spécifications Mesurer l'adoption utilisateur en tenant compte des feedbacks des collaborateurs La mission nécessite une forte implication sur le domaine métiers et fonctionnels des produits autour de la paie et de la gestion administrative (Produit Saas, briques internes). Les interactions avec les équipes métiers sont fortes et nombreuses

Freelance
CDI
CDD

Offre d'emploi
Data Engineer GCP

SARIEL
Publiée le
Git
Google Cloud Platform
Python

12 mois
40k-70k €
400-600 €
Paris, France

Bonjour, Je vous envoie ce mail car dans le cadre d'une mission de longue durée pour notre client situé en à Paris, nous recherchons un Data Engineer GCP. Type de profils confirmé (> 5 ans d'expérience) Technologies GCP (expérience obligatoire sur ce cloud provider) Python (expérience obligatoire) Bonne maîtrise BigQuery (obligatoire) Bonne maîtrise Terraform Git (obligatoire) Dans le cas où vous êtes intéressé, pourriez-vous svp envoyer votre CV au format Word en indiquant votre disponibilité ainsi qu'une fourchette de vos prétentions salariales ou de votre tarification journalière si vous êtes indépendant ?

Freelance

Mission freelance
DATA ENGINEER SIRH INFORMATICA

Sapiens Group
Publiée le
Google Cloud Platform
Informatica

2 ans
500-600 €
Île-de-France, France

Mission de Data Engineer expérimenté ayant une forte maitrise de l'ETL Informatica. Au sein d'une équipe de 5 Data Engineer, vous travaillerez en collaboration avec les métiers SIRH. Modélisation de données RH ... Objectif principal : Concevoir, développer et maintenir des solutions d'ingestion, de traitement et d'analyse des données pour assurer leur disponibilité, qualité et performance. Responsabilités : Collecte et intégration des données : Intégrer des sources de données internes et externes dans les systèmes de traitement. Conception des pipelines de données : Créer et maintenir des pipelines pour le traitement, le nettoyage et l’enrichissement des données. Gestion des bases de données : Assurer le stockage efficace et sécurisé des données dans des bases de données relationnelles ou NoSQL. Optimisation des performances : Analyser et optimiser les flux de données pour garantir une efficacité maximale. Collaboration avec les équipes : Travailler avec les Data Scientists et Analystes pour comprendre les besoins en données et fournir les solutions adaptées. Compétences requises : Techniques : Maîtrise de SQL, Python, Spark, Hadoop, et outils ETL INFORMATICA Outils de gestion de données : Expérience avec des systèmes de gestion de bases de données (PostgreSQL, MongoDB, Redshift ) Data Warehousing & Big Data : Connaissance des architectures de données à grande échelle et des environnements cloud (AWS, GCP, Azure). Automatisation et performance : Capacité à automatiser les processus et optimiser les performances des systèmes. Profil recherché : Formation : Bac +5 en Informatique, Data Science, ou équivalent. Expérience : 7 ans dans un rôle similaire en Data Engineering. Langues : Maîtrise du français, l'anglais est un plus

Freelance

Mission freelance
DEVELOPPEUR BACK ref 1181

Coriom Conseil
Publiée le
Google Cloud Platform
Java
Python

12 mois
400-550 €
Lille, Hauts-de-France

Python - Expert - Impératif GCP - Confirmé - Important Java - Junior - Souhaitable Terraform - Junior - Souhaitable Connaissances linguistiques: Anglais Lu, écrit (Impératif) Description détaillée Nous sommes à la recherche d'un développeur backend expert Python (Pas de profiles Data) En tant Développeur Back-end, vous interviendrez sur le produit Pipelines, qui rassemble un ensemble d’outils permettant aux équipes produits de construire et monitorer leurs data pipelines en complète autonomie. A ce titre, voici vos missions : Développer des microservice en APIs first Participer aux prises de décisions relatives à l’architecture et à la sécurité des solutions dans un environnement Cloud (GCP). Concevoir des outils facilitant le développement de modules. Communication entre micro service Développement d’un scheduler / Développement d’un dispatcher Mise en place d’outils de monitoring Assistance des utilisateurs sur le run technique MOB, Pair review

Freelance

Mission freelance
Data Engineer

ICSIS
Publiée le
Apache Kafka
CI/CD
ETL (Extract-transform-load)

2 ans
400-500 €
Lille, Hauts-de-France

La mission consiste à : - Exposer les données utiles à l’entreprise pour les analyser et les utiliser afin d’améliorer l’expérience utilisateur et la productivité - Transformer des données issues du DataLake afin de les normaliser - Modéliser la sphère de données - Développer les flux - Exposer des données brutes et/ou agrégées au bon niveau de granularité aux différents métiers de l’entreprise - Travailler en lien avec des Data Scientists sur les données qu’il aura exposées - Mettre en place des rapports de Dataviz - Mission basée en métropole lilloise avec présence sur site 3j/semaine obligatoire Compétences demandées : - Formation supérieure en école d’ingénieur, école d’informatique ou Master spécialisé dans la Data Science - Première expérience en Data Engineering indispensable - GCP, BigQuery, SQL, Python, Stambia, Shell, Data Studio, Power BI, Qlikview,... - Excellents savoir-être : rigueur, esprit analytique et de synthèse, communication... - Méthode Agile - Anglais

Freelance

Mission freelance
Un Ingénieur Système Cloud GCP sur Le 78

Smarteo
Publiée le
Google Cloud Platform

2 ans
100-400 €
Yvelines, France

Smarteo recherche pour l'un de ses clients, grand compte, Un Ingénieur Système Cloud GCP sur Le 78 Projet : Continuer les actions d'automatisation et de fiabilisation ; Opérer les revues de code ; Opérer la veille technologique ; Réaliser des présentations techniques ; Assurer le support technique niveau 3 auprès des développeurs traiter tant les aspects techniques et fonctionnels et intervenir sur l'ensemble des environnements de l'intégration à la production y compris dans le cadre de projets. Gestion production/run des projets (astreintes) Vous serez aussi amenés à rédiger des dossiers techniques précis, des avis techniques, ainsi que des feuilles de route à destination des chefs de projet et des opérationnels devant mettre en oeuvre et exploiter les solutions. Principaux livrables : Concevoir la solution ; Paramétrer, développer et qualifier des solutions applicatives ; Établir l'analyse et le diagnostic sur les incidents et les éradiquer ; Mettre en place, mener ou piloter le déploiement des applications développées ; Rédiger ou participer à la rédaction des dossiers de conception générale et/ou détaillée ; Analyser les traitements pour réaliser les études détaillées ou les études d'impact. Compétences requises : Expertise et expérience significative sur Terraform. Définition de module Terraform Expertise sur le Cloud GCP et AWS si possible . Maitrise des outils de déploiement automatisés Pipeline CI CD (gitlab-ci, ansible, AWX, jenkins etc.), language python Connaissance sur les technologies kubernetes Si vous êtes disponible et intéressé merci de me faire parvenir votre TJM+CV à jour dès que possible.

Freelance
CDI

Offre d'emploi
Data Engineer

SELENE
Publiée le
BigQuery
ETL (Extract-transform-load)
Google Cloud Platform

1 an
40k-45k €
410-550 €
Paris, France

L'Ingénieur Data intégrera une équipe spécialisée en gestion et valorisation des données. Il/Elle sera responsable de l'acquisition et de la modélisation des données afin de fournir des résultats exploitables pour l'analytique et la data science. Le rôle impliquera la création de modèles de données consommables et de visualisations, tout en assurant la gestion complète du cycle de vie des données, de leur ingestion à leur traitement et préparation. Il/Elle travaillera en étroite collaboration avec les équipes data et métiers afin d’assurer la cohérence et la fiabilité des produits de données développés. Traduire les besoins métier en spécifications techniques, en collaboration avec les parties prenantes. Estimer, planifier, gérer et diriger les projets/tâches d'intégration des données. Coordonner les tâches et la charge de travail avec les autres ingénieurs data. Concevoir et développer des processus ETL/ELT et des flux de données pour fournir des résultats exploitables en analytique et data science. Créer des modèles de données et des visualisations intuitives et performantes. Collaborer avec les équipes de support pour assurer la cohérence et l’exactitude des données ainsi que la performance des flux livrés. Fournir un support de niveau 3 lorsque nécessaire. Définir et promouvoir les meilleures pratiques et principes de conception pour l'architecture Data Warehouse et Analytics.

Freelance

Mission freelance
Ingénieur Cloud GCP F/H

SOFTEAM
Publiée le
Google Cloud Platform
Terraform

6 mois
400-550 €
Yvelines, France

Vos responsabilités : Gestion et administration des environnements GCP : Concevoir, provisionner et maintenir des infrastructures Cloud sur GCP en respectant les meilleures pratiques. Implémenter et gérer les services GCP pour répondre aux besoins métier. Exploiter et maintenir les services GCP en Prod Accompagner les Développeurs des Tribu / Squad à maintenir leur Pipeline et développer leur nouveaux pipelines, Terraform et CICD sur GCP - Accompagner les développeurs à respecter les golden Rules GCP - Exploiter et maintenir les services GCP en Prod - Accompagner et monter en compétences les DevOps du cluster BPC sur l'offre GCP

743 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous