Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 558 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI

Offre d'emploi
Ingénieur sécurité et réseaux CLOUD / GCP

NETSEC DESIGN
Publiée le
Google Cloud Platform

2 ans
40k-76k €
400-600 €
Guyancourt, Île-de-France

Nous recherchons pour notre client final (grand compte) deux Ingénieurs Sécurité Cloud pour le maintien en condition des équipements de sécurité : Mise en place des infrastructures réseau et sécurité au sein des clouds GCP et Azure. Mise en place des solutions d'interconnexion. Support de niveau 3 sur tout incident opérationnel concernant les équipements de sécurité dans l'environnement cloud et les datacenters associés. Identification et mise en place des correctifs, ainsi que l'évolution de l'ingénierie si nécessaire. Rédaction de procédures et de documents techniques à suivre par les équipes de niveaux 1 et 2. Accompagnement des projets pour la mise en place de l'environnement réseau associé (flux, routage, etc.). Participation aux projets de modernisation des différents services réseaux (firewalls, DNS, routeurs, etc.). Suivi des actions de remédiation pour corriger les vulnérabilités de sécurité et mise en conformité des équipements, réseaux et systèmes de sécurité concernés.

Freelance

Mission freelance
Data ingénieur - Python - GCP

Archytas Conseil
Publiée le
BigQuery
CI/CD
Google Cloud Platform

12 mois
100-550 €
Lille, Hauts-de-France

Assurer la performance et l’évolutivité des solutions Data & ML : Concevoir et optimiser des pipelines de données robustes et évolutifs (ETL/ELT). Garantir la qualité des données et leur disponibilité pour les modèles de Machine Learning et les équipes métier. Implémenter des solutions scalables pour le traitement de grands volumes de données. Encadrer techniquement une équipe en forte croissance : Accompagner une équipe de Data Engineers et Data Scientists, en participant activement à leur montée en compétences. Fédérer et guider l’équipe dans un environnement collaboratif et motivant. Assurer l’adoption des meilleures pratiques de développement (DevOps, CI/CD, tests automatisés, monitoring). Aligner les solutions Data avec les standards technologiques du groupe : Veiller à la cohérence des solutions avec les stratégies globales de l’entreprise. Introduire des standards modernes comme l’Infrastructure as Code, l’observabilité et le monitoring avancé. Roadmap produit et décisionnel : Collaborer avec les Product Owners pour prioriser les fonctionnalités liées à la gestion et au traitement des données. Assurer les choix architecturaux et techniques clés pour garantir la sécurité, la scalabilité et les performances des systèmes. Interopérabilité et standardisation : Travailler avec les autres Tech Leads et équipes transverses pour une intégration fluide des solutions au sein de l’écosystème global. Standardiser les pratiques liées aux pipelines de données et au MLOps. Supervision de la production et amélioration continue : Assurer la stabilité et la fiabilité des systèmes de données en production. Participer activement aux revues de code (MOB programming, pair reviews) pour maintenir un haut niveau de qualité technique. Être force de proposition pour des initiatives d’amélioration continue. Support et relation utilisateurs : Être le point de contact clé pour les utilisateurs finaux, comprendre leurs besoins et garantir leur satisfaction. Former les parties prenantes à l’utilisation des solutions déployées. L'équipe, actuellement composée de 5 collaborateurs, est en forte expansion avec des recrutements en cours pour répondre aux objectifs ambitieux du projet. Vous évoluerez dans un cadre mêlant innovation, technologies avancées et défis stratégiques, avec une véritable autonomie pour construire des solutions Data & ML d’envergure. Expertise confirmée en ingénierie des données (5+ ans) avec une solide maîtrise des technologies Cloud (AWS, GCP ou Azure). Compétences avancées en Python, Spark, Kafka, SQL ou outils de traitement des données distribuées. Expérience en MLOps et dans la mise en œuvre de pipelines automatisés. Leadership technique et capacité à encadrer une équipe technique. Forte capacité à communiquer, à collaborer et à prendre des décisions stratégiques.

Offre premium
Freelance

Mission freelance
Expert DevOps Cloud (GKE/OpenShift) - Projet Innovant dans le Secteur Retail - Chatillon (H/F)

EASY PARTNER
Publiée le
CI/CD
GitLab CI
Google Cloud Platform

6 mois
450-500 €
Paris, France

Notre entreprise est à la recherche d'un talentueux Expert DevOps Cloud pour accompagner notre pôle DevOps dans une mission clé. Engagés dans une culture DevOps, Cloud, CICD et automatisation forte, nous visons à optimiser nos processus de déploiement et d'intégration continue. L'équipe, composée de professionnels passionnés, gère une variété de projets innovants visant l’excellence opérationnelle et la satisfaction client. La création de ce poste répond au besoin d'intégrer des solutions logicielles et matérielles de haute qualité dans notre environnement de production cloud et de renforcer nos capacités d'automatisation et de déploiement continu. ▶️ Missions Principales: Intégrer des solutions dans l'environnement de production Cloud (GCP/OpenShift) et en assurer le déploiement via CICD. Gérer le support nécessaire des applications lors des incidents en production. Intervenir dans la mise en exploitation de nouvelles applications ou la livraison de nouvelles versions. 🛠️ Stack technique À maîtriser: GKE/GCP - Confirmé Ansible (Tower) - Confirmé GitLabCI - Confirmé Helm - Confirmé Environnement technique global: Cloud Providers (GKE/OpenShift) CI/CD Pipelines Automatisation et conteneurisation

Freelance

Mission freelance
Ingénieur Système WINDOWS / LINUX /DEVOPS & CLOUD AZURE/ GCP / ANGLAIS OPERATIONNEL (H/F)

OctopusGroup
Publiée le
Administration linux
Administration Windows
Azure

6 mois
100-550 €
Paris, France

Nous recherchons pour le compte de notre client dans le luxe, un ingénieur système CLOUD AZURE/GCP ET DEVOPS ayant de bonnes connaissances sur windows et linux Contexte de la mission : Prestation à réaliser sur le périmètre IT Production Cloud. Expérience sur ce type de prestation: Minimum 10 ans Missions : Maitrise de l’offre Cloud Microsoft Azure et GCP Gestion des serveurs cloud et outillages associés Installer et Administrer les services IaaS et PaaS en relation avec nos partenaires Cloud Maintien en condition opérationnelle de niveau 3 sur les environnements Cloud, Windows Servers, Linux Servers en lien avec les hébergeurs et infogérant. Documenter l’ensemble des solutions (DINS, DEX,..)

Freelance

Mission freelance
Data Engineer SSIS, SSAS, SSRS Talend, GCP

HIGHTEAM
Publiée le
Google Cloud Platform
Microsoft Analysis Services (SSAS)
Microsoft SSIS

3 ans
350-450 €
Île-de-France, France

Dans le cadre du renforcement de la Data Factory, nous recherchons un Data Engineer Confirmé pour rejoindre l'un de nos clients. En tant que Data Engineer, vous serez responsable de la conception, du déploiement et de l'optimisation des pipelines de données, en garantissant la qualité et la résilience des traitements. Vous interviendrez principalement sur les technologies Microsoft (SSIS, SSAS, SSRS), tout en étant amené à travailler avec des outils complémentaires tels que Talend , Open Text et des solutions Cloud sur Google Cloud Platform (GCP) . Conception et développement de pipelines ETL : Concevoir, développer et maintenir des workflows ETL robustes et optimisés avec SSIS , en tirant parti des fonctionnalités avancées telles que la gestion des packages, l'optimisation des performances, et l'orchestration des traitements complexes. Vous assurerez l'intégration fluide des différentes sources de données et la scalabilité des processus ETL. Gestion de cubes OLAP avec SSAS : Exploiter SSAS pour développer et gérer des cubes OLAP afin de faciliter les analyses multidimensionnelles. Reporting avec SSRS : Utiliser SSRS pour créer, maintenir et faire évoluer des rapports interactifs et automatisés, en fonction des besoins des utilisateurs métiers. Analyse des besoins métiers : Analyser les besoins des utilisateurs métiers et proposer des solutions techniques adaptées. Optimisation des performances : Identifier les goulots d’étranglement dans les pipelines de données et mettre en place des solutions pour optimiser les performances. Gestion des données : Intégrer, transformer et charger des données en garantissant leur qualité et leur cohérence. Mise en place de pipelines hybrides : Mettre en œuvre et optimiser des pipelines de données dans des environnements hybrides (on-premise et cloud). Résilience et monitoring : Assurer la résilience des traitements de données et mettre en place un monitoring efficace. Collaboration : Travailler en étroite collaboration avec les équipes Data Analyst , Data Scientists , et autres Data Engineer pour répondre aux besoins métiers. Documentation et recette : Rédiger la documentation technique des pipelines et des traitements, et participer aux phases de recette pour garantir la conformité des livrables.

Freelance

Mission freelance
Data Engineer / Pré Embauche / SSIS SSAS / Talend

OCSI
Publiée le
Google Cloud Platform
Microsoft SSIS
SQL

1 an
400-550 €
Île-de-France, France

Nous recherchons un Data Engineer Confirmé EN PRE EMBAUCHE pour renforcer une Data Factory. Description o Concevoir, développer et maintenir des workflows ETL robustes et optimisés avec SSIS, en exploitant pleinement les fonctionnalités avancées telles que la gestion des packages, l'optimisation des performances, l'orchestration des traitements complexes et l'intégration de différentes sources de données. Collaborer avec les équipes pour assurer une mise en œuvre fluide et scalable des processus ETL. o Exploiter SSAS pour le développement et la gestion de cubes OLAP afin d'optimiser les analyses multidimensionnelles. o Utiliser SSRS pour maintenir et faire évoluer des rapports interactifs et automatisés répondant aux besoins des utilisateurs métiers. o Analyser les besoins métiers pour traduire leurs attentes en solutions techniques adaptées. o Réaliser des analyses approfondies des données pour garantir leur pertinence et répondre efficacement aux besoins identifiés. o Identifier et résoudre les goulots d'étranglement affectant les performances des pipelines de données. o Intégrer, transformer et charger les données depuis différentes sources en assurant leur qualité et leur cohérence. o Mettre en place et optimiser des pipelines de données sur des environnements hybrides (on-premise et cloud). o Assurer la résilience et le monitoring des traitements de données. o Collaborer avec les équipes Data Analysts, Data Scientists et autres Data Engineers pour répondre aux besoins des métiers. o Rédiger la documentation technique associée aux pipelines et aux traitements. o Participer aux phases de recette et garantir la conformité des livrables. Livrables : o Développement o Cahier de recette o Dossier de recette / Mise en production o Spécifications o Document d'exploitation

Offre premium
Freelance

Mission freelance
Tech Lead Data Analytics GCP

KatchMe Consulting
Publiée le
Data analysis
Google Analytics
Google Cloud Platform

1 an
400-850 €
Paris, France

Nous recherchons pour l'un de nos clients un Tech Lead Data Analytics – Expertise GCP Responsabilités principales : Pilotage technique et expertise : Assurer la qualité des données et la mise en œuvre des principes de data gouvernance . Support aux projets liés à la viabilisation des assets et à la gestion des accès. Identifier et résoudre de manière proactive les incidents liés aux données. Conception et implémentation : Apporter une expertise approfondie sur les environnements GCP, notamment en matière de gestion de la donnée et des pipelines. Collaboration et coordination : Collaborer avec les équipes métiers pour garantir que leurs besoins en données soient couverts efficacement. Reporting et amélioration continue : Intégrer des outils de reporting, avec une forte appétence pour Power BI . Proposer des initiatives pour améliorer les processus de qualité et gouvernance des données. Nous recherchons quelqu'un qui a absolument une expertise sur la Data Quality & Gouvernance Objectif global : Détecter proactivement les incidents de données avant qu’ils ne soient signalés par les utilisateurs. La data plateforme solide doit garantir une utilisation simplifiée et sécurisée des données. Focus sur la gouvernance : Classification des données et gestion fine des accès selon les typologies d’utilisateurs. Mise en place d’une hiérarchisation et d’une gradation dans les accès pour assurer une utilisation conforme et sécurisée des assets de données.

Freelance

Mission freelance
Data Engineer (GCP, DBT, SQL,Spark, Scala)

Cherry Pick
Publiée le
Apache Spark
Google Cloud Platform
Scala

3 mois
550-600 €
Paris, France

Cherry Pick est à la recherche d'un Data Engineer pour l'un de ses clients dans le secteur du luxe. Missions: Concevoir et développer des pipelines de données performants pour répondre aux besoins spécifiques du secteur du luxe. Traiter et transformer des données massives en utilisant Spark et Scala. Implémenter et maintenir des modèles de transformation avec DBT et SQL. Collaborer avec les équipes métiers pour comprendre et traduire leurs besoins en solutions techniques. Optimiser les processus de gestion des données sur GCP (BigQuery, Cloud Storage, Dataflow, etc.). Garantir la qualité et la fiabilité des données tout au long du cycle de vie.

Freelance

Mission freelance
Data Analyst

ICSIS
Publiée le
BigQuery
Google Cloud Platform
Microsoft Power BI

1 an
400-500 €
Lille, Hauts-de-France

La mission consiste à : Accompagner les équipes Répondre aux problématiques métiers Réaliser des analyses statistiques préparatoires Réaliser des dashboards clairs, ergonomiques et optimisés Savoir restituer de façon synthétique des résultats concrets Compétences attendues : Expériences significatives comme Data Analyst / Data Engineer Power BI / SQL Esprit analytique Savoir-être : rigoureux, organisé et autonome à l'aise dans la communication auprès d'équipes techniques ou métiers Mission basée sur la métropole lilloise avec télétravail partiel

Freelance
CDI

Offre d'emploi
Ingénieur.e DevOps

Atlanse
Publiée le
DevOps
Google Cloud Platform
Helm

1 an
40k-55k €
400-500 €
Île-de-France, France

En tant qu’ingénieur.e DevOps, vous serez chargé.e d’assurer l’intégration, le déploiement et le support des applications dans l’environnement de production Cloud (GCP / Openshift) via des pipelines CI/CD. Votre rôle Analyse des besoins et veille technologique · Recueillir les informations et analyser les besoins en équipements matériels et logiciels · Préconiser et conseiller sur les choix de solutions informatiques en collaboration avec les architectes, les experts métiers et techniques tout en respectant les standards définis par l’entreprise · Rédiger les cahiers des charges et les appels d’offres puis analyser les propositions des fournisseurs en termes de performance, fiabilité et compatibilité · Réaliser une veille technologique pour optimiser les ressources systèmes de l’entreprise Mise en place et intégration · Concevoir ou paramétrer les logiciels sélectionnés en fonction des besoins identifiés · Configurer et dimensionner les solutions matérielles selon les performances requises · Tester les systèmes mis en place et veiller à la compatibilité des éléments entre eux · Contribuer à la validation technique lors des mises en production · Veiller à la sécurité et la fiabilité des systèmes de l’entreprise Exploitation · Valider l’installation et l’intégration des nouveaux outils (systèmes, réseaux et télécoms) · Diagnostiquer et résoudre les incidents ou anomalies tout en assurant leur suivi · Participer aux actions correctives de maintenance en veillant à leur qualité · Proposer des améliorations pour optimiser l’utilisation et l’organisation des ressources existantes · Rédiger et mettre à jour la documentation des procédures et consignes d’exploitation · Assurer le transfert de compétences et l’assistance technique aux équipes d’exploitation ainsi que leur formation si nécessaire Sécurité · Respecter et suivre les règles de sécurité définies par l’entreprise · Appliquer les plans de sauvegarde et de secours définis · Assurer la sécurité physique des données en termes de sauvegarde et d’archivage

Freelance
CDI

Offre d'emploi
TechLead Data GCP

UCASE CONSULTING
Publiée le
Apache Kafka
Google Cloud Platform
Python

6 mois
40k-68k €
650-1 150 €
Paris, France

Je recherche pour un de mes clients un TechLead Data : Missions principales : • Accompagner les Data Engineers sur les bonnes pratiques, les choix d’architecture et dans leur travail au quotidien • Effectuer les audits et les contrôles des développements réalisés : Sécurité, Maintenabilité, Robustesse et Performance • Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement • Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d’assurer la qualité des développements réalisés par l’équipe • Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants • Rédiger la documentation technique des data products • Assurer un support aux testeurs • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Études d’impact technique • Faire des propositions techniques • Schéma de solution des flux, modèle de données • Fournir des chiffrages détaillés des futures réalisations • Relecture de code technique • Rédaction de SFD, STD, Manuel d’installation • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements Compétences techniques : Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab, Flamingo • Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Manipulation des formats de fichiers : CSV, JSON, Avro, XML

CDI

Offre d'emploi
Data Analyste - F/H - Lille

ENGIT
Publiée le
Google Cloud Platform
Microsoft Power BI
SQL

38k-48k €
Lille, Hauts-de-France

Au sein de la direction Retail Data International, nous recherchons un Analytics Engineer afin de renforcer la palette de compétences présentes au sein de nos équipes composées de Product owner, Data Analyst & Data Engineer. Le scope métier couvre l'ensemble des activités du retail (Marketing / Finance / Produit etc). Missions : Conçoit , déploie et assure le RUN des data pipelines, datasets et KPI Crée à partir des données présentes dans la plate-forme Data la modélisation et les traitements nécessaires à l’exploitation des données, à destination des usages analytiques. Assure la maintenance de ce qui a été produit. Réalise des recettes techniques et fonctionnelles. Veille au respect des normes et des pratiques de référence de la Data. Accompagne les consommateurs ou utilisateurs de solutions data dans leur choix d’indicateurs et leur expression de besoin d’accès aux données Garantit l’alignement et la cohérence des solutions data Travaille en étroite collaboration aussi bien avec les équipes techniques que métier. Livrable : Script SQL Dashboard PV de recette

CDI
Freelance

Offre d'emploi
DevOps GCP

Degetel
Publiée le
Ansible
GitLab CI
Google Cloud Platform

1 an
40k-70k €
400-650 €
Châtillon, Île-de-France

Intègre la solution logicielle ou matérielle livrée par les services Etudes dans l’environnement de production Cloud (GCP/OpenShift). Intègre l’application et en assure le déploiement via CICD Gère le support nécessaire de l’application lors des incidents en production Intervient dans la mise en exploitation d’une nouvelle application ou la livraison d’une nouvelle version de cette application Est un spécialiste des technologies du cloud et des services proposés par les grands cloud providers Maîtrise généralement les concepts de conteneurisation, d’automatisation et de CI/CD* qui lui permettent d’accompagner les développeurs et de mettre en place une démarche DevOps dans l’entreprise

CDI

Offre d'emploi
Développeur Full Stack NodeJS / ReactJS/VueJS - Lille - F/H

ENGIT
Publiée le
Google Cloud Platform
Node.js
React

42k-48k €
Lille, Hauts-de-France

En tant que développeur fullstack, au sein d’une équipe agile pluridisciplinaire, intervenant sur une stack node js/ReactJS, vous aurez la responsabilité de construire et d'améliorer l'accessibilité et la web performance du site internet. Vos responsabilités : Collaboration avec les différentes parties prenantes de l’équipe (produit et transverse) afin de concevoir de la meilleure manière les solutions techniques ; Développement back sur un environnement node js Développement front dans un environnement Typescript/ReactJS avec du Next JS Étude et spécification fonctionnelle en amont du développement pour intégrer au mieux le développement dans le contexte du produit ; Participer et intervenir dans des ateliers techniques de conception et architecture ; Garant de la qualité du code produit, vous interviendrez autant en build qu’en run dans un esprit : you build it, you run it !

Freelance
CDI

Offre d'emploi
DATA ENGINEER GCP

UCASE CONSULTING
Publiée le
Google Cloud Platform
Python

6 mois
43k-93k €
1 050-1 550 €
Paris, France

Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement • Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants • Rédiger la documentation technique des data products • Assurer un support aux testeurs • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Faire des propositions techniques Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab, Flamingo Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Autonomie et rigueur • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Capacité à communiquer, à travailler en équipe et excellent relationnel • Proactivité et prise d’initiative

CDI

Offre d'emploi
Architecte Google Cloud

DEV AND CONNECT
Publiée le
Architecture
Google Cloud Platform

60k-90k €
Paris, France

👉 Contexte : Pour le compte d'un de nos clients, nous recherchons un Architecte Google Cloud qui jouera un rôle central dans l’adoption de Google Cloud en fournissant des conseils techniques experts, en élaborant des solutions sur mesure et en renforçant des partenariats solides. Ce rôle est à pourvoir en agence. Vos responsabilités couvriront les activités de pré-vente, la conception d’architectures, le développement de solutions et le support continu, en veillant à ce que les clients tirent pleinement parti des technologies Google Cloud. Il s'agit donc d'un rôle transverse. Apporter un leadership et une expertise aux équipes internes et aux clients, en les aidant à concevoir et à mettre en œuvre des solutions robustes sur Google Cloud. Fournir une expertise technique en pré-vente pour de nouvelles opportunités, en participant à la collecte des besoins, à la rédaction de propositions et de SOW (Statement of Work). Conseiller les clients sur leurs pratiques architecturales et d’ingénierie Google Cloud, en animant des ateliers si nécessaire. Travailler sur divers projets tels que : Projets de données modernes, d’IA et de GenAI (Intelligence Artificielle Générative), en utilisant les dernières technologies sur la plateforme Google. Développement de solutions et applications Greenfield sur Google Cloud. Programmes de migration de charges de travail et de modernisation des applications et infrastructures. Accompagner les équipes de développement dans les processus de développement et de déploiement de logiciels sur Google Cloud, en promouvant son utilisation et en aidant à concevoir et architecturer des POC. Produire une documentation de haute qualité dans le cadre du développement de vos solutions. Être un point de contact avec Google, en travaillant avec les ingénieurs partenaires et clients de Google pour s’assurer que nos équipes commerciales et projet reçoivent le soutien nécessaire de la part du fournisseur. Assister le Directeur des Solutions dans le développement de nos capacités et de notre portefeuille de services. Participer à des événements techniques et briefings Google Cloud, en utilisant les connaissances acquises pour aider à renforcer les compétences de l’équipe.

558 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous