Trouvez votre prochaine offre d’emploi ou de mission freelance BigQuery

Votre recherche renvoie 35 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

CDI

Offre d'emploi
Data engineer (F/H) - Lille

ENGIT
Publiée le
Azure
BigQuery
Google Cloud Platform

40k-43k €
Lille, Hauts-de-France

Vous serez intégré dans une équipe pluridisciplinaire de 6 personnes (Data Engineer, DevSecFinOps) En vous appuyant sur la data ARF exposée, vous travaillerez sur un use case dédié en collaboration avec les équipes Data (tech lead, gouvernance et architectes). Vous devrez avoir une approche FINOPS (Maîtrise et diminution des coûts) BUILD Interlocuteur lors de la contribution à des projets dans le domaine de la Supply Conception de solutions en respectant les normes et framework data Développement, Modélisation sous la gouvernance de l'architecture data Contribution au développement d'appli Tests Reporting RUN : Maintien en condition opérationnelle de notre périmètre de responsabilité (4 référentiels de données opérationnels (RDO) multi sourceurs, 15 applications) gestion des incidents mise en production (via Git) suivi de flux EXPERTISE : Montée en compétence sur notre SI et notre domaine de responsabilité Documentation si nécessaire

Freelance

Mission freelance
Data engineer (H/F)

Anywr freelance
Publiée le
BigQuery
Google Cloud Platform

12 mois
100-480 €
Lille, Hauts-de-France

Vous accompagnez les différents domaines de la plateforme dans le développement de leurs solutions Data. En tant que membre de l'équipe DATA Transverse, vous participez aux rituels agiles (Daily, Rétro, Préparation de sprints...) Vous êtes force de proposition pour enrichir les templates de l'équipe, améliorer l'industrialisation de nos solutions et le déroulement de nos rituels. Vous êtes autonome sur vos sujets, tout en travaillant en collaboration avec les autres Data Engineers de l'équipe, ainsi qu'avec les Data Analysts / Data Scientists. Vous challengez les solutions proposées, dans un objectif d'amélioration continue.

Freelance

Mission freelance
Consultant Data / GCP

Enterprise Digital Resources Ltd
Publiée le
BigQuery
Google Cloud Platform
Méthode Agile

2 ans
100-510 €
Lille, Hauts-de-France

Je recherche en ce moment un consultant Data / Big Query pour un de mes clients dans le nord de la France afin de construire les nouveaux cas d'usage sous Google Cloud Platform et participer au développement des nouveaux projets : Analyser et comprendre l’existant Concevoir l’architecture du nouveau socle Challenger et mener des ateliers avec le métier Développer les flux Exposer de la donnée sur GCP Participation à la vie de l'équipe (composée de 1 PO, 1 BA, 7 Devops data) : Rituels : daily / atelier d’équipe / sprint / … Alimentation du JIRA Documentation technique et fonctionnelle Garant et détection des axes d’amélioration à mettre en place sur le périmètre du produit Analyse poussée sur l’ensemble du périmètre (participation active aux divers ateliers métier et recettes)

Freelance

Mission freelance
Consultant Data Engineer

Enterprise Digital Resources Ltd
Publiée le
Data analysis
Google Cloud Platform
Microsoft Power BI

6 mois
100-500 €
Lille, Hauts-de-France

Je recherche en ce moment un Data Engineer pour un de mes clients Le consultant Data aura une dominance Data Engineer mais des compétences de Data Analyst sont également attendues - Collecter les données via des PIPELINE - Mesurer la qualité des données - Historiser les données - Créer des modèles optimisés - Créer des dashboards pour répondre aux besoins métiers Environnement technique sur lesquels une expérience significative est attendue et non une première formation - GCP & BigQuery - Terraform & Github - PowerBI Gen 2 - Python

CDI

Offre d'emploi
Data Engineer GCP

Tenth Revolution Group
Publiée le

0 €
Île-de-France, France

À propos de l'opportunité : Envie de contribuer aux projets data de demain au sein d'une structure à l'avant-garde de l'innovation ? Nous recherchons un Data Engineer Senior spécialisé en Google Cloud Platform (GCP) , passionné par les environnements Cloud et motivé par la création d'architectures de données robustes et scalables. Rejoignez une équipe data dynamique, qui travaille sur des projets divers et stimulants pour accompagner la transformation numérique de ses clients. Missions 🏗️ : 📊 Concevoir et Développer des Pipelines de Données : Concevoir et optimiser des pipelines ETL/ELT dans un environnement GCP, en assurant la performance et la fluidité des flux de données. 🚀 Optimiser les Processus de Collecte et Transformation : Travailler avec les équipes Data Science et Analytics pour automatiser et améliorer l'ingestion, la transformation et le stockage de données, avec des outils comme Dataflow et BigQuery. 🛠️ Mettre en Place des Meilleures Pratiques DevOps : Implémenter des processus de CI/CD et des solutions de monitoring pour garantir des déploiements rapides et fiables. 🕹️ Participer à la Stratégie de Gouvernance et Sécurité : Veiller à la sécurité et à la conformité des données en respectant les standards de sécurité et en participant à la mise en œuvre de pratiques de gouvernance data. 🤝 Collaborer avec les Équipes : Travailler en étroite collaboration avec les équipes produits, data scientists, et analystes pour bien aligner les solutions techniques avec les objectifs business. Environnement Technique 💻 : Cloud : Google Cloud Platform (BigQuery, Dataflow, Pub/Sub, Dataproc) Outils d'Ingénierie de Données : Spark, Apache Beam, Airflow Langages de Programmation : Python, SQL Outils de DevOps : Terraform, Docker, Kubernetes Gouvernance et Sécurité : IAM, gestion des rôles, chiffrement de données Profil Recherché : Expérience : Minimum 4 ans en ingénierie de données avec une spécialisation Cloud, idéalement sur Google Cloud Platform. Compétences Techniques : Maîtrise de GCP (BigQuery, Dataflow), avec de solides compétences en Python et SQL pour le traitement et la transformation de données. Connaissances Avancées en Cloud et Data Engineering : Expérience dans la conception et l'optimisation de pipelines ETL/ELT. Esprit d'Analyse et Résolution de Problèmes : Capacité à identifier des solutions data innovantes et efficaces, en tenant compte des contraintes de temps et des impératifs business. Qualités Personnelles : Proactivité, esprit d'équipe, rigueur et capacité à communiquer efficacement avec des interlocuteurs variés (techniques et non techniques). Pourquoi Rejoindre ? 🌐 Notre environnement est à la fois stimulant et axé sur l'innovation, où chaque membre de l'équipe peut exprimer sa créativité technique et avoir un réel impact sur les projets clients. En rejoignant cette équipe, vous participerez activement à la transformation numérique et bénéficierez d'opportunités de développement professionnel.

Freelance

Mission freelance
INGENIEUR DATA BI - GENIO

PROPULSE IT
Publiée le
BI
Big Data
genio

24 mois
250-500 €
Paris, France

INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS

Freelance

Mission freelance
Data engineer / data analyst (H/F)

Insitoo Freelances
Publiée le
Google Cloud Platform

2 ans
100-450 €
Lille, Hauts-de-France

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data engineer / data analyst (H/F) à Lille, Hauts-de-France, France. Les missions attendues par le Data engineer / data analyst (H/F) : Le data ingénieur aura en charge en collaboration avec les équipes de développement : * de corriger et de créer des nouvelles features d'intégration de données * de créer des pipeline d'intégration des données à l'aide de nos outils d'entreprise vers Google BigQuery (DBT par exemple) * de transformer les données sur des modèles conceptuel de données * de mettre en place des dashboard powerBI (ou looker) en collaboration avec les équipes métier

CDI

Offre d'emploi
Data Engineer - Retail H/F

VIVERIS
Publiée le

40k-50k €
Lille, Hauts-de-France

Contexte de la mission : Viveris pilote les chantiers de transformation métier et IT qui contribuent à la performance des entreprises du Retail. Dans le cadre de nos priorités stratégiques DATA, nous cherchons un DATA Engineer expérimenté. Vos missions et responsabilités : Vous rejoignez l'équipe Supply Chain en charge des échanges de données entre le moteur de calcul de prévision de vente et de réapprovisionnement et l'ensemble des applications internes. Actuellement l'équipe est composée de 3 ingénieurs Data, 1 Product Owner, 1 Scrum Master, 2 Business Analyst et 1 Tech Lead. Nous recherchons un ingénieur Data pour renforcer l'équipe pour assurer le run opérationnel, optimiser l'existant et dans un avenir proche participer au déploiement de la solution dans d'autres pays. Vos missions : - Traitement d'activités de support / maintenance corrective ; - Analyse et cadrage technique des différents besoins ou problématiques remontées par les Bus ; - Réalisation et maintien de la documentation technique du produit (Spécification technique, dossier d'architecture, etc...) ; - Réalisation des développements du produit (Modules GCP, Terraform, Python, BigQuery) ; - Veille et optimisation technique (architecture, fiabilisation, optimisation financière (finops)) ; - Appliquer les normes de qualités définies pour le groupe Nous recherchons quelqu'un de motivé ayant déjà une expérience dans la Data.

Freelance

Mission freelance
ARCHITECTE GENERALISTE MOVE TO CLOUD AZURE ET GCP

PROPULSE IT
Publiée le
architecte
Azure
Cloud

24 mois
325-650 €
Paris, France

Au sein d'une équipe Architecture d'une Direction des Infrastructures et de la Production de l'un de nos clients, nous recherchons un(e) architecte technique généraliste qui contribuera aux activités suivantes : - Etudes techniques & Design - Cadrage budgétaire - Définition des best practices d'architecture - Documentation (DAT) - Accompagnement de la stratégie Move2Cloud - Accompagnement des équipes d'exploitation et de développement Environnement général : - Plateformes E-commerce - Plateformes BackOffice & Logistique - Cloud Public Azure & GCP - Cloud Privé (Infrastructure VMWARE Infogérée) - CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) - Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle - Big Data Hadoop, Terradata, MapR, BigQuery, DataBricks - Conteneurisation Docker & Orchestration AKS - Progiciels SAP, Siebel, HRAccess

Freelance

Mission freelance
ARCHITECTE TECHNIQUE ON PREMISE & CLOUD AZURE ET GCP

PROPULSE IT
Publiée le
architecte
Azure
Cloud

24 mois
325-650 €
Paris, France

Nous recherchons plusieurs Architectes Technique OnPrem & Cloud pour une mission longue chez l'un de nos clients. Niveau expérimenté à senior requis. CONTEXTE DE LA MISSION Au sein de l'équipe Architecture de la Direction des Infrastructures et de la Production du groupe, le consultant contribuera aux activités : - Etudes techniques & Design - Cadrage budgétaire - Définition des best practices d'architecture - Documentation - Accompagnement de la stratégie Move2Cloud - Co-construction des solutions - Accompagnement des équipes d'exploitation et de développement Environnement général - Plateformes E-commerce - Plateformes BackOffice & Logistique - Cloud Public Azure & GCP - Cloud Privé (Infrastructure VMWARE Infogérée) - CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) - Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle - Big Data Hadoop, Terradata, MapR, BigQuery, DataBricks - Conteneurisation Docker & Orchestration AKS - Progiciels SAP, Siebel, HRAccess DESCRIPTION DE LA MISSION - Etude des besoins issus des équipes de développement - Etude de l'évolution des composants de plateformes techniques ou de l'intégration de nouveaux services - Rédaction des documents d'architecture et d'intégration générale et détaillée - Rédaction des supports d'aide à l'exploitation et accompagnement des équipes d'exploitation durant la transition - Contribution à l'évaluation budgétaire des solutions mises en œuvre - Support N3 des équipes d'exploitation Démarrage souhaité : au plus tôt Durée de la mission : Longue Paris

Freelance

Mission freelance
Architecte technique infrastructure On premise & Cloud Azure et GCP

PROPULSE IT
Publiée le
architecte
Azure
Cloud

24 mois
350-700 €
Paris, France

o Au sein de l'équipe Architecture de la Direction des Infrastructures et de la Production du groupe, le consultant contribuera aux activités : • Cadrages techniques et budgétaires en collaboration avec les chefs de projet • Définition des best practices d'architecture • Documentation (DAT, HLD…) • Accompagnement de la stratégie Move2Cloud • Accompagnement des équipes d'exploitation et de développement • Veille technologique Environnement général o Plateformes E-commerce o Plateformes BackOffice & Logistique o Cloud Public Azure & GCP o Cloud Privé (Infrastructure VMWARE Infogérée) o CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) o Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle o Big Data Terradata, MapR, BigQuery, DataBricks o Conteneurisation Docker & Orchestration AKS o Progiciels SAP, Siebel, HRAccess DESCRIPTION DE LA MISSION Missions à prévoir et Expérience acquise Etude des besoins issus des équipes de développement : 5 à 10 ans Etude de l'évolution des composants de plateformes techniques ou de l'intégration de nouveaux services : 5 à 10 ans Rédaction des documents d'architecture et d'intégration générale et détaillée : 5 à 10 ans Rédaction des supports d'aide à l'exploitation et accompagnement des équipes d'exploitation durant la transition : 5 à 10 ans Contribution à l'évaluation budgétaire des solutions mises en œuvre : 5 à 10 ans Support N3 des équipes d'exploitation : 5 à 10 ans Une grande majorité des sujets actuellement adressés par l'équipe d'architecture technique concerne les environnements OnPrem.

Freelance

Mission freelance
Head of data - Finance (CIB/Hedge Fund)

ABSIS CONSEIL
Publiée le
Architecture
Big Data
Pilotage

2 ans
800-900 €
Paris, France

Nous recherchons pour notre client un Head of Data pour diriger le développement, la gestion et l'optimisation de la plateforme de données hybride. Vous superviserez la création et la maintenance d'une infrastructure de données sécurisée. Vous serez en collaboration étroite avec les équipes data engineer, data scientist, et quant team du développement à la production. Missions principales Diriger une équipe d'ingénieurs DevOps, software engineer : management d'équipe superviser le développement et maintenance. gérer les évolutions des composants et services partagés Optimiser les flux de travail des développeurs grâce à l'automatisation et aux modèles réutilisables Assurer l'efficacité et la pertinence de la plateforme de données pour les besoins métiers Pré-requis BAC+5 école d'ingénieur ou équivalent Anglais obligatoire Minimum 10 ans d'expériences en ingénierie des données ou en architecture de données avec au moins 5 ans dans un rôle de leadership (back ground data scientist ou data engineer ou architecte data souhaité) Expérience avérée dans la gestion d'environnements de données hybrides et la promotion des technologies cloud Expertise en architecture de données, y compris datalake, pipelines ETL/ELT et les technologies de bases de données (SQL, NoSQL) Maîtrise des langages de programmation, Python(Pandas), NumPy et des bonnes pratiques de dev (TDD, BDD) Connaissances cloud (AWS S3, Athena, EMR, Google, BigQuery, Azure Data Lake). Kubernetes Docker

Freelance

Mission freelance
EXPERT GCP ENGINEER

Phaidon London- Glocomms
Publiée le
Google Cloud Platform
Jenkins
Kubernetes

12 mois
600-750 €
France

Titre du poste : Expert GCP Engineer Durée du contrat : 12 mois (avec possibilité de prolongation) Lieu : Télétravail complet (bureaux à Londres et Paris) Présentation : Nous recherchons un Expert GCP Engineer pour rejoindre une initiative de transformation cloud menée par une grande banque. Ce rôle est essentiel pour concevoir, implémenter et optimiser des solutions basées sur GCP, répondant aux exigences strictes du secteur bancaire en matière d'évolutivité, de sécurité et de performance. Responsabilités principales : Concevoir et implémenter une infrastructure GCP pour soutenir des applications bancaires critiques, tout en respectant les meilleures pratiques de l'industrie et les normes de conformité (ex. : RGPD, DORA). Développer et gérer des infrastructures en tant que code ( IaC ) avec Terraform , garantissant des déploiements cohérents et reproductibles. Optimiser les configurations réseau sur GCP, notamment la conception de VPC , la connectivité hybride ( Cloud VPN , Interconnect ) et les politiques IAM. Assurer une haute disponibilité et une tolérance aux pannes des services bancaires en utilisant des outils GCP tels que Cloud Load Balancer , Cloud Monitoring et Cloud Operations Suite . Collaborer avec les équipes de sécurité pour mettre en œuvre des mesures de sécurité avancées , incluant le chiffrement, les configurations de pare-feu et la gestion des accès. Automatiser les pipelines CI/CD avec Cloud Build ou Jenkins , pour déployer efficacement des applications basées sur des microservices. Surveiller et résoudre les problèmes des services GCP ( BigQuery , Cloud Functions , Pub/Sub ) afin de garantir les performances attendues. Fournir une documentation détaillée et transférer les connaissances aux équipes internes pour renforcer leur maîtrise des bonnes pratiques sur GCP. Compétences clés : Expertise approfondie de Google Cloud Platform (GCP) avec une expérience pratique sur Compute Engine , Kubernetes Engine (GKE) et BigQuery . Maîtrise de Terraform et Git pour l’automatisation de l’infrastructure. Expérience confirmée en réseaux GCP , incluant Cloud NAT , Cloud Armor et IAM . Compétences avancées en scripting ( Python ou Bash ) pour l’automatisation et la création d’outils personnalisés. Solide compréhension des technologies de containerisation telles que Docker et orchestration avec Kubernetes. Connaissance des cadres de conformité bancaire (ex. : PCI DSS , RGPD ). Exigences : Expérience avérée dans la livraison de solutions GCP au sein d'environnements à grande échelle et fortement réglementés. Excellentes compétences analytiques et de résolution de problèmes avec une attitude proactive. Capacité à travailler de manière autonome et à produire des résultats en télétravail. Atouts : Expérience des architectures multi-cloud (ex. : Azure, AWS). Certifications telles que Google Professional Cloud Architect ou Google Professional Data Engineer .

Freelance

Mission freelance
Data Engineer SQL DBT (F/H) - Lille

Espace Freelance
Publiée le
Google Cloud Platform
SQL

3 mois
100-470 €
Lille, Hauts-de-France

Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : un Data Engineer SQL DBT (F/H) - Lille Mission à pourvoir en régie en région Parisienne Présence sur site : 3 jours / semaine Le consultant devra être en mesure d’assurer les missions suivantes : Construction et optimisation de pipelines de données : collecte, transformation (SQL, BigQuery), et publication Mise en place de tests de qualité et conformité des données Amélioration continue en matière de fiabilité, performance, et FinOps

CDI

Offre d'emploi
Data Engineer GCP

Tenth Revolution Group
Publiée le

45k-60k €
Île-de-France, France

Nous recrutons pour une entreprise en pleine croissance et à la pointe des technologies cloud. Cette société cherche un Data Engineer confirmé pour renforcer ses équipes et travailler sur des projets stratégiques à forte valeur ajoutée. Poste de Data Engineer Confirmé : Dans ce rôle, vous serez un acteur clé dans la conception et la mise en œuvre de solutions data robustes et innovantes en utilisant Google Cloud Platform (GCP). Vos missions : Concevoir, développer et maintenir des pipelines de données complexes sur GCP. Mettre en œuvre des solutions d'intégration et de transformation des données adaptées aux besoins métiers. Optimiser les flux de données pour garantir leur performance, leur sécurité et leur scalabilité. Collaborer avec des équipes pluridisciplinaires : data scientists, analystes et architectes. Assurer le suivi et le monitoring des environnements cloud. Proposer des améliorations continues en adoptant les meilleures pratiques de gouvernance des données. Votre profil : Expérience : 3 à 5 ans en tant que Data Engineer avec une expertise reconnue sur GCP. Compétences techniques : Maîtrise des outils GCP : BigQuery, Dataflow, Pub/Sub, Cloud Storage. Solides connaissances en Python et SQL pour le développement de pipelines ETL. Compréhension des bases de données relationnelles et non relationnelles (MySQL, MongoDB, etc.). Une expérience avec Apache Beam, Terraform ou Airflow est un atout. Soft skills : Autonomie, esprit d'analyse, capacité à travailler en équipe et goût pour l'innovation. Informations complémentaires : Localisation : Poste basé à Paris, possibilité de télétravail. Contrat : CDI. Rémunération : Attractive, selon profil et expérience. Ne manquez pas cette opportunité de rejoindre un environnement stimulant et de travailler sur des projets d'envergure dans la data !

Freelance

Mission freelance
Data Quality Analyst

HIGHTEAM
Publiée le
Data analysis
Google Cloud Platform
Python

3 ans
400-550 €
Île-de-France, France

Ce poste est rattaché à la Directrice Data . Au sein d'une équipe composée de data analystes intégrée aux rituels Product, vous participez à l'évolution fonctionnelle et technique de nos produits data en environnement Agile. Vous aurez l’opportunité de collaborer avec l’ensemble des équipes product, tech et métiers autour des missions suivantes : ● Explorer, analyser et documenter les données du data Warehouse du groupe. ● Contribuer à l’amélioration de la qualité du data Warehouse : mettre en place le plan d’action défini sur 2024 : contrôles, monitoring et alerting. ● Réaliser des travaux d’automatisation afin de gagner en productivité et efficacité. rôle support, retro-engineering et documentation, mise en place de tests de qualité de données (data quality/observabilité) via Sifflet/Python/SQL et Looker/Looker Studio Encadrer une équipe de 3 data analystes : les former aux pratiques Links, les challenger sur leurs réalisations, les monter en compétence sur la partie technique. Notre stack data : GCP, BigQuery, Python, Looker Studio

35 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous