Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 632 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Expert sécurité GCP / IAM GCP / SECURITE RESEAUX / TERRAFORM / ANGLAIS (H/F)

OctopusGroup
Publiée le
Google Cloud Platform
IAM
Python

1 an
350-600 €
Paris, France

Nous recherchons pour le compte de notre client dans le domaine bancaire une expert Sécurité cloud GCP Objectif global : Accompagner la mise en œuvre de la sécurité du cloud GCP Description détaillée : Évaluer l'architecture de sécurité actuelle sur GCP et particulièrement sur les architectures projet de type data Qualifier et étudier les évolutions de services GCP de type Private Service Connect et être en mesure de proposer des solutions si des problèmes sécurité sont remontées Identifier les vulnérabilités et les risques à l’utilisation des services GCP (Vertex AI, Worflow, Dataflow, Apigee, GKE, Composer, …) et proposer des recommandations sécurité Mettre en place des contrôles de sécurité dans les outils de type CSMP Accompagner l'équipe interne projets et transverses dans la mise en œuvre des recommandations. Définition du profil : Mise en application de la Politique de Sécurité. - Contrôle de la Politique de Sécurité, notamment par des Contrôles Périodiques de Niveau 1 - Valide et instruit les dérogations contrevenant à la Politique de Sécurité. - Maintien en Conditions Opérationnelles des Infrastructures de Sécurité (supervision, prise en charge et résolution des incidents/problèmes, installation et configuration) - Participation aux audits (internes / externes) - Mise en applications des recommandations d'audit et des demandes de remise en conformité - Rédaction de guides et standards de sécurité - Donne son avis pour l'implémentation des solutions de sécurité - Proposition de solutions innovantes pour améliorer la sécurité, la qualité, les performances et les coûts d'exploitation - Assure la veille technologique

Freelance

Mission freelance
Data ingénieur - Python - GCP

Archytas Conseil
Publiée le
BigQuery
CI/CD
Google Cloud Platform

12 mois
100-550 €
Lille, Hauts-de-France

Assurer la performance et l’évolutivité des solutions Data & ML : Concevoir et optimiser des pipelines de données robustes et évolutifs (ETL/ELT). Garantir la qualité des données et leur disponibilité pour les modèles de Machine Learning et les équipes métier. Implémenter des solutions scalables pour le traitement de grands volumes de données. Encadrer techniquement une équipe en forte croissance : Accompagner une équipe de Data Engineers et Data Scientists, en participant activement à leur montée en compétences. Fédérer et guider l’équipe dans un environnement collaboratif et motivant. Assurer l’adoption des meilleures pratiques de développement (DevOps, CI/CD, tests automatisés, monitoring). Aligner les solutions Data avec les standards technologiques du groupe : Veiller à la cohérence des solutions avec les stratégies globales de l’entreprise. Introduire des standards modernes comme l’Infrastructure as Code, l’observabilité et le monitoring avancé. Roadmap produit et décisionnel : Collaborer avec les Product Owners pour prioriser les fonctionnalités liées à la gestion et au traitement des données. Assurer les choix architecturaux et techniques clés pour garantir la sécurité, la scalabilité et les performances des systèmes. Interopérabilité et standardisation : Travailler avec les autres Tech Leads et équipes transverses pour une intégration fluide des solutions au sein de l’écosystème global. Standardiser les pratiques liées aux pipelines de données et au MLOps. Supervision de la production et amélioration continue : Assurer la stabilité et la fiabilité des systèmes de données en production. Participer activement aux revues de code (MOB programming, pair reviews) pour maintenir un haut niveau de qualité technique. Être force de proposition pour des initiatives d’amélioration continue. Support et relation utilisateurs : Être le point de contact clé pour les utilisateurs finaux, comprendre leurs besoins et garantir leur satisfaction. Former les parties prenantes à l’utilisation des solutions déployées. L'équipe, actuellement composée de 5 collaborateurs, est en forte expansion avec des recrutements en cours pour répondre aux objectifs ambitieux du projet. Vous évoluerez dans un cadre mêlant innovation, technologies avancées et défis stratégiques, avec une véritable autonomie pour construire des solutions Data & ML d’envergure. Expertise confirmée en ingénierie des données (5+ ans) avec une solide maîtrise des technologies Cloud (AWS, GCP ou Azure). Compétences avancées en Python, Spark, Kafka, SQL ou outils de traitement des données distribuées. Expérience en MLOps et dans la mise en œuvre de pipelines automatisés. Leadership technique et capacité à encadrer une équipe technique. Forte capacité à communiquer, à collaborer et à prendre des décisions stratégiques.

Freelance

Mission freelance
Senior développeur back Java (H/F)

Insitoo Freelances
Publiée le
Apache Kafka
Google Cloud Platform
Java

2 ans
100-450 €
Lille, Hauts-de-France

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Senior développeur back Java (H/F) à Lille, France. Contexte : Dans le cadre du développement et du déploiement d'une application de gestion backoffice. Les missions attendues par le Senior développeur back Java (H/F) : Les principales missions sont : - Participer au développement de nouvelles fonctionnalités. - Apporter des conseils et de l'expertise technique pour l'intégration des projets micro-services. - Mise en place et suivi de l'outillage pour optimiser la performance, la sécurité, l'observabilité des composants logiciels. - Maintien et amélioration. Environnement technique : Java/Spring/NodeJS/VueJS MongoDB Kafka Kubernetes (GKE)/Terraform justifiez d'une expérience significative dans un environnement cloud (GCP de préférence)

CDI
Freelance

Offre d'emploi
Consultant RTE Senior - Paris

Sapiens Group
Publiée le
Safe
Salesforce Sales Cloud

12 mois
54k-73k €
500-700 €
Paris, France

Nous recherchons un consultant RTE expérimenté pour piloter une cellule RTE au sein d'un environnement complexe et stimulant. Vous aurez sous votre responsabilité directe une équipe de 70 personnes, et jouerez un rôle clé dans la planification, le suivi et la qualité des livraisons dans un contexte Agile. Pilotage stratégique : Coordination de RTE et de leurs équipes. Supervision de la qualité des livrables et des KPIs associés. Gestion des plannings PIs et suivi des objectifs fonctionnels pour des sprints de deux semaines. Garantir le bon déroulement des 4 releases annuelles Interface SI et technique de leadership : Collaboration étroite avec les équipes en charge des systèmes d'information, en particulier sur les processus de livraison et projets SI. Interface avec les solutions cloud, notamment Salesforce , et intégration avec des systèmes existants (legacy). Outils et méthodologies : Utilisation quotidienne d'Excel, Jira, et Confluence pour le suivi et la communication. Mise en œuvre et optimisation des processus liés à la méthodologie Agile.

Freelance

Mission freelance
Consultant FinOps & GreenOps AWS / DevOps

Tenth Revolution Group
Publiée le
AWS Cloud
Git
Gitlab

6 mois
100-500 €
Nanterre, Île-de-France

Le candidat idéal devra être un expert AWS avec une solide maîtrise de Python et Terraform, et une forte expérience dans les pratiques FinOps et GreenOps . Cette mission consiste à coder, industrialiser et accompagner l’équipe dans la mise en œuvre de bonnes pratiques FinOps et GreenOps, tout en contribuant à l’analyse et la gestion des données financières et carbone. Gestion de l'infrastructure cloud : Prendre en charge la gestion de l'infrastructure cloud AWS, avec une connaissance complémentaire de GCP. Développement Python : Utiliser Python pour automatiser les processus et améliorer l'efficacité des opérations. Gestion des coûts cloud (FinOps) : Participer activement à la gestion des coûts via les bonnes pratiques FinOps, tout en contribuant à l'optimisation des ressources cloud. Optimisation de l'impact environnemental (GreenOps) : Appliquer des pratiques GreenOps pour réduire l'empreinte carbone des infrastructures cloud. Analyse de données : Gérer et analyser de grandes quantités de données financières et de données liées à l'impact carbone, en utilisant SQL pour la création et modification de requêtes. Collaboration et pédagogie : Travailler en étroite collaboration avec l’équipe technique et être capable de partager vos connaissances et bonnes pratiques avec les autres membres de l’équipe. Contributions à GitLab et Terraform : Contribuer à la gestion des modules Terraform dans GitLab, déployer et gérer les pipelines d'intégration continue (CI/CD). AWS : Expertise avancée dans la gestion d’infrastructures cloud sur AWS (la connaissance de GCP est un plus). Python : Maîtrise du développement Python pour automatiser des tâches dans un environnement cloud. Terraform : Expérience dans l’utilisation de Terraform pour la gestion de l’infrastructure en tant que code. FinOps : Très bonne connaissance des pratiques FinOps pour la gestion des coûts cloud, avec une capacité à coder et à industrialiser les processus. GreenOps : Compréhension des principes de GreenOps pour optimiser l'impact environnemental des infrastructures cloud. SQL : Bonne maîtrise de SQL pour la création et la modification de requêtes dans le cadre de l’analyse de données financières et environnementales. Git et GitLab : Expérience avec Git et GitLab pour la gestion de versions et le déploiement des modules Terraform.

Freelance

Mission freelance
Data Analyst

Coriom Conseil
Publiée le
Google Cloud Platform

12 mois
100-450 €
Lille, Hauts-de-France

Intégration de la solution Looker Accompagnement des équipes DEV pour la mise en place de solution Looker Optimisation de la plateforme Looker ( Gestion des coûts, intégration des nouvelles fonctionnalitées, ...) Compétences techniques Looker - Confirmé - Impératif GCP - Confirmé - Impératif Connaissances linguistiques Anglais Professionnel (Impératif) Français Professionnel (Impératif) Description détaillée Dans le cadre du déploiement de la plateforme Looker, la mission vise à mettre en place l'infrastructure nécessaire et à la rendre accessible aux Business Units (BU) ainsi qu'aux autres plateformes pour leur usage quotidien de la visualisation de données.

Freelance

Mission freelance
DATA Engineer GCP H/F

Karma Partners
Publiée le
Google Cloud Platform

6 mois
400-500 €
Nice, Provence-Alpes-Côte d'Azur

Intégrer l’équipe Move To Cloud pour réaliser la migration dans le cloud GCP. KARMA est le système de Revenue Management du groupe 100% migration cloud GCP Intégration d’une équipe de 6 personnes Présence sur site (Sophia Antipolis) obligatoire 1x par semaine. Présence sur site (Sophia Antipolis) obligatoire 3x par semaine pendant les 3 premiers mois (on boarding) Communication, leadership, autonomie, coaching Profils séniors uniquement Anglais niveau B2 Obligatoire Data engineering / Big Data Development Hadoop et Spark pour migration dans le cloud GCP

Freelance

Mission freelance
Data Scientist

ESENCA
Publiée le
Google Cloud Platform
Python

3 mois
400-500 €
Lille, Hauts-de-France

Votre mission consistera à : - Travailler avec les équipes Business & Digital pour spécifier en détail les problèmes business à résoudre avec l'IA. - Mettre en œuvre en mode des modèles ML et autres solutions IA pour répondre aux problématiques business - Collaborer avec les autres Data scientist de l'équipe - Industrialiser les solutions R&D - Assurer le RUN des services IA en production. - En fonction de la qualité du profil un rôle de Lead Data Scientist peu être envisageable Compétences techniques : Python - Expert - Impératif GCP - Confirmé - Impératif VertexAI - Expert - Impératif GenAI - Confirmé - Impératif

CDD
Freelance

Offre d'emploi
Développeur Salesforce Commerce Cloud (SFCC) H/F - IDF

Espritek
Publiée le
E-commerce
Salesforce Sales Cloud

6 mois
85k-88k €
550 €
Île-de-France, France

Dans le cadre d'une mission de 6 mois pour l'un de nos clients en IDF, nous recherchons un(e) Développeur(se) Salesforce Commerce Cloud (SFCC) expérimenté(e). Vos missions principales : Développement back-end d'évolutions fonctionnelles et techniques sur la plateforme SFCC. Conception et développement de SCAPI/OCAPI. Maintenance corrective et évolutive. Participation aux phases de tests et de recette. Collaboration à la rédaction de la documentation technique. Profil recherché : Compétences techniques: Maîtrise approfondie de Salesforce Commerce Cloud (SFCC), notamment des parties back-end, Jobs, OCAPI/SCAPI. Expérience: Minimum 5 ans d'expérience en développement e-commerce avec SFCC. Technos: Postman, Swagger, XML, JSON, SOAP, Restfull, SQL, HTML/CSS, Bitbucket/Git, Jenkins, Jira/Confluence. Méthodologies: Agilité (Scrum/SAFe), DevOps. Qualités: Sens de l'analyse, rigueur, autonomie, esprit d'équipe. Bac+5 type école d'ingénieur ou parcours universitaire. Anglais courant Nous vous proposons : Mission de 6 mois en IDF (2j de présentiel par semaine) . Environnement technique riche et stimulant.

Freelance

Mission freelance
Développeur Golang - JAVASCRIPT - GCP - BIGQUERY - DOCKER - K8S

YGL consulting
Publiée le
Docker
Go (langage)
Google Cloud Platform

12 mois
500-600 €
Paris, France

Développeur Vous rejoindrez le pôle développement de la direction technique, au sein de l'équipe "Data". En collaboration avec d'autres développeurs et le Technical Lead, vos principales missions seront : Maintenance applicative : gérer et améliorer notre outil de collecte de données et les APIs associées. Développement de fonctionnalités : concevoir, tester, monitorer et faire des revues de code. Support et amélioration continue : garantir la continuité de service et participer aux initiatives d'optimisation. Vous interviendrez sur un stack varié dans un environnement collaboratif et agile : Backend : Go (Golang) et PHP (Phalcon), pour nos APIs RPC et REST. Frontend : JavaScript. Bases de données : MySQL, Redis, BigQuery. Cloud et DevOps : Google Cloud Platform (GKE, Pub/Sub, Logging, Monitoring), Docker. Outils : Jira, Git, GitHub. Expérience : plus de 3 ans en développement web. Bonne maîtrise de Go, avec expérience en développement, test et monitoring d'APIs RPC et REST. Compétence en JavaScript, avec capacité à développer, tester et maintenir des librairies. Familiarité avec des outils tels que GCP (Pub/Sub, Logging, Monitoring), Docker, Kubernetes et la CI/CD.

Freelance

Mission freelance
Ingénieur DevOps GCP/CICD/Automatisation

IHC Conseil
Publiée le
Ansible
GitLab CI
Google Cloud Platform

6 mois
400-550 €
Montrouge, Île-de-France

Nous recherchons un(e) Expert(e) CloudOps confirmé(e) avec une spécialisation en Google Cloud Platform (GCP) pour intégrer notre équipe et participer à l'accompagnement du Pôle DevOps sur des projets innovants et stratégiques dans le domaine du Cloud et de l'automatisation. Le candidat idéal devra posséder une solide expérience en gestion des environnements Cloud GCP, en particulier GKE/OpenShift, et maîtriser les processus d'automatisation des déploiements via CI/CD. Responsabilités : Intégrer les solutions logicielles ou matérielles livrées par les services d'études dans l'environnement de production Cloud GCP. Assurer le déploiement des applications via CI/CD et gérer le support nécessaire lors des incidents en production. Participer activement à la mise en exploitation de nouvelles applications ou versions.

Freelance

Mission freelance
Data Engineer

ESENCA
Publiée le
Apache Kafka
BigQuery
Google Cloud Platform

3 mois
400-450 €
Lille, Hauts-de-France

Il est garant de l'accès qualitatif aux sources de données. Il s'assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d'en faciliter l'exploitation par les équipes (Data Analysts et Data Scientists). Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT, Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons, ). SON ACTIVITE : QUALIFICATION ET GESTION DES DONNÉES : - Capte les données (structurées et non structurées) produites dans les différentes applications ou à l'extérieur de l'entité - Intègre les éléments - Structure la donnée (sémantique, etc.) - Cartographie les éléments à disposition - Nettoie la donnée (élimination des doublons, ) - Valide la donnée - Éventuellement, il crée le référentiel de données SES LIVRABLES : - Data Lake approprié et partagé et son dimensionnement - Cartographie des données - Les éléments permettant de garantir la qualité de la donnée

Freelance

Mission freelance
Ingénieur CloudOPS GCP

Cherry Pick
Publiée le
Ansible
Gitlab
Google Cloud Platform

12 mois
550-600 €
Châtillon, Île-de-France

Dans le cadre du renforcement de son équipe infra cloud, notre client recherche un nouveau profil orienté cloud GCP afin de prendre part au maintien et à l'évolution de l'infra des projets du client. En ce sens, vos missions seront : Analyse et veille technologique Recueillir et analyser les besoins techniques en collaboration avec les équipes d’architectes et métiers. Préconiser les meilleures solutions cloud pour répondre aux exigences de performance et de fiabilité. Participer à la rédaction des spécifications techniques et appels d’offre. Assurer une veille active pour rester à la pointe des innovations technologiques. Déploiement et intégration Déployer, configurer et automatiser les solutions sur des environnements cloud (GKE/GCP). Utiliser Helm pour la gestion des déploiements Kubernetes. Mettre en place et optimiser des pipelines CI/CD avec GitLab CI . Automatiser les configurations d’infrastructure avec Ansible (Tower) . Exploitation et amélioration continue Gérer les incidents techniques : diagnostic, résolution et suivi. Participer aux phases de validation et aux mises en production. Proposer des optimisations pour améliorer la performance, la scalabilité et la sécurité des environnements existants. Rédiger et maintenir la documentation technique. Sécurité des systèmes Appliquer les règles de sécurité et les plans de sauvegarde définis par l’entreprise. Garantir l’intégrité et la disponibilité des données. Processus : 2 entretiens Go - No Go

Freelance

Mission freelance
Product Owner Big Data

INSYCO
Publiée le
Apache Spark
AWS Cloud
Big Data

15 mois
550-650 €
Paris, France

Bonjour, Nous recherchons pour notre client grand compte un Product Owner Big Data . Nous étudions - prioritairement - les candidatures qui nous sont adressées par MAIL à [freelance à insyco . fr] avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité Tarif journalier Merci d'indiquer la référence KTR/POB/4607 dans l'objet de votre mail Contexte de la prestation Notre client, un acteur majeur du numérique, optimise la valorisation de ses données grâce à une Data Platform structurée en trois zones : Bronze : collecte, nettoyage, centralisation, et exposition des données brutes. Silver : transformation des données brutes en données raffinées pour répondre aux besoins métier. Gold : exploitation des données raffinées pour des cas d’usage avancés, tels que le pilotage, la personnalisation et la data science. L’équipe Big Data, responsable de la zone Bronze, joue un rôle clé dans la gestion, la validation et l’optimisation des données brutes. Le Product Owner recherché devra collaborer avec des équipes pluridisciplinaires pour garantir l'alignement des développements avec les besoins métier. Objectifs de la prestation Collecter et prioriser les besoins : Cadrer les besoins et les objectifs pour et avec chaque partie prenante : analyser et cadrer les exigences, puis les prioriser pour élaborer des user stories claires et pertinentes. Maintenir le backlog produit à jour en fonction des priorités et des besoins des parties prenantes Identifier les améliorations en continu sur les produits et processus de l’équipe Suivre et analyser les indicateurs de performance pour évaluer l'impact des évolutions et ajuster les priorités Gestion du produit : Coordonner les différentes étapes de développement, de l'idéation à la réalisation Rédiger et recetter les user stories en fonction des besoins Prioriser et hiérarchiser les différentes fonctionnalités du produit à développer et à décommissionner Accompagner les équipes techniques pour garantir la qualité du produit et la valeur apportée aux utilisateurs Identifier des opportunités d'amélioration continue pour optimiser la performance et l’efficacité du produit et des processus Améliorer l’exploitation et le maintien des produits en production. Assurer une veille technologique continue pour intégrer les meilleures pratiques et technologies afin d'améliorer la plateforme Définition et communication de la vision produit : Définir et maintenir une roadmap à jour avec les jalons clés et coordonner les différentes parties prenantes Animer et communiquer sur les évolutions liées à la vision du produit Collaboration avec les équipes pluridisciplinaires : Les équipes Data Platform : Data Domain, Pilotage, Personnalisation, Recommandation Les équipes en charge de la Gouvernance et de la conformité des données Les Chefs de Projet technique de la direction numérique

Freelance

Mission freelance
Tech Lead / Architecte Looker

ESENCA
Publiée le
Google Cloud Platform

3 mois
450-550 €
Lille, Hauts-de-France

Dans le cadre du déploiement de Looker comme solution de Data Visualization, l’équipe DataViz recherche un Lead Technique / Architecte Looker pour participer à l’intégration et l’optimisation de cette solution au sein de l’organisation. Le Lead Looker joue un rôle clé dans la définition et la mise en œuvre de la stratégie de visualisation des données. Il sera un acteur central dans l’accompagnement de la transition vers Looker et dans l’innovation des pratiques de DataViz au sein du groupe. La mission s’articule autour de deux axes principaux : Accompagnement des projets Looker: Le consultant expert Looker sera chargé d’explorer et d’intégrer de nouveaux usages ainsi que des fonctionnalités innovantes pour optimiser et renouveler les approches de la visualisation des données. L’objectif est d’identifier et de mettre en place les meilleures pratiques et solutions pour répondre aux besoins des différentes entités du groupe. Migration des systèmes existants : Une part importante de la mission consiste à superviser la migration des outils de Business Intelligence existants, notamment le passage de SAP Business Object vers Looker. Ce projet vise à moderniser les outils BI du groupe, avec pour ambition de proposer des solutions plus agiles et performantes, adaptées aux exigences spécifiques de chaque marque sous l’égide du groupe.

Freelance
CDI

Offre d'emploi
Offre de mission : Profil DevOps CloudOps - Freelance

KUBE Partners S.L. / Pixie Services
Publiée le
DevOps
Google Cloud Platform
Openshift

6 mois
11k-60k €
100-500 €
Île-de-France, France

Pixie Services recrute un(e) DevOps CloudOps confirmé Mission : Pixie Services, spécialiste dans le staffing IT, recherche un(e) expert(e) DevOps pour une mission de longue durée. Compétences techniques requises : GKE/GCP : Confirmé (impératif) Ansible : Confirmé (impératif) GitlabCI : Confirmé Helm : + Français courant Anglais professionnel Description de la mission : Intégration de solutions logicielles et matérielles dans un environnement Cloud (GCP/OpenShift) Déploiement des applications via CICD Support d'incidents en production Mise en exploitation de nouvelles applications ou versions Expertise des technologies Cloud et des services des grands Cloud providers Maîtrise de la conteneurisation, de l'automatisation et de la CI/CD Accompagnement des développeurs et mise en place d'une démarche DevOps Missions principales : Analyse des besoins et veille technologique : Recueillir l'information nécessaire Préconiser des solutions Rédiger des cahiers des charges et assurer une veille technologique continue. Mise en place et intégration : Concevoir et adapter les logiciels Configurer et dimensionner les solutions Tester les systèmes et assurer la validation technique. Exploitation : Valider l'intégration des nouveaux outils Traiter les incidents et anomalies Participer à la maintenance corrective et améliorer les ressources existantes. Sécurité : Assurer le respect des règles de sécurité Gérer les sauvegardes et la sécurité physique des données. Type de contrat : Mission freelance, longue durée Si cette mission vous intéresse, merci de postuler avec votre Cv à jour.

632 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous