Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 225 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Administrateur applicatif Big Data sénior

CONSULT IT
Publiée le
Apache Kafka
Apache Spark
Cassandra

6 mois
100-400 €
Courbevoie, Île-de-France

Au sein du Pôle Administration & Transition (ATR) de la Direction des Opérations (DOP), l'administrateur applicatif Big Data sénior interviendra en tant qu’administrateur des applications du client. Veuillez noter que la durée du bon de commande mentionnée est estimative. Elle est sujette à ajustement en fonction des besoins et des évolutions du projet. Objectifs et livrables La principale mission est de participer à : La maintenance en condition opérationnelle des services applicatifs sur la base des meilleures pratiques ITIL ; La mise en œuvre de nouveaux projets pour le client. Mission complémentaire: S’assurer du bon niveau de résolution des incidents et problèmes des Middlewares. Support à la mise en œuvre des changements et des mises en production (Recette d’exploitabilité). Mise en place du Monitoring des nouveaux Middlewares. Participer avec la MOE/MOA aux évolutions des Middlewares. Identifier les impacts des évolutions Middlewares et mettre en place les actions et procédures d’exploitation associées. Rédaction des fiches d’exploitation des Middlewares. Assurer un reporting régulier auprès de son Manager. Spark :Confirmé Kafka :Confirmé Linux (RH, CentOS …) :Confirmé Cassandra :Confirmé Hadoop :Confirmé

Freelance

Mission freelance
Data scientist (H/F)

Wekey
Publiée le
Apache Spark
Natural Language Processing (NLP)
Python

6 mois
440-750 €
Niort, Nouvelle-Aquitaine

Hello ! Nous c’est WEKEY ! Nous ne sommes ni une ESN ni un cabinet de recrutement. Aaah mais qui sommes-nous alors ? Pour tout savoir sur nous et votre future mission c’est par ici 😁⬇ Vous êtes Data Scientist H/F et vous recherchez une mission en freelance ? Nous avons le projet qu’il vous faut pour l'un de nos clients basé à Niort dans le secteur des assurances. CE QUI VOUS ATTEND 👀 Dans le cadre de la mission votre rôle sera : · Concevoir, développer et mettre en œuvre des modèles en utilisant des techniques avancées d'apprentissage automatique et de statistiques. · Travailler en collaboration avec les équipes métier pour comprendre les objectifs, identifier les variables clés et définir les critères de succès pour les modèles. · Collecter, nettoyer et préparer les données nécessaires à l'entraînement des modèles. · Utiliser Python et d'autres outils analytiques pour développer des scripts et des pipelines de données efficaces. · Évaluer la performance des modèles, ajuster les paramètres et effectuer des améliorations continues. · Communiquer efficacement les résultats des analyses et des modèles aux parties prenantes non techniques.

Freelance

Mission freelance
Un Data Ingénieur ( Spark ,spark streaming, batch, Kafka, Java, Stack Hadoop Cloudera)sur Nantes

Smarteo
Publiée le
Apache Kafka
Apache Spark
Big Data

3 mois
100-400 €
Nantes, Pays de la Loire

Smarteo recherche pour l'un de ses clients, Un Data Ingénieur(Spark,spark streaming,batch, Kafka,Java,Stack Hadoop Cloudera)sur Nantes Descriptif: Notre client nous soumet une de mande de prestation de DATA ENGINEERING Taches réalisées : - Développer les cas d'usages Data - Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) - Mettre en ?ouvre les tests unitaires et automatisés - Déployer le produit dans les différents environnements - Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents - Accompagner l'évolution des pratiques de l'équipe dans une logique d'amélioration continue de la qualité du code Compétences techniques attendues : - Spark (spark streaming et batch), Kafka, Java - Stack Hadoop Cloudera - Hdfs, Hive, Hbase, Phoenix, MongoDB - DEVOPS : GIT, Jenkins, Artifactory, XL Release, ELK, Grafana - Scrum (cadre agile entreprise) La mission nécessite de l'autonomie, de l'adaptabilité et une bonne communication (lien direct avec les Squads : PO ou DEV), Si vous êtes disponible et intéressé, merci de me faire parvenir votre TJM ainsi que votre CV à jours en format word.

Freelance
CDD

Offre d'emploi
Administrateur Big Data H/F

SMARTPOINT
Publiée le
Apache Kafka
Python

12 mois
10k-60k €
Paris, France

Au sein de PAS/BDT la prestation consiste à contribuer aux activités liées à la gestion du Datalake Hadoop Cloudera data platform en participant aux activités suivantes : Le maintien en conditions opérationnelle du Datalake Automatisation et amélioration continue en mode Agile de la gestion du Datalake Le support aux applications consommatrice du Datalake La sécurisation, les mises à jour, la gestion des vulnérabilités La gestion des changements en lien avec les utilisateurs du Datalake Le support à la gestion d’incidents La gestion prévisionnelle de capacité Test, qualification et mise en place des nouveaux composants La documentation et aux procédures d’exploitation Liste des livrables opérationnels : Post-mortem sur les incidents bloquants et majeurs Revues des performances Mise en place des nouvelles instances dans le cadre des projets de nos bénéficiaires sur le Cloud interne ou public Rédaction de livrables liés au périmètre (dossier d'architecture, procédure d’installation, chronogramme d'intervention, préconisations d’amélioration des performances, etc.) Rédaction de livrables autour de la sécurité (procédure d'application de patchs sécurité, tableau de suivi des indicateurs, etc.) Développement de rôles ansible et de scripts python pour automatiser l'activité Mise à jour des référentiels techniques et de la documentation d'exploitation du périmètre Reporting hebdomadaire sur les changements passés et prévus (CRB, PIR) Compte-rendu détaillé en cas d'incident (post-mortem), de problème ou de changement sur les bases de données du périmètre

Freelance
CDI

Offre d'emploi
Data engineer GT Lake

VISIAN
Publiée le
Apache Spark
MySQL
Python

2 ans
10k-45k €
Charenton-le-Pont, Île-de-France

Contexte / Objectifs : La mission va se dérouler au sein de l'IT Data Management & BI dans l'équipe Trade et Treasury Solutions qui aujourd'hui développe et gère un datalake (GT Lake) Ce datalake est une brique clé dans la mise en oeuvre des projets de développements autour du plan stratégique et des besoins métiers. Les principales missions consisteront notamment à : - Rédiger des spécifications techniques détaillées - Analyser les impacts des nouveaux projets sur les traitements/processus du système d’information existant - Comprendre et faire évoluer les modélisations - Développer des requêtes - Réaliser des développements (avec une approche industrielle) - Organiser et réaliser des recettes - Planifier et suivre la production - Implémenter et automatiser de bout en bout des programmes et solutions de Data Engineer dans un environnement Big Data - Intégrer, former les collaborateurs data ingénieur de l'équipe, définir les bests practices... - Participer à la communauté BigData de la BGC La mission se fera exclusivement dans un contexte méthodologique Agile. Il impliquera de pouvoir travailler avec des collègues travaillant à distance dans l’entité de Porto. Activités et tâches : • Acheminement de la donnée • Mise à disposition de la donnée aux équipes utilisatrices • Mise en production de modèles statistiques • Suivi de projet de développement • Développement job spark • Traitement et ingestion de plusieurs formats des données • Développement des scripts • Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données • Développement des moyens de restitution via génération de fichier et ou API & Dashboarding • Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers • Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) • Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP • Participer à la conception, mise en place et administration de solutions Big Data • Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka • Normalisation et agrégation des données afin de produire les rapports sous forme de Business View

CDI

Offre d'emploi
Data Engineer Sénior

Oceane consulting
Publiée le
Apache Spark
AWS Cloud
Azure

10k-60k €
Paris, France

Missions: · Développement Scala/Spark · Maîtrise de l’environnement technique (AWS Databricks, AWS S3) · Expériences sur la Qualité logicielle (revue de code ; conformité aux critères de qualité SONAR, tests automatisés) · La connaissance de Power BI (Azure) est un plus -Les compétences fonctionnelles attendues sont les suivantes : · Méthode Agile · Expérience sur des projets de technologies similaires · Connaissance du domaine Data · Expérience de travail sur des projets en équipe, (notamment savoir solliciter son écosystème au bon moment)

CDI

Offre d'emploi
Data engineer AWS

Hexateam
Publiée le
Apache Spark
AWS Cloud
Databricks

40k-60k €
Paris, France

Dans le cadre de la croissance de HEXATEAM, nous sommes en quête permanente de nouveaux talents pour renforcer nos équipes. Nous cherchons actuellement deux profils Data Engineer AWS. Maîtrise des outils Databricks : Création et gestion de jobs, clusters et notebooks, ainsi que l'utilisation avancée de SQL pour effectuer des requêtes efficaces. Maintien en condition opérationnelle de la plateforme en production : Analyse et correction d'incidents et de défauts. Développement de jobs d'ingestion et de transformation des données : Utilisation de Python avec Spark pour traiter de grands volumes de données. Fourniture d'une vision à long terme : Proposition d'une stratégie opérationnelle et de développement de la plateforme data. Accompagnement et promotion des bonnes pratiques : Garantir la diffusion et l'application des standards de qualité. Participation aux ateliers de conception techniques et fonctionnels : Collaboration avec les équipes pour concevoir des solutions adaptées aux besoins. Rédaction et mise à jour de la documentation technique : Veiller à la documentation et à sa mise à jour continue. Indispensable : Python Spark SQL Databricks AWS (S3, Glue, AirFlow, Cloudwatch, Lambda, IAM) GIT COULD : Big Data CI/CD : Utilisation de GitLab pour l'intégration et le déploiement continus. Outils de gestion de projets : JIRA et Confluence pour le suivi et la documentation. Méthodologie Agile : Travail en mode Scrum. Bon niveau d’anglais

Freelance
CDI

Offre d'emploi
Data Engineer BI

CHARLI GROUP
Publiée le
Apache Spark
Apache Sqoop
BigQuery

3 ans
10k-60k €
Île-de-France, France

➢ CONTEXTE * Au sein du domaine Data BI nous recherchons un Data Engineer qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l’équipe. À la suite d’une passation avec notre centre de service, il devra également être en mesure d’innover et d’améliorer les processus existants pour perfectionner l’efficience de l’équipe au quotidien dans ses différentes tâches. ➢ DESCRIPTION DE LA MISSION • Participe à l’analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l’analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l’acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d’étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d’alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d’exploitation) • Être force de proposition sur l’amélioration de notre stack Data • Faire le reporting d’avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S’assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l’équipe

Freelance

Mission freelance
QA Technico-Fonctionnel en Automatisation Monétique

STHREE SAS pour HUXLEY
Publiée le
Ansible
Apache Kafka
Atlassian

6 mois
300-400 €
Courbevoie, Île-de-France

Élaboration des recettes fonctionnelles : Analyser les spécifications, identifier le périmètre de test, concevoir les tests, élaborer des plans de test et des cahiers de recette fonctionnelle en collaboration avec les équipes concernées. Exécution des recettes fonctionnelles : Exécuter les tests fonctionnels et techniques sur les environnements de test, analyser, remonter et suivre les anomalies. Gestion des environnements : Installer, exploiter et maintenir les environnements de test. Support : Assurer l’analyse et le suivi des anomalies et incidents dans le respect des SLA / Niveau de criticité. Apporter une analyse fonctionnelle et technique sur les anomalies et incidents constatés sur les différents environnements et applications. Participation à l'automatisation : Participer à la mise en place de l'automatisation des tests en travaillant conjointement avec les automaticiens. Livrables : Plan de test, cahier de test, rapport de test, anomalies et rapport d'anomalie, compte-rendu d'activité, et mode opératoire.

CDI
Freelance

Offre d'emploi
Ingenieur Devops

GROUPE ALLIANCE
Publiée le
Apache Tomcat
GitLab CI
Jenkins

12 mois
40k-52k €
Île-de-France, France

Pour le compte de l' un de nos clients , nous recherchons un Ingénieur Devops. Vos missions principales seront: -L' automatisation de la chaine CI/CD Le scripting Le paramétrage d'applications La mise à jour des éléments dans les environnements WebSphere, Tomcat et réseau Le reporting L'établissement de documentations techniques Deux jours de télétravail sont prevus. Le poste à pourvoir courant novembre. Cette mission vous intéresse? N' hésitez pas à me faire parvenir votre candidature rapidement!!!!!!!!

CDI
Freelance

Offre d'emploi
Ingénieur Data (H/F)

CITECH
Publiée le
Apache Spark
Dataiku
DevOps

12 mois
50k-70k €
Nantes, Pays de la Loire

CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation de différents projets, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Ingénieur Data (H/F) 🚀 Votre mission est pour un client du secteur social opérant sur tout le territoire français . 📝 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸 Administration de la plateforme Dataiku DSS, gestion des environnements, surveillance des performances, gestion des utilisateurs, et maintenance. 🔸 Support aux utilisateurs, accompagnement sur les projets, bonnes pratiques, et résolution d'incidents. 🔸 Optimisation de l'architecture, collaboration avec l'éditeur pour améliorer et optimiser la plateforme. 🔸 Construction d'une offre de service autour de la plateforme DATA/IA fédérée.

CDD
Freelance

Offre d'emploi
Tech Lead/craftmanship H/F

SMARTPOINT
Publiée le
Angular
Apache Maven
Cloud

12 mois
10k-60k €
Paris, France

1) Assurer un rôle de concepteur : a) Participer opérationnellement au design et à la conception des applications à développer au sein du domaine. 2) Assurer un rôle de Tech Lead/craftmanship : a) Support technique aux autres développeurs, Assurer la revue de code b) Analyse technique des nouveaux besoins c) La participation et la conception à l’architecture applicative et technique conjointement avec l’expert en développement SI et les architectes. d) Le reporting à l’IT Manager & Tribe Manager e) Développer, maintenir et supporter les systèmes experts, indicateurs et outils utilisés sur les processus portés par la squad. Cela nécessite de couvrir tout le cycle de développement (spécification, conception, développement, tests et support). f) Être force de proposition dans l'amélioration des briques logicielles existantes. g) Respecter les standards IT en termes de sécurité, qualité et architecture. h) Identifier les risques IT, opérationnels et prendre les actions nécessaires pour les mitiger. i) Superviser l’application des standards d’excellence dans les développements : code, documentation, maîtrise de la dette technique. j) Faire progresser les équipes par l’apport de votre expérience 3) Avoir des compétences techniques sur a) Framework Spring, Angular, Cloud b) Des développement micro-services autour de Spring Cloud c) L’environnement technique DevOps Git, Maven, Jenkins 4) Assurer un rôle d’animateur : a) Assurer, par de la formation et du coaching technique, la montée en compétences de la dev team sur l'ingénierie logicielle, le design et le code. b) Participation aux chapters IT sur les instances CraftManship. L’atteinte des objectifs de digitalisation des applicatifs Cœur de Métier sera conditionnée à la capacité « hands on » du Tech Lead de concevoir, développer des modules et enrichir le savoir-faire de la squad sur les pratiques de développement agile des applications (Craftmanship, Dev-Ops). Il Vous faudra contribuer à la dynamique agile des équipes, 1) Contribution à la rédaction de user stories, poker planning, daily scrums, retro, demos. 2) Travailler avec le product owner et les membres de l’équipe afin de maintenir le backlog Projet à jour.

Freelance
CDI

Offre d'emploi
Data Engineer Confirmé

Oceane consulting
Publiée le
Apache Spark
Azure
Azure DevOps Services

6 mois
10k-55k €
Paris, France

1 - Contexte La mission consiste à intégrer l'équipe Projets en charge de l'intégration des données de l'entreprise au sein de la plateforme Data sous le Cloud Azure afin de couvrir les besoins Big Data et BI. La personne sera intégrée dans l'équipe projet qui fonctionne dans une organisation en mode Agile. 2 - Description de la mission Nous recherchons un Data Engineer confirmé/sénior avec une forte expertise sur Azure, Databricks, Spark, Scala, Python et SQL Développement et l’implémentation de solutions Big Data Analytics Analyse du besoin, étude d'impacts et conception de la solution technique Conception et modélisation des données au niveau d'un Data Lake (format Parquet, Delta table, …) Construction des pipelines de données pour collecter, transformer et traiter des données dans le Data Lake Développements de notebooks (ex : Databricks) de traitements avancés des données Cloud Datawarehousing (tuning, optimisation de traitements et requêtes SQL) Rédaction de documentation technique (Dossier d'Analyse Technique, release delivery note, ….) Revue de code Réalisation de tests unitaires Maintenance corrective et évolutive Livraison dans un environnement Devops, CI/CD et outils associés

Freelance

Mission freelance
88939/DATA ENGINEERING Spark (spark streaming et batch), Kafka, Java Nantes

WorldWide People
Publiée le
Apache Kafka
Hadoop
Spark Streaming

4 mois
390-410 €
Nantes, Pays de la Loire

DATA ENGINEERING Spark (spark streaming et batch), Kafka, Java Nantes Taches réalisées : - Développer les cas d'usages Data - Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) - Mettre en œuvre les tests unitaires et automatisés - Déployer le produit dans les différents environnements - Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents - Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code Compétences techniques attendues : - Spark (spark streaming et batch), Kafka, Java - Stack Hadoop Cloudera - Hdfs, Hive, Hbase, Phoenix, MongoDB - DEVOPS : GIT, Jenkins, Artifactory, XL Release, ELK, Grafana - Scrum (cadre agile entreprise) La mission nécessite de l'autonomie, de l'adaptabilité et une bonne communication (lien direct avec les Squads : PO ou DEV),

CDI
Freelance

Offre d'emploi
Développeur JAVA

AVA2I
Publiée le
Angular
Ansible
Apache Maven

3 ans
10k-45k €
Vincennes, Île-de-France

Spécialisé dans le secteur bancaire, l'entreprise recherche activement un développeur java Junior pour renforcer ses effectifs. En tant que Développeur Java , vous aurez pour mission de concevoir, développer et maintenir des applications critiques dans un environnement bancaire exigeant. Vous collaborerez avec des équipes pluridisciplinaires pour livrer des solutions performantes et sécurisées, en appliquant les meilleures pratiques en développement logiciel et en veillant à l'intégration continue. Conception et développement : Participer à la conception technique et développer des applications en Java conformément aux exigences fonctionnelles et techniques. Maintenance et évolutions : Assurer la maintenance corrective et évolutive des applications existantes en proposant des améliorations pour optimiser les performances et la sécurité. Tests et validation : Rédiger les tests unitaires, assurer l'intégration continue et collaborer à la stratégie de tests automatisés (tests fonctionnels et non fonctionnels). Documentation : Rédiger et maintenir à jour la documentation technique des solutions développées, en garantissant leur bonne transmission aux équipes de support et de production. Collaboration Agile : Participer activement aux cérémonies Agile (daily stand-up, sprint planning, rétrospective), travailler en équipe Scrum et collaborer avec les Product Owners pour garantir la bonne compréhension des besoins métier. Veille technologique : Être force de proposition sur les nouvelles technologies et bonnes pratiques liées à l'écosystème Java, afin d’améliorer les outils et les processus internes. Excellente maîtrise de Java (JDK 8 et plus) et des frameworks associés (Spring Boot, Hibernate, JPA). Expérience dans la conception d’ architectures RESTful API et microservices. Solide compréhension des bases de données relationnelles (PostgreSQL, MySQL, Oracle) et/ou NoSQL . Connaissances des outils de gestion de configuration et d’intégration continue (Git, Jenkins, Docker, Kubernetes). Familiarité avec les concepts de sécurité applicative (authentification, autorisation, chiffrement). Expérience avec les méthodes Agile/Scrum . Connaissances des environnements de cloud computing (AWS, GCP, ou Azure) sont un atout. Niveau confirmé en Java 8 avec frameworks Maven et Spring Niveau confirmé en Oracle SQL Niveau basique en shell et environnements Linux Expériences avec les outils d'intégrations continus GIT, Jenkins, Nexus/artifactory, SonarQube, Ansible Un + s'il a eu une expérience Axway (CFT, InterPlay, Composer/Sentinel)

Freelance

Mission freelance
Architecte .NET C#

CHARLI GROUP
Publiée le
.NET
Apache Kafka
ASP.NET Core

3 ans
100-600 €
Île-de-France, France

Au sein de la Digital Factory, nous recherchons un(e) Architecte applicatif. Au sein de l'équipe Architecture, il(elle) contribuera en particulier à la construction du framework autour duquel s'architecture la refonte sur Azure de la plateforme eCommerce , à la sélection des composants & librairies constituant ce framework, à son développement, à sa documentation et accompagnera les équipes de développement dans leur adoption et leur utilisation de ce framework. Il(elle) participera également à l'animation des communautés de pratique Tech & Craft. Il(elle) possède une capacité relationnelle et méthodologique permettant de faire progresser les équipes dans l'application des bonnes pratiques de conception et de développement. Conception o Etudie les besoins des équipes développant la nouvelle plateforme Cloud en s'appropriant la stratégie long terme de l'entreprise, avec une vision d'ensemble du Système d'Information, aussi bien d'un point de vue technique que fonctionnel. o Participe à la conception du socle logiciel, basé sur une architecture micro-service REST, micro-frontend, s'appuyant sur les technologies Azure (ACA) et AspNetCore (dotnet 8). o Participe à la construction de la vision moyen/long-terme du Système d'Information : - Assure une veille technologique ; - Recherche les trajectoires de mutualisation des SI des deux enseignes ; - Détermine les patterns d'architecture permettant de répondre à ces besoin ; - Participe à la construction de la roadmap technique de la Digital Factory. Réalisation o Participe au développement des composants de framework et est un acteur clé pour assurer la qualité de la réalisation de ce socle : o Utilisabilité par les équipes, o Qualité du code o Performance o Pérennité o Maintenabilité o Documentation o Accompagne les équipes dans la mise en oeuvre de ce framework o Participe à l'animation des communautés de pratiques en partageant son expérience et son expertise avec l'ensemble des développeurs de la Digital Factory ; Une expérience préalable conséquente sur un site e-Commerce à fort trafic est indispensable. public à fort trafic.

225 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous