Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 337 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Ingénieur Data Expérimenté

Management Square
Publiée le
Apache Kafka
Apache Spark
Cloudera

1 an
410-500 €
Vannes, Bretagne

Nous recherchons pour une mission freelance de longue durée un Ingénieur Data expérimenté pour rejoindre une équipe dynamique et participer à des projets Big Data passionnants. Les principales missions: Contribuer à la Fabrication des Produits des Squads de l'Entreprise dans un environnement Cloudera, en utilisant un framework interne entreprise (sur des activités Big Data) Développer les cas d'usages Data Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) Mettre en œuvre les tests unitaires et automatisés Déployer le produit dans les différents environnements Garantir le bon fonctionnement du produit en production et assurer le suivi, l'assistance et la gestion des incidents Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code

Freelance

Mission freelance
Tech Lead / Développeur - Vue JS / Java Spring / Kafka (Lille 3j presentiel)

Cherry Pick
Publiée le
Apache Kafka
Java
Spring

12 mois
550-600 €
Lille, Hauts-de-France

Cherry Pick est à la recherche d'un "Tech Lead / Développeur - Vue JS / Java Spring / Kafka" pour un client dans le secteur du commerce de détail. Contexte de la mission Situé dans le domaine Value Chain, le sous-domaine Logistics & Transport, spécifiquement dans la partie InBound & OutBound, l’amélioration de notre WMS contribue directement à l’un des 5 piliers composant notre stratégie d’organisation. En résumé : Un Tech Lead, un pivot, un bras droit du produit et de l'équipe de développement permettant de mettre de l'huile dans les rouages et d'accompagner l'équipe dans le bon mindset. L’objectif de la mission est de faciliter et contribuer avec l'équipe à développer et maintenir des modules avec une haute qualité technologique, une haute fiabilité et une haute disponibilité tout en respectant la gouvernance technique du Groupe, en co-construisant une architecture applicative adapté au besoin fonctionnel. En détail : L’objectif de la mission est d’intégrer la feature team Loading du programme WarehouseBox en tant que Tech Lead. Au sein d’une feature team, les objectifs sont les suivants : Assurer le suivi de la vision et stratégie technique Faciliter la conception et la réalisation des modules, tout en collaborant avec le produit Modulaire / Distribué / Cloud Neutral / Pattern en fonction du besoin Assurer et évangéliser la qualité applicative par les tests Tests fonctionnels Tests acceptances TU / TI / End-End / … Evangéliser et responsabiliser l'équipe sur l'adaptation, l'utilisation et la contribution de l'outil d'échange de donnée (Boomi) Comprendre, respecter, maintenir et adapter la CI/CD Démarche DevOps Ecriture de documentation C4 Doc as code, … Technico / fonctionnelle S’assurer de la cohésion technique, qualité applicative, la disponibilité de l’application, la qualité des données Démarche SRE Mindset agile et de software craftmanship, le juste code pour le juste besoin Rotation d'astreinte avec l'équipe Partager avec pédagogie l’ensemble des compétences et connaissances Pair-programming / mob-programming, … Au sein du programme, des initiatives sont possible : Synchronisation cross feature Reporting, feedback, backlog cross tech Contribution cross programme Events, REX, POCs Modules génériques Tools, CI/CD, Starter, … Profil recherché : Tech Lead / Développeur confirmé / senior Nous cherchons un profil permettant de faire le pivot entre l'équipe de développement, le produit, les partenaires. Afin de s'assurer la communication entre les partie prenantes, l'utilisation des artefacts agile et d'assurer l'application de la stratégie technique du programme et dDu Groupe. Le profil sera également un membre à part entière de l'équipe de développement contribuant au build / run.

Freelance
CDI

Offre d'emploi
Développeur Concepteur Big data Talend Spark Scala

Digistrat consulting
Publiée le
Talend

36 mois
10k-65k €
Paris, France

💼 Poste : Développeur Concepteur Big data Talend 🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département exerce 3 missions principales : Garantir des services opérationnels d'excellence : sécurité des SI et maîtrise des risques opérationnels, qualité de la production informatique et pérennisation du SI. Délivrer des solutions SI innovantes, orientées clients, pour construire la banque relationnelle et digitale de demain . Améliorer son efficacité opérationnelle, en réponse aux enjeux d'agilité et de time to market, et optimiser les coûts informatiques. Le Bénéficiaire souhaite avoir une expertise en développement sur l'écosystème BIG DATA. A ce titre, le Bénéficiaire souhaite avoir l’expertise du prestataire en termes de Data Engineering. Dans ce cadre la prestation consiste à contribuer à/au(x) : - développements d'usages BIG DATA : Conception technique des développements Supervision des traitements en place Cérémonies agile (méthode Scrum) Livrables attendus Les livrables attendus sont : Dossier de conception Programmes versionnés Documentation projet nécessaire aux MEP 🤝 Expertises spécifiques : Les expertises attendues pour réaliser cette prestation sont listées ci-après : Agile Scrum Environnement Cloudera Compétences en développement (Shell unix, Perl, PHP, Python, git, github) Hadoop (Big Data) HiveQL, scripting shell, environnmnent Conda Spark (PySpark), (gestion de volumes de données importants) Talend (Data integration, Big Data)

Freelance

Mission freelance
Data Engineer python / spark / AWS / Dataiku

VISIAN
Publiée le
AWS Cloud
Dataiku
PySpark

1 an
100-600 €
Paris, France

La DSI a besoin de renfort IT dans l'équipe Data Product, afin de DEVELOPPER et délivrer des besoins de segmentation client. Intégrer une équipe pluridisciplinaire Data Ingénieur/Data Scientist pour DEVELOPPER puis déployer de façon industriel des algorithmes de Data Science orienté Client et Marketing sur des technologies DataLake. Environnement Lake House On Premise sur technologie équivalente au Cloud ayant une trajectoire vers AWS. Une expérience sur de la Data Client est fortement recommandée.

Freelance

Mission freelance
Architecte solutions Kafka (H/F)

LeHibou
Publiée le
Apache Kafka

6 mois
650-900 €
Paris, France

Le consultant intégrera l’équipe d’architecte solution pour :  Définir la trajectoire de transformation des SI pour répondre aux enjeux et attentes des métiers et de garantir la cohérence et la contribution aux cibles et objectifs stratégiques de transformation définis par le métier  Définir et documenter les architectures des solutions SI permettant de décliner ces trajectoires  Être force de proposition en concevant l’architecture des solutions sur différents scénarios  Participer à l’élaboration d’une cible d’architecture en collaborant avec les autres architectes.  Participer à la conception l'architecture logicielle en partenariat avec les équipes de développement  Cartographier les flux / applications  Faire respecter les patterns d’architecture inscrits au référentiel  Développer/maintenir un haut niveau d'expertise dans votre (vos) domaine(s) de référence. Le consultant pourra aussi être amené à travailler sur éléments suivants : 1/ Conception, mise à jour et évolution du système d’information  Construire, mettre à jour et faire évoluer la cartographie du système d’information de l’entreprise.  Faire l’inventaire des fonctions informatiques existantes (applications et référentiels de données) et des flux d’informations.  Identifier et modéliser les activités, les processus et les services à rendre.  Définir un plan d’urbanisation cible.  Proposer des scénarios d’évolution et de simplification du système d’information. 2/ Garantie de la cohérence du S.I.  Évaluer la pertinence et la cohérence des projets par rapport à l’architecture cible et aux systèmes existants.  Mettre en évidence si nécessaire la complexité du S.I et les systèmes non-rationnels (flux multiples, redondances de données).  Définir des cibles d'architecture fonctionnelle, applicative et technique.  S'assurer que tous les projets d'évolution informatique sont alignés avec l’architecture cible. 3/ Gestion des projets d’architecture  Participer à l’amélioration ou à la création de nouvelles applications ou services en appliquant les principes d’urbanisation retenus.  S’assurer de l’alignement entre les besoins et les solutions proposées.  Mettre à jour les référentiels documentaires. Conseil et aide à la décision  Informer les différents acteurs du système d'information (direction technologie, direction produit et directions métiers) et la direction générale des évolutions technologiques proposées.  Participer aux études de décommissionnement d’applications. 4/ Conseil et aide à la décision  Informer les différents acteurs du système d'information (direction technologie, direction produit et directions métiers) et la direction générale des évolutions technologiques proposées.  Participer aux études de décommissionnement d’applications.

Freelance
CDI

Offre d'emploi
Développeur Java - Devops - kafka - Optimisation de la performance

Digistrat consulting
Publiée le
Java

36 mois
10k-200k €
Paris, France

💼 Poste : Développeur Java - Devops - kafka - Optimisation de la performance 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : IDF 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Grand projet FO/MO/BO en Java dans le domaine financier avec enjeu temps réel (STP FO to BO) Référentiel pour les produits listés, deals et positions pour la ligne métier (Equity Derivatives) Processus complexes pour la gestion du cycle de vie des produits et de la position (Expi, OST, Emissions, etc.) Gestion de la sécurité et des contraintes réglementaires (droits d’accès et audit des opérations) Enjeu international (Déploiement et utilisateurs sur sites étrangers : Londres, Hong.Kong et New York) Système en position centrale en intégration forte avec les autres éléments du Système d'information. Equipe d’une trentaine de personnes, divisées en pôles d'expertise : Analyse et spécifications Développements Support Basé sur WebLogic / Oracle / GUI RCP, l’application se modularise. Beaucoup de sujets autour de l'obsolescence (migration technique Java 11/17), du DEVOPS et de la performance pour faire que l’application puisse faire face à ses nouveaux challenges 🤝 objectifs de la mission : Contribution aux projets techniques de réduction de dette technique Contribution aux projets de refonte de la GUI (Angular 18) Contribution aux sujets de performance (Kafka, Hibernate, …) Maintenance évolutive IT & fonctionnelle Assurance de la maintenabilité de l'outil et l'obsolescence

Freelance
CDI

Offre d'emploi
Architecte Technique Java-Spark - Sénior

Digistrat consulting
Publiée le
Apache Kafka
Apache Spark
Architecture

3 ans
40k-60k €
Paris, France

Dans le cadre des projets d'évolution de notre banque, l'architecte applicatif a pour mission : d'accompagner opérationnellement les projets pour la définition de l’architecture applicative et défendre les choix opérés lors du passage en Comité d’Architecture et des différentes instances. Il est sollicité sur les nouveaux projets et sur les évolutions significatives des applications existantes (nouveaux flux, nouveaux composants, évolutions du périmètre fonctionnel initial…) • Participer activement à la phase de cadrage projet • Découpage en Services/Microservices • Proposer et accompagner les projets dans l’adoption des technologies de type Spark, Java, Kafka • Accompagner les équipes de développements pour l’application des règles et standards d’architecture. • Répondre aux exigences fonctionnelles et non fonctionnelles demandées dans le cadre de la mise en place de la solution. • Evaluer la pertinence et la cohérence des projets par rapport aux patterns d’architecture technique et aux systèmes existants (par des études d’opportunité, des POC, etc.) • Rédaction des dossiers d’architecture applicative et techniques • Gérer (construction, mise à jour et évolution) la cartographie technique du SI ou du sous-ensemble du SI dont il a la charge • Définir ou contribuer à la définition des patterns d’architecture technique à partir des services d’infrastructure mis à disposition par l’infogéreur du Groupe

Freelance

Mission freelance
Développeur Big Data - Spark et Scala

Signe +
Publiée le
Apache Spark
Big Data
Scala

6 mois
450-470 €
Paris, France

Poste : Développeur Big Data Spécialisation : Spark, Scala Langues : Anglais Courant (Impératif) Environnement : Agile, anglophone Contexte du Poste : Nous recherchons un Développeur Big Data expérimenté pour rejoindre notre équipe dynamique afin de mener à bien la migration de jobs Talend vers des solutions basées sur Spark. Le candidat idéal doit avoir une solide expérience en Spark et Scala et être capable de travailler efficacement dans un environnement anglophone et agile. Responsabilités : Migration des Jobs : Analyser et comprendre les jobs Talend existants. Concevoir et développer des équivalents en utilisant Apache Spark. Assurer une transition fluide des processus ETL de Talend à Spark en minimisant les interruptions de service. Tester et valider les jobs migrés pour garantir la précision des données et les performances requises. Développement et Optimisation : Développer des solutions de traitement de données à grande échelle en utilisant Apache Spark et Scala. Optimiser les performances des jobs Spark pour gérer efficacement de grands volumes de données. Collaborer avec les équipes de développement pour intégrer les solutions Spark dans les pipelines de données existants. Collaboration et Documentation : Travailler en étroite collaboration avec les équipes de data engineering, data science et autres parties prenantes pour comprendre les besoins et les exigences. Documenter les processus de migration, les architectures de solution et les meilleures pratiques. Participer aux réunions d'équipe Agile, contribuer aux rétrospectives et s'adapter aux changements de priorités. Support et Maintenance : Fournir un support technique pour les jobs Spark en production. Identifier et résoudre les problèmes liés aux performances ou aux erreurs de traitement des données. Mettre en place des processus de surveillance et d'alerte pour assurer la stabilité et la fiabilité des solutions mises en œuvre.

Freelance
CDI

Offre d'emploi
Data ingénieur Terradata / ControlM / Unix / SQL (h/f)

SCALIAN
Publiée le
Control-M
Data analysis
SQL

12 mois
41k-44k €
Paris, France

Nous recherchons un Data Ingénieur expérimenté, spécialisé en Teradata, Control-M, Unix, et SQL, pour rejoindre notre équipe de gestion des données. Vous serez responsable de la conception, de la mise en œuvre et de la maintenance des solutions de traitement de données à grande échelle, tout en assurant la disponibilité et la performance des systèmes. Vos principales missions : Concevoir, développer et optimiser des pipelines de données sur des plateformes Teradata, en utilisant SQL et des scripts Unix. Automatiser les flux de travail de données en utilisant Control-M pour garantir une gestion efficace des processus batch. Assurer la maintenance, l'optimisation et la surveillance des environnements Teradata, en résolvant les problèmes de performance et en améliorant l'efficacité. Collaborer avec les équipes de développement, d'exploitation et d'analytique pour garantir l'intégrité et la disponibilité des données. Participer à la définition des meilleures pratiques pour l'ingénierie des données, y compris la gestion des environnements Unix. Contribuer à l'évolution des architectures de données, en proposant des améliorations et en implémentant des solutions techniques avancées. Rédiger et maintenir la documentation technique des systèmes et des processus mis en place.

Freelance
CDI

Offre d'emploi
Data Analyst / Data Scientist (H/F)

Accelite
Publiée le
Alteryx
Apache Maven
Apache Spark

1 an
40k-55k €
Paris, France

En tant que Data Analyst ou Data Scientist (H/F), vous contribuez au sein de grands comptes bancaires, à l’analyse, le traitement et la restitution des données bancaires et financières. A ce titre, vous avez pour missions : Recueil et analyse des besoins Rassemblement et traitement des données chiffrées Nettoyage des données afin de supprimer les doublons Réalisation d’algorithmes pour les exploiter Conception et construction des actifs informatiques dédiés au management des données (Data préparation, Data visualisation) Conception et développement du code ou des scripts qui s’appuient sur des données structurées et non-structurées en provenance de différentes sources et qui alimentent les actifs informatiques dédiés à l’exploitation des données Participation aux campagnes de tests Installation et configuration des logiciels requis dans le respect du cadre de référence Maintenance des solutions et intervention en support lorsque nécessaire Documentation des use cases et des développements effectués

Freelance

Mission freelance
Développeur Full Stack Java / React / Kafka

Kaïbee
Publiée le
J2EE / Java EE
React

1 an
100-550 €
Paris, France

PAS DE SOUS-TRAITANCE // MERCI Pour une mission longue durée nous recherchons un Développeur Full Stack Java / React Ses principales missions seront de : - Participer aux analyses techniques et aux études d’impacts en amont des développements - Concevoir des solutions en respectant les bonnes pratiques de développements - Fournir des chiffrages détaillés des futures réalisations (dans le cadre de la méthode SCRUM) - Réaliser les développements - Effectuer des contrôles croisés afin d’assurer la qualité des développements réalisés par l’équipe - Assurer le support de niveau 2 aux équipes d’homologation lors des phases de recette - Assurer le support lors des mises en production de chacune des évolutions · Assurer le maintien en condition opérationnelle des applications du périmètre (effectuer les analyses sur incident en support des équipes d’exploitation, et réaliser les correctifs le cas échéant)

Freelance

Mission freelance
Leader Technique Python Spark (H/F)

Insitoo Freelances
Publiée le
Python

2 ans
600-700 €
Lyon, Auvergne-Rhône-Alpes

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Leader Technique Python Spark (H/F) à Lyon, Auvergne-Rhône-Alpes, France. Contexte : 50% sur site Lyon Les missions attendues par le Leader Technique Python Spark (H/F) : Activité principale En tant que Lead Tech Data, vous serez responsable de : ○ Développement d’applications et de traitements orientés data en Python : Création et maintenance d'API, de dashboards et de pipelines pour analyser et visualiser les données. ○ Maintien de la qualité logicielle : Effectuer des revues de code régulières, promouvoir et diffuser les bonnes pratiques de développement au sein de l'équipe. ○ Appui aux projets : Fournir une aide ponctuelle et des conseils techniques aux différents projets en cours. ○ Cadrage technique des sujets : Participer à la définition des besoins techniques et à la planification des solutions à mettre en place. ○ Échanges transverses avec les autres équipes : Collaborer avec les équipes transverses pour remonter les besoins et implémenter un cadre commun de travail. Activité secondaire o Cadrage, accompagnement technique des différents projets o Accompagnement des PO o Industrialisation de projets o Études data Stack technique du projet ○ Python : FastAPI, Dash, Pandas, parallélisation, packaging, PyTest ○ SQL : PostgreSQL, Teradata ○ Spark (PySpark / Scala) ○ Git ○ Gitlab CI/CD Compétences attendues sur le profil • Techniques : ○ Excellente maîtrise de Python et de ses librairies pour le traitement et l'analyse de données. ○ Expérience en développement d'API et de dashboards avec FastAPI et Dash. ○ Bonne connaissance des bases de données SQL, notamment PostgreSQL et Teradata. ○ Familiarité avec Spark (PySpark ou Scala) pour le traitement de grandes volumétries de données. ○ Maîtrise des outils de versioning et d'intégration continue, notamment Git et Gitlab CI/CD. ○ Compétences en gestion d'équipe et en leadership technique. • Qualités : - Rigoureux, avec un fort sens du détail et de la qualité. - Capacité à travailler en équipe et à communiquer efficacement avec des équipes transverses. - Proactif et autonome, avec une capacité à prendre des initiatives et à résoudre des problèmes. - Excellentes capacités organisationnelles et de gestion du temps. - Capacités à communiquer efficacement et avec pédagogie

Freelance
CDI

Offre d'emploi
Tech lead Dév java Spark Python - Devops / 8 à 12 ans d'exp

Digistrat consulting
Publiée le
Java

36 mois
10k-200k €
Paris, France

Dans le cadre des objectifs de transformation du système d'information central vers des technologies big data, le programme liquidité est également investi dans cette transformation technologique avec l'ambition de dépasser ce cadre pour également adresser des problématiques de transformation fonctionnelle et de processus lorsque l'opportunité se présente. Le Bénéficiaire souhaite mettre en œuvre le volet transformation du système d'information du programme d'amélioration du dispositif de pilotage et de certification de l'assiette risques structurels dont les objectifs sont : • Amélioration et accélération de la constitution de l'assiette risques structurels • La certification de cette assiette risques structurels cohérente comptable • Renforcer la remédiation en terme de qualité de donnée et réduire le nombre d'ajustements manuels Le client souhaite bénéficier de l'expertise du Prestataire en termes de conception et développement. Dans ce cadre, la prestation consiste à contribuer à/au(x): • l'instruction et le cadrage technique des projets, • l'implémentation de solutions techniques en méthodologie agile Environnement technique : • Java (Spark est un gros plus, Python est un plus) • Devops : Ansible, Jenkins, GitHub Actions, Sonar, Artifactory • Big Data & Cloud : Cloudera CDP, Apache stack (HDFS, Oozie, Yarn) • Data : Oracle DB, PostgreSQL, Hive, Elastic Search, REST APIs Les livrables attendus sont : • Notes de cadrage techniques • Specifications techniques • Support et développement sur toutes les releases 2024-2025 Les expertises attendues pour réaliser cette prestation sont listées ci-après : • Agile Scrum • Ansible • Artifactory • Compétences en développement (Shell unix, Perl, PHP, Python, git, github) • Elastic Search & Kibana • Hive • Java • Jenkins • Oracle Database Enterprise Server • PostGreSQL • REST • Scripting (GuitHub, Ansible, AWX, shell, vba) • Sonar

Freelance

Mission freelance
Architecte Solutions Confirmé

Management Square
Publiée le
Apache Hive
Apache Kafka
AWS Cloud

1 an
410-500 €
Lyon, Auvergne-Rhône-Alpes

Nous recherchons pour l'un de nos client des Architectes Solutions confirmé(e)s pour rejoindre une équipe dédiée à la modernisation du Système d'Information. Vous contribuerez aux activités d'architecture d'un programme majeur, apportant votre expertise aux équipes de développement et aidant à la conception de produits dans le respect du cadre de référence établi. Comprendre les besoins utilisateurs, le cadre de référence d'architecture et le contexte technique Assurer la responsabilité des dossiers d'architecture des produits Réaliser des analyses fonctionnelles et applicatives Mettre à jour et enrichir les cartographies (y compris flux et données) Conseiller les leaders de projet et autres architectes sur les options techniques possibles Participer à l'évolution de l'architecture d'entreprise

CDI
Freelance

Offre d'emploi
Développement Java/Spark

Lùkla
Publiée le
Apache Spark
Azure
Java

3 ans
50k-65k €
Île-de-France, France

Activité du client : Secteur bancaire Poste : Développeur Java/Spark Séniorité : à partir de 12 ans d'expériences Bac +5 Maîtrise de l'anglais (aisance orale exigée) Développement d'une application en JAVA Environnement technique : - Java - MS Azure - Spark -AKS & EventHub Est un plus : - Scala - Python

Freelance

Mission freelance
Un Data Ingénieur Sénior (Cloudera/Hadoop, Spark, Kafka, PySpark, SQL Server) sur Dunkerque ou Metz

Smarteo
Publiée le
Informatique

10 mois
100-400 €
Dunkerque, Hauts-de-France

Smarteo recherche pour l'un de ses clients, Un Data Ingénieur Sénior (Cloudera/Hadoop, Spark, Kafka, PySpark, SQL Server) sur Dunkerque ou Metz Objet de la prestation: Spécifications techniques, développements de solutions d'ingestion de données et de Data Ingénierie Résultats à obtenir (livrables): Spécifications techniques de flux (ingestion, transformation?) Développements de flux (Kafka, Talend, Spark (PySpark) Compétences ou connaissances indispensables : Ecosystème Big Data (Cloudera/Hadoop, Spark, Kafka, PySpark), Bases de données relationnelles (SQL Server?), Adaptabilité, Autonomie, communication. Compétences ou connaissances souhaitées : Talend, Anglais, connaissance du monde de la métallurgie Compétences ou connaissances qui seraient un plus : Datavisualisation Périmètre technique: Big Data : Cloudera, Hive, Spark, Kafka? ETL : Talend Bases données : SQL Server Reporting : Power BI Si vous êtes disponible et intéressé, merci de me faire parvenir votre TJM ainsi que votre CV à jours en format word.

337 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous