Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 404 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI

Offre d'emploi
Développeur - Big Data | Spark (H/F)

CELAD
Publiée le
Apache Spark

1 an
42k-50k €
Lyon, Auvergne-Rhône-Alpes

📑 CDI (42-50K€) / Freelance / Portage Salarial - 🏠 10 jours de télétravail / mois - 📍 Lyon - 🛠 Expérience de 5 ans minimum 🌟 Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un(e) Développeur – Big Data | Spark pour intervenir chez un de nos clients. 💻💼 Contexte : vos missions tournent autour de 4 axes : - Fournir une expertise en Big Data pour simplifier la manipulation des données. - Concevoir des solutions techniques pour le traitement massif de données. - Implémenter des solutions de stockage de données (SQL, NoSQL, etc.). - Assurer la sécurité et la lisibilité des pipelines de données pour faciliter l'analyse et la transformation. Voici un aperçu détaillé de vos missions 🎯 : - Création, maintenance, optimisation et sécurisation des bases de données pour garantir leur intégrité et leur performance. - Détection, proposition et suivi des optimisations des requêtes SQL, PL/SQL afin d'assurer l'efficacité des applications métier en termes de traitement des données. - Fournir un soutien aux équipes de développement en identifiant et en recommandant des solutions SGBD adaptées aux besoins métier, tout en assurant leur performance et leur pertinence. - Effectuer une veille technologique sur les outils utilisés dans le cadre du projet, afin de maintenir la pertinence et la compétitivité des solutions mises en œuvre. - Partager et dispenser des formations sur les bonnes pratiques en matière de gestion des bases de données, contribuant ainsi à l'amélioration continue des processus et des compétences au sein de l'équipe.

Freelance
CDI

Offre d'emploi
Développeur Big Data Spark

MSI Experts
Publiée le
Apache Spark
Oracle

1 an
10k-55k €
Lyon, Auvergne-Rhône-Alpes

Nous recherchons un développeur Big Data pour intégrer l'équipe chez notre client afin de : Apporter une expertise en Big Data (Spark) pour améliorer le traitement des données à grande échelle. Gérer la création, la maintenance, l'optimisation et la sécurisation des bases de données. Analyser, proposer et implémenter des optimisations pour les requêtes SQL et PL/SQL afin de maximiser les performances des applications métiers Assurer le support technique aux équipes de développement pour identifier et proposer les solutions SGBD les plus performantes Concevoir et mettre en œuvre des solutions techniques : Assurer le traitement massif des données et l'optimisation des pipelines. Déployer des solutions de stockage de données : Utiliser des technologies SQL et NoSQL pour garantir la performance et la scalabilité des systèmes. Accompagnement des autres développeurs Spark sur le projet Assurer la sécurité et la clarté des pipelines de données : veiller à ce que les données soient sécurisées et facilement exploitables par les équipes d'analyse. Stack technique : o Big Data : Spark, Hive, Indexima. o Stockage : Oracle, CEPH S3 (parquet). o Langages : Java, Python, PL/SQL, Shell. o CI/CD : Ansible, Terraform, Jenkins, GIT. o ETL : Informatica. o Dataviz : Tableau Server. o Ordonnanceur : Control-M.

Freelance
CDI

Offre d'emploi
Data Engineer Scala Spark Hadoop

Digistrat consulting
Publiée le
Scala

36 mois
10k-200k €
Paris, France

💼 Poste : Data Engineer Scala Spark Hadoop 🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Notre client souhaite une assistance dans le cadre de la mise en œuvre d'une assiette commune pour les usages Finances et Risques, plus particulièrement sur les données Evènements. Dans ce cadre, la Prestation consiste à contribuer à/au(x) : L’architecture avec le reste de l’entité (tech lead, devs, architecture). Mise en œuvre/Développement des propositions techniques. Revue de code. Suivi des méthodologies agiles. L'industrialisation des développements et des tests sur de l'open source Environnement anglophone. Livrables attendus Les livrables attendus sont : Développements et tests (en TDD) en mode Agile pour répondre au cas d'usage métier et déployable en environnement de production. PVs techniques Chiffrage de projets et évolutions Design de solution 🤝 Expertises spécifiques : Continuous Integration Hadoop (Big Data) Scala Spark

Freelance

Mission freelance
Développeur Java / Kafka

Kaïbee
Publiée le
Apache Kafka
J2EE / Java EE

1 an
100-550 €
Paris, France

PAS DE SOUS-TRAITANCE // MERCI Les missions s’articulent autour des axes suivants : - Participer aux phases de Discovery ; - Prendre part dans les analyses techniques et les études d’impacts en amont des développements ; - Concevoir des solutions en respectant et en promouvant les bonnes pratiques de développements ; - Fournir des estimations concernant les futures réalisations (dans le cadre de la méthode SCRUM) - Réaliser les développements en suivant les bonnes pratiques de développement - Effectuer des contrôles croisés afin d’assurer la qualité des développements réalisés par l’équipe ; - Assurer le support de niveau 2 aux équipes d’homologation lors des phases de recette ; - Assurer le support lors des mises en production de chacune des évolutions ; - Assurer le maintien en condition opérationnelle des applications du périmètre. - Participer aux activités du Chapter Back End (développement de librairies transverses, partage de connaissances, développement de poc avec impact sur la squad et le Chapter)

Freelance
CDI
CDD

Offre d'emploi
Développeur Fullstack Java / Angular / Kafka

R&S TELECOM
Publiée le
Angular
Apache Kafka
Full stack

12 mois
10k-45k €
Strasbourg, Grand Est

Nous recherchons un Développeur Fullstack pour notre client. Le candidat idéal aura une solide expérience dans les technologies listées ci-dessous et sera capable de travailler de manière autonome tout en collaborant efficacement avec l'équipe de développement. Vous serez impliqué dans toutes les phases du cycle de vie du développement logiciel, de la conception à la mise en production. Responsabilités : Développer des applications web en utilisant Java, Angular et Kafka. Participer à la conception et à l'architecture des solutions logicielles. Écrire et maintenir du code de haute qualité en suivant les meilleures pratiques de développement. Implémenter et exécuter des tests automatiques (JUnit, BDD, TDD). Contribuer à la mise en œuvre des concepts DevOps (CI/CD, Jenkins, pipeline, Sonar). Réaliser des revues de code et appliquer des patterns de développement pour garantir la qualité du code. Gérer les bases de données SQL et intégrer les solutions logicielles avec les systèmes backend. Utiliser les frameworks Spring et Spring Boot pour le développement backend. Développer des interfaces utilisateur en utilisant Angular 14, JSP, Struts, HTML et CSS. Mettre en place des architectures REST pour les services web. Utiliser des scripts Shell pour le déclenchement des batchs. Travailler sur un socle technique On Premise.

CDI
Freelance

Offre d'emploi
Ingenieur développement Java - Kafka

CELAD
Publiée le
Apache Kafka
Java

3 ans
44k-54k €
Nice, Provence-Alpes-Côte d'Azur

Ingénieur Développement JAVA (F/H) Ingénieur(e) JAVA, cette annonce est faite pour vous ! Nous recrutons un ingénieur développement Java (F/H) pour divers clients basés sur Nice, Sophia-Antipolis et Monaco. Vous pouvez notamment rejoindre l’équipe d’un éditeur d’application web/mobile pour la mobilité urbaine ou d’une filiale numérique d’un grand groupe… le choix est large, pour en savoir plus il suffit de nous contacter ! 😉 Pour prendre part à ces projets, voici ce qui est nécessaire : 4 ans d’expérience minimum et les compétences suivantes : Bonne maîtrise du langage Java et des frameworks associés (Hibernate, Spring Boot, …) Utilisation de Kafka Maîtrise des bases de données (idéalement MySQL et MongoDB) Maîtrise des architectures distribuées et microservices Maîtrise des pratiques d’intégration continue (CI/CD), notamment sur Jenkins Maîtrise des tests unitaires et intégration Maîtrise des méthodologies agiles Ces missions sont sur site client, mais vous ferez avant tout partie de la #TeamCELAD donc voici ce qui nous différencie : Ambiance conviviale et un staff à votre écoute Des évènements organisés par l’équipe RH tout au long de l’année (badminton, soirée jeux vidéo/société, bowling, conférence technique …) Une agence en pleine essor qui ne cesse de grandir et qui a de beaux projets en perspectives dans différents secteurs d’activité (automobile, défense, IOT, santé, voyages de luxe, banque…) Prime de participation aux résultats de l’entreprise + PEE Prime de vacances 15 jours de RTT Un peu de contexte : CELAD est une société de conseil et d’ingénierie en informatique de plus de 1500 collaborateurs fondée à Toulouse en 1990 et comptant plus de 250 clients (grands comptes pour des projets internationaux et start-ups). CELAD compte aujourd’hui 11 agences en France. Depuis 2012, CELAD Sophia-Antipolis, qui compte près de 150 collaborateurs , intervient autour de 4 spécialisations dans la région des Alpes-Maritimes et de Monaco : - La Radiofréquence et la Microélectronique - Les technologies web (full stack, front, back) - L’expertise support : Sysadmin, DevOps, CI-CD - L’informatique industrielle et embarquée

Freelance

Mission freelance
Data Engineer (Hadoop, Spark, Kafka, Teradata, Microstrategy) (H/F)

DCS EASYWARE
Publiée le

Paris, France

Nous recherchons un Data Engineer (H/F) expérimenté pour rejoindre notre équipe en pleine expansion. Vous serez responsable de la conception, de l'optimisation et de la gestion des pipelines de données dans un environnement Big Data complexe. Vous travaillerez avec une large gamme de technologies, notamment Spark, Kafka, et la stack Hadoop Cloudera, tout en adoptant une approche DevOps pour améliorer l'efficacité des processus. Responsabilités : - Concevoir, développer et maintenir des pipelines de traitement de données à l'aide de Spark (streaming et batch), Kafka et la stack Hadoop (Cloudera). - Gérer et optimiser les flux de données sur des plateformes Big Data comme HDFS, Hive, HBase, Phoenix, et MongoDB. - Implémenter des solutions DevOps avec GIT, Jenkins, Artifactory, XL Release, ELK et Grafana pour assurer le déploiement continu et la surveillance des pipelines de données. - Collaborer avec les équipes Scrum dans un cadre agile pour garantir une livraison efficace des projets en lien avec les squads (PO, DEV). - Assurer l'intégration et la transformation des données provenant de différentes sources en veillant à la qualité et à la sécurité. - Améliorer l'architecture des données pour répondre aux exigences d'évolutivité et de performance. Vous êtes diplômé en informatique, ingénierie ou équivalent et être de minimum 5 ans d'expérience en tant que Data Engineer, dans un environnement Big Data. Vous avez de solides compétences en programmation Java et une expérience prouvée avec Spark et Kafka. Expérience en gestion d'infrastructures Hadoop Cloudera et bonnes connaissances en environnement DevOps. Familiarité avec les méthodologies agiles (Scrum) et des compétences en environnement décisionnel (Teradata / Microstrategy) seraient appréciées. Notre processus de recrutement : En 4 étapes ! Tout simplement. - Dans un premier temps, vous échangerez avec l'un d'entre nous par téléphone ; - Puis, nous aurons le plaisir de nous rencontrer lors d'un entretien physique ou Teams ; - Pour finir, vous discuterez métier avec l'un de nos managers opérationnels ; - Bienvenue chez nous ! Ce poste vous intéresse ? Place à l'action : Postulez ou partagez avec votre réseau !

Freelance

Mission freelance
87815/Mission d'expertise technique JEE Java, PostgreSQL, Apache, TOMCAT, ELK, NEO4J Olivet

WorldWide People
Publiée le
Apache
Apache Tomcat
Java

6 mois
320-400 €
Olivet, Centre-Val de Loire

Mission d'expertise technique JEE Java, PostgreSQL, Apache, TOMCAT, ELK, NEO4J Olivet Profil expérimenté pouvant récupérer les informations nécessaires pendant la phase de transition et pouvant faire monter en compétences d'autres personnes par la suite. Tâches à mener : * Prendre connaissance de l'existant * Construire/mettre à jour la documentation technique * Participer à la définition et à la diffusion des bonnes pratiques de développement * Assurer le support des développeurs * Traiter les items techniques les plus complexes * Définir et faire évoluer les normes définies dans le développement et la gestion des sources * Réaliser les revues de code initiales et tout au long du projet Compétences techniques attendues : Java, PostgreSQL, Apache, TOMCAT, ELK, NEO4J

CDI

Offre d'emploi
Tech Lead Java / Spark

Management Square
Publiée le
Ansible
Github
J2EE / Java EE

10k-60k €
Fontenay-sous-Bois, Île-de-France

Contexte : Nous recherchons un Tech Lead Java / Spark pour un projet stratégique de transformation des systèmes d'information dans le domaine de la gestion des risques structurels. Ce programme vise à améliorer la qualité des données, la cohérence comptable, et la certification des données pour les besoins de reporting et de pilotage du risque de liquidité. Responsabilités : Contribuer au cadrage technique et à l'instruction des projets. Implémenter des solutions techniques selon une méthodologie agile. Participer au développement et au support de toutes les versions prévues pour 2024-2025. Environnement technique : Langages : Java (Spark est un gros plus, Python est un plus). DevOps : Ansible, Jenkins, GitHub Actions, Sonar, Artifactory. Big Data & Cloud : Cloudera CDP, Apache stack (HDFS, Oozie, Yarn). Bases de données et APIs : Oracle DB, PostgreSQL, Hive, Elastic Search, REST APIs.

Freelance
CDI

Offre d'emploi
Développeur Concepteur Big data Talend Spark Scala

Digistrat consulting
Publiée le
Talend

36 mois
10k-65k €
Paris, France

💼 Poste : Développeur Concepteur Big data Talend 🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département exerce 3 missions principales : Garantir des services opérationnels d'excellence : sécurité des SI et maîtrise des risques opérationnels, qualité de la production informatique et pérennisation du SI. Délivrer des solutions SI innovantes, orientées clients, pour construire la banque relationnelle et digitale de demain . Améliorer son efficacité opérationnelle, en réponse aux enjeux d'agilité et de time to market, et optimiser les coûts informatiques. Le Bénéficiaire souhaite avoir une expertise en développement sur l'écosystème BIG DATA. A ce titre, le Bénéficiaire souhaite avoir l’expertise du prestataire en termes de Data Engineering. Dans ce cadre la prestation consiste à contribuer à/au(x) : - développements d'usages BIG DATA : Conception technique des développements Supervision des traitements en place Cérémonies agile (méthode Scrum) Livrables attendus Les livrables attendus sont : Dossier de conception Programmes versionnés Documentation projet nécessaire aux MEP 🤝 Expertises spécifiques : Les expertises attendues pour réaliser cette prestation sont listées ci-après : Agile Scrum Environnement Cloudera Compétences en développement (Shell unix, Perl, PHP, Python, git, github) Hadoop (Big Data) HiveQL, scripting shell, environnmnent Conda Spark (PySpark), (gestion de volumes de données importants) Talend (Data integration, Big Data)

Freelance
CDI

Offre d'emploi
Développeur Java / Scala / spark

HIGHTEAM
Publiée le
Java
PySpark
Scala

3 ans
10k-54k €
Île-de-France, France

Participer à la conception et à la mise en place d'une nouvelle architecture applicative. Accompagner les équipes de développeurs et d'architectes dans la définition et l'implémentation des solutions techniques. Contribuer à l'industrialisation des développements et des tests en open source, dans un environnement Agile. Revoir et améliorer le code existant pour répondre aux normes de qualité et aux exigences métier. Développer et tester des fonctionnalités complexes (approche TDD), tout en garantissant leur déploiement en production.

Freelance

Mission freelance
Développeur Big Data - Spark et Scala

Signe +
Publiée le
Apache Spark
Big Data
Scala

6 mois
450-470 €
Paris, France

Poste : Développeur Big Data Spécialisation : Spark, Scala Langues : Anglais Courant (Impératif) Environnement : Agile, anglophone Contexte du Poste : Nous recherchons un Développeur Big Data expérimenté pour rejoindre notre équipe dynamique afin de mener à bien la migration de jobs Talend vers des solutions basées sur Spark. Le candidat idéal doit avoir une solide expérience en Spark et Scala et être capable de travailler efficacement dans un environnement anglophone et agile. Responsabilités : Migration des Jobs : Analyser et comprendre les jobs Talend existants. Concevoir et développer des équivalents en utilisant Apache Spark. Assurer une transition fluide des processus ETL de Talend à Spark en minimisant les interruptions de service. Tester et valider les jobs migrés pour garantir la précision des données et les performances requises. Développement et Optimisation : Développer des solutions de traitement de données à grande échelle en utilisant Apache Spark et Scala. Optimiser les performances des jobs Spark pour gérer efficacement de grands volumes de données. Collaborer avec les équipes de développement pour intégrer les solutions Spark dans les pipelines de données existants. Collaboration et Documentation : Travailler en étroite collaboration avec les équipes de data engineering, data science et autres parties prenantes pour comprendre les besoins et les exigences. Documenter les processus de migration, les architectures de solution et les meilleures pratiques. Participer aux réunions d'équipe Agile, contribuer aux rétrospectives et s'adapter aux changements de priorités. Support et Maintenance : Fournir un support technique pour les jobs Spark en production. Identifier et résoudre les problèmes liés aux performances ou aux erreurs de traitement des données. Mettre en place des processus de surveillance et d'alerte pour assurer la stabilité et la fiabilité des solutions mises en œuvre.

Freelance

Mission freelance
Architecte solutions Kafka (H/F)

LeHibou
Publiée le
Apache Kafka

6 mois
650-900 €
Paris, France

Le consultant intégrera l’équipe d’architecte solution pour :  Définir la trajectoire de transformation des SI pour répondre aux enjeux et attentes des métiers et de garantir la cohérence et la contribution aux cibles et objectifs stratégiques de transformation définis par le métier  Définir et documenter les architectures des solutions SI permettant de décliner ces trajectoires  Être force de proposition en concevant l’architecture des solutions sur différents scénarios  Participer à l’élaboration d’une cible d’architecture en collaborant avec les autres architectes.  Participer à la conception l'architecture logicielle en partenariat avec les équipes de développement  Cartographier les flux / applications  Faire respecter les patterns d’architecture inscrits au référentiel  Développer/maintenir un haut niveau d'expertise dans votre (vos) domaine(s) de référence. Le consultant pourra aussi être amené à travailler sur éléments suivants : 1/ Conception, mise à jour et évolution du système d’information  Construire, mettre à jour et faire évoluer la cartographie du système d’information de l’entreprise.  Faire l’inventaire des fonctions informatiques existantes (applications et référentiels de données) et des flux d’informations.  Identifier et modéliser les activités, les processus et les services à rendre.  Définir un plan d’urbanisation cible.  Proposer des scénarios d’évolution et de simplification du système d’information. 2/ Garantie de la cohérence du S.I.  Évaluer la pertinence et la cohérence des projets par rapport à l’architecture cible et aux systèmes existants.  Mettre en évidence si nécessaire la complexité du S.I et les systèmes non-rationnels (flux multiples, redondances de données).  Définir des cibles d'architecture fonctionnelle, applicative et technique.  S'assurer que tous les projets d'évolution informatique sont alignés avec l’architecture cible. 3/ Gestion des projets d’architecture  Participer à l’amélioration ou à la création de nouvelles applications ou services en appliquant les principes d’urbanisation retenus.  S’assurer de l’alignement entre les besoins et les solutions proposées.  Mettre à jour les référentiels documentaires. Conseil et aide à la décision  Informer les différents acteurs du système d'information (direction technologie, direction produit et directions métiers) et la direction générale des évolutions technologiques proposées.  Participer aux études de décommissionnement d’applications. 4/ Conseil et aide à la décision  Informer les différents acteurs du système d'information (direction technologie, direction produit et directions métiers) et la direction générale des évolutions technologiques proposées.  Participer aux études de décommissionnement d’applications.

Freelance
CDI

Offre d'emploi
Développeur Java - Devops - kafka - Optimisation de la performance

Digistrat consulting
Publiée le
Java

36 mois
10k-200k €
Paris, France

💼 Poste : Développeur Java - Devops - kafka - Optimisation de la performance 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : IDF 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Grand projet FO/MO/BO en Java dans le domaine financier avec enjeu temps réel (STP FO to BO) Référentiel pour les produits listés, deals et positions pour la ligne métier (Equity Derivatives) Processus complexes pour la gestion du cycle de vie des produits et de la position (Expi, OST, Emissions, etc.) Gestion de la sécurité et des contraintes réglementaires (droits d’accès et audit des opérations) Enjeu international (Déploiement et utilisateurs sur sites étrangers : Londres, Hong.Kong et New York) Système en position centrale en intégration forte avec les autres éléments du Système d'information. Equipe d’une trentaine de personnes, divisées en pôles d'expertise : Analyse et spécifications Développements Support Basé sur WebLogic / Oracle / GUI RCP, l’application se modularise. Beaucoup de sujets autour de l'obsolescence (migration technique Java 11/17), du DEVOPS et de la performance pour faire que l’application puisse faire face à ses nouveaux challenges 🤝 objectifs de la mission : Contribution aux projets techniques de réduction de dette technique Contribution aux projets de refonte de la GUI (Angular 18) Contribution aux sujets de performance (Kafka, Hibernate, …) Maintenance évolutive IT & fonctionnelle Assurance de la maintenabilité de l'outil et l'obsolescence

Freelance

Mission freelance
Un Développeur Neo4J sur Olivet / IDF

Smarteo
Publiée le
Informatique

3 mois
100-400 €
Olivet, Centre-Val de Loire

Smarteo recherche pour l'un de ses clients, Un Développeur Neo4J sur Olivet / IDF Description: La mission est de maintenir le système de stockage de données. Ce système permet de stocker et gérer les données de l?entreprise de manière centralisée et structurée, afin de faciliter l?accès aux do nnées par les équipes de l?entreprise et d?améliorer l?efficacité de leur utilisation. Savoir définir les besoins en matière de stockage de données de l?entreprise et établir une stratégie de mise en place du data lake en conséquence Développer et mettre en ?uvre le système de stockage de données en utilisant des outils tels que Hadoop Gérer l?intégration des données dans le data lake, en veillant à ce qu?elles soient structurées et organisées de manière cohérente Assurer la maintenance et l?optimisation du data lake, en veillant à ce qu?il reste performant et en corrigeant les éventuels problèmes qui pourraient survenir Collaborer avec les équipes de l?entreprise pour faciliter l?accès aux données et les aider à les utiliser de manière efficace. Compétences demandées : - Langage de programmation, comme Python ou Java - Big Data : Neo4J, Datalake, Hive, Fluentd, Spark, Druid .. Si vous êtes intéressé, merci de me faire parvenir votre TJM ainsi que votre CV à jour au format Word

Freelance
CDI

Offre d'emploi
Architecte Technique Java-Spark - Sénior

Digistrat consulting
Publiée le
Apache Kafka
Apache Spark
Architecture

3 ans
40k-60k €
Paris, France

Dans le cadre des projets d'évolution de notre banque, l'architecte applicatif a pour mission : d'accompagner opérationnellement les projets pour la définition de l’architecture applicative et défendre les choix opérés lors du passage en Comité d’Architecture et des différentes instances. Il est sollicité sur les nouveaux projets et sur les évolutions significatives des applications existantes (nouveaux flux, nouveaux composants, évolutions du périmètre fonctionnel initial…) • Participer activement à la phase de cadrage projet • Découpage en Services/Microservices • Proposer et accompagner les projets dans l’adoption des technologies de type Spark, Java, Kafka • Accompagner les équipes de développements pour l’application des règles et standards d’architecture. • Répondre aux exigences fonctionnelles et non fonctionnelles demandées dans le cadre de la mise en place de la solution. • Evaluer la pertinence et la cohérence des projets par rapport aux patterns d’architecture technique et aux systèmes existants (par des études d’opportunité, des POC, etc.) • Rédaction des dossiers d’architecture applicative et techniques • Gérer (construction, mise à jour et évolution) la cartographie technique du SI ou du sous-ensemble du SI dont il a la charge • Définir ou contribuer à la définition des patterns d’architecture technique à partir des services d’infrastructure mis à disposition par l’infogéreur du Groupe

404 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous