Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 495 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
INGENIEUR DATA BI EXPERIMENTE

PROPULSE IT
Publiée le
BI
Big Data
ingenieur

24 mois
250-500 €
Paris, Île-de-France

Nous recherchons un(e) ingénieur Data BI expérimenté Contexte Au sein d'une Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté, une expérience dans le secteur du e-commerce serait apprécié. La Data Factory de notre client joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Elle se concentre sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour les équipes. Description • Participe à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Rédaction des documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de la stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe Livrables Spécifications Techniques, Cahier de recette Technique, Document d'exploitation Reporting d'avancement des travaux Programme développés

Freelance

Mission freelance
POT8156-Un consultant Data Gouvernance sur Lyon

Almatek
Publiée le
Big Data

6 mois
150-300 €
Lyon, Auvergne-Rhône-Alpes

Almatek recherche pour l'un de ses clients Un consultant Data Gouvernance sur Lyon Contexte de la mission : Expérience en big data - Bi Anglais : courant impératif. Almatek recherche pour l'un de ses clients Un consultant Data Gouvernance sur Lyon Contexte de la mission : Expérience en big data - Bi Anglais : courant impératif. Almatek recherche pour l'un de ses clients Un consultant Data Gouvernance sur Lyon Contexte de la mission : Expérience en big data - Bi Anglais : courant impératif. Almatek recherche pour l'un de ses clients Un consultant Data Gouvernance sur Lyon Contexte de la mission : Expérience en big data - Bi Anglais : courant impératif.

Freelance

Mission freelance
DEVIENS #AUTEUR Hadoop

Editions ENI
Publiée le
Big Data
Database
Hadoop

8 mois
100-300 €
Saint-Herblain, Pays de la Loire

Nous recherchons un(e) professionnel(le) de l'IT pour la prochaine publication de notre ouvrage qui portera sur Hadoop. "Pourquoi pas moi ? Je suis data engineer, formateur(trice), consultant(e), développeur(euse) Big Data... et Hadoop n'a aucun secret pour moi. J’ai envie de partager mon expertise et mon expérience au plus grand nombre ! Ecrire un livre me permettra de renforcer ma crédibilité et de mettre à profit mes connaissances." Notre équipe éditoriale t’accompagnera à chaque étape de la conception du livre en partageant avec toi leur savoir-faire et leur expérience dans la création de livres en informatique.

CDI
Freelance

Offre d'emploi
Consultant SI – Expert Catalogue de Données

CELAD
Publiée le
Big Data

1 an
60k €
650 €
Lyon, Auvergne-Rhône-Alpes

📑 CDI (60k€) / Freelance (650€ / jour) - 🛠️ Expertise en Gouvernance des Données - 📍 Lyon (Part-Dieu) 📌 Rejoignez une mission stratégique en tant qu'expert SI pour cadrer et piloter un projet ambitieux de catalogue de données. Vous participerez activement à la gouvernance des données en proposant des solutions robustes pour améliorer les processus existants et répondre aux besoins des parties prenantes. Vos missions 🎯 En collaboration avec le chef de projet, vos principales activités seront : Audit et identification : Analyser les processus existants, les règles en vigueur et documenter les traitements. Organisation & gouvernance : Décrire l'organisation autour de la QDD (Qualité et Gouvernance des Données). Identifier les rôles, responsabilités et points faibles des solutions actuelles. Études & recommandations : Consolider les résultats des POC réalisés en 2024 pour choisir la meilleure solution. Effectuer une cartographie des besoins métiers et des parties prenantes (Métier, IT, Sécurité, RGPD, Infrastructure, etc.). Animation & collaboration : Organiser et animer des ateliers, réunions de suivi et interviews avec les équipes internes et métiers. Travailler avec les équipes techniques pour anticiper les impacts en infrastructure, RGPD et architecture. Structuration et planification : Proposer une vision claire du projet avec ses périmètres, ses priorités et les ressources nécessaires (humaines, technologiques, financières). Élaborer un planning précis de mise en œuvre avec les étapes clés. Indicateurs & formalisation : Définir les indicateurs de succès pour mesurer l’efficacité de la gouvernance des données. Formaliser un plan d’accompagnement et de communication pour assurer le succès du projet. Livrables 📝 Synthèse des processus, besoins métiers et réglementaires. Cartographie des besoins des parties prenantes. Recommandations sur la gouvernance et les processus. Indicateurs de succès et contrats projet.

Freelance

Mission freelance
Product Owner / Big Data (H/F)

FRISBEE PROFILING
Publiée le
Agile Scrum
Big Data
Scrum

12 mois
600-650 €
Paris, France

Au sein d'une Data Plateform et de la zone qui collecte, nettoie, centralise et expose la donnée brute , vous rejoindrez une équipe composée d'un Product Owner Data et de 3 Data Ingénieurs. 1. Collecter et prioriser les besoins : - Cadrer les besoins et les objectifs pour et avec chaque partie prenante : analyser et cadrer les exigences puis les prioriser pour élaborer des user stories claires et pertinentes - Maintenir à jour le backlog produit en fonction des priorités et des besoins des parties prenantes - Identifier les améliorations en continu sur les produits et processus de l’équipe - Suivre et analyser les indicateurs de performance pour évaluer l'impact des évolutions et ajuster les priorités 2. Gestion du produit : - Coordonner les différentes étapes de développement, de l'idéation à la réalisation - Rédiger et recetter les user stories en fonction des besoins - Prioriser et hiérarchiser les différentes fonctionnalités du produit à développer et à décommissionner - Accompagner les équipes techniques pour garantir la qualité du produit et la valeur apportée aux utilisateurs - Identifier des opportunités d'amélioration continue pour optimiser la performance et l’efficacité du produit et des process. - Améliorer l’exploitation et le maintien des produits en production - Assurer une veille technologique continue pour intégrer les meilleures pratiques et technologies afin d'améliorer la plateforme. 3. Définition et communication de la vision produit : - Définir et maintenir à jour une roadmap avec les jalons clés et coordonner les différentes parties prenantes - Animer et communiquer sur les évolutions liées à la vision du produit 4. Collaboration avec des équipes pluridisplinaires : les 2 équipes Data Domain, le Pilotage, la Personnalisation, la Recommandation, les équipes en charge de la Gouvernance et de la conformité des données, les Chefs de Projet techniques

Freelance

Mission freelance
📺📻 Product Owner Data Platform secteur médias

ALXDR Software Engineering
Publiée le
Apache Spark
AWS Cloud
Big Data

15 mois
500-650 €
Paris, France

📺📻 Pour l'un de nos clients du secteur de l'audiovisuel, nous recherchons une prestation de Product Owner Data. Prestation temps plein de longue durée (15 mois renouvelables 36 mois max) avec 50% de télétravail dans les locaux de notre client à Paris. Data Platform structurée en trois zones pour valoriser les données des produits numériques (streaming et offre d'information). Collecte, nettoyage, centralisation et exposition des données brutes. Transformation des données brutes en informations raffinées pour répondre aux besoins transverses. Exploitation des données raffinées pour des cas d’usage avancés : pilotage, personnalisation, et data science. L’équipe en charge de la première zone est composée d’un PO Data, de 3 Data Ingénieurs, dont un lead, et est à la recherche d’une prestation de Product Owner. 1. Collecter et prioriser les besoins - Cadrer les besoins et les objectifs pour et avec chaque partie prenante : Analyser et cadrer les exigences, puis les prioriser pour élaborer des user stories claires et pertinente. - Maintenir le backlog produit à jour en fonction des priorités et des besoins des parties prenantes. - Identifier les améliorations en continue sur les produits et processus de l’équipe - Suivre et analyser les indicateurs de performance pour évaluer l'impact des évolutions et ajuster les priorités. 2. Gestion du Produit - Coordonner les différentes étapes de développement, de l'idéation à la réalisation - Rédiger et recetter les user stories en fonction des besoins - Prioriser et hiérarchiser les différentes fonctionnalités du produit à développer et à décommissionner - Accompagner les équipes techniques pour garantir la qualité du produit et la valeur apportée aux utilisateurs - Identifier des opportunités d'amélioration continue pour optimiser la performance et l’efficacité du produit et des process. - Améliorer l’exploitation et le maintien des produits en production - Assurer une veille technologique continue pour intégrer les meilleures pratiques et technologies afin d'améliorer la plateforme. 3. Définition et communication de la vision produit - Définir et maintenir une roadmap à jour avec les jalons clés et coordonner les différentes parties prenantes - Animer et communiquer sur les évolutions liées à la vision du produit 4. Collaboration avec les équipes pluridisplinaires suivantes - Les équipes Data platform : les 2 équipes Data Domain, le Pilotage, la Personnalisation, la Recommandation, - les équipes en charge de la Gouvernance et de la conformité des données. - les Chefs de Projet technique de la direction du Numérique

Freelance

Mission freelance
Delivery Lead / Chef de Projet Technico-Fonctionnel (SAP / Data / Cloud)

Signe +
Publiée le
Big Data
SAP

6 mois
700 €
Issy-les-Moulineaux, Île-de-France

Localisation : Issy-les-Moulineaux (hybride, potentiellement 2 jours par semaine sur site) Démarrage : Début janvier Expérience : 15 ans minimum TJM : En discussion (potentiellement autour de 700 €/jour) Dans le cadre d'un projet stratégique, Accor recherche un Delivery Lead expérimenté pour piloter la mise en œuvre et le suivi d'une solution technique autour de SAP, des données et des environnements Cloud. Ce rôle exige une expertise technique et fonctionnelle, une solide capacité de gestion d'équipe, et une bonne compréhension des enjeux stratégiques d'une organisation globale. Gestion de projet : Piloter le cycle de vie complet de la solution technique, de la phase de construction (build) à la phase opérationnelle (run). Garantir la cohérence des solutions et du cadre technique. Suivre et reporter l’avancement du projet, y compris les risques, obstacles, et alertes majeures. Superviser le budget et veiller au respect des engagements financiers. Expertise technique : Assurer la maintenance et l’évolution des architectures produit et infrastructure pour garantir leur performance, fiabilité et scalabilité. Superviser les intégrations avec des outils tiers pour assurer la compatibilité et l’interopérabilité des systèmes. Collaborer avec les fournisseurs tiers pour gérer les niveaux de support (L1, L2, L3). Leadership et coordination : Coordonner les équipes techniques internes et externes, tout en maintenant une collaboration efficace entre les différentes parties prenantes. Animer les comités techniques et fonctionnels pour aligner les objectifs du projet avec les besoins métier. Piloter la conduite du changement auprès des utilisateurs.

Freelance
CDI

Offre d'emploi
Ingénieur.e Infrastructure Big Data AWS

Atlanse
Publiée le
Apache Airflow
AWS Cloud
Big Data

3 ans
40k-65k €
400-600 €
Île-de-France, France

Vous interviendrez au sein de l’équipe Data et serez chargé.e de concevoir, déployer et optimiser les environnements techniques permettant le traitement des données. Vous assurerez la fiabilité, la scalabilité et la sécurité des infrastructures Big data. Votre rôle Conception et déploiement d’infrastructures Big Data · Concevoir et déployer des architectures distribuées pour les plateformes Big Data · Intégrer les solutions Big Data dans des environnements cloud AWS · Assurer la scalabilité et la haute disponibilité des infrastructures Automatisation et maintenance des environnements · Automatiser le déploiement des environnements · Maintenir et mettre à jour les environnements existants, en assurant leur stabilité et leur performance · Gérer les pipelines CI/CD pour l’intégration continue des workflows Big Data Surveillance et sécurité des systèmes · Surveiller la performance des systèmes · Garantir la sécurité des infrastructures Big Data · Implémenter des mécanismes de sauvegarde et de récupération des données Collaboration et support technique · Collaborer avec les équipes Data (data engineers, data scientists) pour comprendre les besoins métier · Apporter un support technique aux équipes en cas de dysfonctionnement ou d’incidents sur les systèmes Big Data Veille technologique et amélioration continue · Suivre les évolutions des technologies Big Data et des bonnes pratiques · Proposer des améliorations pour anticiper les besoins futurs de l'entreprise

CDI

Offre d'emploi
Data Scientist (F/H)

CELAD
Publiée le
Data science

37k-45k €
Strasbourg, Grand Est

📑 CDI (37-45K€) - 📍 Strasbourg - 🛠 Expérience de 2 ans minimum (hors stages / alternance) Vous êtes passionné(e) par l’intelligence artificielle et ses applications concrètes ? Vous aimez transformer des idées novatrices en solutions opérationnelles ? Nous avons une opportunité qui pourrait vous plaire. 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Data Scientist pour intervenir chez un de nos clients. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Participer activement à chaque étape du projet, de l’exploration R&D à la mise en production dans le cloud - Concevoir des modèles de machine learning (Deep Learning, IA générative) - Réaliser une veille technologique pour rester à la pointe des avancées en IA - Développer des services robustes en Python - Rédiger des spécifications fonctionnelles claires et précises - Contribuer aux daily meetings en méthodologie Scrum

Freelance

Mission freelance
Data Business Analyst

NEXORIS
Publiée le
Data science

6 mois
550-600 €
Lille, Hauts-de-France

Notre client, expert en solutions de paiement et services financiers innovants, recherche un data Business Analyst (H/F) dans le cadre d'une longue mission. Le Data Business analyst accompagne le métier dans le recensement des données utiles à son besoin exprimé. A partir d'une expression de besoin métier, il traduit le souhait en besoins datas. Pour ce, il doit : - animer des ateliers métier, comprendre les besoins métier, les challenger - identifier les données nécessaires à la réalisation de ces besoins, en consolidant l'ensemble des besoins - Modéliser les données (modèle métier entreprise), en assurant une cohérence globale de ce modèle (consolidation des différents projets) - Travailler en binôme avec l'architecte de données pour sourcer les données dans le SIO, et permettre de décliner un modèle de données technique - Travailler avec le data steward pour que celui-ci mette à jour les dictionnaires de données (description, traçabilité, règles de gestion métier), les fiches de données... tous les livrables indispensables à la gouvernance - coordonner avec l'équipe informatique la déclinaison technique des données sur la plateforme Data Ce travail va s'étendre à nos pays Portugal et Espagne, où cette mission est à mettre en place au regard des différents travaux sur les plateformes data à venir.

Freelance

Mission freelance
Chef de projet junior - Grenoble

STHREE SAS pour HUXLEY
Publiée le
Big Data

1 an
300 €
Grenoble, Auvergne-Rhône-Alpes

Notre client recherche un chef de Projet/Business Analyst pour le déploiement du catalogue de données DATA GALAXY. • Piloter la mise en oeuvre de DataGalaxy dans l'écosystème client : Planning, Animation des réunions (Kick-Off, réunion de suivi, support aux ateliers...), gestion des ressources • Monter en compétences sur l'outil pour participer aux activités de rédaction, formation et accompagnement des équipes • Participer à la rédaction des Guidelines (aide à la prise de décision, design et test des solutions possibles dans Data Galaxy) • Être un support des équipes techniques et Data office dans leurs tâches sur l'outil.

Freelance

Mission freelance
Data Architect (H/F) - 92

Mindquest
Publiée le
Big Data

6 mois
400-650 €
La Défense, Île-de-France

Contexte Pour atteindre son objectif stratégique de transformer ses données en un véritable actif, notre client réorganise ses services en créant une Direction DATA et FLUX rattachée au DSI du Groupe. Mission Au sein de cette nouvelle direction, le/la Data architecte est responsable de l’organisation d’une architecture data en ligne avec les objectifs des cas d’usages de la data et des business units. Ce rôle est critique pour la mise en place du management des données que notre client met en place dans le cadre de sa nouvelle organisation. Plus largement au sein de la direction Data et Flux, il/elle contribue au travers de son rôle à la mise en place de la stratégie data driven du groupe et en est le/la porte-parole. Elle/Il apporte son expertise et son conseil lors de la conception des solutions applicatives pour garantir des développements Data by Design. Elle/Il contribue à la gouvernance Data en cours d’implémentation au sein du groupe. Rôle clef du data office, elle/il joue un rôle important dans la conduite du changement du groupe pour garantir une gestion optimale des données. - Définition de la stratégie de gestion des référentiels : Identifier et prioriser les référentiels critiques pour l'entreprise. Contribuer aux travaux de design des référentiels priorisés et designer la stratégie de gestion des référentiels au sein des applications métiers ou d’applications tierces (type MDM) pour garantir le maintien dans le temps de la qualité des données en lien avec les besoins des Business Units. - Gestion des référentiels : Assurer le référencement des référentiels maitres Veiller au travers du design d’architecture data à la cohérence de l’organisation des données à travers les différents systèmes de l’entreprise. - Implémentation de solutions : Définir et mettre en œuvre les solutions de Master Data Management (MDM). Assurer l'intégration des référentiels dans les applications maîtresses. Travailler avec les équipes IT pour le bon déploiement des référentiels au sein de l’IT - Collaboration et gouvernance : Travailler en collaboration avec les responsables métiers pour comprendre et répondre aux besoins en données. Participer à la gouvernance des données et aux comités de pilotage des données. Former et sensibiliser les équipes à la gestion et à l’utilisation des référentiels de données. - Surveillance et amélioration continue : Mettre en place des indicateurs de performance pour mesurer la proportion de données référentielles managées et le reste à faire. Proposer et mettre en œuvre des améliorations pour optimiser la gestion des référentiels.

Freelance

Mission freelance
LEADER BIG DATA anglais courant - Toulouse H/F

Cheops Technology
Publiée le
Big Data
Teradata

2 ans
400-550 €
Toulouse, Occitanie

Experienced data technical leader with ETL and reporting tool skills, to join the Revenue Team Tech lead role, drive the team of technical topics, assist them, give guidelines… Helop on the current project backlog (corrections & new features) Within a 8 people team Mainly innovation proposition Daily interaction with business team in Paris and Amsterdam (business trips can happen) SQL (Teradata) : 50% ETL Powercenter :15% Big Data : 10% Linux : 10% Reporting tool (SAP 4BI & Spotfire) : 10% Others (ControlM, Jira…) : 5% Leader technique de données expérimenté avec des compétences ETL et outils de reporting, pour rejoindre l'équipe Rôle de Tech Lead, piloter l'équipe sur les sujets techniques, les assister, donner des lignes directrices… Aide sur le backlog du projet actuel (corrections et nouvelles fonctionnalités) Au sein d'une équipe de 8 personnes Proposition principalement d'innovation Interaction quotidienne avec l'équipe commerciale à Paris et Amsterdam (des voyages d'affaires peuvent avoir lieu)

Freelance

Mission freelance
Lead Data Engineer Senior

PROPULSE IT
Publiée le
Big Data
engineer
lead

24 mois
450-900 €
Paris, France

PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code

Freelance

Mission freelance
Consultant BI/BO (H/F)

Link Consulting
Publiée le
Big Data
ETL (Extract-transform-load)

1 mois
500-600 €
Toulouse, Occitanie

Notre client, un acteur majeur du secteur industriel, recherche un Data Engineer (H/F) à Toulouse, pour accompagner la gestion et l'optimisation des flux de données au sein de son infrastructure. Vous jouerez un rôle clé dans la mise en place et le suivi des processus ETL, ainsi que dans la visualisation des données. Vos missions : * Concevoir, déployer et optimiser des flux ETL (notamment avec des outils tels que Talend) pour garantir le bon traitement et l'intégration des données. * Gérer et transformer les données en informations exploitables à l’aide d’outils de visualisation comme Power BI et éventuellement Business Objects (BO). * Collaborer avec les équipes techniques et métiers pour comprendre les besoins en données et développer des solutions adaptées. * Assurer la qualité et la fiabilité des données, en mettant en place des processus de validation et de suivi. * Contribuer à l'amélioration continue des systèmes de gestion de données et des flux ETL. Compétences techniques : * Expertise dans la gestion des flux ETL avec des outils tels que Talend ou équivalents. * Bonne maîtrise des outils de visualisation de données, en particulier Power BI (et idéalement Business Objects). * Solides compétences en gestion de bases de données et en transformation de données. * Capacité à travailler en collaboration avec des équipes techniques et métiers pour assurer la cohérence des données.

Offre premium
Freelance

Mission freelance
Senior Data Engineer - Azure & Power BI

BLOOMAYS
Publiée le
Azure Data Factory
Databricks
Microsoft Power BI

6 mois
500-550 €
Gennevilliers, Île-de-France

Mission temps plein longue durée à pourvoir début 2025 2 jours de remote/sem Mise en œuvre de projets data = missions principales o Data engineering : mise à disposition des données dans le datalake au format delta lake (Azure Databricks) ▪ Conception des flux data ▪ Développement des flux data ▪ Mise en œuvre avec le superviseur des flux du monitoring de ceux-ci ▪ Intégration des tests unitaires o Coordination des intervenants SI o Rédaction de spécifications o Etudes, analyses de données et Requêtages o Développement des briques transversales o Mise en place des exigences RGPD/SSI

495 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous