Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 501 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Product Owner Sénior - BORDEAUX

SURICATE IT
Publiée le
Agile Scrum
Big Data

3 mois
100-2 980 €
Bordeaux, Nouvelle-Aquitaine

Product Owner expérimentés avec une forte appétence pour les sujets techniques et la data, un fort intérêt pour le fonctionnel, un bon relationnel et une excellente communication avec des interlocuteurs internes et externes. Product Owner expérimentés avec une forte appétence pour les sujets techniques et la data, un fort intérêt pour le fonctionnel, un bon relationnel et une excellente communication avec des interlocuteurs internes et externes. Product Owner expérimentés avec une forte appétence pour les sujets techniques et la data, un fort intérêt pour le fonctionnel, un bon relationnel et une excellente communication avec des interlocuteurs internes et externes.

Alternance

Offre d'alternance
Data Engineer Junior (H/F) - Alternance

IEF2I
Publiée le
Big Data

24 mois
10k-20k €
Paris, France

L' Ecole DSP , école du groupe IEF2I Education recherche activement pour le compte de l'un de ses partenaires une fintech parisienne, un profil Data Engineer Junior (H/F) en apprentissage, pour une durée de 12 à 24 mois. Sous la supervision de votre maitre d'apprentissage, vos missions principales seront les suivantes : Développement et Maintenance des Pipelines de Données : Concevoir, développer et optimiser des pipelines de données pour extraire, transformer et charger (ETL) les données Assurer la collecte, le stockage, la transformation et la diffusion des données provenant de diverses sources internes et externes Gestion des Bases de Données : Participer à la gestion et à l’optimisation des bases de données relationnelles et non relationnelles Collaborer à la modélisation des données et à la création de schémas de bases de données adaptés aux besoins de l’entreprise Qualité et Intégrité des Données : Mettre en place des processus de contrôle de la qualité des données Identifier et résoudre les problèmes de qualité des données, et proposer des améliorations continues Collaboration et Support : Travailler en étroite collaboration avec les data scientists, data analysts et autres équipes métiers pour comprendre leurs besoins en données et y répondre efficacement Fournir un support technique et résoudre les incidents liés aux pipelines de données Conditions de l'offre : Une opportunité unique de travailler sur des projets innovants et à fort impact Un environnement de travail dynamique et collaboratif Des perspectives d’évolution de carrière au sein de l’entreprise. Rémunération : Selon la réglementation en vigueur pour les contrats d'apprentissage Début du contrat : ASAP

Offre premium
Freelance
CDI

Offre d'emploi
Data Engineer

WINSIDE Technology
Publiée le
Google Cloud Platform
Python
SQL

1 an
10k-56k €
Lille, Hauts-de-France

Winside Technology , jeune ESN dynamique, crée en 2020, continue son développement. Au fil des ans, elle a connu une très belle croissance , avec l'ouverture de nouveaux clients (plus d’une quarantaine à son actif dans différents secteurs), l’ accroissement de sa communauté (actuellement plus de 150 collaborateurs), et des événements techniques et festifs reconnus à ce jour ! Winside Technology est actuellement présent à Paris , Lille et Bordeaux . Et ce n'est que le début ! Si tu recherches une entreprise jeune et dynamique, pour qui évoluer est le mot d'ordre , n'attends plus ! Aujourd'hui nous recherchons un/e Data Engineer / Data Ops pour un groupe international sur Lille. Ce que l'on attend de toi … ✨ Développer et optimiser des pipelines de données en Python ✨ Créer des flux de données efficaces pour le traitement et l’analyse d’une grosse volumétrie de données ✨Gérer des solutions de données sur GCP ✨Utiliser des services cloud pour le stockage, le traitement et l’analyse des données à grande échelle ✨Concevoir et maintenir les bases de données (SQL) ✨Evoluer dans un environnement AGILE (Scrum ou Safe) ✨Participer activement au processus d’amélioration continue de la chaine de production technologique ✨Faire de la veille technique et être force de proposition. Présence sur site 4 jj par semaine Disponibilité pour un démarrage mi-novembre Durée de la mission : Mission longue (Renouvellement par trimestre) Les petits + pour les personnes intéressées par un CDI : Intégrer notre communauté d'experts techniques, dans laquelle tu pourras apprendre et être force de proposition pour l'amélioration continue de l'application. Bénéficier d’une formation sur mesure adaptée à ton profil Un système de prime de cooptation qui n’existe nulle part ailleurs Une entreprise jeune et ambitieuse où il fait réellement bon vivre 9 à 12 RTT par an Primes vacances Mutuelle prise en charge à 100% Frais mobilité de 4 euros par jour travaillé On t'embarque dans l’aventure Winside Rejoindre la communauté des Winsiders, c’est commencer une belle aventure au sein d’une société en pleine évolution, qui a à cœur de créer une structure centrée sur ses collaborateurs et sur le respect d’autrui. Tu te reconnais ? Alors, tu es fait.e pour nous rejoindre ! Viens échanger avec nous !

Freelance

Mission freelance
Backlog Manager (H-F)

Groupe Aptenia
Publiée le
Agile Scrum
Big Data
Gestion de projet

3 ans
650-700 €
Paris, France

Principales responsabilités Dans le cadre de sa transformation, la division Data & Regulatory souhaite renforcer ses équipes avec un Backlog Manager , dont les missions seront les suivantes : Construire et gérer un Backlog Global pour la division. Collaborer étroitement avec les leaders de chaque stream et les Product Owners pour livrer la roadmap globale de la division. Assurer la préparation et l'exécution des artefacts Agile clés (planification stratégique, PI planning, Sprint planning...). Animer les scrums et maintenir à jour le tableau de bord Scrum. Garantir un service de haute qualité , en comprenant l'environnement de travail et les attentes métiers. Coordonner avec les leaders IT et les managers de release pour garantir un déploiement fluide en production. Assumer le rôle de Chef de projet global en suivant de près les parties prenantes internes et externes. Superviser la cohérence du Backlog et veiller à son alignement avec les priorités stratégiques. Assurer une communication fluide avec les autres responsables de streams et la direction IT.

Freelance

Mission freelance
Ingénieur IT / OT (SCADA - Industrie 4.0)

Mon Consultant Indépendant
Publiée le
Data science
SCADA

6 mois
600-700 €
Nogent-sur-Seine, Grand Est

En collaboration avec l’équipe du programme de transformation du métier des malteries, vous serez responsable des pré-requis techniques permettant le déploiement d’une solution d’intelligence artificielle. Le projet Industrie 4.0 vise notamment à optimiser les processus de fabrication industrielle, sur les sites industriels à l’international du client. Vous aurez en charge la standardisation des données industrielles sur la base des supervisions, des PLC et des solutions d'automatisation utilisés en production. Vous serez intégré à l’équipe d’ingénieurs IT / OT, qui vous guidera, dans les premières semaines, pour appréhender le processus industriel de maltage. En interaction quotidienne avec des équipes pluridisciplinaires (Business Product Owner, Product Manager, responsables de production et maintenance des sites, chefs de projet Transformation…), vous reporterez au chef de projet Industrie 4.0, sous la codirection du Directeur Industriel et Directeur Transformation. Vos principales missions : Standardiser les données reçues via les automates des sites industriels (création du core model des données industrielles) Créer les spécifications des modèles de données (à partir du code automate, basés sur les supervisions WinCC, Schneider…) pour chaque étape du processus industriel de maltage, à destination du partenaire externe en charge du traitement de ces données Gérer les éventuelles pannes automates et/ou AVEVA (Historian) avec les sites industriels, de manière adhoc Participer aux réunions de pilotage du projet Industrie 4.0 en tant qu’expert technique PROFIL RECHERCHE L'ingénieur OT retenu devra avoir une expérience pratique des systèmes SCADA et une bonne expérience de l'automatisation des processus, en secteur industriel. COMPETENCES SOUHAITEES +3 ans d’expérience sur la création et la maintenance de codes automates / supervisions Expérience en tant qu’automaticien en industrie (la connaissance du secteur agroalimentaire et/ou agricole sera appréciée) Raisonnement analytique et appétence pour le traitement de données Bonne communication écrite et orale Anglais indispensable (B2 minimum) ENVIRONNEMENT & CONDITIONS MISSION La mission est d’une durée initiale de 3 mois (renouvelable), avec un rythme idéalement de 5 jours par semaine (possible 4j). Démarrage immédiat requis. Après une période d’intégration à l’équipe et de formation (deux semaines environ, à 1h de Paris en train), au siège et auprès du partenaire IA (lieu : La Défense), la mission pourra avoir lieu à 90% en distanciel. Des déplacements ponctuels sur les sites industriels (République Tchèque, Allemagne, Serbie, UK…), à raison de 2-3 jours par mois maximum, sont à prévoir. Budget : 600-650€/jour (+ prise en charge des déplacements et des déjeuners sur site)

CDI

Offre d'emploi
Responsable de Plateforme Data

Phaidon London- Glocomms
Publiée le
AWS Cloud
Big Data
ETL (Extract-transform-load)

75k-115k €
Paris, France

En partenariat avec un client financier établi de GloComms, nous recherchons un responsable senior de la plateforme de données pour aider à diriger le développement et la gestion de la plateforme de données existante. Role: Responsable de Plateforme Data Lieu: Paris Hybride Teletravail Debut: Novembre/Decembre Role: Superviser la création et l'entretien d'une infrastructure et d'une plateforme de données sûres, évolutives et performantes. Travailler avec les équipes de Data Science, Data Engineering et Quant pour s'assurer que les pipelines de données et les procédures s'intègrent de manière transparente. Superviser le développement de services et de parties communes utilisés par les équipes Data et Quant. Réduire le temps de mise en production en rationalisant les opérations de développement à l'aide de l'automatisation et de modèles réutilisables. Superviser un groupe multidisciplinaire d'ingénieurs en logiciels, en fiabilité des sites et en DevOps. Établir, mettre en pratique et garder un œil sur les KPI qui sont liés à la valeur de l'entreprise et à l'expérience de l'utilisateur.

Freelance
CDI

Offre d'emploi
Data Engineer

SARIEL
Publiée le
Agile Scrum
Apache Spark
Big Data

3 ans
10k-62k €
Paris, France

Bonjour, Nous recherchons pour un pote à pourvoir ASAP pour notre client banque basé en Région parisienne un profil Data Engineer La mission consiste à intégrer l'équipe Projets en charge de l'intégration des données de l'entreprise au sein de la plateforme Data sous le Cloud Azure afin de couvrir les besoins Big Data et BI de nos métiers. La personne sera intégrée dans l'équipe projet qui fonctionne dans une organisation en mode Agile. Nous recherchons un Data Engineer confirmé/sénior avec une forte expertise sur Azure, Databricks, Spark, Scala, Python et SQL · Développement et l’implémentation de solutions Big Data Analytics · Analyse du besoin, étude d'impacts et conception de la solution technique · Conception et modélisation des données au niveau d'un Data Lake (format Parquet, Delta table, …) · Construction des pipelines de données pour collecter, transformer et traiter des données dans le Data Lake · Développements de notebooks (ex : Databricks) de traitements avancés des données · Cloud Datawarehousing (tuning, optimisation de traitements et requêtes SQL) · Rédaction de documentation technique (Dossier d'Analyse Technique, release delivery note, ….) · Revue de code · Réalisation de tests unitaires · Maintenance corrective et évolutive · Livraison dans un environnement Devops, CI/CD et outils associés Compétences techniques requises · Expérience Data minimum 5 ans · Azure minimum 3 ans · Expérience architecture Lakehouse minimum 2 ans · Databricks minimum 5 ans · Spark minimum 5 ans · Scala, Python, SQL minimum 5 ans · Maitrise de CI/CD, Azure DevOps minimum 3 ans · Connaissance des outils Agile (JIRA) et ayant déjà travaillé en mode Agile minimum 1 an Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format Word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.

Freelance
CDI

Offre d'emploi
Data Manager – Video - Automobile (F/H)

CELAD
Publiée le
Data management

12 mois
60k-65k €
Créteil, Île-de-France

📑 CDI (65K€) / Freelance / Portage Salarial - 📍 Créteil - 🛠 Expérience de 8 ans minimum Nous recherchons un Data Manager pour renforcer son équipe dédiée à la validation du système de surveillance des conducteurs . Ce système est basé sur des caméras embarquées dans l'habitacle des véhicules, qui enregistrent des données telles que le niveau de fatigue, de vigilance et de stress du conducteur. L'objectif est de gérer l'ensemble du cycle de vie des données générées, depuis leur collecte jusqu'à leur archivage et leur traitement. Vos responsabilités : Assurer la gestion des données de validation (collecte, traitement, stockage, archivage) pour le système DMS. Tâches principales : Prendre les disques durs contenant les données collectées dans les véhicules. Gérer et stocker ces données (incluant des volumes massifs tels que des vidéos en streaming). Archiver les données et estimer les coûts liés à ce processus. Transférer les données vers les différents sites du client. Assurer la conformité aux exigences RGPD. Injecter les données dans des bancs de tests pour la validation. Étudier des solutions de stockage sur le cloud (GCP et AWS par exemple).

Freelance
CDI

Offre d'emploi
Architect IA et Data

ENGIT
Publiée le
Architecture
Big Data

3 mois
10k-60k €
Les Mureaux, Île-de-France

engIT est une jeune société d'ingénierie, dédiée à l'innovation, animée par des passionnés de technologies et d’innovation en IT créée en 2017 à Sophia Antipolis et aujourd'hui présente à Nice, Aix, Lille, Paris et Monaco... Objets connectés, IA, Big Data, Deep Learning, véhicules autonomes, réalité augmentée, UX, logiciels embarqués, cyber sécurité, Blockchain, Cloud, mobilité, ne sont qu’une partie de nos centres d'intérêts. L’équipe engIT Paris, recherche un/une : Architecte IA et Data Pour accompagner son client

Freelance
CDI

Offre d'emploi
Data Architect GCP

K-Lagan
Publiée le
Architecture
Big Data
Google Cloud Platform

1 an
10k-70k €
Niort, Nouvelle-Aquitaine

Chez K-LAGAN , nous sommes à la recherche d'un-e Architect des solutions, data GCP, au sein de notre équipe des experts DATA, chez un de nos clients - secteur assurances, 📍 Niort (Nouvelle-Aquitaine, hybride). 🔥Rejoignez une aventure passionnante au sein du cabinet Pure Player Data & IA du Groupe🔥 Vous intégrerez une super équipe d'experts passionnés, et utiliserez les technologies de pointe. Vous aurez l'opportunité de travailler sur des projets innovants, de collaborer avec des partenaires de renom et d'apporter votre expertise à une entreprise en pleine croissance. 🧑‍💻 Compétences nécessaires : Connaissance et maître du cloud GCP Capacité à construire une feuille de route technique de mise en œuvre de plateforme Data (type Hub/lakehouse) Capacité à construire des plans de migration data cloud Connaissance des architectures hybrides/ multiCloud Bon background engineering. Connaissance CI/CD Avoir, au minimum, 3-5 ans d'expérience en tant qu'architecte BIG DATA (hors stage et/ou alternance).

CDI

Offre d'emploi
Profils Data en pré-embauche

SARIEL
Publiée le
Big Data

10k-65k €
Paris, France

Pour un de nos clients situé dans la région parisienne nous cherchons en pré-embauche, les différents profils suivants: Profils Data maitrisant DataLake. La connaissance de l'anglais est un vrai plus. Nous recherchons obligatoirement des profils en CDI et non des indépendants. Le salaire est compris entre 45 et 55 Ke pour les confirmés et entre 55 et 60-65 Ke pour les experts. Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format Word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.

Freelance

Mission freelance
Lead Data Engineer Senior

PROPULSE IT
Publiée le
Big Data
engineer
lead

24 mois
450-900 €
Paris, France

PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code

Offre premium
Freelance

Mission freelance
Devops

ESENCA
Publiée le
Administration linux
BigQuery
Docker

3 mois
400-430 €
Lille, Hauts-de-France

Vous participez au quotidien à la bonne mise en oeuvre des éléments suivants : - Un déploiement régulier des applications - Des montés de version régulières des applications - Une pratique des tests dans un environnement similaire à celui de production - Une intégration continue incluant des « tests continus » ; - Une surveillance étroite de l'exploitation et de la qualité de production via des métriques factuelles - Une Analyse des problèmes de performances - Une Gestion des outils de CI/CD - Une Mise en place d'outils / de rapports pour les équipes de développement - Une Gestion et automatisation des environnements des développeurs - Une prise en compte de la sécurité dès la conception - Vous êtes en capacité de traiter le développement d'api ou de solutions en backend pour de petites applications. - Mise en place des bonnes pratiques auprès des utilisateurs - Participations ponctuelles aux guildes des leaders techniques Vous maintenez en conditions opérationnelles les environnements applicatifs et la plateforme. - Gestion des incidents - Gestion des tickets de RUN remontés par les utilisateurs Hard Skills : - Stockage des données: PostgreSQL, ElasticSearch, BigQuery, MongoDB - Orchestrateurs : Kubernetes, Helm, Docker - Administration systèmes Gnu / Linux (Debian/Ubuntu/Alpine …) - Administration réseau (réseau VPC, VPN, Firewall, Traefik, load balancing) - CI/CD : GitHub Action, Terraform - Monitoring : Prometheus, AlertManager, Grafana, GCP StackDriver, Datadog - Cloud : Google Cloud Platform - Sécurité : IAM, Gestion de droits, gestion d'accès applicatifs, Vault (appRole / policies) - Langages : Shell, Python - Frameworks : FastApi, Django - Echange de données : Kestra, Kafka Soft Skills : - Empathie - Pragmatisme - Disponibilité - Curiosité - Adaptabilité - Bonne communication Mission long terme, présence sur site (Région lilloise) exigée 3j/semaine

CDI

Offre d'emploi
Data Engineer (H/F)

NSI France
Publiée le
Apache Airflow
Google Cloud Platform
Python

50k-60k €
Paris, France

En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Conception des solutions nécessitant l’utilisation de technologies cloud & data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données dans le Cloud · Travaille avec différents profils data du groupe (Data Scientist, data engineer, data architect, data analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne

Offre premium
CDI

Offre d'emploi
Ingénieur Cloud h/f

ITS GROUP
Publiée le
AWS Cloud
Azure
Google Cloud Platform

50k-59k €
Lille, Hauts-de-France

Analyser le système de stockage des données de l’organisation ; Recueillir les besoins de l’ensemble des utilisateurs en ce qui concerne les données (sécurité et accès) ; Établir le cahier des charges en fonction des différentes observations ; Repérer les appels d’offres intéressants , choisir et négocier avec les fournisseurs pour l’achat ou la location de solutions de stockage, ainsi que pour leur installation ; Gérer la relation client/fournisseur et faire la lien avec la Direction générale ; Effectuer les migrations de données nécessaires vers les solutions de stockage ; Valider tous les aspects techniques du stockage ; Accompagner toutes les parties prenantes dans l’appropriation des nouveaux systèmes (formations, documentation ad hoc…) ; Résoudre les éventuelles pannes ou dysfonctionnements ; S’assurer de la sécurisation des données .

Freelance
CDI

Offre d'emploi
Directeur de projet migration Data - snowflake

Digistrat consulting
Publiée le
Big Data
Hadoop

3 ans
50k-60k €
Paris, France

🏭 Secteurs stratégiques : Banque de détail 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Les données transversales sont historiquement hébergées dans 3 entrepôts de données en technologie Teradata ainsi que dans divers datamarts utilisant plusieurs solutions d’accès aux données (Microstrategy, SAS, DataIku). Les data pipelines utilisent majoritairement les solutions DataStage et Informatica. Afin d’optimiser les coûts de run (TCO) et de gagner en productivité, nous envisageons de migrer en mode « lift end shift » les entrepôts de données et la partie data lake vers une solution lake house (Snowflake ou Databricks) avec un enjeu fort sur les délais. Une étude de cadrage détaillée a été lancée cet été et doit se terminer fin 2024 en vue de démarrer la phase d’exécution du projet de migration dès janvier 2025 afin de pouvoir tenir nos jalons. Cette étude vise à : Finaliser le Business case, la formalisation de la valeur métier et l’estimation des coûts (éditeurs, intégrateurs, SG, infrastructure on-premise et public cloud) Préciser l’architecture cible et en particulier la strategy à adopter sur le code ETL/ELT et les couches d’accès à la donnée Identifier avec précision l’ensemble du code/données à migrer en incluant les usages industriels et ceux de type shadow IT Contractualiser un forfait avec l’éditeur avec engagement de résultat sur la migration et potentiellement un second forfait avec un intégrateur pour assurer le déploiement dans l’infra SG du code migré ainsi que les tests d’acceptance permettant de valider les livrables de l’éditeur Définir la stratégie de migration (découpage en lots, périodes de freeze, stratégie de tests, prallel run...) dans un environnement avec une forte complexité applicative (grand nombre d’interdépendances) et organisationnel (plus d’une vingtaine d’équipes à coordonner) Construction de la roadmap de migration, de son suivi, définition des KPIs/critères de succès avec un focus fort sur le suivi contractuel des éditeurs/intégrateurs et la définition de la gouvernance associée Instruire les process SG visant au bon respect de nos règles de sécurité, d’architecture et de nos principes data dans le cadre réglementaire applicable Dans ce cadre la prestation consiste à contribuer à/au(x) : Contribuer au pilotage de l’étude détaillée 2024, Livrables, suivi et gestion dans son ensemble Reporting au senior management

501 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous