Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data à Paris

Ce qu’il faut savoir sur Big Data

Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Votre recherche renvoie 341 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Data Engineer/ ingénieur de données

Phaidon London- Glocomms
Publiée le
Java
Python
Scala

6 mois
400-550 €
Paris, France

Développer et maintenir nos pipelines de données : Concevoir, mettre en œuvre et optimiser des pipelines de données évolutifs qui gèrent à la fois les flux de données par lots et en temps réel. Piloter les changements dans nos processus de développement : Améliorer et faire évoluer en permanence nos flux de travail et processus de développement pour augmenter l'efficacité, l'évolutivité et la fiabilité. Développer et pérenniser notre architecture de données : Contribuer à la conception et à l'amélioration d'une architecture de données robuste et évolutive hébergée dans le cloud AWS. Ingénierie et maintenance de l'infrastructure de données : Créer, configurer et maintenir l'infrastructure de données sous-jacente qui prend en charge l'ingestion, le stockage et le traitement des données. Optimiser l'utilisation des ressources cloud pour garantir la rentabilité, les performances et la sécurité.

CDI
Freelance

Offre d'emploi
Technicien support applicatif TEM

RIDCHA DATA
Publiée le
Java
Microsoft Excel
Shell

1 an
40k-45k €
400-480 €
Paris, France

Ridchadata recrute en CDI / Freelance pour l'un de ses clients grand compte ! Poste : Technicien Support Applicatif Localisation : Paris (2 jours sur site, le reste en télétravail) Type de contrat : CDI / Freelance Description de la mission : En tant que Technicien Support Applicatif , vous intégrerez une équipe dynamique dédiée au maintien en conditions opérationnelles sur des solutions TEM. Votre mission : 🔹 Intégration des données : Intégrer les données provenant des opérateurs et mettre à jour les référentiels pour assurer la cohérence des informations dans l’applicatif. 🔹 Supervision du système : Superviser les flux entre solutions, SI clients et opérateurs, avec un focus sur les échanges par API. 🔹 Gestion des anomalies : Analyser et résoudre les incidents technico-fonctionnels en respectant les SLA. 🔹 Support aux utilisateurs : Assurer un support de qualité auprès des utilisateurs internes et clients. 🔹 Conformité SI : Veiller au respect des normes et standards Docaposte, notamment en matière de sécurité. 🔹 Amélioration continue : Participer à des ateliers internes pour améliorer les solutions et prestations, tout en étant force de proposition pour l’évolution des outils.

Freelance

Mission freelance
Manager Réseau Sécurité Datacenter - Cloud privé

PROPULSE IT
Publiée le
Cloud

24 mois
450-900 €
Paris, Île-de-France

PROPULSE IT recherche un Manager/Pilote - Réseau et Sécurité Datacenter afin d'assister le client dans le pilotage de l'aquipe de consultants experts Le service s'occupe de la conception, la mise en œuvre et l'industrialisation de l'Infra réseau et sécurité au sein des datacenters et cloud privé. Cela, de l'élaboration de la stratégie, la conception, à la mise en œuvre technique et le support des Infras en datacenter (Cloud privé on premise) Le poste consiste à : - Seconder le manager des équipes d'experts - Accompagner l'établissement de la Roadmap - Optimiser les processus et les livrables, ainsi que l'organisation - Accompagner le pilotage des projets - Gérer les priorité, fluidifier le fonctionnement - Budgets Contexte des projets de l'équipe : Virtualisation, Stockage et le socle Réseau datacenter - Etude et analyse des opportunités d'évolution des infras Réseau & Sécurité - Mise en œuvre de projets d'infras réseau & sécurité - Support technique N3 sur les technologies réseau & sécurité Contexte technique • Réseaux LAN : Cisco Fabric Path/VxLAN, • Solutions de sécurité dans le cloud (Proxy ZScaler, Idp OKTA …) • Infras de Sécurité : Checkpoint, Fortinet, Palo Alto et F5 (LTM et APM) • Scripting Shell, Ansible Network Automation, Terraform • Système : Redhat linux 8, Windwos 2019 Les compétences fonctionnelles attendues sont les suivantes (par ordre de priorité) : • Conception des architectures et expertise • Support N3 en réseau et sécurité, notamment ZScaler, Checkpoint, Fortinet et F5 • Rédaction/ Enrichissement de base de connaissances • Reporting de l'activité projet au management

Freelance

Mission freelance
Scientifique de données principal

twentyAI
Publiée le
Azure
Data science
Preuve de concept (POC)

3 mois
720-870 €
Paris, France

Data Scientist Senior – Ingénieur NLP & RAG (Freelance – Paris) Entreprise : Recrutement pour le compte d'un leader mondial des services d'assurance et financiers Lieu : Paris, France (Hybride, 2 jours au bureau par semaine) Contrat : Freelance, contrat glissant de 3 mois (renouvelable) Rémunération : Jusqu'à 870 € par jour Langues : Anglais (courant, écrit et parlé) et français (niveau conversationnel requis) À propos du poste : Nous recherchons un Data Scientist Senior expérimenté spécialisé dans l'architecture NLP et RAG pour rejoindre une équipe GenAI à fort impact. Vous jouerez un rôle clé dans le développement et l'optimisation de modèles de génération augmentée de récupération (RAG) de pointe au sein d'un leader mondial des services d'assurance et financiers. Il s'agit d'un poste rapide et axé sur l'innovation où vous collaborerez avec des ingénieurs en IA, des équipes de recherche et des parties prenantes de haut niveau pour déployer des solutions d'IA avancées. Principales responsabilités : Développer et optimiser les modèles RAG – S'assurer que les modèles sont prêts pour la production et à la pointe de la technologie. Diriger des POC rapides – Déployer des projets de preuve de concept rapides (cycles moyens de 2 semaines) et itérer en fonction des résultats. Mettre en œuvre l'IA dans un système multi-modèle – Travailler au sein d'un système d'IA évolutif intégré à l'assurance et à la gestion des risques. Affiner les modèles NLP de manière indépendante sans assistance externe. Travailler sur l'infrastructure Azure – Maintenir tout le développement de l'IA dans un environnement basé sur Azure. Collaborer avec les équipes de recherche et d'ingénierie – Collaborer avec une équipe de recherche de 50 personnes, des ingénieurs en IA et des équipes de logiciels à Paris et en Espagne. Traduire les besoins de l'entreprise en solutions d'IA – Travailler avec des équipes interfonctionnelles pour aligner les modèles d'IA sur des applications pratiques.

Freelance
CDI

Offre d'emploi
Data Engineer Spark Scala Kafka- Monitoring Datalake Finance

VISIAN
Publiée le
Apache Spark
Hadoop
Scala

6 mois
40k-45k €
400-580 €
Paris, France

Contexte & Objectifs Au sein du service Gouvernance, Administration et Monitoring de la DSI Finance, la mission vise à développer et optimiser une brique applicative de monitoring des flux et traitements de données , en lien avec le programme GASPARD . L’objectif est d’assurer la qualité de service et le respect des délais de mise à disposition des données, notamment face à l’augmentation des volumes prévue en 2024-2025. D’une durée de 6 mois , cette mission doit finaliser les travaux en cours et garantir les performances pour les futurs déploiements. L’équipe est basée à Paris , avec des interactions quotidiennes avec les équipes GASPARD à Paris et Porto . L’anglais est donc indispensable. Description & Activités Collecte et mise à disposition des données pour l’entreprise. Industrialisation et mise en production des traitements (tableaux de bord, intégration de modèles). Développement et optimisation des pipelines d’ingestion (streaming & batch). Mise en production de modèles statistiques et traitements Spark . Développement de scripts et jobs de traitement (mapping, normalisation, agrégation). Développement d’API et dashboards pour la restitution des données. Administration et configuration de clusters Hadoop et Spring Boot pour l’extraction et l’intégration des données via Kafka et Data Lake . Profil & Informations Expérience requise : 6 à 9 ans. Localisation : paris 13. Début souhaité : 03/03/2025. Mode de travail : hybride ( 2 jours sur site minimum / 10 jours de télétravail max si convention).

Freelance

Mission freelance
DevOps Infrastructure Data – AWS & Azure

RED Commerce - The Global SAP Solutions Provider
Publiée le
AWS Cloud
Azure
Github

6 mois
480-530 €
Paris, France

nous recherchons un Ingénieur DevOps spécialisé en infrastructure autour de la data , avec une expertise sur AWS et Azure . Vous interviendrez sur des projets Build et Run , en charge du déploiement et de l’optimisation des infrastructures cloud. Missions Déploiement et gestion des infrastructures cloud sur AWS (S3, Lambda, ECS) et Azure (Data Lake Gen2, Azure App Service). Mise en place et maintenance d’Infrastructure as Code Développement et optimisation des pipelines CI/CD Intégration d’outils Data (Databricks, Data Catalog…). Suivi des performances et amélioration continue des infrastructures. Stack technique ✅ AWS & Azure, Terraform, GitHub Actions, Databricks, ...

Freelance
CDI

Offre d'emploi
Développeur backend Java Core Confirmé ou Sénior - Multithreading calculs distribués- Appache Ignite

Digistrat consulting
Publiée le
Big Data
DevOps
Java

3 ans
50k-70k €
500-600 €
Paris, France

🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, et Apache ignite pour le calcul distribué, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins

Freelance

Mission freelance
Architecte technique / Expert réseau sécurité Datacenter

PROPULSE IT
Publiée le

24 mois
400-800 €
Paris, Île-de-France

PROPULSE IT Recherche pour un de ses clients grands comptes : Un Architecte technique / Expert réseau sécurité Datacenter L'objectif est d'assister le client dans la conception, mise en œuvre et industrialisation Infra réseau et sécurité au sein des datacenters. L'intervenant doit obligatoirement avoir des compétences avancées en : ▪ Conception d'architecture réseau complexe en datacenter ▪ Déploiement de projet d'envergure en réseau et sécurité ▪ Etudes de faisabilité technique et financière (DAT et Chiffrage des propositions) ▪ Support N2 et N3 sur des infras critiques en production ▪ Maitrise technique avancée les technologies Cisco Nexus/VXLAN, firewall Fortinet, Checkpoint et Palo Alto, F5 LTM et APM, Proxy ZScaler Mission : Etude et analyse des opportunités d'évolution des infras Réseau & Sécurité Mise en œuvre de projets d'infras réseau & sécurité Support technique sur les technologies réseau & sécurité

CDI

Offre d'emploi
Data Engineer - AWS - Energie

ISALYS Digital Lab
Publiée le
AWS Cloud
Terraform

40k-65k €
Paris, France

ISALYS cherche à renforcer ses équipes avec un Ingénieur Data Engineer AWS expérimenté pour un de nos clients dans l'Energie renouvelable. Vous aurez la charge la mise en place d'un orchestrateur. Stack Technique indispensable : Maitrise de Terrafom Cloud AWS Anglais bon niveau Informations pratiques : Localisation : Paris Contrat : CDI Que propose -t-on chez Isalys ? Evolution sur des projets variés vous permettant d’intervenir auprès d’acteurs innovants dans leurs domaines respectifs, en développant vos compétences techniques, transversales et humaines Accompagnement mensuel et suivi de carrière personnalisé avec votre manager Echanges avec des experts métiers ISA Afterwork & événements réguliers pour vous faciliter votre intégration Etapes du processus de recrutement Echange téléphonique pour valider que vos attentes correspondent à notre vision 1er entretien pour discuter d’ISALYS, de votre projet professionnel et vos aspirations Vous échangez avec un ou plusieurs Business Managers sur nos opportunités professionnelles et nos missions Vous avez franchi notre sélection ? Vous êtes motivé par notre plan de carrière ? Signature du contrat de travail et Bienvenue au sein d’ISALYS !!!!

Freelance

Mission freelance
Consultant Data Migration S/4 Hana - 2 jours de TT

Intuition IT Solutions Ltd.
Publiée le
Migration
SAP S/4HANA

6 mois
Paris, France

Description du poste Nous recherchons un(e) Consultant(e) Data Migration S/4HANA pour accompagner notre client, un leader mondial du secteur pétrolier et gazier, dans sa transition vers SAP S/4HANA. Le/la candidat(e) idéal(e) jouera un rôle clé dans la migration des données critiques, en garantissant leur qualité, leur intégrité et leur conformité tout au long du processus. Responsabilités principales Analyse des besoins : Identifier les exigences métier et techniques pour la migration des données vers SAP S/4HANA. Stratégie de migration : Élaborer une stratégie de migration des données, en définissant les approches, les outils et les processus adaptés. Extraction, transformation et chargement (ETL) : Gérer les processus ETL, y compris l'extraction des données des systèmes sources, leur transformation et leur chargement dans SAP S/4HANA. Qualité des données : Garantir la qualité et l'intégrité des données migrées grâce à des validations, des nettoyages et des tests approfondis. Coordination inter-équipes : Collaborer avec les équipes fonctionnelles et techniques pour garantir une migration sans heurts. Documentation : Créer et maintenir une documentation détaillée sur les processus de migration des données. Support post-migration : Assurer un support après la migration pour résoudre les problèmes éventuels et optimiser les performances. Compétences requises Expérience : Minimum 5 ans d'expérience en migration de données, avec au moins 2 projets sur SAP S/4HANA. Connaissance approfondie des méthodologies de migration de données dans des environnements complexes. Compétences techniques : Maîtrise des outils SAP de migration de données tels que SAP Data Services, LTMC (Legacy Transfer Migration Cockpit) et LSMW (Legacy System Migration Workbench). Connaissance approfondie des bases de données relationnelles (SQL) et des processus ETL. Expérience dans l'intégration des données entre systèmes SAP et non-SAP. Compétences fonctionnelles : Bonne compréhension des modules SAP (MM, SD, FI/CO, PP, PM) et de leurs dépendances liées aux données. Connaissance des structures et des exigences spécifiques aux données du secteur pétrolier et gazier. Soft Skills : Solides compétences en gestion de projet et capacité à travailler dans des délais serrés. Excellentes aptitudes à résoudre des problèmes complexes. Capacité à collaborer avec des équipes multidisciplinaires dans un environnement international. Description du poste

CDI

Offre d'emploi
Data Engineer Snowflake / SSIS - (H/F) - Paris - End User

Tenth Revolution Group
Publiée le

0 €
Paris, Île-de-France

Vos missions principales : Garantir la continuité des pipelines de données : Superviser et maintenir les flux existants (SSIS, SnowSQL, Python) afin de veiller à la qualité et à la disponibilité des données. Conduire la migration vers Snowflake : Achever le processus de migration des chaînes de traitement legacy (SQL Server) vers notre infrastructure moderne basée sur Snowflake. Collaborer avec les équipes métier : Participer activement aux ateliers avec les parties prenantes pour comprendre les besoins métiers, et proposer des solutions pragmatiques et durables. Développer de nouvelles intégrations de données : Concevoir et mettre en œuvre de nouveaux pipelines pour enrichir notre datalake avec des données provenant de sources variées (batch, API). Modéliser les données selon les besoins métier : Définir et implémenter les règles métier afin de créer des tables et des vues pertinentes, répondant aux besoins exprimés. Valider les données : Travailler avec les Product Owners (PO) et les équipes métier pour effectuer la recette des données et garantir leur conformité aux exigences. Déployer des solutions avancées : Concevoir et implémenter des algorithmes complexes selon les besoins métiers spécifiques (ex. création d'un référentiel client unique, personnalisation algorithmique, etc.).

Freelance
CDI

Offre d'emploi
Ingénieur DevSecOps / Expert Sécurité GitLab

RIDCHA DATA
Publiée le
Ansible
API
BigQuery

1 an
55k-70k €
480-600 €
Paris, France

Lieu : PARIS , Remote / Télétravail partiel Type de contrat : Mission Freelance / CDI À propos de RidchaData Nous recherchons un expert en cybersécurité et DevSecOps pour l’un de nos clients grand compte, acteur majeur du secteur, afin de participer à un projet stratégique ambitieux. Missions En tant qu'expert, vous serez en charge de déployer et sécuriser des scanners de sécurité sur GitLab Ultimate dans une démarche DevSecOps avancée . Votre rôle consistera à : Déployer des scanners de sécurité centralisés via le compliance Framework et les policies sans altérer les performances des pipelines CI/CD. Exploiter les services GCP (Runner, GKE, Cloud Functions) pour orchestrer ces scanners. Automatiser l'assignation des projets aux cadres de sécurité via GitLab CI/CD et l'API Gitlab. Gérer et remédier aux vulnérabilités à travers des Dashboard et des procédures standardisées. Organiser des pilotes pour valider les choix d'implémentation et former les équipes. Livrables attendus Documentation complète sur Gitlab Compliance Framework et la gestion des droits. Scripts d’automatisation des pipelines CI/CD sécurisés . Rapports de suivi et validation des règles de sécurité . Tableaux de bord et indicateurs de suivi des vulnérabilités . Guide DevSecOps et documentation du modèle opérationnel. Template et checklists pour l’intégration de nouveaux projets.

Freelance

Mission freelance
Business Analyst - Collibra

KEONI CONSULTING
Publiée le
Big Data
Cloud
Snowflake

12 mois
100-500 €
Paris, France

Contexte Contexte de la mission : Le profil recherché interviendra dans le cadre de l'Operating Model au sein du département IS, plus précisément les équipes Data Governance. Notre client est à la recherche d’un BA Collibra qui travaillera en étroite collaboration avec le Lead Data Governance pour soutenir l'exécution du Programme, partager les bonnes pratiques et définir le modèle cible du data cataloging. MISSIONS : Mettre en place et gérer des politiques de gouvernance des données pour assurer leur qualité, leur conformité et leur sécurité, Créer et maintenir un catalogue de données centralisé pour faciliter l'accès et la compréhension des données au sein de l'organisation, Tracer l'origine et le parcours des données à travers les systèmes pour assurer leur intégrité et leur fiabilité, Travailler avec diverses équipes pour promouvoir une culture axée sur les données et assurer une utilisation cohérente des outils de gestion des données.

CDI
Freelance

Offre d'emploi
CHEF DE PROJET BI/AZURE - Paris

Webnet
Publiée le
Azure
Azure Data Factory
Data management

6 mois
50k-60k €
550-600 €
Paris, France

Dans le cadre d'un projet chez l'un de nos clients grands comptes, nous sommes à la rechercher d'un Chef de projet BI/Azure . Vous prendrez en charge la la mise en place et la gestion de nouveaux de projets data & analytics : Vous serez responsable de la gestion des projets liés aux données clients : identification des parties prenantes, recueil des besoins, définition de la solution technique, estimation de la charge de travail, coordination avec les autres équipes, définition des feuilles de route, suivi opérationnel du déploiement et validation des livrables. Avec les équipes vous validez et maintenez l'environnement d'exploration et d'exploitation analytique. Vous serez en charge d’identifier et de qualifier les use cases avec les équipes business, établir des priorités, planifier et surveiller la livraison opérationnelle. Vous serez également en charge de définir et déployer de nouvelles approches pour exploiter les données clients, et de mener des analyses exploratoires sur de nouvelles données. Vous proposerez de nouveaux leviers/use cases basés sur des méthodologies d'analyse et de science des données. Vous assurerez la qualité et la cohérence des données clients dans tous les systèmes.

Freelance

Mission freelance
Expert technique Python et Data/s

WorldWide People
Publiée le
Python

12 mois
400-550 €
Paris, France

Expert technique Python et Data Au sein du Cloud Provider, la Squad Environnement de développement s’inscrit dans une démarche DevOps pour définir et maintenir le cadre de référence des filières de développement de la DSI. La mission consiste à consolider le cadre de référence de la filière Python afin de le rapprocher des autres filières internes à la DSI. Une première phase de la mission permettra de répertorier les usages qui sont fait des différentes composantes de cette filière, pour appréhender l'existant et les besoins. La deuxième phase consistera à construire et à décrire le cadre de référence pour couvrir les usages et les besoins en challengeant les usages actuels avec les bonnes pratiques et les standards du marché adaptés aux contraintes de la DSI. Cette phase permettra de construire le référentiel documentaire (normes, guides utilisateur, dossier d'architecture) et de le faire valider par les instances d'architecture d'entreprise. La troisième phase permettra de diffuser le cadre de référence auprès des parties prenantes et d’accompagner sa mise en oeuvre. Prendre connaissance du cadre de référence de la filière Java (comme cible a atteindre) Répertorier les usages qui sont fait du Python pour appréhender l'existant et les besoins. Identifier les acteurs et les auditer. Construire et à décrire le cadre de référence pour couvrir les usages et les besoins en challengeant les usages actuels avec les bonnes pratiques et les standards du marché adaptés aux contraintes de la DSI Faire valider le cadre de référence (Architecture d'Entreprise) Diffuser le cadre de référence auprès des parties prenantes et accompagner sa mise en œuvre Accompagner le Product Owner

Freelance

Mission freelance
Ingénieur Documentaire/Chef de projet DAM

SUNLOG
Publiée le
Data management

12 mois
Paris, France

Nous recherchons pour l’un de nos clients un Ingénieur Documentaire / Chef de projet DAM pour rejoindre une équipe dynamique dans le secteur de la publicité et de la communication. Missions : Gérer et animer un DAM pour une marque, en assurant la cohérence des fonds audiovisuels et documentaires. Collaborer avec les équipes métiers pour optimiser l’utilisation du DAM au quotidien. Assurer la migration, l’indexation et la gestion des contenus dans le respect des normes techniques et juridiques. Participer à la documentation technique et à la formation des utilisateurs.

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

341 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous