Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Scientifique de données principal
Data Scientist Senior – Ingénieur NLP & RAG (Freelance – Paris) Entreprise : Recrutement pour le compte d'un leader mondial des services d'assurance et financiers Lieu : Paris, France (Hybride, 2 jours au bureau par semaine) Contrat : Freelance, contrat glissant de 3 mois (renouvelable) Rémunération : Jusqu'à 870 € par jour Langues : Anglais (courant, écrit et parlé) et français (niveau conversationnel requis) À propos du poste : Nous recherchons un Data Scientist Senior expérimenté spécialisé dans l'architecture NLP et RAG pour rejoindre une équipe GenAI à fort impact. Vous jouerez un rôle clé dans le développement et l'optimisation de modèles de génération augmentée de récupération (RAG) de pointe au sein d'un leader mondial des services d'assurance et financiers. Il s'agit d'un poste rapide et axé sur l'innovation où vous collaborerez avec des ingénieurs en IA, des équipes de recherche et des parties prenantes de haut niveau pour déployer des solutions d'IA avancées. Principales responsabilités : Développer et optimiser les modèles RAG – S'assurer que les modèles sont prêts pour la production et à la pointe de la technologie. Diriger des POC rapides – Déployer des projets de preuve de concept rapides (cycles moyens de 2 semaines) et itérer en fonction des résultats. Mettre en œuvre l'IA dans un système multi-modèle – Travailler au sein d'un système d'IA évolutif intégré à l'assurance et à la gestion des risques. Affiner les modèles NLP de manière indépendante sans assistance externe. Travailler sur l'infrastructure Azure – Maintenir tout le développement de l'IA dans un environnement basé sur Azure. Collaborer avec les équipes de recherche et d'ingénierie – Collaborer avec une équipe de recherche de 50 personnes, des ingénieurs en IA et des équipes de logiciels à Paris et en Espagne. Traduire les besoins de l'entreprise en solutions d'IA – Travailler avec des équipes interfonctionnelles pour aligner les modèles d'IA sur des applications pratiques.
DEVELOPPEUR COBOL / OPEN ETL F/H | NANTES (44)

VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez notre client et serez en charge de : Assurer la maintenance et les évolutions des applications COBOL Participer aux tests et à la validation des évolutions Maintenir la documentation technique associée Participer à des projets décisionnels (ETL, reporting, data) Développer et optimiser des flux de données Participer à la migration et à l'intégration des données Environnement Technique : COBOL, SQL, DB2, ETL, OPEN, Data, BI Le poste est basé à Nantes (44) . Dans le cadre de vos fonctions, vous pourrez bénéficier de 1 jour de télétravail par semaine après votre période d'intégration.
Data Engineer

- Migrer les données existantes de Redshift vers Snowflake à l'aide de DBT et d'Airflow. - Collaborer avec des équipes transverses pour traduire les exigences métier en solutions techniques. - Concevoir et mettre en œuvre des pipelines de données, des processus ETL et des modèles de données. - Automatiser l'ingestion, la transformation et la validation des données grâce aux technologies Azure (Data Factory, Functions, Databricks). - Développer des procédures stockées, des vues et des fonctions SQL Server pour l'accès aux données et le reporting. - Optimiser les performances de l'entrepôt de données et identifier les axes d'amélioration. - Mettre en œuvre des politiques de gouvernance des données pour garantir l'exactitude, l'exhaustivité et la sécurité. - Documenter les processus et les bonnes pratiques d'ingénierie des données. - Se tenir informé des tendances du secteur et des technologies émergentes en matière d'ingénierie des données et de cloud computing.
Tech Lead Data - Unicity

Localisation : Levallois La DSI Fonctions Centrales a en charge la gestion d'applications métiers pour le compte des clients corporate de PF (Finance, risque, conformité, marketing, automobile, RH, ...) et des plateformes data. Elle opère pour le compte de ses clients en central, mais est également fournisseur d'applications pour l'ensemble des filiales de PF sur ce périmètre transverse. L'environnement technologique est du Big Data Hadoop, le développement est en SPARK SCALA. Expérience requise en SPARK SCALA
Business Analyst - Collibra

Contexte Contexte de la mission : Le profil recherché interviendra dans le cadre de l'Operating Model au sein du département IS, plus précisément les équipes Data Governance. Notre client est à la recherche d’un BA Collibra qui travaillera en étroite collaboration avec le Lead Data Governance pour soutenir l'exécution du Programme, partager les bonnes pratiques et définir le modèle cible du data cataloging. MISSIONS : Mettre en place et gérer des politiques de gouvernance des données pour assurer leur qualité, leur conformité et leur sécurité, Créer et maintenir un catalogue de données centralisé pour faciliter l'accès et la compréhension des données au sein de l'organisation, Tracer l'origine et le parcours des données à travers les systèmes pour assurer leur intégrité et leur fiabilité, Travailler avec diverses équipes pour promouvoir une culture axée sur les données et assurer une utilisation cohérente des outils de gestion des données.
Master Data Manager

Leader des ingrédients naturels pour l'industrie des arômes, de la parfumerie et des actifs beauté, recherche un Master Data Manager H/F, dans le cadre d'un ambitieux projet de transformation d'entreprise, incluant la mise en place d'un PLM (Product Lifecycle Management). Nous créons une nouvelle organisation qui sera au coeur de la gestion des données de référence. Le Master Data Manager jouera un rôle clé dans cette transformation, avec pour objectif de construire une équipe de Master Data Management (MDM) ayant une portée globale au sein du groupe. Mission : Le Master Data Manager sera responsable de la gouvernance, de la qualité et de la cohérence des données de référence au sein du groupe. Il ou elle participera activement au projet de mise en place du PLM, tout en contribuant à la définition des processus et des politiques de gestion des données de référence. À terme, le Master Data Manager aura la responsabilité de constituer et de gérer l'équipe MDM, qui jouera un rôle essentiel dans la gestion et l'harmonisation des données à l'échelle internationale. Sa fonction comporte une forte composante opérationnelle. Responsabilités principales : - Pilotage de la gouvernance des données : - Définir et mettre en oeuvre les processus de gestion des données de référence (produits, fournisseurs, clients, etc.) dans le cadre du projet de transformation. - Établir et maintenir les règles de gouvernance pour assurer la qualité, la cohérence et la sécurité des données à travers les systèmes d'information du groupe. - Participation au projet PLM : - Collaborer étroitement avec les équipes projet PLM pour assurer une intégration efficace des données dans les nouvelles solutions PLM. - Contribuer à la définition des flux de données entre les différents systèmes (ERP, PLM, etc.) afin de garantir une utilisation harmonieuse des données à l'échelle du groupe. - Constitution et gestion de l'équipe MDM : - Recruter et former progressivement une équipe dédiée à la gestion des données de référence. - Superviser et accompagner l'équipe dans la mise en place des processus, des outils et des meilleures pratiques en matière de gestion des données. - Amélioration continue : - Assurer la qualité et la fiabilité des données en mettant en place des processus de contrôle régulier et d'audit. - Proposer des améliorations sur les processus MDM pour accompagner la croissance du groupe et son évolution. - Collaboration transversale : - Travailler en étroite collaboration avec les équipes IT, les chefs de projet, ainsi que les départements métiers (R&D, production, achats, etc.). - Assurer la bonne communication et la coordination des équipes autour des initiatives liées aux données de référence.
Développeur / Chargé d'Applications H/F

En tant que Développeur Applications H/F, vous aurez les responsabilités suivantes : Développer et maintenir des applications technologiques innovantes pour améliorer l'expérience client ; Collaborer avec l'équipe de technologie pour comprendre les besoins de l'entreprise et traduire ces besoins en solutions applicatives ; Effectuer des tests rigoureux pour s'assurer de la fonctionnalité et de la fiabilité des applications ; Résoudre les problèmes techniques de manière efficace et rapide ; Participer activement aux réunions d'équipe et partager les connaissances et les meilleures pratiques avec les collègues ; Se tenir au courant des dernières tendances et innovations technologiques dans le secteur du Loisir, Voyage et Tourisme ; Respecter les délais et les budgets établis ; Assurer la documentation appropriée de toutes les phases de développement de l'application.
DEVIENS #AUTEUR Hadoop

Nous recherchons un(e) professionnel(le) de l'IT pour la prochaine publication de notre ouvrage qui portera sur Hadoop. "Pourquoi pas moi ? Je suis data engineer, formateur(trice), consultant(e), développeur(euse) Big Data... et Hadoop n'a aucun secret pour moi. J’ai envie de partager mon expertise et mon expérience au plus grand nombre ! Ecrire un livre me permettra de renforcer ma crédibilité et de mettre à profit mes connaissances." Notre équipe éditoriale t’accompagnera à chaque étape de la conception du livre en partageant avec toi leur savoir-faire et leur expérience dans la création de livres en informatique.
Data Management Finance
Nous recherchons un consultant Data manager pour accompagner la direction des investissements d’un client financier sur un projet d’optimisation et d’automatisation des données de production. L’objectif est d’améliorer l’efficacité des processus grâce à l’automatisation des fichiers et à la mise en place de reportings dynamiques sous Power BI. Rôles et responsabilités Le consultant interviendra sur les missions suivantes : - Automatiser les fichiers de production existants. - Créer des liens entre les différents fichiers de production et les maquettes associées. - Automatiser les fichiers de recettes (budgets) et les fichiers de facturation avec des présentations sous Power BI. - Mettre en place des reportings automatisés pour le suivi des fichiers Tiers (gestion des anomalies, répartition des tiers, analyse sectorielle, etc.). Compétences requises - Expérience de 5 ans minimum en Data Management Finance. - Expertise en automatisation des fichiers et en structuration des données financières. - Excellente maîtrise de Power BI pour la création de reportings dynamiques. - Compétences en gestion et modélisation de données financières. - Capacité à travailler en autonomie dans un environnement exigeant. Détails de la mission Lieu : Paris (modèle hybride à confirmer) Durée : 6 mois Démarrage : ASAP Freelance Temps plein
Data Architect ( H/F)

Within GDAI, the Group Information Management team aims to: • Ensure the good information management practices within the client, covering Data & AI Governance, Data Quality, Data Documentation, Data Modeling, Data & AI Risks, evolving to integrate AI and Generative AI, and a growing usage of external and unstructured data. • Develop knowledge and define best practices, functional/technical frameworks, guidelines, or assets on Data. • Facilitate communities on Data, both internally in client as well as externally, foster progress with entities’ data capabilities, coordinate and support local Data Management Offices. • Provide information management expertise to client flagships, notably the “Tech, Data & Operations Strategy” initiatives. The purpose of the mission is to ensure the implications of data products are well identified, designed, modelled, and managed to support the scaling ambition across Group & entities. Services: The service will do the following: Main activities 1- Drive the evolution of Data Management practices to support client’s Data Mesh transformation ambition: - define necessary or improve existing frameworks/guidelines to effectively manage data product along its lifecycle. - support Data Mesh team in the design of key concepts and processes of Data Mesh / Data Product Frameworks by bringing in data management perspective. - connect with Data Architecture Community for synergies and drive the enhancement of Data Modelling expertise in the Data Management Community Au sein de GDAI, l’équipe de gestion de l’information du groupe vise à : • Assurer de bonnes pratiques de gestion de l’information au sein du client, couvrant la gouvernance des données et de l'IA, la qualité des données, la documentation des données, la modélisation des données, les risques liés aux données et à l'IA, en évoluant pour intégrer l’IA et l'IA générative, ainsi qu’une utilisation croissante des données externes et non structurées. • Développer des connaissances et définir des bonnes pratiques, des cadres fonctionnels/techniques, des lignes directrices ou des actifs sur les données. • Faciliter les communautés autour des données, tant en interne chez le client qu'en externe, favoriser le progrès des capacités de gestion des données des entités, coordonner et soutenir les bureaux locaux de gestion des données. • Fournir une expertise en gestion de l’information aux initiatives phares du client, notamment les initiatives « Stratégie Tech, Data & Operations ». L'objectif de la mission est de s'assurer que les implications des produits de données sont bien identifiées, conçues, modélisées et gérées pour soutenir l’ambition de mise à l’échelle à travers le groupe et les entités.
Développeur backend Java Core Confirmé ou Sénior - Multithreading calculs distribués- Appache Ignite

🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, et Apache ignite pour le calcul distribué, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins
Expert Data Monétisation
Description du poste : Nous recrutons un expert data monétisation, doté d’une expérience senior dans l’accompagnement de la mise en place de la monétisation des données et disposant de retours d’expérience sur des missions similaires, pour le compte d’un client renommé spécialisé dans les services postaux. Ce poste, basé à Paris, offre la possibilité de télétravail occasionnel. 👉 Responsabilités principales : – Consolider une vision globale du programme (facteurs clés de succès, irritants, axes de vigilance). – Cartographier les cas d’usage et les data products monétisables. – Évaluer le potentiel marché et identifier les cibles. – Développer une approche marketing pour la monétisation des données. – Réaliser un benchmark des entreprises homologues et des modèles existants. – Co-animer les parties prenantes internes (CDO, DSI, métiers). – Assurer le suivi des projets et consolider une vision globale dans une logique de program management. – Produire des supports de pilotage et de communication pour les clients et le COMEX. – (Optionnel) Proposer un plan de prospection et une liste de prospects qualifiés.
Analytics Engineer / Data Engineer GCP | Télétravail Hybride

Nous recherchons un Data Engineer pour rejoindre une équipe technique travaillant sur un produit data clé permettant la mise à disposition des données pour les dashboards internes. Ce projet s’appuie sur la Google Cloud Platform (GCP) et une stack moderne orientée DBT, Airflow, BigQuery et Terraform . Missions Concevoir, développer et maintenir les pipelines de données Développer des modèles de données optimisés pour l’analyse et le reporting Assurer la qualité et la fiabilité des indicateurs et métriques utilisés par les équipes métier Auditer, cartographier et optimiser les données existantes pour une meilleure performance et gouvernance Collaborer avec les équipes techniques et fonctionnelles pour améliorer la stack et les performances Participer aux phases de cadrage, planification et veille technologique
Chef de projet Data cube

Nous recherchons, pour l'un de nos clients dans le secteur industriel et dans un contexte de Transformation, un Chef de projet Data Cube pour mettre en place un cube de données multidimensionnel. Une expérience de 5 ans sur un poste équivalent est requise. Mission de 4 mois, temps plein, à pourvoir idéalement à compter du 03/03/2025. Poste basé à Paris, Saint Germain en Laye. Télétravail aménageable à discuter lors des entretiens TJM HT max 790 € (hors éventuels frais de mission, à discuter avec le client)
IT Data Architect

Votre mission Vous rejoignez une entreprise innovante et évoluant dans un environnement exigeant, où vous aurez un rôle clé dans la transformation et l’optimisation des architectures et plateformes de données. À ce titre, vos principales responsabilités seront de : Concevoir et mettre en œuvre des solutions data robustes et évolutives en collaboration avec l’équipe IT Data. Définir l’architecture des plateformes de données et garantir leur scalabilité et performance. Mettre en place des standards MLOps pour assurer le déploiement efficace des modèles de Machine Learning en production. Optimiser les infrastructures existantes et intégrer de nouvelles technologies pour accompagner la transformation data. Assurer la montée en compétences des équipes internes en partageant les meilleures pratiques en Data Architecture et Data Engineering. Contribuer aux projets de Data Science & Engineering à grande échelle.
Responsable d'application Data H/F

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Responsable d'application Data H/F à Lille, France. Contexte : Les missions attendues par le Responsable d'application Data H/F : 1. Gestion opérationnelle et maintien en condition opérationnelle (MCO) •Superviser le bon fonctionnement des applications du domaine (data ETL, Data Warehouse et applications métiers). •Assurer la gestion des incidents, analyser les causes et mettre en place des actions correctives et préventives. • Garantir le respect des SLA et assurer la disponibilité et la performance des services. • Assurer la communication avec les parties prenantes (équipes IT, métier, support). 2. Organisation du travail et management d’équipe • Encadrer et animer une équipe de 4 personnes en direct (3 ingénieurs de productions & 1 développeurs Data). • Suivre les activités des TMA délégués (3 sociétés partenaires) • Définir et prioriser les tâches, répartir les responsabilités et assurer un suivi des activités. • Mettre en place des rituels d’équipe (daily, weekly, rétrospectives). • Mettre à jour la matrice de compétences des collaborateurs et accompagner le développement des compétences (formations, coaching, montée en compétence), 3. Amélioration continue et projets d’évolution • Identifier les axes d’amélioration des processus et des outils du run. • Automatiser les tâches récurrentes pour optimiser la production. • Participer aux projets de gestion d’obsolescence et d’évolution de son patrimoine. • Mettre en place les actions pour atteindre les objectifs d’améliorations continues fixés sur le périmètre
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- État du marché IT : quelles perspectives pour 2025 ?Quelle stratégie adopter en 2025 ? CDI, international ou IA ?il y a 2 heures
- Estimation immobilière gratuite dans les Ardennes : des conseils ?il y a 3 heures
- Calcul des cotisations sociales (EI à l'IS)il y a 6 heures
- Déclaration d'impots et boni de liquidation au PFUil y a 7 heures
- Passage automatique en EI : rebascule en micro-BNC possible ?il y a 7 heures
- Quel statue pour mes futures activités freelanceil y a 8 heures