Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
CONSULTANT MOE BI ORIENTE DATA
Consultant MOE BI / Domaine Socle Data Expérience ciblée : 3-4 ans minimum Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
Mission freelance
Data Scientist
👉 Contexte : Je recherche un Data scientist senior pour intervenir chez notre partenaire sur deux projets. Les deux nécessiteront des connaissances en Python , SQL et Azure . Le premier projet nécessite quelqu'un qui soit très compétent en traitement du signal . Nous cherchons à optimiser les paramètres des machines d'usine pour réduire les déchets et garantir la meilleure qualité. La partie la plus difficile de cette tâche sera de trouver la meilleure approche pour extraire le signal du bruit. Nous recherchons un data scientist qui possède de vastes connaissances en découverte causale et en inférence causale . Il serait aussi intéressant d'avoir une expérience dans la création d' algorithmes d'apprentissage par renforcement . Le deuxième domaine relève de la R&D. C'est un projet from scratch qui a pour objectif de relier les données (et de trouver des moyens de les acquérir, lorsqu'elles manquent) à partir de diverses sources.
Mission freelance
Ingénieur Data Senior
Contexte de la mission : Le département Data IA (DaIA) est chargé de fournir aux différents métiers un socle technologique transversal visant à mettre en production et à industrialiser les cas d’usage liés à la Data. Cela inclut le développement d’une plateforme dédiée à l’enrichissement des métadonnées des contenus, intégrant des technologies d’intelligence artificielle et de génération IA (GenAI). Description du besoin : Le département DaIA recherche une prestation en ingénierie des données pour assurer la conception, la mise en place et la gestion de l’infrastructure AWS. Principales activités de la mission : Développement d’une plateforme de microservices sur AWS. Industrialisation des cas d’usage métiers liés aux médias. Gestion de la qualité, fiabilité et accessibilité des données. Développement de pipelines de traitement de données orientés média. Collaboration avec les équipes Data Science pour identifier les besoins et concevoir des solutions adaptées. Maintenance et optimisation des systèmes de données existants.
Mission freelance
INGENIEUR DATA BI EXPERIMENTE
Nous recherchons un(e) ingénieur Data BI expérimenté Contexte Au sein d'une Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté, une expérience dans le secteur du e-commerce serait apprécié. La Data Factory de notre client joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Elle se concentre sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour les équipes. Description • Participe à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Rédaction des documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de la stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe Livrables Spécifications Techniques, Cahier de recette Technique, Document d'exploitation Reporting d'avancement des travaux Programme développés
Mission freelance
ARCHITECTE DATA / POWER BI & AZURE
Nous recherchons un(e) DATA ARCHITECTE POWER BI / AZURE Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Responsabilités : • Analyser les besoins fonctionnels. • Localiser les données de production. • Déterminer les spécifications techniques. • Définir l'architecture. • Modéliser les datawarehouse (entrepôts de données) et les datamarts (magasins de données) dédiés à une fonction particulière dans l'entreprise. • Accompagner le client dans la réalisation du projet. • Maintenir les sources de données à jour • Mettre à disposition les données aux métiers • Superviser les flux de données et en contrôler l'intégrité
Mission freelance
Consultant BI (H/F)
Notre client, un acteur majeur du secteur industriel, recherche un Data Engineer (H/F) à Toulouse, pour accompagner la gestion et l'optimisation des flux de données au sein de son infrastructure. Vous jouerez un rôle clé dans la mise en place et le suivi des processus ETL, ainsi que dans la visualisation des données. Vos missions : * Concevoir, déployer et optimiser des flux ETL (notamment avec des outils tels que Talend) pour garantir le bon traitement et l'intégration des données. * Gérer et transformer les données en informations exploitables à l’aide d’outils de visualisation comme Power BI et éventuellement Business Objects (BO). * Collaborer avec les équipes techniques et métiers pour comprendre les besoins en données et développer des solutions adaptées. * Assurer la qualité et la fiabilité des données, en mettant en place des processus de validation et de suivi. * Contribuer à l'amélioration continue des systèmes de gestion de données et des flux ETL. Compétences techniques : * Expertise dans la gestion des flux ETL avec des outils tels que Talend ou équivalents. * Bonne maîtrise des outils de visualisation de données, en particulier Power BI (et idéalement Business Objects). * Solides compétences en gestion de bases de données et en transformation de données. * Capacité à travailler en collaboration avec des équipes techniques et métiers pour assurer la cohérence des données.
Mission freelance
Freelance Data Governance Practitioner
Nous recherchons un consultant expérimenté en gouvernance des données pour accompagner notre client dans la conception et la mise en œuvre d’une stratégie complète de gouvernance des données pour les Technologies Connectées. Cette mission vise à garantir la conformité aux réglementations en matière de protection des données et à intégrer les principes de protection des données dans le cycle de développement. Rôles et Responsabilités Concevoir une stratégie et une feuille de route pour la gouvernance des données des voitures connectées avec une approche centrée sur le client. Mettre en place un programme de conformité pour les Technologies Connectées, en garantissant le respect des réglementations (RGPD, protection des données, droit de la concurrence, anonymisation/minimisation des données). Réaliser des analyses d’impact sur la vie privée pour de nouveaux produits, fonctionnalités et services afin de réduire les risques liés à la confidentialité. Collaborer avec les équipes de développement produit pour intégrer les principes de "privacy by design". Être un interlocuteur clé pour les projets liés à la confidentialité, en comprenant les exigences techniques et fonctionnelles. Fournir des conseils sur la collecte, le traitement et le partage des données aux parties prenantes internes. Surveiller les évolutions des lois, réglementations et normes sectorielles en matière de protection des données pour maintenir la conformité. Collaborer avec les conseillers juridiques et les consultants externes sur des problématiques complexes de confidentialité. Définir et animer des formations sur l’utilisation des données des véhicules au sein de l’organisation, y compris pour les filiales et les distributeurs. Compétences requises Expertise confirmée en gouvernance des données et en réglementation sur la protection des données (RGPD, conformité, anonymisation des données). Expérience avérée dans la réalisation d’analyses d’impact sur la vie privée et l’intégration des principes de "privacy by design". Capacité à collaborer avec des parties prenantes techniques et fonctionnelles. Bonne maîtrise des évolutions des lois et des normes sectorielles en matière de confidentialité. Excellentes compétences en communication et en animation de formations. Maîtrise de l’anglais (indispensable). Détails Date de début : Dès que possible Durée : 6 mois (renouvelable) Lieu : Télétravail intégral, avec un déplacement par mois à Bruxelles. Taux journalier : 520 €/jour
Mission freelance
BIG DATA ENGINEER AWS - DOCKER - K8S - TERRAFORM - MICROSERVICES - PYTHON
Dans ce cadre, le DaIA a besoin d’une prestation en Data Ingénierie pour la conception, la construction et la gestion de l’infrastructure data. Activités principales de la prestation : • Développement de la plateforme de micro-services AWS • Industrialisation des cas d’usage métiers du groupe en lien avec les médias • Gestion de la qualité, la fiabilité et l'accessibilité des données • Développement des pipelines de traitement de données avec orientation média • Collaboration avec les équipes de Data Science pour comprendre les besoins en données et mise en place des solutions appropriées • Maintenir et optimiser des systèmes de données existants Niveau d’expertise attendu pour la réalisation de la prestation : Senior : plus de 6 ans d’expérience significative dans le type d’expertise demandé) Confirmé : 3 à 5 ans d’expérience significative dans le type d’expertise demandé). Un minimum de 4 ans d’expérience est attendu. Expériences requises pour la réalisation de la prestation : • Expérience en ingénierie de données, en particulier avec les technologies de big data : EXPERT • Connaissance de l’ingénierie de traitement de la donnée non structurée : CONFIRME • Connaissance en architecture micro-service et utilisation d’API externe : CONFIRME • Connaissance AWS (S3, Lambda, RDS, EventBridge) : CONFIRME Connaissance des langages de programmation et de Génie Logiciel (Python) : CONFIRME • Expérience avec les bases de données SQL et Graph: CONFIRME • Connaissance des technologies de conteneurisation (Docker, Kubernetes) : MAITRISE • Compétence des technologies de CI/CD et Infra as Code (Gitlab, Terraform) : CONFIRME
Offre d'emploi
Développeur Big Data (Java/Scala)
Nous recherchons un(e) Développeur Big Data pour accompagner le développement de l’application Lutte contre la Fraude . Vous interviendrez au sein d’une équipe agile et participerez activement à la conception, au développement, et à l’intégration de solutions innovantes pour répondre aux enjeux de la lutte contre la fraude. Vos missions principales : Participer aux rituels agiles (Scrum/Kanban). Analyser et concevoir le socle projet de référence. Développer de nouvelles fonctionnalités en respectant les bonnes pratiques. Intégrer les applications avec les différentes briques techniques. Contribuer à la mise en place et au respect des règles de développement en collaboration avec l’équipe. Apporter un support technique et assurer le suivi de la recette.
Mission freelance
Tech lead Data
Nous recherchons un Leader Technique Data pour rejoindre notre client, acteur majeur dans son secteur, et jouer un rôle clé dans la conception et la mise en œuvre de solutions innovantes en data science. Vous travaillerez au sein du pôle architecture entreprise et serez responsable de la coordination d’équipes pluridisciplinaires (data scientists, développeurs) tout en contribuant directement à des projets stratégiques. Vos principales responsabilités : Concevoir et implémenter des solutions de data science et de machine learning. Coordonner et diriger des équipes composées de data scientists et de développeurs. Analyser les données et réaliser des visualisations pertinentes. Gérer les bases de données et les systèmes de stockage de données. Implémenter des solutions de gestion et de gouvernance des données (DataLab, DataLake, ETL, API management).
Mission freelance
INGENIEUR DATA BI - GENIO
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
Offre d'emploi
Expert IT & Finance
Contexte : Au sein du département Global Markets Regulatory IT Program , la mission concerne le développement et l’industrialisation d’outils de surveillance et monitoring pour le Front Office , avec un focus sur la conformité réglementaire et les risques de conduite . L'objectif est de créer une plateforme globale intégrant des analyses avancées (NLP, Machine Learning). Missions principales : Collecte et documentation des besoins fonctionnels (usage cases, spécifications). Collaboration avec les équipes Data Engineering pour assurer la faisabilité technique. Développement et amélioration des scripts d’ingestion de données (eCom/aCom). Conception et implémentation d’une stratégie data incluant analyse multi-vecteurs. Participation active aux sprints Agile en coordination avec le PM et l'équipe projet. Support fonctionnel dans un environnement international anglophone.
Offre d'emploi
Ingénieur(e) Data/Expert(e) Apache Flink
Développer et déployer des applications Apache Flink pour le traitement par lots et en flux. Assurer la maintenance des pipelines Flink en production et optimiser leurs performances. Déployer et configurer un cluster Flink prêt pour la production, optimisé pour l’évolutivité et la tolérance aux pannes. Mettre en place et configurer des outils de surveillance et d’alertes (ex. : Prometheus, Grafana). Identifier et résoudre les problèmes liés aux performances et aux échecs des tâches Flink. Fournir une documentation détaillée (architecture, tuning, troubleshooting, meilleures pratiques). Animer une session de transfert de connaissances avec les équipes internes. Familiarité avec l’écosystème Big Data et les meilleures pratiques d’ingénierie des données. Sens de la collaboration et capacité à transférer des connaissances à une équipe technique.
Mission freelance
POT8156-Un consultant Data Gouvernance sur Lyon
Almatek recherche pour l'un de ses clients Un consultant Data Gouvernance sur Lyon Contexte de la mission : Expérience en big data - Bi Anglais : courant impératif. Almatek recherche pour l'un de ses clients Un consultant Data Gouvernance sur Lyon Contexte de la mission : Expérience en big data - Bi Anglais : courant impératif. Almatek recherche pour l'un de ses clients Un consultant Data Gouvernance sur Lyon Contexte de la mission : Expérience en big data - Bi Anglais : courant impératif. Almatek recherche pour l'un de ses clients Un consultant Data Gouvernance sur Lyon Contexte de la mission : Expérience en big data - Bi Anglais : courant impératif.
Mission freelance
Product Owner Data (H/F)
Notre client dans le domaine bancaire est à la recherche de son futur Product Owner DATA (H/F) pour son site de TOULOUSE en raison de l'expansion de ses activités. Vos missions : Intégré à une équipe dynamique et à taille humaine, vous devrez : • Faire le lien entre les équipes d'architecture et les clients (internes). • Comprendre et anticiper les besoins des clients en animant des ateliers • Rédiger des “users stories” pour déterminer le parcours utilisateur et transmettre les directions à l’équipe. • Elaborer des plannings et alimenter le product backlog afin de hiérarchiser les fonctionnalités à développer. • Superviser et mesurer les différentes étapes de développement du projet • Travailler de manière transversale • Détecter les problématiques utilisateurs et y apporter des solutions
Mission freelance
Product Owner Big Data
Bonjour, Nous recherchons pour notre client grand compte un Product Owner Big Data . Nous étudions - prioritairement - les candidatures qui nous sont adressées par MAIL à [freelance à insyco . fr] avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité Tarif journalier Merci d'indiquer la référence KTR/POB/4607 dans l'objet de votre mail Contexte de la prestation Notre client, un acteur majeur du numérique, optimise la valorisation de ses données grâce à une Data Platform structurée en trois zones : Bronze : collecte, nettoyage, centralisation, et exposition des données brutes. Silver : transformation des données brutes en données raffinées pour répondre aux besoins métier. Gold : exploitation des données raffinées pour des cas d’usage avancés, tels que le pilotage, la personnalisation et la data science. L’équipe Big Data, responsable de la zone Bronze, joue un rôle clé dans la gestion, la validation et l’optimisation des données brutes. Le Product Owner recherché devra collaborer avec des équipes pluridisciplinaires pour garantir l'alignement des développements avec les besoins métier. Objectifs de la prestation Collecter et prioriser les besoins : Cadrer les besoins et les objectifs pour et avec chaque partie prenante : analyser et cadrer les exigences, puis les prioriser pour élaborer des user stories claires et pertinentes. Maintenir le backlog produit à jour en fonction des priorités et des besoins des parties prenantes Identifier les améliorations en continu sur les produits et processus de l’équipe Suivre et analyser les indicateurs de performance pour évaluer l'impact des évolutions et ajuster les priorités Gestion du produit : Coordonner les différentes étapes de développement, de l'idéation à la réalisation Rédiger et recetter les user stories en fonction des besoins Prioriser et hiérarchiser les différentes fonctionnalités du produit à développer et à décommissionner Accompagner les équipes techniques pour garantir la qualité du produit et la valeur apportée aux utilisateurs Identifier des opportunités d'amélioration continue pour optimiser la performance et l’efficacité du produit et des processus Améliorer l’exploitation et le maintien des produits en production. Assurer une veille technologique continue pour intégrer les meilleures pratiques et technologies afin d'améliorer la plateforme Définition et communication de la vision produit : Définir et maintenir une roadmap à jour avec les jalons clés et coordonner les différentes parties prenantes Animer et communiquer sur les évolutions liées à la vision du produit Collaboration avec les équipes pluridisciplinaires : Les équipes Data Platform : Data Domain, Pilotage, Personnalisation, Recommandation Les équipes en charge de la Gouvernance et de la conformité des données Les Chefs de Projet technique de la direction numérique
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- pourquoi les TJM sont aussi bas
- Apporteuse d'affaire pour un logiciel
- TVA sur marge possible sur des produits d'occasions d'origine hors UE ?
- Déclaration d'impôt sur les revnus "versement forfaitaire libératoire" sur l'année "conduite de AE à EI"
- Marché du Freelance : Un peu calme, Non ?
- Perspectives freelance 2025