Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Chef de projet Data (H/F)
Au sein de l'équipe déjà existante, vous avez en charge les missions suivantes : - La gestion et le pilotage de projet - Gestion des équipes et des plannings - Reporting des activités et des tableaux de bord - Rédaction de procédures et modes opératoires - Formaliser les besoins implicites et explicites des clients - Participer au choix des différentes solutions Alors ? Prêt à devenir Amiltonien ? 🎉 N'hésitez pas à postuler si vous vous reconnaissez ! De formation supérieure BAC+5 (Master ou école d'ingénieur) spécialisé dans l'informatique, vous justifiez d'au moins 3 ans d'expérience dans un poste similaire. Vous maitrisez la gestion de projet car vous avez expérimenté la gestion de projet de bout en bout. Vous avez des connaissances techniques, notamment en BDD Oracle (SQL). Vous disposez d'une aisance relationnelle et d'une excellente communication orale et écrite. Outre vos compétences techniques, nous nous intéressons également à votre potentiel et votre motivation. Nos postes sont ouverts aux personnes en situation de handicap.
Mission freelance
BIG DATA ENGINEER AWS - DOCKER - K8S - TERRAFORM - MICROSERVICES - PYTHON
Dans ce cadre, le DaIA a besoin d’une prestation en Data Ingénierie pour la conception, la construction et la gestion de l’infrastructure data. Activités principales de la prestation : • Développement de la plateforme de micro-services AWS • Industrialisation des cas d’usage métiers du groupe en lien avec les médias • Gestion de la qualité, la fiabilité et l'accessibilité des données • Développement des pipelines de traitement de données avec orientation média • Collaboration avec les équipes de Data Science pour comprendre les besoins en données et mise en place des solutions appropriées • Maintenir et optimiser des systèmes de données existants Niveau d’expertise attendu pour la réalisation de la prestation : Senior : plus de 6 ans d’expérience significative dans le type d’expertise demandé) Confirmé : 3 à 5 ans d’expérience significative dans le type d’expertise demandé). Un minimum de 4 ans d’expérience est attendu. Expériences requises pour la réalisation de la prestation : • Expérience en ingénierie de données, en particulier avec les technologies de big data : EXPERT • Connaissance de l’ingénierie de traitement de la donnée non structurée : CONFIRME • Connaissance en architecture micro-service et utilisation d’API externe : CONFIRME • Connaissance AWS (S3, Lambda, RDS, EventBridge) : CONFIRME Connaissance des langages de programmation et de Génie Logiciel (Python) : CONFIRME • Expérience avec les bases de données SQL et Graph: CONFIRME • Connaissance des technologies de conteneurisation (Docker, Kubernetes) : MAITRISE • Compétence des technologies de CI/CD et Infra as Code (Gitlab, Terraform) : CONFIRME
Offre d'emploi
Data Engineer (H/F)
Vos missions ? En tant qu'Ingénieur Data, vous serez responsable de la conception, du développement et de la maintenance de solutions data au service des différents métiers de l'entreprise . Aux côtés d'experts métiers, et d'un Leader Technique, vous devrez développer des traitements robustes, monitorés et résilients dans un écosystème Cloud avec des technologies d'industrialisation à l'état de l'art. Vos traitements répondront à des besoins autour de problématiques complexes dans les domaines d'activité de l'entreprise (Réseau & système IOT, évolutions possibles sur comptage de l'eau, gestion des déchets, etc …) La stack Technique : - MongoDB, PostgreSQL, Power BI - Python, Scala, R - Docker, Jenkins - Gitlab/Github - Grafana
Offre d'emploi
Développeur Big Data (Java/Scala)
Nous recherchons un(e) Développeur Big Data pour accompagner le développement de l’application Lutte contre la Fraude . Vous interviendrez au sein d’une équipe agile et participerez activement à la conception, au développement, et à l’intégration de solutions innovantes pour répondre aux enjeux de la lutte contre la fraude. Vos missions principales : Participer aux rituels agiles (Scrum/Kanban). Analyser et concevoir le socle projet de référence. Développer de nouvelles fonctionnalités en respectant les bonnes pratiques. Intégrer les applications avec les différentes briques techniques. Contribuer à la mise en place et au respect des règles de développement en collaboration avec l’équipe. Apporter un support technique et assurer le suivi de la recette.
Mission freelance
EXPERT DATA BI SSIS SQL SERVER AZURE DEVOPS
Pour l'un de nos client basé à La Defense, nous recherchons un expert Microsoft BI très orienté Data sur l'ETL SSIS et T/SQL pour une mission très orientée optimisation et Run avec cependant quelques projets en parallèle : Consultant MOE BI / Domaine Socle Data / Domaine : Etudes et Intégration / Ingénierie d'Etude / Conception ▪ Descriptif détaillé de la mission : ➢ Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) ➢ Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. ➢ Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. ➢ Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. ➢ Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). ➢ Conseiller, proposer des axes d'amélioration, alerter si besoin. ▪ Environnement technique de la mission : ➢ Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) ➢ Reporting : COGNOS BI 10.2 et 11 & Tableau
Mission freelance
Product Owner Data (H/F)
Notre client dans le domaine bancaire est à la recherche de son futur Product Owner DATA (H/F) pour son site de TOULOUSE en raison de l'expansion de ses activités. Vos missions : Intégré à une équipe dynamique et à taille humaine, vous devrez : • Faire le lien entre les équipes d'architecture et les clients (internes). • Comprendre et anticiper les besoins des clients en animant des ateliers • Rédiger des “users stories” pour déterminer le parcours utilisateur et transmettre les directions à l’équipe. • Elaborer des plannings et alimenter le product backlog afin de hiérarchiser les fonctionnalités à développer. • Superviser et mesurer les différentes étapes de développement du projet • Travailler de manière transversale • Détecter les problématiques utilisateurs et y apporter des solutions
Offre d'emploi
Expert IT & Finance
Contexte : Au sein du département Global Markets Regulatory IT Program , la mission concerne le développement et l’industrialisation d’outils de surveillance et monitoring pour le Front Office , avec un focus sur la conformité réglementaire et les risques de conduite . L'objectif est de créer une plateforme globale intégrant des analyses avancées (NLP, Machine Learning). Missions principales : Collecte et documentation des besoins fonctionnels (usage cases, spécifications). Collaboration avec les équipes Data Engineering pour assurer la faisabilité technique. Développement et amélioration des scripts d’ingestion de données (eCom/aCom). Conception et implémentation d’une stratégie data incluant analyse multi-vecteurs. Participation active aux sprints Agile en coordination avec le PM et l'équipe projet. Support fonctionnel dans un environnement international anglophone.
Mission freelance
Tech lead Data
Nous recherchons un Leader Technique Data pour rejoindre notre client, acteur majeur dans son secteur, et jouer un rôle clé dans la conception et la mise en œuvre de solutions innovantes en data science. Vous travaillerez au sein du pôle architecture entreprise et serez responsable de la coordination d’équipes pluridisciplinaires (data scientists, développeurs) tout en contribuant directement à des projets stratégiques. Vos principales responsabilités : Concevoir et implémenter des solutions de data science et de machine learning. Coordonner et diriger des équipes composées de data scientists et de développeurs. Analyser les données et réaliser des visualisations pertinentes. Gérer les bases de données et les systèmes de stockage de données. Implémenter des solutions de gestion et de gouvernance des données (DataLab, DataLake, ETL, API management).
Mission freelance
Product Owner Big Data
Bonjour, Nous recherchons pour notre client grand compte un Product Owner Big Data . Nous étudions - prioritairement - les candidatures qui nous sont adressées par MAIL à [freelance à insyco . fr] avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité Tarif journalier Merci d'indiquer la référence KTR/POB/4607 dans l'objet de votre mail Contexte de la prestation Notre client, un acteur majeur du numérique, optimise la valorisation de ses données grâce à une Data Platform structurée en trois zones : Bronze : collecte, nettoyage, centralisation, et exposition des données brutes. Silver : transformation des données brutes en données raffinées pour répondre aux besoins métier. Gold : exploitation des données raffinées pour des cas d’usage avancés, tels que le pilotage, la personnalisation et la data science. L’équipe Big Data, responsable de la zone Bronze, joue un rôle clé dans la gestion, la validation et l’optimisation des données brutes. Le Product Owner recherché devra collaborer avec des équipes pluridisciplinaires pour garantir l'alignement des développements avec les besoins métier. Objectifs de la prestation Collecter et prioriser les besoins : Cadrer les besoins et les objectifs pour et avec chaque partie prenante : analyser et cadrer les exigences, puis les prioriser pour élaborer des user stories claires et pertinentes. Maintenir le backlog produit à jour en fonction des priorités et des besoins des parties prenantes Identifier les améliorations en continu sur les produits et processus de l’équipe Suivre et analyser les indicateurs de performance pour évaluer l'impact des évolutions et ajuster les priorités Gestion du produit : Coordonner les différentes étapes de développement, de l'idéation à la réalisation Rédiger et recetter les user stories en fonction des besoins Prioriser et hiérarchiser les différentes fonctionnalités du produit à développer et à décommissionner Accompagner les équipes techniques pour garantir la qualité du produit et la valeur apportée aux utilisateurs Identifier des opportunités d'amélioration continue pour optimiser la performance et l’efficacité du produit et des processus Améliorer l’exploitation et le maintien des produits en production. Assurer une veille technologique continue pour intégrer les meilleures pratiques et technologies afin d'améliorer la plateforme Définition et communication de la vision produit : Définir et maintenir une roadmap à jour avec les jalons clés et coordonner les différentes parties prenantes Animer et communiquer sur les évolutions liées à la vision du produit Collaboration avec les équipes pluridisciplinaires : Les équipes Data Platform : Data Domain, Pilotage, Personnalisation, Recommandation Les équipes en charge de la Gouvernance et de la conformité des données Les Chefs de Projet technique de la direction numérique
Offre d'emploi
Ingénieur(e) Data/Expert(e) Apache Flink
Développer et déployer des applications Apache Flink pour le traitement par lots et en flux. Assurer la maintenance des pipelines Flink en production et optimiser leurs performances. Déployer et configurer un cluster Flink prêt pour la production, optimisé pour l’évolutivité et la tolérance aux pannes. Mettre en place et configurer des outils de surveillance et d’alertes (ex. : Prometheus, Grafana). Identifier et résoudre les problèmes liés aux performances et aux échecs des tâches Flink. Fournir une documentation détaillée (architecture, tuning, troubleshooting, meilleures pratiques). Animer une session de transfert de connaissances avec les équipes internes. Familiarité avec l’écosystème Big Data et les meilleures pratiques d’ingénierie des données. Sens de la collaboration et capacité à transférer des connaissances à une équipe technique.
Mission freelance
POT8156-Un consultant Data Gouvernance sur Lyon
Almatek recherche pour l'un de ses clients Un consultant Data Gouvernance sur Lyon Contexte de la mission : Expérience en big data - Bi Anglais : courant impératif. Almatek recherche pour l'un de ses clients Un consultant Data Gouvernance sur Lyon Contexte de la mission : Expérience en big data - Bi Anglais : courant impératif. Almatek recherche pour l'un de ses clients Un consultant Data Gouvernance sur Lyon Contexte de la mission : Expérience en big data - Bi Anglais : courant impératif. Almatek recherche pour l'un de ses clients Un consultant Data Gouvernance sur Lyon Contexte de la mission : Expérience en big data - Bi Anglais : courant impératif.
Mission freelance
DEVIENS #AUTEUR Hadoop
Nous recherchons un(e) professionnel(le) de l'IT pour la prochaine publication de notre ouvrage qui portera sur Hadoop. "Pourquoi pas moi ? Je suis data engineer, formateur(trice), consultant(e), développeur(euse) Big Data... et Hadoop n'a aucun secret pour moi. J’ai envie de partager mon expertise et mon expérience au plus grand nombre ! Ecrire un livre me permettra de renforcer ma crédibilité et de mettre à profit mes connaissances." Notre équipe éditoriale t’accompagnera à chaque étape de la conception du livre en partageant avec toi leur savoir-faire et leur expérience dans la création de livres en informatique.
Mission freelance
CONSULTANT MOE DATA BI - SSIS - SQL Server - Azure Devops
Dans le cadre d'une mission longue chez l'un de nos clients à la Defense et pour un démarrage immédiat, nous recherchons un(e) Consultant technique MOE BI / Domaine Socle Data ▪ Type de prestation : Assistance Technique ▪ Expertise métier requise : BI ▪ Nombre d'années d'expérience : 7-10 ans minimum ▪ Descriptif détaillé de la mission : ➢ Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) ➢ Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. ➢ Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. ➢ Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. ➢ Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). ➢ Conseiller, proposer des axes d'amélioration, alerter si besoin. ▪ Environnement technique de la mission : ➢ Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) ➢ Reporting : COGNOS BI 10.2 et 11 & Tableau (le reporting n'est pas dans le scope, il s'agit d'une information)
Offre d'emploi
Consultant SI – Expert Catalogue de Données
📑 CDI (60k€) / Freelance (650€ / jour) - 🛠️ Expertise en Gouvernance des Données - 📍 Lyon (Part-Dieu) 📌 Rejoignez une mission stratégique en tant qu'expert SI pour cadrer et piloter un projet ambitieux de catalogue de données. Vous participerez activement à la gouvernance des données en proposant des solutions robustes pour améliorer les processus existants et répondre aux besoins des parties prenantes. Vos missions 🎯 En collaboration avec le chef de projet, vos principales activités seront : Audit et identification : Analyser les processus existants, les règles en vigueur et documenter les traitements. Organisation & gouvernance : Décrire l'organisation autour de la QDD (Qualité et Gouvernance des Données). Identifier les rôles, responsabilités et points faibles des solutions actuelles. Études & recommandations : Consolider les résultats des POC réalisés en 2024 pour choisir la meilleure solution. Effectuer une cartographie des besoins métiers et des parties prenantes (Métier, IT, Sécurité, RGPD, Infrastructure, etc.). Animation & collaboration : Organiser et animer des ateliers, réunions de suivi et interviews avec les équipes internes et métiers. Travailler avec les équipes techniques pour anticiper les impacts en infrastructure, RGPD et architecture. Structuration et planification : Proposer une vision claire du projet avec ses périmètres, ses priorités et les ressources nécessaires (humaines, technologiques, financières). Élaborer un planning précis de mise en œuvre avec les étapes clés. Indicateurs & formalisation : Définir les indicateurs de succès pour mesurer l’efficacité de la gouvernance des données. Formaliser un plan d’accompagnement et de communication pour assurer le succès du projet. Livrables 📝 Synthèse des processus, besoins métiers et réglementaires. Cartographie des besoins des parties prenantes. Recommandations sur la gouvernance et les processus. Indicateurs de succès et contrats projet.
Offre d'emploi
Data Scientist
Zsoft Consulting est une société de conseil, spécialisée dans les métiers d'ingénierie de développement logiciel. Nous travaillons principalement en étroite collaboration avec des grands comptes et également avec des PME. Depuis 2015, nous continuons à créer un environnement propice à l’innovation et à l’excellence. Dans le cadre de ce développement nous recherchons un Data Scientist. En tant que Data Scientist, vous serez responsable de l'analyse, du traitement, et de la valorisation des données afin de résoudre des problématiques métiers complexes. Vous utiliserez vos compétences en modélisation statistique, machine learning, et visualisation des données pour produire des insights exploitables et des modèles prédictifs. Vous travaillerez en collaboration avec les équipes techniques et métiers pour proposer des solutions adaptées et innovantes. Responsabilités Principales: Analyse exploratoire des données : Collecter, nettoyer, et analyser des jeux de données structurés et non structurés. Modélisation : Développer des modèles prédictifs et prescriptifs à l’aide d’algorithmes de machine learning et de statistiques avancées. Développement d’outils : Implémenter des pipelines de traitement des données et des prototypes de solutions data-driven. Visualisation des données : Communiquer efficacement les résultats via des tableaux de bord ou des outils de reporting (Tableau, Power BI, Dash, etc.). Collaboration : Travailler avec les équipes Data Engineering pour intégrer les modèles dans les systèmes de production. Amélioration continue : Suivre les performances des modèles en production et les ajuster selon les besoins métier. Veille technologique : Rester à jour sur les dernières avancées en intelligence artificielle, machine learning, et outils de data science. Compétences Techniques Requises: Langages de programmation : Solide maîtrise de Python (pandas, NumPy, scikit-learn, TensorFlow, PyTorch) ou R. Data Engineering : Connaissance de SQL pour manipuler des bases de données relationnelles ( PostgreSQL, MySQL ) et des outils Big Data ( Spark, Hadoop ). Machine Learning : Familiarité avec les modèles supervisés et non supervisés, ainsi que les techniques avancées ( Deep Learning, NLP ). Outils Cloud : Expérience avec des plateformes cloud comme AWS (SageMaker), Azure (Machine Learning Studio) ou GCP (Vertex AI). Data Visualisation : Compétence dans des outils comme Matplotlib, Seaborn, Plotly, Tableau, ou Power BI . Gestion des versions : Utilisation de Git pour le contrôle de version et la collaboration sur les projets. Bonnes pratiques : Connaissance des méthodologies Agile et/ou des principes de gestion de projet Scrum.
Mission freelance
Product Owner / Big Data (H/F)
Au sein d'une Data Plateform et de la zone qui collecte, nettoie, centralise et expose la donnée brute , vous rejoindrez une équipe composée d'un Product Owner Data et de 3 Data Ingénieurs. 1. Collecter et prioriser les besoins : - Cadrer les besoins et les objectifs pour et avec chaque partie prenante : analyser et cadrer les exigences puis les prioriser pour élaborer des user stories claires et pertinentes - Maintenir à jour le backlog produit en fonction des priorités et des besoins des parties prenantes - Identifier les améliorations en continu sur les produits et processus de l’équipe - Suivre et analyser les indicateurs de performance pour évaluer l'impact des évolutions et ajuster les priorités 2. Gestion du produit : - Coordonner les différentes étapes de développement, de l'idéation à la réalisation - Rédiger et recetter les user stories en fonction des besoins - Prioriser et hiérarchiser les différentes fonctionnalités du produit à développer et à décommissionner - Accompagner les équipes techniques pour garantir la qualité du produit et la valeur apportée aux utilisateurs - Identifier des opportunités d'amélioration continue pour optimiser la performance et l’efficacité du produit et des process. - Améliorer l’exploitation et le maintien des produits en production - Assurer une veille technologique continue pour intégrer les meilleures pratiques et technologies afin d'améliorer la plateforme. 3. Définition et communication de la vision produit : - Définir et maintenir à jour une roadmap avec les jalons clés et coordonner les différentes parties prenantes - Animer et communiquer sur les évolutions liées à la vision du produit 4. Collaboration avec des équipes pluridisplinaires : les 2 équipes Data Domain, le Pilotage, la Personnalisation, la Recommandation, les équipes en charge de la Gouvernance et de la conformité des données, les Chefs de Projet techniques
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.