Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Architecte DATA/IA
En tant qu'Architecte Data & Analytics pour un cabinet du Big Four, votre rôle consistera à développer des solutions robustes et pérennes autour de la transformation numérique et des projets en Intelligence Artificielle en collaboration avec la DSI. Vos principales missions incluent : Architecture Fonctionnelle et Urbanisation du SI : Structurer les architectures data fonctionnelles et techniques selon les besoins métiers. Etudes des besoins métier et chiffrage des solutions : Analyser les demandes en lien avec les équipes métiers et proposer des solutions techniques chiffrées. Architecture Solution : Assurer l'architecture des solutions, de la conception à la mise en production, pour garantir leur intégration fluide dans le SI. Catalogue Technologique : Maintenir et enrichir les stacks techniques et outils utilisés. Vous interviendrez aussi sur : La proposition d’architectures techniques en réponse aux besoins d’analyse et de traitement des données, avec estimation détaillée des coûts. La définition des frameworks, standards, et principes de modélisation des données de référence. L’amélioration continue des solutions en termes de performance, capacité, coût, sécurité. La mise en place de bonnes pratiques de développement et collaboration avec les équipes DSI dans une démarche DevOps. La veille technologique pour optimiser l’efficacité du SI.
Mission freelance
Architecte Solutions DATA
Architecte Solutions DATA – Secteur Banque/Finance/Assurance Nous recherchons, pour l’un de nos clients dans le secteur Banque/Finance/Assurance, un Architecte Solutions DATA disposant d’au moins 10 ans d’expérience sur des projets similaires. Ce poste couvre le cycle complet des projets, de la phase de cadrage jusqu'au déploiement en production. En intégrant une équipe talentueuse et dynamique, vous travaillerez en étroite collaboration avec les urbanistes fonctionnels, les chefs de projets, la MOA, et les métiers.
Mission freelance
Consultant HPC (High Performance computing) et Data engineering
Le client, acteur de l'énergie dans le domaine de la recherche et développement (R&D), souhaite renforcer son infrastructure de calcul haute performance pour répondre aux besoins de ses chercheurs. Le consultant interviendra pour administrer et optimiser un DGX (système spécialisé intégrant des GPU) en fournissant des services de gestion, de maintenance et de mise à jour. L’objectif est de garantir aux équipes de recherche un accès optimisé et performant à cette infrastructure critique. Administration et Gestion du DGX : Assurer la gestion quotidienne de l’infrastructure DGX, incluant la maintenance, les mises à jour, et l’optimisation de l’accessibilité pour les équipes R&D. Support HPC pour la Recherche : Apporter un support technique aux chercheurs dans l’utilisation et l’optimisation de ressources HPC, incluant le déploiement de workflows adaptés aux calculs intensifs. Gestion des ressources avec Slurm : Utiliser Slurm pour la gestion de files d’attente, l’ordonnancement et l’allocation de ressources afin de maximiser l’efficacité du cluster HPC. Data Engineering et Intégration de Données : Apporter une expertise en data engineering pour la préparation, l'intégration, et le traitement des données issues des simulations et calculs. HPC (High Performance Computing) : Expérience significative en administration et optimisation d’infrastructures HPC, idéalement avec du matériel DGX ou des systèmes intégrant des GPU. Data Engineering : Maîtrise des processus d’intégration, de transformation et d’analyse de données dans un environnement HPC. Outil de gestion de ressources : Maîtrise de Slurm , indispensable pour l’ordonnancement et la gestion des files d’attente. Langages de Programmation : Compétence en langages de scripting (ex. Python, Bash) et en langages utilisés dans le calcul scientifique et HPC. Systèmes d’Exploitation : Bonne connaissance de Linux, notamment pour l’administration de systèmes utilisés dans les environnements HPC. Mettre à disposition une infrastructure DGX performante et stable, adaptée aux besoins évolutifs de la R&D. Assurer une gestion efficace des ressources HPC via Slurm, permettant aux chercheurs d’optimiser leurs calculs et simulations. Garantir un support technique pour résoudre les problématiques liées au HPC et à la gestion des données R&D. Cette mission représente une collaboration technique et stratégique essentielle pour optimiser les capacités de calcul de l’infrastructure R&D du client.
Mission freelance
Product Owner Sénior - BORDEAUX
Product Owner expérimentés avec une forte appétence pour les sujets techniques et la data, un fort intérêt pour le fonctionnel, un bon relationnel et une excellente communication avec des interlocuteurs internes et externes. De plus, il faudrait a minima que le profil soit à l’aise avec les requetes SQL/bases de données et qu’il comprenne les conversations techniques haut niveau : ce qu’est un microservice, ce qu’est une API et comment cela fonctionne, connaitre la philosophie d’une architecture basée sur les évenements. Une expérience dans un environnement cloud + dans les initiatives possédant une composante sécurité est aussi bienvenue. Connaissance / Maitrise de Snoflake est un gros + Présencesur site 2 jours / semaine NON NEGOCIABLE
Offre d'emploi
Team Lead Data
Le pôle Data Accelerator & IT BI / Monitoring, positionné au sein de la DSI a pour rôle de mettre à disposition les outils et les données de qualité nécessaires aux usages des différents métiers et de leurs applicatifs. La/le Team Lead Data – Platform & BI coordonne directement les activités du pôle dédiées au développements de rapports BI à destination des métiers ainsi que le manager de la plateforme Data. Il est responsable de l’ensemble des livrables associés à ce domaine. Il gère la relation avec le métier. La/le Team Lead recherché intègrera le pôle Data Accelerator et IT BI / Monitoring de la DSI. Il aura en charge les activités de deux équipes : Plateforme : Ingestion, stockage et exposition de la data BI Monitoring : Restitution à des fins de Business Intelligence & Monitoring dans les outils adéquat (gestion en direct de cette activité) Il est en charge du suivi et de la livraison des évolutions répondant à un besoin métier BI de bout en bout sur la chaîne IT, c’est-à-dire sur le business delivery de son pôle dédié mais également avec les Core IT des autres pôles. Il est aussi responsable de la production sur les composants gérés. Ses missions principales sont : Sur le plan technique :> Expérience significative attendue Garantir les choix techniques structurants et arbitrer en cas de désaccord e s’appuyant sur les techleads et le responsable de plateforme Définir la vision technique et architecturale des produits développés sur le périmètre S’assurer de la diffusion et de la mise en œuvre des bonnes pratiques ( développement et process) sur son domaine d’expertise au sein de l’équipe mais aussi plus largement au sein de la DSI et des métiers Déterminer et fixer la capacité donnée aux US techniques Participer à la planification et à la définition des solutions à mettre en place Sur le plan organisationnel et managérial Suivre et organiser la charge / capacité à faire de l’équipe en s’appuyant sur le responsable de la plateforme sur son périmètre Animer les scrum master/chef de projet de son domaine S’assurer du staffing des différentes features teams de son domaine, en adéquation avec le besoin Sur le plan fonctionnel et méthodologique : Accompagner le développement des compétences de l’équipe et faire monter en compétence les membres les plus juniors Maitriser les différents éléments (roadmap métier, dépendances inter-applicatives, charges...) pour planifier ses développements Principales interactions Les autres équipes du pôle : le Data Office pour les question de gouvernance et de qualité des données manipulées, ainsi que la data science qui s’appuie sur les données de la plateforme. Les autres équipe IT métiers Les métiers et en particulier l’équipe Monitoring de la Direction des Opérations en charge du pilotage du monitoring côté métier Le data architect et les experts cloud AWS Databricks
Offre d'emploi
Data Engineer (H/F)
Les missions d'un Amiltonien : En tant que Data Engineer (H/F), vous serez en charge des missions suivantes : - Cadrer et challenger les besoins de nos métiers - Elaborer la stratégie, analyser, concevoir et développer les traitements de données - Optimiser les flux existants - Contrôler la qualité des données - Analyser les incidents de production et apporter des solutions La stack technique : - MS-BI (impératif) - Power BI, SSIS (apprécié) - Azure Data Factory (très apprécié)
Mission freelance
Urgent Data cruncher
Besoin : data crunching en appui du responsable qualité Référentiel Ses principales missions > identifier les KPI nécessaire à l'équipe pour suivre leur activité quotidienne > identifier les sources des données nécessaires au calcul des ces kpi dans les différents outils > extraire puis automatiser/créer des liens pour la captation de ces sources > construire un dashboard > exposer ces kpi dans un dashboard Compétences requises spécialiste data avec appétence métier (pour bien comprendre ce dont le métier a besoin) À l'aise sur les flux de données et les requêtes dans les outils pour générer des rapports.
Mission freelance
Lead Data Engineer Senior
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code
Mission freelance
CONSULTANT MOE DATA BI - SSIS - SQL Server - Azure Devops
Dans le cadre d'une mission longue chez l'un de nos clients à la Defense et pour un démarrage immédiat, nous recherchons un(e) Consultant technique MOE BI / Domaine Socle Data ▪ Type de prestation : Assistance Technique ▪ Expertise métier requise : BI ▪ Nombre d'années d'expérience : 7-10 ans minimum ▪ Descriptif détaillé de la mission : ➢ Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) ➢ Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. ➢ Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. ➢ Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. ➢ Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). ➢ Conseiller, proposer des axes d'amélioration, alerter si besoin. ▪ Environnement technique de la mission : ➢ Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) ➢ Reporting : COGNOS BI 10.2 et 11 & Tableau (le reporting n'est pas dans le scope, il s'agit d'une information)
Offre d'emploi
Data Analyst - H/F
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Data Analyst pour l'un de nos clients du secteur des banques et des assurances. Vous interviendrez sur le site client situé dans la région Nouvelle Aquitaine. À ce titre, vos missions quotidiennes seront les suivantes : • Identifier les sources de données pertinentes, coordonner la collecte de données complémentaires et accompagner les équipes dans la mise en œuvre des processus de recueil; • Nettoyer et mettre en qualité les données pour garantir leur pertinence; • Concevoir, développer et coordonner la mise en production des solutions analytiques; • Valider les solutions en veillant au respect des demandes et des exigences techniques et fonctionnelles; • Proposer des analyses, KPI, tableaux de bord et présentations innovantes pour valoriser la donnée; • Participer à la veille fonctionnelle et proposer des solutions Data innovante. Et après ? En tant que véritable partie prenante de DAVRICOURT, vous vous verrez proposer des projets techniques et à forte valeur ajoutée par nos équipes.
Offre d'emploi
Test Lead Senior
En tant que Test Lead Senior au sein d’une grande compagnie d'assurance, vous serez au cœur de projets de transformation digitale en exploitant des technologies de Big Data et d'IA pour personnaliser les produits d'assurance en fonction des étapes de vie des clients. Votre mission principale sera de garantir la qualité des systèmes de gestion et d’analyse des données, en assurant la précision et la fiabilité des données dans les datalakes et des solutions d’IA. En étroite collaboration avec les équipes de développement, de données et de produit, vous serez responsable de la validation des systèmes analytiques, du suivi des performances des algorithmes et de la cohérence des données utilisées pour les recommandations personnalisées. Responsabilités : • Définition de la stratégie de tests : Concevoir et mettre en œuvre des stratégies de test adaptées aux systèmes Big Data et IA, en prenant en compte les exigences métiers et techniques. • Gestion et coordination des tests : Superviser les activités de test pour les systèmes d’analyse de données, en s’assurant de la couverture et de l’efficacité des tests. • Validation des données et analyses : Collaborer avec les équipes Big Data pour garantir la qualité des données stockées dans le datalake et assurer la cohérence des modèles d'IA et des recommandations produits. • Automatisation des tests : Développer des scripts en Python pour automatiser les tests sur les flux de données, les algorithmes et les processus de personnalisation. • Analyse des performances des modèles d’IA : Tester et surveiller les modèles d’apprentissage automatique pour assurer leur performance, précision et pertinence par rapport aux besoins clients. • Reporting et analyse de la qualité des données : Produire des rapports réguliers sur la qualité et la performance des systèmes, avec des indicateurs précis pour identifier les domaines d’amélioration. • Conformité et sécurité des données : S’assurer que les solutions d’analyse et de personnalisation respectent les normes de sécurité et de confidentialité, incluant les réglementations RGPD.
Offre d'emploi
Product Owner Energy
Au sein de la direction Marketing, Data et Communication, le client recherche un Product Owner. Le service permet au client de mettre à disposition des particuliers un service gratuit leur permettant de suivre en temps réel leur consommation d'énergie. En lien direct et en collaboration avec le Product manager , aura pour tâches : Participer aux ateliers métiers et fonctionnels Rédiger les user stories dans l’outil JIRA Expliciter les besoins du métier à l’équipe de développement (Business Analists et Développeurs). Co-construire le design de la solution avec le PM et les BA Tester les fonctionnalités développées Présenter les nouvelles fonctionnalités aux utilisateurs Analyser les remontées en production des utilisateurs sur les fonctionnalités existantes
Mission freelance
CONSULTANT TECHNQUE BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS
CONSULTANT BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS Expérience ciblée : PLUS DE 10 ANS Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
Offre d'emploi
Bigdata Engineer Cloud
💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket
Offre d'emploi
Data scientist (H/F)
Mission : En tant que Data Scientist (H/F), vous serez en charge des missions suivantes : • Concevoir et développer les futures fonctionnalités de la plateforme sous Google Cloud Platform. • Concevoir les flux d'alimentation et les tables (structure de donnée). • Automatiser et industrialiser les flux. La stack technique : • Maîtrise des outils permettant de gérer les gros volumes de données (stockage HDFS, calcul distribué, …) via Spark. • Expérience significative dans la mise en production de solutions de ML ayant un impact à grande échelle sur les clients. • Maîtrise des pratiques de packaging ML et de mise en place des architectures AI avancées. • Maîtrise des environnements de développement sur le Cloud (ex : AWS, SageMaker, DataBricks, etc.). • Maîtrise des outils de développement : Git, Github, CI/CD, VSCode/Pycharm, Terminal. • Maîtrise de l'Anglais indispensable.
Mission freelance
Tech Lead Java & Data Senior H/F
Intégrer l’équipe KARMA Move To Cloud pour réaliser la migration dans le cloud GCP. KARMA est le système de Revenue Management du groupe 100% migration cloud GCP Intégration d’une équipe de 6 personnes Présence sur site (Sophia Antipolis) obligatoire 1x par semaine. Présence sur site (Sophia Antipolis) obligatoire 3x par semaine pendant les 3 premiers mois (on boarding) Communication, leadership, autonomie, coaching Profils séniors uniquement Anglais niveau B2 Obligatoire Data engineering / Big Data Development Hadoop et Spark pour migration KARMA dans le cloud GCP
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.