Trouvez votre prochaine offre d’emploi ou de mission freelance Data scientist à Paris
Le “Data Scientist” est le spécialiste Big Data en entreprise, chargé de la structuration des informations et de l'optimisation de la sécurité des données stockées, quel que soit leur volume.
Sa mission : catégoriser avec soin les données pour éviter les risques de défaillance du système informatique.
Il cherche ainsi à détecter de nouvelles failles potentiellement exploitables par les hackers et leur impact sur les activités de l'entreprise.
In fine, il veille à proposer des solutions de protection efficaces.
Cet expert de la gestion et de l'analyse de données massives est à la fois un spécialiste des chiffres, des statistiques et des programmes informatiques : il extrait de la valeur des données pour accompagner l'entreprise dans sa prise de décision stratégiques ou opérationnelles.
Le “Data Scientist” collabore de manière transverse avec des profils variés : informaticiens, statisticiens, data analysts, data miners, experts marketing et webmarketing…
Informations sur la rémunération de la fonction Data scientist.
Consultant Métier / Business Analyst H/F

Missions principales : • Analyser et formaliser les besoins métiers , en étroite collaboration avec les data scientists. • Collaborer étroitement avec les développeurs et le product owner pour assurer la bonne compréhension des besoins et la qualité des solutions déployées. • Assurer le suivi des performances des outils déployés et proposer des axes d'amélioration. • Gérer de multiples projets métiers en parallèle qui utiliseront la plateforme. • Accompagner technologiquement et animer les métiers dans le déploiement de la solution au sein de leurs projets • Suivre la production afin de garantir la satisfaction du client. Description : • Pilotage de l’alignement du système d’information du métier sur les orientations stratégiques et sur les processus métiers • Proposition des scénarios d’évolution du système d’information cohérents avec les objectifs et les processus définis • Contribution à l’optimisation des processus métiers, des données, des applications et des systèmes associés (détection d’opportunités…) • Pilotage de la performance, notamment économique du SI • Mise à disposition de la cartographie du système d’information comme un outil d’aide à la décision et au pilotage de la performance • Anticipation des changements et de leurs impacts métiers sur le SI, et réciproquement • Gestion du budget d'informatisation de son domaine • Participation à l'administration du système d’information en termes de référentiels, règles, démarches, méthodologies, objets métier, et outils • Évaluation de la cohérence unitaire et globale (portefeuille) des projets par rapport au système d’information (existant/cible) • Consolidation des écarts en termes de délais, de coûts ou de qualité • Capitalisation de l’ensemble des connaissances sur le système d’information du métier • Mise en œuvre de la qualité de la conduite de projet • Gestion de la cartographie des compétences nécessaires à l’évolution du SI • Apporter ponctuellement une expertise sur : des projets/activités à fortes spécificités Techniques, une connaissance spécifique du paramétrage technico-fonctionnel du produit/outil, des missions de conseil, audit, et/ou études spécifiques • Assistance de l'équipe maîtrise d'ouvrage projet dans ses activités, participation à l'animation et à la gestion de toutes les phases du projet de fabrication de la solution • Collecter et prioriser les exigences métier. S'assurer en recette MOA que la solution proposée couvre le périmètre et les exigences métiers définis • Contribuer à la collecte, la formalisation et la priorisation des exigences métier et des cas d'utilisation. • Contribuer à la définition des scenarios de test métier et anime la recette MOA. • Contribuer à la définition des indicateurs d'appropriation de l'outil. • Contribuer à l'analyse de l'existant, à la modélisation des processus métiers cible et aux travaux d'accompagnement au changement métier. • Contribuer au pilotage et à l'animation des activités maîtrise d'ouvrage du projet
DataOps

Contexte: Monter une plateforme sur la partie DATA / GCP avec la mise en place de la chaine CI/CD Nous recherchons un(e) Consultant(e) Expert(e) CI/CD Data & App pour mettre en oeuvre les tâches suivantes : • Auditer les pratiques actuelles et proposer une architecture cible détaillée pour la chaîne CI/CD Data & App sur GCP. • Concevoir et implémenter les pipelines dans GitLab CI pour automatiser : o Le build, le test et le déploiement de l'Infrastructure as Code avec Terraform. o Le déploiement et les tests des transformations BigQuery (SQL). o Le build, le test et le déploiement d’applications JS et ReactJS (SFCC). o Le build, le test et le déploiement d’applications Java (Mulesoft). o Le build (via Cloud Build), le stockage (sur Artifact Registry) et le déploiement d'applications conteneurisées (Cloud Run, GKE si nécessaire). o L'intégration de tests automatisés (unitaires, intégration, qualité des données. • Proposer et implémenter le plus souvent possible de l’IA (Gemini 2.5 ou autre) pour simplifier et accélérer la CI/CD dans les domaines du code, du débug, des tests, de la documentation ou d’autres usages. • Configurer et optimiser l'intégration entre GitLab CI et GCP (Runners sur GCE/GKE, gestion des secrets avec Secret Manager). • Intégrer les fonctionnalités de Splunk Cloud pour assurer la visibilité et l'alerting sur les pipelines CI/CD et les assets déployés. • Promouvoir et mettre en oeuvre les meilleures pratiques DevOps / DataOps (gestion des environnements dev/staging/prod, sécurité, reproductibilité). • Accompagner et former les équipes internes (Data Engineers, Data Scientists) à l'utilisation et à la maintenance de la chaîne CI/CD. • Documenter l'architecture, les processus et les configurations mis en place sur Atlassian Confluence.
Data Engineer GCP (H/F)

Contexte de la mission : Nous recherchons un(e) Data Engineer confirmé(e) pour intégrer une équipe agile dédiée à la mise en place et à l’industrialisation de pipelines de données sur la plateforme GCP. Vous interviendrez sur des projets stratégiques autour de la valorisation des données métiers (finance, risque, conformité, etc.). Vos missions : Conception, développement et optimisation de pipelines de données scalables sur Google Cloud Platform (GCP) Intégration et transformation des données issues de diverses sources (BigQuery, Pub/Sub, Cloud Storage, etc.) Utilisation de Apache Spark pour le traitement de gros volumes de données Orchestration des workflows avec Apache Airflow (Cloud Composer) Collaboration avec les Data Analysts, Data Scientists et les équipes métiers pour répondre aux besoins data Mise en place de bonnes pratiques de développement (CI/CD, tests, monitoring, documentation) Participation à l’évolution de la plateforme data et contribution à l’amélioration continue des process Compétences techniques attendues : Langage : Python (maîtrise indispensable) Traitement de données : Apache Spark (PySpark) Orchestration : Airflow (Cloud Composer) Cloud : GCP (BigQuery, Cloud Storage, Dataflow, Pub/Sub...) Outils : Git, Docker, Terraform (atout), CI/CD (GitLab CI, Jenkins...) Méthodologie : Agile/Scrum, DevOps
Développeur Big Data Senior

Le contexte : Au cœur de la transformation digitale de notre client qui révolutionne son approche en plaçant la data et le digital au centre de sa stratégie. Dans le cadre d'un projet majeur de transformation, nous recherchons un(e) Data Engineer Senior pour renforcer nos équipes pendant 12 mois minimum. Votre mission : Intégré(e) à nos équipes data, vous contribuerez à : Concevoir et développer des pipelines de données robustes pour nos projets de machine learning Optimiser nos architectures de traitement de données existantes Participer aux revues de code et au développement des bonnes pratiques Collaborer avec notre communauté d'experts (data scientists, engineers, devops) Assurer l'intégration de nouvelles sources de données Garantir la qualité technique des solutions déployées Les plus de cette mission : Projet stratégique à fort impact Environnement technique de pointe équipe data & tech expérimentée Exposition à des problématiques data complexes Opportunité de contribuer à la transformation digitale d'un leader de son marché
Data Ingénieur/Data Ops (H/F) 75

Vous serez en charge de : * Concevoir, implémentez et fournir des solutions pour les problématiques data. * L’intégration et la collecte des données issues des applications tierces (CRM, réseaux sociaux, etc.) ; * La conception, le développement et déploiement de nouveaux flux Spark pour les différents besoin métiers (finance, support, industrie…) * La caractérisation des architectures des produits technologiques ; Choix d’architecture en anticipant les besoins de scalabilité * La planification et l’orchestration des flux afin d’optimiser la mise à disposition de données. * Détecter les points bloquants ou les chaînons manquants dans le cycle de traitement des données, et à proposer des solutions à soumettre à leurs collaborateurs. * D’assurer la continuité de service et le monitoring des flux développés. * Documentation : capitalisation des savoirs, retours d'expérience et fiches de best practices pour aider à la montée en compétencesdes équipes métier. * De la veille technologique : proposer de nouvelles solutions techniques pour challenger le fonctionnement actuel et optimiser les temps de traitements tout en réduisant les coûts. * Évangéliser les meilleures pratiques dans le traitement de la data. Vous travaillerez en relation avec les équipes responsables des infrastructures et des bases de données ainsi qu’avec les équipes de data analystes et de data scientistes, avec l'appui du chef de projet et en relation directe avec les équipes métiers. Environnement technique : * Spark , PySpark , Scala * HDFS, YARN, Hive, SQL Server, Airflow, Postgresql, kafka * Python, Java, Shell * API, Web services * Git Stash, Ansible, YAML * Puppet * Ansible * CI/CD * Docker / Kubernetes * Agilité / Scrum * la gestion de l’environnement, des tests unitaires, de l’automatisation et des versions ; Savoir être * Autonome & Résilient * Force de proposition * Rigoureux & Capable de gérer plusieurs sujets en parallèle * Faire preuve d’adaptabilité * Pédagogue, vous avez la capacité de vulgariser votre savoir technique pour le mettre au service des autres. * Organisé , vous avez le sens des responsabilités. * État d'esprit orienté utilisateur. Vous avez l’esprit d’équipe, vous participez et êtes acteur des différents rituels agiles
207342 : Consultant CI/CD Gitlab/Google Cloud (5XP ou plus) - 539
Contexte : Dans le cadre de l’amélioration de ses pratiques DevOps et DataOps sur Google Cloud Platform, le client recherche un(e) Consultant(e) Expert(e) CI/CD capable d’auditer l’existant et de concevoir une chaîne d’intégration et de déploiement continue unifiée pour les environnements Data et Applicatifs. Cette mission s’inscrit dans un contexte technique exigeant, mêlant infrastructure as code, déploiement multi-stack (Java, JS/React, BigQuery), conteneurisation, automatisation avancée avec GitLab CI, et supervision via Splunk. L’objectif est d’industrialiser et de fiabiliser les livraisons tout en accompagnant la montée en compétences des équipes internes. Missions : Auditer les pratiques actuelles et proposer une architecture cible détaillée pour la chaîne CI/CD Data & App sur GCP. Concevoir et implémenter les pipelines dans GitLab CI pour automatiser : Le build, le test et le déploiement de l'Infrastructure as Code avec Terraform. Le déploiement et les tests des transformations BigQuery (SQL). Le build, le test et le déploiement d’applications JS et ReactJS (SFCC). Le build, le test et le déploiement d’applications Java (Mulesoft). Le build (via Cloud Build), le stockage (sur Artifact Registry) et le déploiement d'applications conteneurisées (Cloud Run, GKE si nécessaire). L'intégration de tests automatisés (unitaires, intégration, qualité des données. Proposer et implémenter le plus souvent possible de l’IA (Gemini 2.5 ou autre) pour simplifier et accélérer la CI/CD dans les domaines du code, du débug, des tests, de la documentation ou d’autres usages. Configurer et optimiser l'intégration entre GitLab CI et GCP (Runners sur GCE/GKE, gestion des secrets avec Secret Manager). Intégrer les fonctionnalités de Splunk Cloud pour assurer la visibilité et l'alerting sur les pipelines CI/CD et les assets déployés. Promouvoir et mettre en oeuvre les meilleures pratiques DevOps / DataOps (gestion des environnements dev/staging/prod, sécurité, reproductibilité). Accompagner et former les équipes internes (Data Engineers, Data Scientists) à l'utilisation et à la maintenance de la chaîne CI/CD. Documenter l'architecture, les processus et les configurations mis en place sur Atlassian Confluence. Compétences : Expertise confirmée en conception et mise en oeuvre de chaînes CI/CD complexes, avec une maîtrise approfondie de GitLab CI/CD. Solide expérience pratique sur Google Cloud, notamment avec les services suivants : Compute/Containers : GCE, GKE, Cloud Run, Cloud Build, Artifact Registry. Stockage/Base de données : GCS, BigQuery, Cloud SQL. Traitement/Orchestration : Dataform, Airflow, Pub/Sub. Opérations & Sécurité : Splunk, IAM, Secret Manager. Maîtrise indispensable de Terraform pour l'Infrastructure as Code sur Google Cloud.. Excellentes compétences en scripting, particulièrement en Python. La connaissance de Shell est également nécessaire. Expérience significative avec la conteneurisation (Docker). Compréhension solide des principes et enjeux du Data Engineering et du DataOps. Habitué(e) aux outils de développement modernes : Git, VS Code. Excellentes capacités de communication, d'analyse et de résolution de problèmes. Autonomie, proactivité et capacité à travailler en collaboration avec des équipes techniques
Manager Data & IA - Secteur Banque (H/F)

Bek Advisory est un cabinet de conseil spécialisé dans la gestion de projets de transformation SI et métier. Nous intervenons auprès de secteurs variés, notamment la banque, l’assurance, l’énergie et le secteur public. Nos consultants accompagnent nos clients dans des projets complexes, allant de la stratégie data et intelligence artificielle (IA) à la mise en conformité réglementaire en passant par la transformation d’outils data. Vos missions En tant que Manager Data & IA , vous serez un acteur clé dans la transformation data de nos clients, avec des responsabilités incluant : Stratégie Data & IA Définir et piloter la stratégie data et IA en collaboration avec les équipes dirigeantes des clients. Identifier les opportunités d’usage de l’IA et des données pour améliorer les performances métiers. Élaborer des feuilles de route stratégiques pour les initiatives data et IA. Transformation des outils data Accompagner les clients dans la sélection, l’implémentation et la modernisation des outils de gestion de données. Assurer la migration des outils vers des solutions plus performantes et adaptées aux besoins métiers. Superviser la mise en œuvre de solutions analytiques et prédictives, incluant des outils d’IA. Mise en conformité réglementaire des données Garantir la conformité avec les exigences réglementaires en matière de données (GDPR, BCBS 239, etc.). Mettre en place des processus et des outils pour assurer la qualité, la sécurité et la gouvernance des données. Élaborer des politiques internes de gestion des données conformes aux cadres réglementaires. Management transversal Coordonner des équipes pluridisciplinaires (data scientists, analystes, développeurs, etc.). Piloter des projets complexes avec des parties prenantes multiples. Former et accompagner les équipes internes pour renforcer leur maîtrise des données et de l’IA.
POT8322-Un Business Analyste IA / IAG sur Paris

Almatek recherche pour l'un de ses clients Un Business Analyste IA / IAG sur Paris. Contexte : Le département Tech Expertise & Solutions a pour vocation d'accompagner la transformation digitale de nos métiers, en lien avec la stratégie du groupe. Ce centre d'expertise transverse est orienté développement, innovation, data, IA... Prestation au sein du Lab Innovation, en charge de concevoir des projets pilotes et produits finis innovants à destination du groupe et des clients. Nous recherchons un business analyst ayant des connaissances sur les sujets d'IA et d'IA générative, afin de travailler notamment au développement et déploiement d'une plateforme de recherche documentaire augmentée par l'IA générative, aussi connu sous le terme RAG (Retrieval Augmented Generation). Missions principales : • Analyser et formaliser les besoins métiers liés à la RAG, en étroite collaboration avec les data scientists. • Collaborer étroitement avec les développeurs et le product owner pour assurer la bonne compréhension des besoins et la qualité des solutions déployées. • Assurer le suivi des performances des outils déployés et proposer des axes d'amélioration. • Gérer de multiples projets métiers en parallèle qui utiliseront la plateforme. • Accompagner technologiquement et animer les métiers dans le déploiement de la solution au sein de leurs projets • Suivre la production afin de garantir la satisfaction du client. Compétences attendues : • Une expérience confirmée en tant que Business Analyst est impérative. • La maitrise des fondamentaux de l'IA générative et de la RAG est impératif. • Capacité à rédiger des documents et synthétiser l'information. • Capacité à trouver des solutions aux problèmes que les métiers peuvent rencontrer. • Capacité à piloter une phase de test et valider que le produit qui permettra de servir les cas d'usages métiers. Softskill : • Excellentes capacités d’intégration, de facilitateur et de pilotage de projets. • Excellentes capacités rédactionnelles et de présentation orale. • Coordination, rigueur, sens du service et du dialogue. • Capacité d’initiative et force de proposition. • L'anglais courant est impératif pour ce poste. Localisation : Paris 13 + 2 à 3 jrs TT/semaine Durée : mission longue
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Etat du marché ITil y a une heure
- Pénurie des offres freelances !il y a une heure
- Souci sur la transition deux statuts (de l'AE vers l'EURL sur IS)il y a 2 heures
- autoliquidation tvail y a 4 heures
- Recherche d'une immersion (PMSMP) comme Data Engineer Azureil y a 5 heures
- Assurances vie et conditions particulières « confidentielles »il y a 6 heures