Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Data Engineer (H/F)
Vos missions ? Intégré à nos équipes sur nos projets en Factory ou chez nos clients vous interviendrez en tant que data Engineer. En tant que data Engineer (H/F), vous assurez les missions suivantes : Conception de solutions permettant le traitement de volumes importants de pipelines données. Ceux-ci doivent être suffisamment sécurisés et lisibles pour les Data Analysts et Data Scientists. Animation d'une équipe de professionnels de la Data sur toutes les étapes du traitement de la donnée. Mise à jour permanente sur les technologies et langages utilisés dans le but de partager ses connaissances et aider à l'avancement du projet.
Offre d'emploi
Architecte Data Mlops
Le bénéficiaire souhaite une prestation d´accompagnement dans l´objectif d´assurance des services d´ingénierie technique pour le pôle en charge du cloud IBM, notamment dans l´architecture & design des couches techniques basses. L´objectif principal est assurance de l’ hybridation au cloud IBM ainsi qu' autres fournisseurs au futur, et assurance de la cohésion entre le backend (Datalab Platform) et les produits. Les missions sont: - Définition, assurance et déploiement des architecture intimes des produits; - Définition, assurance et priorisation des produits; - Définition et assurance de la roadmap Produit; - Déploiement des solutions; - Participation au support des services construits, selon le principe "You Make it You Run it"; - Acceleration du développement de produits data dans le cloud. (calculs distribués, datascience, ETL, datahubs); - Création des services de terraformation des clouds internes/externes; - Création des pipelines de deploiements; - Sécurisation de tous les produits et services (MFA , encryption, etc).
Offre d'emploi
Data Scientist / Actuariat - Paris, IDF
Chez K-LAGAN & Kereon, nous parions sur vous ! 🚀 🔊 Vous êtes un(e) Data Manager passionné(e) par la gestion des données et à la recherche d’un projet stimulant et durable ? Si vous cherchez à approfondir vos compétences tout en évoluant dans un environnement de travail innovant, n'hésitez plus et rejoignez notre équipe ! K-LAGAN est un cabinet de conseil spécialisé dans la Data , l'ingénierie, la technologie de l'information et la gestion de projets. Présente à l'international, notre mission est d’accompagner nos clients dans des secteurs variés tels que l’assurance, la finance, l’industrie, l’automobile et les télécommunications, en leur proposant des solutions sur mesure. Nous recherchons un(e) Data Scientist spécialisé(e) en actuariat pour rejoindre notre équipe et travailler sur des projets stratégiques de gestion et valorisation de la donnée. 📍 Localisation : Paris, Île-de-France, France. Vos missions principales : Développer des modèles actuariels avancés pour l'analyse et la prédiction des risques. Analyser de grandes quantités de données afin d'identifier des tendances et des comportements pertinents pour les produits d'assurance. Collaborer avec les équipes techniques et métiers pour concevoir et implémenter des solutions basées sur la data science. Réaliser des études de solvabilité et soutenir les processus de conformité réglementaire. Présenter des insights et des recommandations stratégiques aux parties prenantes. Participer à la mise en place d'algorithmes de machine learning pour optimiser les modèles de tarification et d'analyse des sinistres.
Mission freelance
INGENIEUR DATA BI EXPERIMENTE
Nous recherchons un(e) ingénieur Data BI expérimenté Contexte Au sein d'une Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté, une expérience dans le secteur du e-commerce serait apprécié. La Data Factory de notre client joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Elle se concentre sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour les équipes. Description • Participe à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Rédaction des documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de la stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe Livrables Spécifications Techniques, Cahier de recette Technique, Document d'exploitation Reporting d'avancement des travaux Programme développés
Mission freelance
MLOPS ENGINEER
Contexte de la mission Intégré à une équipe Produit, l'ingénieur MLOPs contribue à l'industrialisation de modèles ML déjà développés. Nous avons besoin de quelqu'un qui peut nous aider à automatiser et à améliorer notre pipeline de ML, à mettre en place des pratiques de MLOps et à assurer la qualité des données. Objectifs et livrables Nous cherchons à atteindre les objectifs suivants : Implémenter les pipelines automatisés pour le déploiement et la surveillance des modèles (Gestion des alertes) Amélioration et automatisation du pipeline de ML Mise en place de pratiques de MLOps et d'outils IA Assurer la qualité des données Optimiser l'efficacité et la scalabilité des flux de travail ML
Mission freelance
DATA ENGINEER (H/F)
Notre client recherche un(e) Data Engineer. - Construire et optimiser les pipelines de données : collecte, transformation et publication des données. - Améliorer fiabilité, qualité, performance et FinOps des flux de données. - Garantir la conformité avec la gouvernance de données du groupe. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT. Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake. Une connaissance de la Supply Chain ou une forte curiosité métier est un atout clé, compte tenu de l’organisation.
Mission freelance
ARCHITECTE DATA / POWER BI & AZURE
Nous recherchons un(e) DATA ARCHITECTE POWER BI / AZURE Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Responsabilités : • Analyser les besoins fonctionnels. • Localiser les données de production. • Déterminer les spécifications techniques. • Définir l'architecture. • Modéliser les datawarehouse (entrepôts de données) et les datamarts (magasins de données) dédiés à une fonction particulière dans l'entreprise. • Accompagner le client dans la réalisation du projet. • Maintenir les sources de données à jour • Mettre à disposition les données aux métiers • Superviser les flux de données et en contrôler l'intégrité
Mission freelance
INGENIEUR DATA BI - GENIO
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
Offre d'emploi
Développeur Talend
Contexte : Dans le cadre de la digitalisation et de l'optimisation de nos flux de données, nous recherchons un Développeur Talend pour renforcer notre équipe Data. Ce poste vous permettra d’intervenir sur l’ensemble du cycle de vie de nos projets d’intégration de données, avec une attention particulière à l’optimisation des flux et à la qualité des données. Vous collaborerez avec des équipes métier et techniques pour construire des solutions robustes et évolutives répondant aux besoins stratégiques de l’entreprise. Missions principales : Conception et développement des flux de données : Concevoir, développer et maintenir des flux ETL sous Talend pour assurer l’intégration et la transformation des données. Travailler en collaboration avec les équipes fonctionnelles et techniques pour identifier les besoins en intégration de données. Documenter les processus de développement et les transformations de données. Optimisation et maintenance des flux : Optimiser les processus d’intégration de données pour garantir performance et fiabilité. Assurer la maintenance corrective et évolutive des flux existants en fonction des besoins de l’entreprise. Effectuer des tests unitaires et fonctionnels, et veiller à la qualité des données tout au long des transformations. Gestion de la qualité des données : Mettre en place des contrôles qualité des données dans les flux pour garantir leur conformité et fiabilité. Contribuer à la mise en place des règles de gouvernance de la donnée et aux bonnes pratiques d’intégration. Participation aux projets transverses : Participer aux projets de migration, de consolidation de données et de gestion de référentiels de données. Collaborer avec les autres équipes de développement pour assurer une cohérence et une interopérabilité des données dans l’ensemble du SI. Contribuer à la veille technologique pour proposer des solutions innovantes et améliorer les processus d’intégration.
Offre d'emploi
Microsoft Fabric Engineer
1 jour sur site en Belgique Votre mission : Contribuer à l'optimisation des pipelines de données et à l'intégration de solutions innovantes dans notre infrastructure IT en tant qu'Ingénieur Microsoft Fabric. Ce que vous ferez : Améliorer l'efficacité des systèmes de gestion des données pour une prise de décision éclairée. Soutenir les équipes Data Science et DevOps avec une infrastructure fiable et évolutive. Développer des solutions pour automatiser les processus de gestion des données. Participer aux comités techniques pour recommander des améliorations. Documenter les processus et créer des guides utilisateurs. Ce que nous offrons : Une ambiance conviviale avec des collègues passionnés et professionnels. Un accompagnement par des experts et des formations continues. Autonomie dans un rôle varié, riche en opportunités d'apprentissage. Des outils et technologies de pointe. Un accompagnement personnalisé pour votre développement de carrière. Flexibilité avec des options de télétravail et un package salarial attractif. Un environnement de travail dynamique, axé sur l'innovation et le bien-être, avec des activités ludiques comme des food trucks et des barbecues. Votre profil : Expertise en gestion de données avec Microsoft Fabric et Azure. Bonne maîtrise des pipelines de données et de l'intégration continue. Connaissance de Python ou Spark, ainsi que des outils comme Power BI. Expérience avec les services cloud Azure et la sécurité des données. Certification DP600 préférée. Bilingue FR/EN avec un esprit analytique et proactif. Si vous êtes prêt à relever ce défi, n’hésitez pas à postuler !
Offre d'emploi
Architecte Sécurité Cloud ./ Data (SASE : Netcop/OKTA)
Client : Banque Localisation : Maison Alfort Poste : Architecte Sécurité Cloud ./ Data Expérience : +9 années Démarrage : ASAP Objectif: Analyser les besoins Participer aux ateliers afin d’étudier et de cadrer les besoins en sécurité • Préconiser les solutions et architectures cibles • Contribuer à la rédaction des dossiers d’architecture et spécifications techniques basés sur les principes de sécurisation de la donnée • Coordonner la sécurité des projets afin d'aider les équipes à fournir des solutions d'infrastructure sécurisées avec les recommandations et les exigences de la SSI • Participer aux audits de sécurité des applications et des socles techniques • Effectuer des évaluations des risques techniques, la modélisation des menaces, des examens de la sécurité de l'architecture, des conseils et des suivis répétables pour les projets impliquant des services destinés aux clients de Bpifrance • Garantir la prévention et la bonne gestion des risques techniques en proposant des améliorations aux politiques, directives et normes de sécurité • Communiquer efficacement tout en répondant aux besoins de sécurité et en validant que les mesures de sécurité appropriées sont en place • Superviser le socle technique (sécurité, réseau, gouvernance...) • Veiller la sécurité et la fiabilité des environnements déployés • Créer / mettre à jour le corpus documentaire • Rédiger les dossiers d'arbitrage en étant force de proposition et de décision en coordination avec les parties prenantes du projet Industrialiser et opérer les environnements Contribuer à la mise en place des outils d’automatisation et de monitoring adaptés à l’environnement client • Participer à l’implémentation des outils nécessaires à la mise en place des pratiques DevOps (Puppet, Chef, Gitlab CI, Travis CI, Cloud Build, etc.)| Compétences métier souhaitables : Qualifications (seraient un plus) Certification de sécurité (CISSP et / ou GIAC) • Les certifications de fournisseur (AWS / Azure / GCP) • Expérience de sécurité offensive (Pentest, red teaming), un atout pour Bpifrance • Certification SAFe Expérience pertinente de +9 ans ou plus dans le domaine de la sécurité de l'information ou une expérience pertinente ; • Au moins cinq ans d'expérience pratique sur au moins l'un des sujets suivants : • sécurité Microsoft, sécurité réseau, sécurité Linux;|
Mission freelance
CONSULTANT MOE DATA BI - SSIS - SQL Server - Azure Devops
Dans le cadre d'une mission longue chez l'un de nos clients à la Defense et pour un démarrage immédiat, nous recherchons un(e) Consultant technique MOE BI / Domaine Socle Data ▪ Type de prestation : Assistance Technique ▪ Expertise métier requise : BI ▪ Nombre d'années d'expérience : 7-10 ans minimum ▪ Descriptif détaillé de la mission : ➢ Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) ➢ Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. ➢ Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. ➢ Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. ➢ Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). ➢ Conseiller, proposer des axes d'amélioration, alerter si besoin. ▪ Environnement technique de la mission : ➢ Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) ➢ Reporting : COGNOS BI 10.2 et 11 & Tableau (le reporting n'est pas dans le scope, il s'agit d'une information)
Mission freelance
Data Scientist - Time Series
Analyser et modéliser des séries temporelles pour optimiser les processus décisionnels. Collaborer avec les équipes techniques et métier pour développer des solutions data-driven. Participer activement à la gestion et à l’amélioration continue des modèles en production. Compétences requises : Maîtrise des techniques de modélisation Time Series . Solides connaissances en Python et bibliothèques associées (Pandas, Numpy, Scikit-learn). Bonnes compétences en communication pour transmettre des insights aux équipes non techniques.
Offre d'emploi
Data Manager
Dans le cadre du projet réglementaire de dématérialisation des factures, notre client doit s'assurer de la maîtrise des données de ses nombreux systèmes de facturation. Nous cherchons un responsable du chantier data au sein du projet de dématérialisation des factures. Il sera accompagné du responsable gouvernance des données du Data Office et collaborera avec les autres responsables de chantiers (Chantier IT, Chantier DAF, Chantier Change Utilisateur) Sa mission sera de s'assurer que le niveau de qualité des données est en adéquation avec les enjeux et objectifs définies par le COPIL projet. L'objectif est de maitriser les données nécessaires à la bonne production des factures. En se basant sur les gap analysis produits et en réalisant des entretiens métiers, il devra étudier et documenter les lineages des données concernées et identifier les insuffisances des processus métier et IT. Il proposera ensuite des pistes de solutions, et, dans la mesure du possible suivra leur mise en oeuvre. La maitrise des données s'articule autour de 4 axes : - Outillage et documentation - Mesure et remédiation - Processus IT et Métier - Organisation et Gouvernance
Offre d'emploi
Data Governance Officer
Dans le cadre de la réalisation de divers projet, Pour notre client dans le secteur de l'industrie, nous recherchons un consultant data gouvernance qui sera en charge de la mise en place de l'architecture Policies ainsi que d'autres sujets en cours Vos missions : Excellente maitrise de l'architecture policies : Architecture Médaillon Très bonne capacité à cataloguer des données Expériences en gouvernance fédérée via un méta model Compétences en Data Quality et Data Observability capacité à gérer des projets dans la data
Offre d'emploi
Support Python Engineer H/F
En tant que Data Support analyste, vous serez responsable de fournir un soutien technique et opérationnel pour les systèmes et les processus liés aux données au sein du département de Data Technology. Vous travaillerez en étroite collaboration avec les équipes de développement et de data ingénierie pour résoudre les problèmes liés à la data, assurer la qualité des données et maintenir la disponibilité des systèmes. 1. Soutien technique : Diagnostiquer et résoudre les problèmes liés aux données. 2. Gestion de la qualité des données : Surveiller et analyser la qualité des données, identifier les anomalies et les incohérences, et proposer des solutions pour améliorer la qualité des données. Mettre en place des contrôles de qualité. 3. Maintenance et support opérationnel : Assurer la disponibilité des systèmes de données en surveillant les performances et en gérant les problèmes de capacité. Collaborer avec les équipes de développement pour effectuer des mises à jour logicielles, des correctifs de bugs et des améliorations des fonctionnalités des systèmes de données. 4. Formation et communication : Collaborer avec les différentes équipes pour communiquer les changements, les mises à jour et les problèmes liés aux données de manière claire et concise. Participer à des réunions et à des projets interfonctionnels pour fournir un aperçu et un soutien relatif aux données.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.