Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Data Engineer Spark Scala Kafka H/F
Contexte : • Mise en place d'une Assiette Comptable de Référence, certifiée & unique sur l'ensemble du périmètre Natixis SA servant de référence pour les calculateurs et reportings Finance et Risques • Décommissionnement de la base de données actuelle des inventaires Finance et capitalisation sur le Datalake Finance & Risk • Mise en place d'une nouvelle plateforme globale de suivi des contrôles et de gestion des corrections (en se basant sur le streaming évènementiel type Kafka) • Optimisation et rationalisation du SI Finance (prudentiel notamment) basé sur cette assiette comptable de référence • Acquisition et complétion des données • Nouvelle modélisation des données orientée produit pour les besoins des traitements, des calculateurs, … et distribution des données • Mise en place d’un Module de certification comptable avec mise en place d'un rapprochement plus rationalisé Compta to BO to FO et centralisation du rapprochement Compta Statutaire & Consolidée. Missions : 1) L'optimisation de la performance, temps d'exécution, utilisation des ressources machines afin de tenir les délais de traitement des informations et de leurs distributions vers les consommateurs avals (Calculateurs et reporting) dans le cadre des arrêtés mais également des besoins quotidiens. Notamment afin de faire face à l'augmentation significative de la volumétrie de données sur S2 2024 et 2025 en lien avec les déploiements GASPARD 2) La contribution à la mise en place des outils de monitoring technique et fonctionnelle
Offre d'emploi
Data Architecte / MLOPS
Prestation d´accompagnement dans l´objectif d´assurance des services d´ingénierie technique pour le pôle en charge du cloud IBM, notamment dans ´architecture & design des couches techniques basses. L´objectif principal est assurance de l’ hybridation au cloud IBM ainsi qu' autres fournisseurs au futur, et assurance de la cohésion entre le backend (Datalab Platform) et les produits Les missions sont : - Définition, assurance et déploiement des architecture intimes des produits; - Définition, assurance et priorisation des produits; - Définition et assurance de la roadmap Produit; - Déploiement des solutions; - Participation au support des services construits, selon le principe "You Make it You Run it"; - Acceleration du développement de produits data dans le cloud. (calculs distribués, datascience, ETL, datahubs); - Création des services de terraformation des clouds internes/externes; - Création des pipelines de deploiements; - Sécurisation de tous les produits et services (MFA , encryption, etc). Connaissances techniques essentielles: - Bon background dans les infrastructures legacy serveurs/storage; - Haut niveau d'expertise en DEVOPS (Gitlab /ArgoCD/ Terraform / Ansible /Vault); - Expertise en cloud native infrastructures: Kubernetes/ Openshift dans des environnements "statefull"; - Experience significative dans un cloud provider publique - Construction des SAAS data clé en main vu des utilisateurs groupe à partir de comptes cloud "natif" - Haut niveau d´expertise dans beaucoup de technologies différentes.
Mission freelance
Consultant SAP Data Services (H/F) - Remote
Nous recherchons un consultant spécialisé SAP Data Services pour intervenir dans le cadre du déploiement d’un datawarehouse pour un de nos clients du secteur bancaire. Implémentation et optimisation des flux ETL via SAP Data Services. Maitrise de la console d'administration et des bonnes pratiques SAP Data Services Participation à la conception et à la mise en œuvre du datawarehouse. Collaboration avec l’équipe projet pour garantir la qualité et la performance des solutions. Documentation des processus et transfert de connaissances.
Mission freelance
Consultant (H-F-Y) Senior Data Loss Prevention (DLP)
Nous recherchons un consultant expert en prévention des fuites de données (DLP) pour accompagner notre client dans le déploiement et la configuration d’une solution de DLP. Vous serez responsable de concevoir une feuille de route réaliste tout en mobilisant les parties prenantes internes pour assurer un déploiement efficace et adapté aux besoins spécifiques de l’entreprise. Vos missions : Déploiement et configuration d’une solution majeure de DLP (Symantec, McAfee, Forcepoint, Microsoft Purview, Digital Guardian, etc.). Identification et classification des données sensibles à protéger. Intégration de la solution DLP avec d'autres outils de sécurité (SIEM, IAM, CASB). Conseil sur les protocoles de sécurité réseau (HTTPS, TLS, VPN) et dans des environnements cloud (AWS, Azure, Google Cloud). Élaboration d’une roadmap pragmatique intégrant coûts, efforts techniques et ressources nécessaires. Formation et sensibilisation des parties prenantes à l’usage et au suivi de la solution.
Offre d'emploi
Ingénieur Plateforme Data AWS (F/H)
📑 CDI (42-48K€) OU Freelance OU Portage salarial - 🏠 2 jours de télétravail / semaine - 📍 Lyon - 🛠 Expérience de 5 an minimum Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Ingénieur Plateforme Data AWS pour intervenir chez un de nos clients. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : au sein de l'équipe Plateforme Data AWS, après une phase d'appropriation de l'existant technologique, vous serez l'un des piliers pour répondre aux besoins métiers et projets. Voici un aperçu de vos futures responsabilités : - Participer aux phases de conception et de déploiement des outils - Rédiger les procédures d'installation et de livraison - Assurer l'exploitabilité des composants, en respectant les normes et bonnes pratiques (ordonnancement, performance) - Produire les livrables conformément aux processus qualité (fiches action, plans de bascule) - Réaliser la check-list de mise en production - Optimiser les traitements et diagnostiquer les incidents - Garantir la sécurité du SI cloud AWS - Développer des composants d'exploitation sous Linux, AIX et AWS - Mettre en place des chaînes d'ordonnancement
Offre d'emploi
Data scientist - H/F
Nous accompagnons notre client, acteur majeur du secteur [secteur d’activité de l’entreprise cliente], dans l’exploitation et la valorisation de ses données. Nous recherchons un(e) Data Scientist F/H pour rejoindre une squad Agile dédiée aux projets Big Data. Vous serez chargé(e) de créer et maintenir des modèles prédictifs, de gérer les environnements de données distribués, et de contribuer aux projets d’intégration des données pour l’équipe métier. Vos missions seront les suivantes : Développer, entraîner et déployer des modèles de Machine Learning avec l’outil Dataiku, et adapter les solutions de traitement de données à l’architecture Hadoop ; Concevoir et réaliser des dashboards interactifs sous Tableau (Desktop et Serveur) pour répondre aux besoins des métiers en matière de visualisation de données ; Concevoir des pipelines de données robustes en développant en Python, Scala ou SQL, et en intégrant les meilleures pratiques de gestion d’APIs et web services ; Garantir la qualité de code et la gestion des versions sous Git, et documenter les projets sous Confluence et JIRA pour une coordination efficace au sein de l’équipe ; Assurer le suivi de production des modèles et flux de données en collaboration avec les équipes d’exploitation, et participer aux cérémonies Agile (sprint planning, rétrospectives, etc.). Environnement technique : Hadoop (Hue, Zeppelin, Hive), Dataiku, Tableau, Python/Scala, JavaScript, SQL, web services/API, Shell, Git, JIRA, Confluence, Sciforma, Office 365, Teams.
Mission freelance
Project Manager / EM DATA MIGRATION (anglais fluent)
Définir et mettre en place une stratégie de migration des données. Gérer le périmètre des données à migrer pour chaque Go Live (Données de Base - BDR, Données Maîtres - MDR, Données Transactionnelles). Superviser les plans, les KPI, et les rapports de progression à destination du programme. Définir la stratégie de migration des données. Gérer les demandes de changement de périmètre (analyse d’impact, mise à jour du plan, communication). Planifier les activités et fournir des rapports de suivi détaillés via des KPIs. Collaborer étroitement avec le Data Migration Lead du client : Confirmer les responsabilités via RACI. Offrir un soutien continu et renforcer les relations via une approche "One-Team". Coordonner et superviser les activités des contributeurs (fournisseurs IFS, équipes IT, fonctionnelles, Business). Adapter la taille de l’équipe en fonction de la charge de travail. Gérer des profils fonctionnels, techniques, et de développement. Garantir la qualité des livrables (stratégie, GDS, DDS, interfaces Dell Boomi, validation des données). Superviser les Runbooks et leur cohérence avec le Master Plan. Analyser les collections de données, effectuer des réconciliations, et produire des rapports sur l’avancement des charges. Identifier, suivre et proposer des plans de mitigation pour les risques associés à la migration. Organiser la transmission des activités à l’équipe de maintenance après la période d’hypercare. Mettre à jour la base de connaissances (leçons apprises, gestion documentaire sur SharePoint, suivi Jira).
Mission freelance
Data Engineer Talend BusinessObjects GCP
Contexte de la mission : La Direction Immobilière Groupe est chargée de la définition stratégique des actifs immobiliers du groupe ainsi de que leur gestion. Au sein de la DSI, le pôle data a pour rôle de mettre à disposition des informations clés destinées aux analyses et reporting de la DIG. Ce pôle souhaite renforcer son équipe avec un Data Engineer afin de maintenir et faire évoluer son patrimoine applicatif data. La mission s'inscrit aussi dans une roadmap de migration à moyen terme vers une nouvelle architecture data GCP. MISSIONS : Les travaux confiés porteront sur la maintenance corrective et évolutive du patrimoine data à savoir : Flux de données : Conception technique, développement, tests, supports recette des jobs Talend Reporting : maintenance des univers BO, création & modifications de rapports BO API Talend ESB : conception et développement de flux temps réel Documentations : élaboration technique, spécifications Compétences recherchées : -Obligatoires : Talend DI, Talend ESB, SAP BusinessObjects, Oracle, Postgre Méthode Agile Scrum -Optionnelles : GCP Expérience nécessaire : 10 ans sur la fonction Méthodologie : Scrum Langue : Français Crée en 2008, Kéoni Consulting est une société de conseil et d’ingénierie informatique spécialisée dans le secteur de la banque, de la finance de marché, et de l’assurance, et de l'industrie. Nous sommes le partenaire dans la transformation digitale des grands Comptes. Nous les aidons à transformer leur modèle économique, aligner vos processus opérationnels, sélectionner les meilleures technologies, atténuer et palier les risques liés au digital. Kéoni Consulting aide les entreprises à: Faire la différence Innover et créer Réinventer votre business Satisfaire les clients Gagner en avantages compétitifs Devenir le leader de leur secteur Devenir le leader de votre secteur Notre activité couvre la totalité du cycle de vie des systèmes d’informations (Pilotage et Gestion de projet, Conseil en MOA, Conception, Réalisation, Maintenance, Production Exploitation)
Offre d'emploi
Data Analyst
Au sein de la direction des Opérations, une équipe est dédiée à la définition, la production et l’analyse des indicateurs de performance liés aux processus de back-office pour les activités de banque de détail. Actuellement en pleine transformation, cette équipe doit également assurer la continuité des indicateurs et tableaux de bord déjà en place. Dans le cadre de cette mission, le Data Analyst aura pour responsabilités de : Produire des indicateurs clés : Participer à la production régulière des indicateurs de performance pour le pilotage des processus de back-office. Automatisation : Contribuer à l’automatisation des rapports existants, afin d’optimiser et de rationaliser les processus. Création d'indicateurs et tableaux de bord : Développer de nouveaux indicateurs et tableaux de bord en lien avec les besoins évolutifs de BPCE.
Mission freelance
Sysops big data
la prestation consiste à : Ø Maintenir l’architecture Big Data en utilisant les dernières technologies ad-hoc Ø Participer à l’industrialisation, au déploiement, au maintien des clusters Cloudera existants (Cloudera Manager, HDFS, Yarn, Hive, Ranger, Nifi, Kerberos) Ø Mettre en place les nouveaux outils que notre SI souhaite explorer: Kafka, Iceberg, Impala … Ø Participer à l’exploitation quotidienne des plateformes (vérifier la santé des clusters, mettre à jours mensuellement les serveurs) Ø Gérer la sécurité et l’accès aux clusters Ø Monitorer les plateformes et communiquer sur les besoins futurs Ø Apporter un support technique aux équipes de développement (Data Engineers / Data Scientists) Ø Mener les réflexions sur les évolutions à apporter aux plateformes
Mission freelance
Data Scientiste Sénior (H/F)
1/Contexte : La mission se déroulera au sein de l'équipe Artificial Intelligence Engineering, dans la division Group Emerging Technologies and Data (GETD). La mission de ce projet transversal est à la fois de construire des initiatives basées sur l'IA (preuves de concept, preuves de valeur, pilotes) avec les entités et partenaires stratégiques et de définir et mettre en œuvre les meilleures pratiques, outils et modèles de collaboration en matière d'IA à suivre dans l'ensemble du Groupe. 2/Services : § Améliorer les solutions d'apprentissage automatique de bout en bout développées et déployées, depuis le prétraitement des données et l'ingénierie des caractéristiques jusqu'à l'entraînement, l'évaluation, le déploiement et le suivi des modèles. § Améliorer et mettre en œuvre des modèles/recettes pour stimuler l'évolutivité des cas d'utilisation de l'IA. § Refondre les carnets de notes en scripts de code de haute qualité qui feront partie des pipelines de ML. § Concevoir et optimiser les pipelines de ML, en tirant parti de ses fonctionnalités et capacités pour rationaliser le processus de développement et de déploiement des modèles. § Construire et maintenir une infrastructure MLOps évolutive et fiable, facilitant le versionnage des modèles, la surveillance et le déploiement automatisé. § Codifier les meilleures pratiques pour la surveillance des performances des modèles, la détection des dérives des modèles et le recyclage des modèles, afin de garantir la qualité et la mise à jour des modèles de ML en production. § Mettre en œuvre des pipelines CI/CD reproductibles et fiables. § Mettre en œuvre des tests de données, de modèles et de code. § Rester au courant des dernières avancées en matière de MLOps, LLMOps, et identifier de manière proactive les opportunités d'amélioration de nos capacités ML. § Mettre en œuvre des pipelines CI/CD reproductibles et fiables. § Mettre en œuvre des tests de données, de modèles et de code. § Vous êtes en charge de la mise en place de l'organisation et de la gestion de l'ensemble des activités de l'entreprise et vous êtes responsable de la gestion de l'ensemble des activités de l'entreprise et de la gestion de l'ensemble des activités de l'entreprise. § Vous êtes en charge de la mise en œuvre de la stratégie de développement de l'entreprise et de la mise en place de la stratégie de développement. § Construire des actifs et des lignes directrices avec notre communauté interne de MLOps. § Évaluation des qualifications
Mission freelance
Proxy Product Owner Data
Mission / Freelance / Paris / Proxy Product Owner / Data / MDM / Datawarehouse / SQL / API REST & SOAP Lawrence Harvey recherche pour le compte de son client un Proxy Product Owner Data pour un client à Paris. Freelance - Pas de sous-traitance, merci. Paris - hybride (2j/semaine en télétravail; 40%) Démarrage sopuhaité au 01/12/2024 Contexte : Projet de mise en place d'un MDM et d'un datawarehouse en binôme avec un PO interne Profil recherché : • Compétence en SQL • Capacité d'analyse et de résolution de bug • Expérience dans l'utilisation d'outil de visualisation de données. • Maitrise d'API REST et SOAP • Connaissance des différents modes d'échange de données (synchrone, asynchrone • Connaissance des méthodologies AGILE (Scrum, Kanban, SAFe …) • Capacité rédactionnelle et de communication • Expérience significative dans des projets Data (intégration de données, BI, modélisation, documentation du dictionnaire de données, du lineage) • Appétences sur la qualité de données. Tout ce qui est profilage, définition de règle de standardisation, normalisation … • La maîtrise de Snowflake et Power BI est un plus. Si cette opportunité vous intéresse, merci de postuler sur l'annonce ou de m'envoyer votre CV à l'adresse suivante : -email masqué- (Christopher Delannoy) et je vous recontacterai pour vous donner plus de détails sur la mission. N'hésitez pas à partager avec votre réseau si vous connaissez des personnes qui pourraient être intéressées Lawrence Harvey is acting as an Employment Business in regards to this position. Visit our website and follow us on Twitter for all live vacancies (lawharveyjobs)
Offre d'emploi
Data Governance / Data Quality (Luxembourg)
Le consultant rejoindra l’équipe Enterprise Data Office (EDO), en charge de définir et mettre en œuvre la gouvernance des données (qualité, classification, protection) et du reporting du client. EDO contribue donc activement au déploiement de la stratégie des données de la banque en promouvant une culture data et en coordonnant les travaux des Data Stewards/Owners au niveau métier et des Data Custodians au niveau IT. Vos tâches : · Encadrer les Data et Report Stewards en charge de la définition et documentation des données, des rapports et des contrôles de qualité au sein du dictionnaire des données et des rapports. · Encadrer les Report Stewards et Owners en charge de l’analyse de criticité des rapports et de l’identification de données clefs (Golden data). · Analyser les problèmes de qualité des données ; proposer des solutions ; coordonner et suivre la mise en place de ces solutions. · Suivre les indicateurs de qualité et préparer le reporting sur la qualité des données. · Participer à l’élaboration d’une enquête permettant d’évaluer l’adéquation du reporting interne aux besoins des organes internes de supervision.
Mission freelance
Lead Data GCP Python Power BI
Nous recherchons un(e) Lead Data Engineer expérimenté(e) pour rejoindre une équipe digitale dynamique dédiée à la gestion des données. Vous serez en charge de l’industrialisation de l’infrastructure data, ainsi que de la qualité, de la sécurité, et du respect de la vie privée des données. Vous travaillerez sur des environnements Cloud (GCP et AWS) et piloterez une équipe de 2 Data Engineer . Mise en place d’environnements cloisonnés (Dev, Préprod, Production). Automatisation du déploiement et de la maintenance via des outils Infrastructure as Code (Terraform) . Implémentation de solutions d’observabilité (monitoring, alerting). Maintenance et développement de pipelines de données en Python (batch et streaming). Création de pipelines SQL/SQLX avec Data-Form (similaire à DBT). Déploiement et gestion d’un outil de data quality (ex. Great Expectations). Développement de workers AWS pour gérer les flux entre Kafka et Pub Sub sur GCP. Connaissance de DataFlow (Apache Beam) appréciée. Standardisation du code avec linting, CI/CD et divers tests. Documentation des processus internes et schémas d’architecture. Coopération avec les équipes Data (analystes, SEO/SEA, emailing). Respect du RGPD avec anonymisation et archivage des données. Sécurisation de l’infrastructure, des données et du code
Mission freelance
Expert Data Migration JDE to SAP S/4 Hana
Notre client utilisateur SAP d'envergure internationale démarre une migration vers S/4 Hana et recherche un/e expert/e migration de données. Le candidat doit être capable de définir et de piloter l’ensemble de la méthodologie de migration. Cela inclut la planification des étapes-clés, la gouvernance de la donnée et la mise en œuvre d'une méthodologie de bout en bout, en intégrant les besoins spécifiques de l'entreprise. Extraction et structuration des données : Expérience avérée dans l'extraction de données depuis les systèmes source, avec une capacité à poser les bonnes questions pour définir les données à migrer (ex. : choix entre P&L N-1, N-2, historique des ventes). Nettoyage et qualité des données : Doit apporter une expertise en nettoyage de données, y compris la suppression des doublons, l’alignement des formats et la correction des incohérences, pour garantir une base de données précise et utilisable dans S/4 Hana.
Offre d'alternance
Data Engineer / Data Analyst / Data Scientist (H/F) - Alternance
Nous recherchons activement pour le compte d'un de nos partenaires plusieurs Data Engineer / Data Analyst / Data Scientist en alternance pour une durée de 15 ou 24 mois selon votre profil Attention: Partenariat exclusif avec notre école Sous la supervision de votre maitre d'apprentissage, vos missions principales seront les suivantes : Effectuer l’intégration et la construction des offres Data & IA ; Accompagner l’équipe dans la construction, la structuration et l’intégration des offres Data & IA ; Automatiser et industrialiser des solutions ; Intégrer les offres de solutions de monitoring, alerting, restriction de droits ; Effectuer la veille technologique autour de la Data, l’IA, POC, tests de performances et comparaisons de solutions. Conditions de l'offre : Rémunération : Selon la réglementation en vigueur pour les contrats d'apprentissage Début du contrat : ASAP
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Besoin de conseils pour rebondir professionnellement 2025 ?
- Impossible de trouver une mission en ce moment
- Contrat prestation freelance + 1 journée en CDI
- consultant changer secteur activité ? de la banque PO généraliste
- situation compliquée fin de mission pression client comment gèrer ?
- Logiciel embarqué vers le DevOps / Cloud