Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Admin Production (HDP CDP KUBERNETES)

Le bénéficiaire souhaite une prestation d'accompagnement dans le cadre de la maintenance et la construction des plateformes Hadoop Cloudera (HDP & CDP). Ainsi qu'un accompagnement au développement d'un ensemble des DATA Services et challenge des fonctionnalités à développer et les standards de travail. Vous contribuerez : · A l’installation de cluster · Au monitoring et à l’administration des outils Big Data · A l’administration de cluster · A l’upgrade des distributions et des composants Hadoop · A l’installation des différents composants sur Hadoop · Au support et à la résolution des problèmes N2 et N3 · A la mise en place d’environnements de développement et de test · A la sécurisation des clusters
Process Manager Data - Banque

Contexte et Objectifs de la Prestation Dans un cadre Agile à l'échelle (SAFe) et dans un environnement anglophone, la prestation vise à apporter une contribution active à plusieurs volets stratégiques liés à la mise en place et à la gestion des offres internes Lakehouse. Missions et Responsabilités 1. Mise en place des offres internes Lakehouse L'accompagnement portera sur la structuration et l'optimisation des offres internes Lakehouse, avec un accent particulier sur les aspects suivants : Définition et formalisation des procédures de production : élaboration de recommandations visant à standardiser et améliorer les processus opérationnels. Élaboration d’une grille de mise en œuvre de la solution : définition d’un cadre méthodologique permettant un déploiement efficace et harmonisé des solutions Lakehouse. 2. Suivi et gestion des partenaires Un suivi rigoureux des partenaires impliqués sera assuré à travers plusieurs actions clés : Préparation et animation des comités de suivi mensuels : coordination des échanges avec les partenaires pour assurer une gouvernance efficace. Production des reportings : mise en place de tableaux de bord et d’indicateurs de suivi pour piloter l’activité et mesurer la performance des partenaires. 3. Assistance au Project Management Dans le cadre de la gestion de projets, la prestation inclut un accompagnement sur les phases suivantes : Études et cadrage : analyse des besoins, définition des objectifs et alignement des parties prenantes sur les périmètres des projets. Suivi de l’exécution : mise en place d’un pilotage opérationnel et suivi des livrables pour garantir le respect des délais et des engagements pris. Environnement de Travail Méthodologie : SAFe (Scaled Agile Framework) Langue de travail : anglais Collaboration : équipes internationales.
Développeur Data/Data Engineer
ATTENTION, PRESENCE 2 JOURS PAR SEMAINES OBLIGATOIRE SUR SITE A GOSSELIE. TOUTE PERSONNE AYANT CANDIDATE ET N'ETANT PAS DISPONIBLE SERA BLACKLISTEE PAR NOTRE SOCIETE . Modalités de la mission Dans le cadre de ses activités, le client est à la recherche de deux développeurs Data. Le client est FULL Azure, il faut donc impérativement maitriser les solutions Cloud Microsoft (AWS et GCP ne sont pas nécessaire, peuvent etre un plus). Il s’agit d’une mission à temps plein dont la durée est estimée à 9 mois (renouvelable) et qui débutera idéalement le 15/04/2025. Une partie de la mission peut, en concertation avec le responsable, se faire en télétravail mais une présence sur le site de Gosselies de minimum 2 jours par semaine est obligatoire. Des jours supplémentaires de présence sur site peuvent éventuellement être demandés au consultant, en fonction des besoins du service (de manière ponctuelle). Le site de Gosselies n’étant pas facilement accessible en transports en commun, la possession d’un permis de conduire et d’un véhicule sera préférable pour les déplacements.
Architecte DATA

Missions : Evaluer les besoins et les usages des données au sein des différent projet. Décrire la manière dont les données sont gérées, de la collecte à la transformation à la distribution et à la consommation (High Level Design) Assurer que les solutions mises en place respectent la réglementation relative à la collecte et à l’exploitation des données RGPD et au exigence du Data Office du groupe. Mettre en place des outils pour faciliter l’usage des données Surveiller la structure des bases de données et proposer des solutions correctives ou évolutives adaptées. Collaborer avec les équipes IT de développement et les responsables métiers pour assurer une intégration harmonieuse des données. Concevoir l'architecture des données et structurer les modèles en fonction exigences métier. Vérifier les modèles logiques et physiques afin d'assurer l'efficacité des flux de données.
Développeur backend Java Core Confirmé ou Sénior - Multithreading calculs distribués- Appache Ignite

🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, et Apache ignite pour le calcul distribué, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins
Product Owner on Cloud Azure : Monitoring, Observabilité & Data - 92 - English mandatory

📢 𝐏𝐫𝐨𝐝𝐮𝐜𝐭 𝐎𝐰𝐧𝐞𝐫 𝐨𝐧 𝐂𝐥𝐨𝐮𝐝 𝐀𝐳𝐮𝐫𝐞 – 𝐌𝐨𝐧𝐢𝐭𝐨𝐫𝐢𝐧𝐠, 𝐎𝐛𝐬𝐞𝐫𝐯𝐚𝐛𝐢𝐥𝐢𝐭𝐞́ & 𝐃𝐚𝐭𝐚 📍 𝟗𝟐 – 𝐏𝐫𝐞́𝐬𝐞𝐧𝐭𝐢𝐞𝐥 𝐡𝐲𝐛𝐫𝐢𝐝𝐞 🗓 𝐀𝐒𝐀𝐏 🎙️ 𝐀𝐧𝐠𝐥𝐚𝐢𝐬 𝐟𝐥𝐮𝐢𝐝𝐞 𝐨𝐛𝐥𝐢𝐠𝐚𝐭𝐨𝐢𝐫𝐞 ✒️ 𝐅𝐫𝐞𝐞𝐥𝐚𝐧𝐜𝐞 𝐨𝐧𝐥𝐲 - 𝐏𝐚𝐬 𝐝𝐞 𝐒𝐓𝐓 🎯 𝐕𝐨𝐭𝐫𝐞 𝐦𝐢𝐬𝐬𝐢𝐨𝐧 Dans un environnement cloud et data-driven, vous piloterez la roadmap produit d'une équipe dédiée à l'Observabilité et à la Data, en assurant la bonne traduction des besoins métier en solutions techniques performantes. 🔍 𝐕𝐨𝐬 𝐨𝐛𝐣𝐞𝐜𝐭𝐢𝐟𝐬 ✅ Recueillir, formaliser et prioriser les besoins métiers et techniques ✅ Définir et maintenir le backlog produit ✅ Assurer la qualité et la pertinence des solutions livrées ✅ Collaborer avec les équipes de développement et animer les cérémonies Agile/Scrum ✅ Suivre et analyser les KPIs de performance pour l’amélioration continue ✅ Assurer une veille technologique sur les outils de monitoring et data 🛠 𝐄𝐧𝐯𝐢𝐫𝐨𝐧𝐧𝐞𝐦𝐞𝐧𝐭 𝐭𝐞𝐜𝐡𝐧𝐢𝐪𝐮𝐞 Cloud & Conteneurs = > Azure Kubernetes Service (AKS), Azure Functions Stockage & Bases de données => Azure Blob Storage, ADLS Gen2, PostgreSQL, ElasticSearch, Delta Lake Streaming & Messagerie => Event Hub, RabbitMQ Data Engineering & Logging => Apache Airflow, Apache Spark, Logstash, Azure Log Analytics Visualisation => Grafana CI/CD & Collaboration => GitHub #ProductOwner #Data #Monitoring #Observabilité #Cloud #Azure
Data engineering senior

Contexte : Adossée à la plateforme data, la prestation se déroulera au sein de l’équipe Pilotage. L’équipe actuellement constituée d’un Product Owner et d’un Data ingénieur a la charge de la mise à disposition des données utiles à l’ensemble des dashboards via son produit “Data4All”, basé sur la Google Cloud Platform. La stack technique de l’équipe est principalement constituée de SQL, Dbt et Airflow pour l’orchestration, Gitlab CI/CD pour le déploiement et de Terraform / Terragrunt pour l’industrialisation de l’infrastructure (IaC). La stack inclut aussi d’autres services de la Google Cloud Platform. Activité de cette équipe : 1- Prendre en charge le produit data Data4All aussi bien dans le build que dans le run : - Construire les nouveaux indicateurs issus de nouvelles sources ou de sources existantes - Mettre à jour et faire évoluer les indicateurs existants, en fonction des évolutions des données - Traiter et corriger les anomalies - Concevoir les modèles de données adaptés aux besoins des utilisateurs dans un environnement big data (gestion de la volumétrie et des coûts) 2- Accompagner les utilisateurs de Data4All dans leurs usages 3- Auditer et cartographier les données existantes de Data4All et proposer une vision cible performante, gouvernée et adaptée aux besoins et contraintes 4- Mettre en place le contrôle qualité sur les données Prestation attendue : En interaction avec les membres de l’équipe, la prestation consiste en : - La mise en place de pipelines de traitement de données - Le développement des modèles de données - L’extraction et l’exposition des données issues de la zone silver de la plateforme data vers Data4All - L’industrialisation des différents environnements de Data4All, en collaboration avec l’équipe d’ops - La participation active aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe - La participation active à la veille technique pour l’amélioration de la stack - L’amélioration des performances et la maîtrise des coûts sur les différents environnements Data4All, sur la GCP
Data Engineer H/F

Plus qu'un métier, Itéa a pour vocation de déceler et révéler les bons profils avec une curiosité qui va souvent au-delà des compétences et parfois entre les lignes d’un CV. Aujourd’hui, nous recherchons pour l’un de nos clients, un Data Engineer H/F et vous présentons les points clés du poste : Poste en CDI Basé à Strasbourg ou Metz Secteur public Vos missions seront : Participer à l'audit fonctionnel et à la compréhension des besoins métiers Rédiger les spécifications et le cahier des charges Réaliser les MCP et MPD Mettre en place de contrôles de données et réalisation de tableaux de bords Participer aux réunions d'avancement Suivre et évaluer la bonne mise en place via des tests d'impacts Gérer la bonne mise à disposition de la documentation
Ingénieur LM/LLM & Data Science (H/F)

Ingénieur LM/LLM & Data Science Contexte : La mission fera partie du projet d'ingénierie de l'intelligence artificielle, au sein de la division GDAI. Dans le cadre du projet d'ingénierie de l'intelligence artificielle, nous aidons les entités à passer à l'échelle et à définir et appliquer les meilleures pratiques en matière d'ingénierie ML / LLM. Nous proposons un parcours d'apprentissage en ingénierie ML/LLM à travers le groupe au niveau mondial et nous avons besoin d'une personne pour soutenir ce projet. La mission consistera à § Améliorer le référentiel existant de la formation en ingénierie ML/ML utilisé dans l'ensemble du groupe § Évolution vers la piste du pipeline ML sur AWS et Databricks (utilisant actuellement Azure) § Faciliter les ateliers que nous donnons aux entités sur la formation § Apporter une expertise autour des meilleures pratiques de l'ingénierie LLM § Soutenir la création de contenu pour les pratiques de l'ingénierie LLM (qui peuvent être complexes). Il y a un travail autour de la traduction des pratiques complexes en explications simples § Implémenter ces pratiques dans un environnement sandbox et un outil de benchmark § (Optionnel) Soutenir le projet dans l'optimisation du POC/MVP dans les entités autour des pratiques LLMOps
Architecte Fonctionnel Data

Au sein du Programme, vous interviendrez sur des projets stratégiques, de la phase de cadrage jusqu’au déploiement en production. En collaboration étroite avec les urbanistes fonctionnels, les chefs de projet, la MOA et les métiers, vous serez en charge de : Mettre à jour la cartographie applicative du SI Décisionnel. Définir la trajectoire urbanistique du SI à court et moyen terme. Assister la MOA et les métiers dans le cadrage des besoins . Identifier et instruire les demandes d’évolutions et nouveaux projets, en assurant leur faisabilité en coordination avec les chefs de projet, les éditeurs, les ingénieurs Data et les experts solutions. Concevoir et porter les solutions technico-fonctionnelles . Réaliser la modélisation des données et accompagner la stratégie de test. Co-construire les spécifications fonctionnelles avec les ingénieurs Data. Accompagner l’équipe projet sur les aspects fonctionnels et participer aux recettes avec la MOA. Assurer la liaison avec les urbanistes et autres parties prenantes. En complément, vous prendrez en charge un volet PMO transverse (30%) , en support au service.
Techlead / Architecte Data

Type de prestation : Tech Lead DATA Lieu de la mission : Paris Gare de Lyon Durée de la prestation : 1 an renouvelable Séniorité : Au moins 10 ans TJM : En fonction du profil Date de démarrage : ASAP Télétravail : 2 jours par semaine Contexte : Notre client a lancé le projet Entrepôt de données Finance et risque. Ce projet couvre la chaîne complète de la donnée analytique dans le cadre du reporting et du pilotage des activités des départements Finance et Risques. Il s’étend de l’extraction des données jusqu’à la mise en place de Tableaux de bords (Informatica). Vous intégrerez une équipe de 20 personnes composée de MOA et MOE. Mission : Analyse des besoins et rédaction des spécifications Proposition des architectures Big Data Garant technique des développements Encadrement des développeurs Développement en Python / R Maîtrise d'Informatica Extraction et modélisation des données : PostgreSQL Revue de code Validation du code et recette Mise en place des chaînes CI/CD Bonnes pratiques de développement
Product Owner Fraude / IA

Dans le cadre d'une création de poste chez l'un de nos clients grands comptes dans le secteur bancaire, nous recherchons un(e) PO sénior pour accompagner un projet de détections des cas de fraude documentaire en s'appuyant sur l'IA. Vous serez amené à : Mener à bien la livraison d’un produit de qualité, répondant aux attentes des clients et équipes métiers Elaborer la vision produit avec les utilisateurs et les équipes techniques UX et marketing, et être responsable de la conception S'assurer à chaque sprint que la direction prise est la bonne, les priorités respectées suivant la valeur métier, et que la qualité des livrables est adéquate Identifier les attentes des utilisateurs et les bénéfices que le produit leur apportera Élaborer des benchmarks des solutions du marché, notamment chez les concurrents Elaborer les fonctionnalités attendues et prioriser celles-ci au sein du backlog produit Travailler en collaboration avec un UX sur le parcours client cible et sa déclinaison en trajectoire (MVP) Partager la vision produit avec les équipes de développement agile Définir et planifier des releases/versions du produit Créer chaque fonctionnalité retenue sous forme d’une « user story » suffisamment petite pour être implémentée en une seule itération, sans oublier d’y associer les critères d’acceptation indispensables à sa bonne compréhension par les équipes Comprendre les « Technical Stories » proposées par les équipes de développement et les « Defects Stories » Répondre aux demandes de clarification émises par les équipes de développement sur les « Stories » en cours de développement durant l’itération Contribuer aux réunions agiles avec les équipes de développement et le Scrum Master Faciliter la communication et la collaboration entre l’ensemble des parties prenantes et sait faire preuve de persuasion lorsqu’il porte la parole métier Accepter ou refuser les « Stories » implémentées par les équipes de développement Réaliser et/ou organiser le déroulement des tests métier de la version Animer une équipe de Business Analysts, Rédacteurs et Testeurs métier Récolter les feedbacks des utilisateurs Évaluer le fonctionnement des versions précédentes mises en production et en cours d’utilisation Assurer la non-régression des nouvelles versions proposées Manager des équipes de rédaction et de recette des user stories pour les projets Agiles d’envergure Co-construire et animer le dispositif de conduite de changement avec un PMO Deploy Communiquer sur l’avancement de la réalisation du produit auprès du management et des utilisateurs
Product Owner – IA Générative (La Défense, 3j/semaine)

Nous recherchons un Product Owner IA Générative pour piloter la migration et le déploiement à grande échelle d’une solution d’IA générative. Ce rôle stratégique implique une forte collaboration avec les équipes Data Science, DevOps, infrastructure et métier pour assurer une transition fluide et efficace. Missions Définir la vision produit et construire la roadmap de migration et de déploiement. Gérer le backlog en priorisant les user stories selon les besoins business et techniques. Superviser la migration des systèmes existants vers des solutions d’IA générative modernes. Coordonner les parties prenantes (techniques et métiers) pour une adoption optimale. Mettre en place des KPIs pour suivre les performances (latence, coût, qualité des réponses, satisfaction utilisateur). Accompagner le changement et favoriser l’adoption de l’IA générative au sein des équipes.
chef de projet data - 600€ max

En étroite collaboration avec le Chef de Service, les architectes fonctionnels, les ingénieurs Data, la MOA et les métiers, la mission est garante de la bonne réalisation de certains projets transverses. Mission : - Piloter et assurer la mise en œuvre des évolutions/projets dont vous aurez la charge dans le respect de la qualité, coûts et délais définis avec les intervenants, des process et normes - Travailler sur les différents templates projets, la roadmap fonctionnelle, l'optimisation des interactions avec les autres services - Mettre en place un plan de communication autour des différents projets et instances - Mettre en oeuvre et piloter le planning des travaux de l'équipe et des contributions - Coordonner les différents prestataires - Effectuer un reporting régulier et rigoureux vers son responsable
SAP - Data Stream Leader (H/F) - 95

Je recherche un Data Stream Leader dans le cadre de la mise en place du nouvel ERP SAP S/4HANA. Le projet repose sur un Core Model basé sur les Best Practices SAP pour l’ensemble des entités du groupe. Vos principales missions • Construire, mettre à jour et documenter le Modèle Conceptuel de Données (MCD) • Définir les structures de données cibles pour l’ensemble des processus ERP • Suivre la cohérence, la complétude et le nettoyage des données avec la DSI, les BPOs et les Key Users • Coordonner avec l’intégrateur les actions de reprise et validation des données • Définir les processus de mise à jour des données post go-live • Mettre en place et suivre les KPI de qualité des données
Montargis - Architecte / DBA

Description des prestations : • Contribuer aux projets d’évolution des applicatifs en apportant votre expertise. (Montées de versions, Optimisation, rationalisation, migrations dans le Cloud). • Participer au support quotidien en assurant le maintien en condition opérationnelle des bases de données associées aux applicatifs. • Optimiser les sauvegardes et restaurations de bases de données. • Participer à la maintenance évolutive périodique des applicatifs et des bases de données (Montées de version, optimisation, patchs…) • Suivre la charge et les performances des bases de données afin d’anticiper les évolutions et les incidents éventuels. • Contribuer à la documentation des architectures techniques selon les standards existants ou à définir. • Vous êtes force de proposition sur l’évolution du SI et vous participez aux projets techniques transverses. • Contribuer à l’industrialisation des opérations sur le périmètre Bases de données en automatisant : o Le déploiement d’infrastructures bases de données o Le rafraichissement d’environnements de recette. o Le suivi des règles de sécurité du SI, l’obsolescence des logiciels. o La mise à disposition des bases de données clones et d’intégration. o La supervision, l’audit, le diagnostic, l’optimisation. o Les livraisons SQL o Le maintien à jour des référentiels ITSM et des documents techniques. TT : 3 jours de TT
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.