Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Admin Production (HDP CDP KUBERNETES)

Le bénéficiaire souhaite une prestation d'accompagnement dans le cadre de la maintenance et la construction des plateformes Hadoop Cloudera (HDP & CDP). Ainsi qu'un accompagnement au développement d'un ensemble des DATA Services et challenge des fonctionnalités à développer et les standards de travail. Vous contribuerez : · A l’installation de cluster · Au monitoring et à l’administration des outils Big Data · A l’administration de cluster · A l’upgrade des distributions et des composants Hadoop · A l’installation des différents composants sur Hadoop · Au support et à la résolution des problèmes N2 et N3 · A la mise en place d’environnements de développement et de test · A la sécurisation des clusters
Process Manager Data - Banque

Contexte et Objectifs de la Prestation Dans un cadre Agile à l'échelle (SAFe) et dans un environnement anglophone, la prestation vise à apporter une contribution active à plusieurs volets stratégiques liés à la mise en place et à la gestion des offres internes Lakehouse. Missions et Responsabilités 1. Mise en place des offres internes Lakehouse L'accompagnement portera sur la structuration et l'optimisation des offres internes Lakehouse, avec un accent particulier sur les aspects suivants : Définition et formalisation des procédures de production : élaboration de recommandations visant à standardiser et améliorer les processus opérationnels. Élaboration d’une grille de mise en œuvre de la solution : définition d’un cadre méthodologique permettant un déploiement efficace et harmonisé des solutions Lakehouse. 2. Suivi et gestion des partenaires Un suivi rigoureux des partenaires impliqués sera assuré à travers plusieurs actions clés : Préparation et animation des comités de suivi mensuels : coordination des échanges avec les partenaires pour assurer une gouvernance efficace. Production des reportings : mise en place de tableaux de bord et d’indicateurs de suivi pour piloter l’activité et mesurer la performance des partenaires. 3. Assistance au Project Management Dans le cadre de la gestion de projets, la prestation inclut un accompagnement sur les phases suivantes : Études et cadrage : analyse des besoins, définition des objectifs et alignement des parties prenantes sur les périmètres des projets. Suivi de l’exécution : mise en place d’un pilotage opérationnel et suivi des livrables pour garantir le respect des délais et des engagements pris. Environnement de Travail Méthodologie : SAFe (Scaled Agile Framework) Langue de travail : anglais Collaboration : équipes internationales.
Architecte Data (H/F)

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Architecte Data (H/F) à Lille, France. Les missions attendues par le Architecte Data (H/F) : Le Data Architecte aura pour missions principales : 1. Travailler en collaboration transverse avec l’architecture d’entreprise, l’architecture technique et les experts métiers et les parties prenantes selon sujet. 2. Évaluer les besoins et usages en matière de données au sein des différents métiers de l’entreprise, afin d’identifier les opportunités d’amélioration et les lacunes existantes pour projeter sur une nouvelle architecture de données. 3. Recueillir les attentes utilisateurs et définir les briques techniques nécessaires pour répondre à ces besoins, en collaboration avec les équipes Data, IT et métiers. 4. Cartographier les données de l’entreprise et mettre en œuvre la construction d’une plateforme de données centralisée et performante. 5. Contribuer à la mise en place du dictionnaire des données d’entreprise. 6. Définir le cycle de vie des données et la nomenclature de donnée pour garantir une gestion cohérente et homogène. 7. Préconiser des solutions techniques adaptées pour la collecte, le stockage et la gestion des données, en tenant compte des contraintes de sécurité, performance et conformité (RGPD). 8. Analyser l’impact des solutions retenues selon les besoins métier et proposer des mesures correctives ou évolutives pour maximiser leur efficacité. 9. Faciliter l’usage des données dans l’entreprise via des outils génériques et homogènes pour tous les projets, tout en veillant à leur adoption par les utilisateurs finaux. 10. Industrialiser l’ensemble des activités pour optimiser les cycles de vie des données et en particulier le time to market. 11. Documenter les architectures de manière fonctionnelle et assurer la diffusion de la culture « data » dans l’entreprise, notamment via des formations et des sensibilisations aux bonnes pratiques.
Analytics Engineer / Data Engineer GCP | Télétravail Hybride

Nous recherchons un Data Engineer pour rejoindre une équipe technique travaillant sur un produit data clé permettant la mise à disposition des données pour les dashboards internes. Ce projet s’appuie sur la Google Cloud Platform (GCP) et une stack moderne orientée DBT, Airflow, BigQuery et Terraform . Missions Concevoir, développer et maintenir les pipelines de données Développer des modèles de données optimisés pour l’analyse et le reporting Assurer la qualité et la fiabilité des indicateurs et métriques utilisés par les équipes métier Auditer, cartographier et optimiser les données existantes pour une meilleure performance et gouvernance Collaborer avec les équipes techniques et fonctionnelles pour améliorer la stack et les performances Participer aux phases de cadrage, planification et veille technologique
Développeur Data/Data Engineer
ATTENTION, PRESENCE 2 JOURS PAR SEMAINES OBLIGATOIRE SUR SITE A GOSSELIE. TOUTE PERSONNE AYANT CANDIDATE ET N'ETANT PAS DISPONIBLE SERA BLACKLISTEE PAR NOTRE SOCIETE . Modalités de la mission Dans le cadre de ses activités, le client est à la recherche de deux développeurs Data. Il s’agit d’une mission à temps plein dont la durée est estimée à 9 mois (renouvelable) et qui débutera idéalement le 15/04/2025. Une partie de la mission peut, en concertation avec le responsable, se faire en télétravail mais une présence sur le site de Gosselies de minimum 2 jours par semaine est obligatoire. Des jours supplémentaires de présence sur site peuvent éventuellement être demandés au consultant, en fonction des besoins du service (de manière ponctuelle). Le site de Gosselies n’étant pas facilement accessible en transports en commun, la possession d’un permis de conduire et d’un véhicule sera préférable pour les déplacements.
Data engineering senior

Contexte : Adossée à la plateforme data, la prestation se déroulera au sein de l’équipe Pilotage. L’équipe actuellement constituée d’un Product Owner et d’un Data ingénieur a la charge de la mise à disposition des données utiles à l’ensemble des dashboards via son produit “Data4All”, basé sur la Google Cloud Platform. La stack technique de l’équipe est principalement constituée de SQL, Dbt et Airflow pour l’orchestration, Gitlab CI/CD pour le déploiement et de Terraform / Terragrunt pour l’industrialisation de l’infrastructure (IaC). La stack inclut aussi d’autres services de la Google Cloud Platform. Activité de cette équipe : 1- Prendre en charge le produit data Data4All aussi bien dans le build que dans le run : - Construire les nouveaux indicateurs issus de nouvelles sources ou de sources existantes - Mettre à jour et faire évoluer les indicateurs existants, en fonction des évolutions des données - Traiter et corriger les anomalies - Concevoir les modèles de données adaptés aux besoins des utilisateurs dans un environnement big data (gestion de la volumétrie et des coûts) 2- Accompagner les utilisateurs de Data4All dans leurs usages 3- Auditer et cartographier les données existantes de Data4All et proposer une vision cible performante, gouvernée et adaptée aux besoins et contraintes 4- Mettre en place le contrôle qualité sur les données Prestation attendue : En interaction avec les membres de l’équipe, la prestation consiste en : - La mise en place de pipelines de traitement de données - Le développement des modèles de données - L’extraction et l’exposition des données issues de la zone silver de la plateforme data vers Data4All - L’industrialisation des différents environnements de Data4All, en collaboration avec l’équipe d’ops - La participation active aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe - La participation active à la veille technique pour l’amélioration de la stack - L’amélioration des performances et la maîtrise des coûts sur les différents environnements Data4All, sur la GCP
Développeur backend Java Core Confirmé ou Sénior - Multithreading calculs distribués- Appache Ignite

🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, et Apache ignite pour le calcul distribué, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins
Data Engineer H/F

Plus qu'un métier, Itéa a pour vocation de déceler et révéler les bons profils avec une curiosité qui va souvent au-delà des compétences et parfois entre les lignes d’un CV. Aujourd’hui, nous recherchons pour l’un de nos clients, un Data Engineer H/F et vous présentons les points clés du poste : Poste en CDI Basé à Strasbourg ou Metz Secteur public Vos missions seront : Participer à l'audit fonctionnel et à la compréhension des besoins métiers Rédiger les spécifications et le cahier des charges Réaliser les MCP et MPD Mettre en place de contrôles de données et réalisation de tableaux de bords Participer aux réunions d'avancement Suivre et évaluer la bonne mise en place via des tests d'impacts Gérer la bonne mise à disposition de la documentation
Développeur Big Data Senior

Le contexte : Au cœur de la transformation digitale de notre client qui révolutionne son approche en plaçant la data et le digital au centre de sa stratégie. Dans le cadre d'un projet majeur de transformation, nous recherchons un(e) Data Engineer Senior pour renforcer nos équipes pendant 12 mois minimum. Votre mission : Intégré(e) à nos équipes data, vous contribuerez à : Concevoir et développer des pipelines de données robustes pour nos projets de machine learning Optimiser nos architectures de traitement de données existantes Participer aux revues de code et au développement des bonnes pratiques Collaborer avec notre communauté d'experts (data scientists, engineers, devops) Assurer l'intégration de nouvelles sources de données Garantir la qualité technique des solutions déployées Les plus de cette mission : Projet stratégique à fort impact Environnement technique de pointe équipe data & tech expérimentée Exposition à des problématiques data complexes Opportunité de contribuer à la transformation digitale d'un leader de son marché
Architecte Fonctionnel Data

Au sein du Programme, vous interviendrez sur des projets stratégiques, de la phase de cadrage jusqu’au déploiement en production. En collaboration étroite avec les urbanistes fonctionnels, les chefs de projet, la MOA et les métiers, vous serez en charge de : Mettre à jour la cartographie applicative du SI Décisionnel. Définir la trajectoire urbanistique du SI à court et moyen terme. Assister la MOA et les métiers dans le cadrage des besoins . Identifier et instruire les demandes d’évolutions et nouveaux projets, en assurant leur faisabilité en coordination avec les chefs de projet, les éditeurs, les ingénieurs Data et les experts solutions. Concevoir et porter les solutions technico-fonctionnelles . Réaliser la modélisation des données et accompagner la stratégie de test. Co-construire les spécifications fonctionnelles avec les ingénieurs Data. Accompagner l’équipe projet sur les aspects fonctionnels et participer aux recettes avec la MOA. Assurer la liaison avec les urbanistes et autres parties prenantes. En complément, vous prendrez en charge un volet PMO transverse (30%) , en support au service.
Data Engineer senior

Activité de cette équipe : 1- Prendre en charge le produit data Data4All aussi bien dans le build que dans le run : - Construire les nouveaux indicateurs issus de nouvelles sources ou de sources existantes - Mettre à jour et faire évoluer les indicateurs existants, en fonction des évolutions des données - Traiter et corriger les anomalies - Concevoir les modèles de données adaptés aux besoins des utilisateurs dans un environnement big data (gestion de la volumétrie et des coûts) 2- Accompagner les utilisateurs de Data4All dans leurs usages 3- Auditer et cartographier les données existantes de Data4All et proposer une vision cible performante, gouvernée et adaptée aux besoins et contraintes 4- Mettre en place le contrôle qualité sur les données Prestation attendue En interaction avec les membres de l’équipe, la prestation consiste en : - La mise en place de pipelines de traitement de données - Le développement des modèles de données - L’extraction et l’exposition des données issues de la zone silver de la plateforme data vers Data4All - L’industrialisation des différents environnements de Data4All, en collaboration avec l’équipe d’ops - La participation active aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe - La participation active à la veille technique pour l’amélioration de la stack - L’amélioration des performances et la maîtrise des coûts sur les différents environnements Data4All, sur la GCP
Techlead / Architecte Data

Type de prestation : Tech Lead DATA Lieu de la mission : Paris Gare de Lyon Durée de la prestation : 1 an renouvelable Séniorité : Au moins 10 ans TJM : En fonction du profil Date de démarrage : ASAP Télétravail : 2 jours par semaine Contexte : Notre client a lancé le projet Entrepôt de données Finance et risque. Ce projet couvre la chaîne complète de la donnée analytique dans le cadre du reporting et du pilotage des activités des départements Finance et Risques. Il s’étend de l’extraction des données jusqu’à la mise en place de Tableaux de bords (Informatica). Vous intégrerez une équipe de 20 personnes composée de MOA et MOE. Mission : Analyse des besoins et rédaction des spécifications Proposition des architectures Big Data Garant technique des développements Encadrement des développeurs Développement en Python / R Maîtrise d'Informatica Extraction et modélisation des données : PostgreSQL Revue de code Validation du code et recette Mise en place des chaînes CI/CD Bonnes pratiques de développement
Ingénieur LM/LLM & Data Science (H/F)

Ingénieur LM/LLM & Data Science Contexte : La mission fera partie du projet d'ingénierie de l'intelligence artificielle, au sein de la division GDAI. Dans le cadre du projet d'ingénierie de l'intelligence artificielle, nous aidons les entités à passer à l'échelle et à définir et appliquer les meilleures pratiques en matière d'ingénierie ML / LLM. Nous proposons un parcours d'apprentissage en ingénierie ML/LLM à travers le groupe au niveau mondial et nous avons besoin d'une personne pour soutenir ce projet. La mission consistera à § Améliorer le référentiel existant de la formation en ingénierie ML/ML utilisé dans l'ensemble du groupe § Évolution vers la piste du pipeline ML sur AWS et Databricks (utilisant actuellement Azure) § Faciliter les ateliers que nous donnons aux entités sur la formation § Apporter une expertise autour des meilleures pratiques de l'ingénierie LLM § Soutenir la création de contenu pour les pratiques de l'ingénierie LLM (qui peuvent être complexes). Il y a un travail autour de la traduction des pratiques complexes en explications simples § Implémenter ces pratiques dans un environnement sandbox et un outil de benchmark § (Optionnel) Soutenir le projet dans l'optimisation du POC/MVP dans les entités autour des pratiques LLMOps
Product Owner Fraude / IA

Dans le cadre d'une création de poste chez l'un de nos clients grands comptes dans le secteur bancaire, nous recherchons un(e) PO sénior pour accompagner un projet de détections des cas de fraude documentaire en s'appuyant sur l'IA. Vous serez amené à : Mener à bien la livraison d’un produit de qualité, répondant aux attentes des clients et équipes métiers Elaborer la vision produit avec les utilisateurs et les équipes techniques UX et marketing, et être responsable de la conception S'assurer à chaque sprint que la direction prise est la bonne, les priorités respectées suivant la valeur métier, et que la qualité des livrables est adéquate Identifier les attentes des utilisateurs et les bénéfices que le produit leur apportera Élaborer des benchmarks des solutions du marché, notamment chez les concurrents Elaborer les fonctionnalités attendues et prioriser celles-ci au sein du backlog produit Travailler en collaboration avec un UX sur le parcours client cible et sa déclinaison en trajectoire (MVP) Partager la vision produit avec les équipes de développement agile Définir et planifier des releases/versions du produit Créer chaque fonctionnalité retenue sous forme d’une « user story » suffisamment petite pour être implémentée en une seule itération, sans oublier d’y associer les critères d’acceptation indispensables à sa bonne compréhension par les équipes Comprendre les « Technical Stories » proposées par les équipes de développement et les « Defects Stories » Répondre aux demandes de clarification émises par les équipes de développement sur les « Stories » en cours de développement durant l’itération Contribuer aux réunions agiles avec les équipes de développement et le Scrum Master Faciliter la communication et la collaboration entre l’ensemble des parties prenantes et sait faire preuve de persuasion lorsqu’il porte la parole métier Accepter ou refuser les « Stories » implémentées par les équipes de développement Réaliser et/ou organiser le déroulement des tests métier de la version Animer une équipe de Business Analysts, Rédacteurs et Testeurs métier Récolter les feedbacks des utilisateurs Évaluer le fonctionnement des versions précédentes mises en production et en cours d’utilisation Assurer la non-régression des nouvelles versions proposées Manager des équipes de rédaction et de recette des user stories pour les projets Agiles d’envergure Co-construire et animer le dispositif de conduite de changement avec un PMO Deploy Communiquer sur l’avancement de la réalisation du produit auprès du management et des utilisateurs
chef de projet data - 600€ max

En étroite collaboration avec le Chef de Service, les architectes fonctionnels, les ingénieurs Data, la MOA et les métiers, la mission est garante de la bonne réalisation de certains projets transverses. Mission : - Piloter et assurer la mise en œuvre des évolutions/projets dont vous aurez la charge dans le respect de la qualité, coûts et délais définis avec les intervenants, des process et normes - Travailler sur les différents templates projets, la roadmap fonctionnelle, l'optimisation des interactions avec les autres services - Mettre en place un plan de communication autour des différents projets et instances - Mettre en oeuvre et piloter le planning des travaux de l'équipe et des contributions - Coordonner les différents prestataires - Effectuer un reporting régulier et rigoureux vers son responsable
Développeur Big Data GCP - ENTRE 3 ET 6 ANS

🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Objectifs et livrables Infos Complémentaires : Récupérer les données issues de sources externes • Utiliser la puissance du Datalake • Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. 💡Caractéristiques de la mission: Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le datalake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner. • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels Aspects Humains : • Grande capacité à travailler dans une équipe, en mode Scrum / Kanban. • Bonnes compétences relationnelles et grand sens de la communication (capacité à entrer dans le détail). • Sensible et informé des évolutions technologiques sur les piles logicielles pratiquées.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- REX expert comptable Numbril y a 34 minutes
- Question impôtil y a 2 heures
- SASU à l'IR ou EURL à l'ISil y a 2 heures
- Période creuse… besoin de conseils et de souffle collectifil y a 3 heures
- DeepL pour les freelances IT : un bon choix ?il y a 3 heures
- Questionnement Client final /Apporteur d'affaires / Salarié portéil y a 3 heures