Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Admin Production (HDP CDP KUBERNETES)

Le bénéficiaire souhaite une prestation d'accompagnement dans le cadre de la maintenance et la construction des plateformes Hadoop Cloudera (HDP & CDP). Ainsi qu'un accompagnement au développement d'un ensemble des DATA Services et challenge des fonctionnalités à développer et les standards de travail. Vous contribuerez : · A l’installation de cluster · Au monitoring et à l’administration des outils Big Data · A l’administration de cluster · A l’upgrade des distributions et des composants Hadoop · A l’installation des différents composants sur Hadoop · Au support et à la résolution des problèmes N2 et N3 · A la mise en place d’environnements de développement et de test · A la sécurisation des clusters
Process Manager Data - Banque

Contexte et Objectifs de la Prestation Dans un cadre Agile à l'échelle (SAFe) et dans un environnement anglophone, la prestation vise à apporter une contribution active à plusieurs volets stratégiques liés à la mise en place et à la gestion des offres internes Lakehouse. Missions et Responsabilités 1. Mise en place des offres internes Lakehouse L'accompagnement portera sur la structuration et l'optimisation des offres internes Lakehouse, avec un accent particulier sur les aspects suivants : Définition et formalisation des procédures de production : élaboration de recommandations visant à standardiser et améliorer les processus opérationnels. Élaboration d’une grille de mise en œuvre de la solution : définition d’un cadre méthodologique permettant un déploiement efficace et harmonisé des solutions Lakehouse. 2. Suivi et gestion des partenaires Un suivi rigoureux des partenaires impliqués sera assuré à travers plusieurs actions clés : Préparation et animation des comités de suivi mensuels : coordination des échanges avec les partenaires pour assurer une gouvernance efficace. Production des reportings : mise en place de tableaux de bord et d’indicateurs de suivi pour piloter l’activité et mesurer la performance des partenaires. 3. Assistance au Project Management Dans le cadre de la gestion de projets, la prestation inclut un accompagnement sur les phases suivantes : Études et cadrage : analyse des besoins, définition des objectifs et alignement des parties prenantes sur les périmètres des projets. Suivi de l’exécution : mise en place d’un pilotage opérationnel et suivi des livrables pour garantir le respect des délais et des engagements pris. Environnement de Travail Méthodologie : SAFe (Scaled Agile Framework) Langue de travail : anglais Collaboration : équipes internationales.
Développeur Data/Data Engineer
ATTENTION, PRESENCE 2 JOURS PAR SEMAINES OBLIGATOIRE SUR SITE A GOSSELIE. TOUTE PERSONNE AYANT CANDIDATE ET N'ETANT PAS DISPONIBLE SERA BLACKLISTEE PAR NOTRE SOCIETE . Modalités de la mission Dans le cadre de ses activités, le client est à la recherche de deux développeurs Data. Il s’agit d’une mission à temps plein dont la durée est estimée à 9 mois (renouvelable) et qui débutera idéalement le 15/04/2025. Une partie de la mission peut, en concertation avec le responsable, se faire en télétravail mais une présence sur le site de Gosselies de minimum 2 jours par semaine est obligatoire. Des jours supplémentaires de présence sur site peuvent éventuellement être demandés au consultant, en fonction des besoins du service (de manière ponctuelle). Le site de Gosselies n’étant pas facilement accessible en transports en commun, la possession d’un permis de conduire et d’un véhicule sera préférable pour les déplacements.
Data Engineer H/F

Plus qu'un métier, Itéa a pour vocation de déceler et révéler les bons profils avec une curiosité qui va souvent au-delà des compétences et parfois entre les lignes d’un CV. Aujourd’hui, nous recherchons pour l’un de nos clients, un Data Engineer H/F et vous présentons les points clés du poste : Poste en CDI Basé à Strasbourg ou Metz Secteur public Vos missions seront : Participer à l'audit fonctionnel et à la compréhension des besoins métiers Rédiger les spécifications et le cahier des charges Réaliser les MCP et MPD Mettre en place de contrôles de données et réalisation de tableaux de bords Participer aux réunions d'avancement Suivre et évaluer la bonne mise en place via des tests d'impacts Gérer la bonne mise à disposition de la documentation
Data engineering senior

Contexte : Adossée à la plateforme data, la prestation se déroulera au sein de l’équipe Pilotage. L’équipe actuellement constituée d’un Product Owner et d’un Data ingénieur a la charge de la mise à disposition des données utiles à l’ensemble des dashboards via son produit “Data4All”, basé sur la Google Cloud Platform. La stack technique de l’équipe est principalement constituée de SQL, Dbt et Airflow pour l’orchestration, Gitlab CI/CD pour le déploiement et de Terraform / Terragrunt pour l’industrialisation de l’infrastructure (IaC). La stack inclut aussi d’autres services de la Google Cloud Platform. Activité de cette équipe : 1- Prendre en charge le produit data Data4All aussi bien dans le build que dans le run : - Construire les nouveaux indicateurs issus de nouvelles sources ou de sources existantes - Mettre à jour et faire évoluer les indicateurs existants, en fonction des évolutions des données - Traiter et corriger les anomalies - Concevoir les modèles de données adaptés aux besoins des utilisateurs dans un environnement big data (gestion de la volumétrie et des coûts) 2- Accompagner les utilisateurs de Data4All dans leurs usages 3- Auditer et cartographier les données existantes de Data4All et proposer une vision cible performante, gouvernée et adaptée aux besoins et contraintes 4- Mettre en place le contrôle qualité sur les données Prestation attendue : En interaction avec les membres de l’équipe, la prestation consiste en : - La mise en place de pipelines de traitement de données - Le développement des modèles de données - L’extraction et l’exposition des données issues de la zone silver de la plateforme data vers Data4All - L’industrialisation des différents environnements de Data4All, en collaboration avec l’équipe d’ops - La participation active aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe - La participation active à la veille technique pour l’amélioration de la stack - L’amélioration des performances et la maîtrise des coûts sur les différents environnements Data4All, sur la GCP
Développeur backend Java Core Confirmé ou Sénior - Multithreading calculs distribués- Appache Ignite

🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, et Apache ignite pour le calcul distribué, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins
Techlead / Architecte Data

Type de prestation : Tech Lead DATA Lieu de la mission : Paris Gare de Lyon Durée de la prestation : 1 an renouvelable Séniorité : Au moins 10 ans TJM : En fonction du profil Date de démarrage : ASAP Télétravail : 2 jours par semaine Contexte : Notre client a lancé le projet Entrepôt de données Finance et risque. Ce projet couvre la chaîne complète de la donnée analytique dans le cadre du reporting et du pilotage des activités des départements Finance et Risques. Il s’étend de l’extraction des données jusqu’à la mise en place de Tableaux de bords (Informatica). Vous intégrerez une équipe de 20 personnes composée de MOA et MOE. Mission : Analyse des besoins et rédaction des spécifications Proposition des architectures Big Data Garant technique des développements Encadrement des développeurs Développement en Python / R Maîtrise d'Informatica Extraction et modélisation des données : PostgreSQL Revue de code Validation du code et recette Mise en place des chaînes CI/CD Bonnes pratiques de développement
Ingénieur LM/LLM & Data Science (H/F)

Ingénieur LM/LLM & Data Science Contexte : La mission fera partie du projet d'ingénierie de l'intelligence artificielle, au sein de la division GDAI. Dans le cadre du projet d'ingénierie de l'intelligence artificielle, nous aidons les entités à passer à l'échelle et à définir et appliquer les meilleures pratiques en matière d'ingénierie ML / LLM. Nous proposons un parcours d'apprentissage en ingénierie ML/LLM à travers le groupe au niveau mondial et nous avons besoin d'une personne pour soutenir ce projet. La mission consistera à § Améliorer le référentiel existant de la formation en ingénierie ML/ML utilisé dans l'ensemble du groupe § Évolution vers la piste du pipeline ML sur AWS et Databricks (utilisant actuellement Azure) § Faciliter les ateliers que nous donnons aux entités sur la formation § Apporter une expertise autour des meilleures pratiques de l'ingénierie LLM § Soutenir la création de contenu pour les pratiques de l'ingénierie LLM (qui peuvent être complexes). Il y a un travail autour de la traduction des pratiques complexes en explications simples § Implémenter ces pratiques dans un environnement sandbox et un outil de benchmark § (Optionnel) Soutenir le projet dans l'optimisation du POC/MVP dans les entités autour des pratiques LLMOps
Product Owner Fraude / IA

Dans le cadre d'une création de poste chez l'un de nos clients grands comptes dans le secteur bancaire, nous recherchons un(e) PO sénior pour accompagner un projet de détections des cas de fraude documentaire en s'appuyant sur l'IA. Vous serez amené à : Mener à bien la livraison d’un produit de qualité, répondant aux attentes des clients et équipes métiers Elaborer la vision produit avec les utilisateurs et les équipes techniques UX et marketing, et être responsable de la conception S'assurer à chaque sprint que la direction prise est la bonne, les priorités respectées suivant la valeur métier, et que la qualité des livrables est adéquate Identifier les attentes des utilisateurs et les bénéfices que le produit leur apportera Élaborer des benchmarks des solutions du marché, notamment chez les concurrents Elaborer les fonctionnalités attendues et prioriser celles-ci au sein du backlog produit Travailler en collaboration avec un UX sur le parcours client cible et sa déclinaison en trajectoire (MVP) Partager la vision produit avec les équipes de développement agile Définir et planifier des releases/versions du produit Créer chaque fonctionnalité retenue sous forme d’une « user story » suffisamment petite pour être implémentée en une seule itération, sans oublier d’y associer les critères d’acceptation indispensables à sa bonne compréhension par les équipes Comprendre les « Technical Stories » proposées par les équipes de développement et les « Defects Stories » Répondre aux demandes de clarification émises par les équipes de développement sur les « Stories » en cours de développement durant l’itération Contribuer aux réunions agiles avec les équipes de développement et le Scrum Master Faciliter la communication et la collaboration entre l’ensemble des parties prenantes et sait faire preuve de persuasion lorsqu’il porte la parole métier Accepter ou refuser les « Stories » implémentées par les équipes de développement Réaliser et/ou organiser le déroulement des tests métier de la version Animer une équipe de Business Analysts, Rédacteurs et Testeurs métier Récolter les feedbacks des utilisateurs Évaluer le fonctionnement des versions précédentes mises en production et en cours d’utilisation Assurer la non-régression des nouvelles versions proposées Manager des équipes de rédaction et de recette des user stories pour les projets Agiles d’envergure Co-construire et animer le dispositif de conduite de changement avec un PMO Deploy Communiquer sur l’avancement de la réalisation du produit auprès du management et des utilisateurs
Montargis - Architecte / DBA

Description des prestations : • Contribuer aux projets d’évolution des applicatifs en apportant votre expertise. (Montées de versions, Optimisation, rationalisation, migrations dans le Cloud). • Participer au support quotidien en assurant le maintien en condition opérationnelle des bases de données associées aux applicatifs. • Optimiser les sauvegardes et restaurations de bases de données. • Participer à la maintenance évolutive périodique des applicatifs et des bases de données (Montées de version, optimisation, patchs…) • Suivre la charge et les performances des bases de données afin d’anticiper les évolutions et les incidents éventuels. • Contribuer à la documentation des architectures techniques selon les standards existants ou à définir. • Vous êtes force de proposition sur l’évolution du SI et vous participez aux projets techniques transverses. • Contribuer à l’industrialisation des opérations sur le périmètre Bases de données en automatisant : o Le déploiement d’infrastructures bases de données o Le rafraichissement d’environnements de recette. o Le suivi des règles de sécurité du SI, l’obsolescence des logiciels. o La mise à disposition des bases de données clones et d’intégration. o La supervision, l’audit, le diagnostic, l’optimisation. o Les livraisons SQL o Le maintien à jour des référentiels ITSM et des documents techniques. TT : 3 jours de TT
chef de projet data - 600€ max

En étroite collaboration avec le Chef de Service, les architectes fonctionnels, les ingénieurs Data, la MOA et les métiers, la mission est garante de la bonne réalisation de certains projets transverses. Mission : - Piloter et assurer la mise en œuvre des évolutions/projets dont vous aurez la charge dans le respect de la qualité, coûts et délais définis avec les intervenants, des process et normes - Travailler sur les différents templates projets, la roadmap fonctionnelle, l'optimisation des interactions avec les autres services - Mettre en place un plan de communication autour des différents projets et instances - Mettre en oeuvre et piloter le planning des travaux de l'équipe et des contributions - Coordonner les différents prestataires - Effectuer un reporting régulier et rigoureux vers son responsable
Ingénieur Data AWS

Bonjour, Nous recherchons pour notre client grand compte un Ingénieur Data AWS répondant au besoin ci-dessous. Nous étudions uniquement les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin CV à jour (format Word) Date de prochaine disponibilité Tarif journalier Merci d’indiquer la référence MDE/DATA/4730 en objet du message Vos responsabilités Mise en place de pipelines de traitement de données Développement des modèles de données Bonnes pratiques de développements (découpage de code, tests unitaire etc…) Amélioration des performances et la maîtrise des coûts sur les différents environnements AWS Captage des données (structurées et non structurées) produites dans les différentes applications ou à l’extérieur de l’entité Intégration des éléments Structuration de la donnée (sémantique, etc.) Cartographie des éléments à disposition Nettoyage de la donnée Validation de la donnée Création du référentiel de données Expertise autour de AWS (lambdas, EMR, APIGateway, cognito ...) CI/CD & automatization (Git, Terraform) Maîtrise des langages (Python, SQL, Pyspark)
Chef(fe) de Projet Data

Au sein d’une entreprise leader dans son domaine, vous jouerez un rôle clé dans la gestion et la réussite de projets transverses. En étroite collaboration avec le Chef de Service, les architectes fonctionnels, les ingénieurs Data, la MOA et les métiers, vous serez responsable de : Piloter et assurer la mise en œuvre des évolutions/projets en garantissant qualité, coûts et délais. Optimiser les interactions entre services et travailler sur les templates projets et la roadmap fonctionnelle. Mettre en place une stratégie de communication autour des projets et instances. Organiser et piloter le planning des travaux de l’équipe et des contributions externes. Coordonner les différents prestataires impliqués dans les projets. Assurer un reporting rigoureux et régulier auprès de la direction.
OPS engineer

Nous recherchons un Dat OPS/Devops ayant une bonne expérience AWS Compétences requises: AWS( EKS, IAM, cloudformation, GLUE,EC2, EMR,ALB,S3,RDS) EKS/Kinesis Data Streams/FireHose Kafka Python, Typescript, Javascript et CDK Terraform Gitlab, CI/CD Connaissance architecture web(résilience, scalabilité, haute disponibilité) Big Data(Spark, Airflow...)Nodejs Obligatoire: AWS, Kubernetes Important: Big Data Démarrage: ASAP Durée: longue durée. Si vous êtes disponible et intéressé, merci de me faire parvenir votre CV dès que possible.
LEAD INGENIEUR DATA F/H
Genious Systèmes recherche pour son client un(e) LEAD INGENIEUR DATA F/H Vous aurez pour missions : Concevoir et mettre en place l’architecture data de la plateforme, basée sur AWS. Développer et optimiser les pipelines de traitement et d’intégration des données (DataLake, DataWarehouse, Datamarts) en Batch et Streaming. Assurer la gouvernance des données : qualité, sécurité, accessibilité. Encadrer et accompagner une équipe d’ingénieurs data. Automatiser les flux de données et améliorer la performance des traitements. Collaborer avec les équipes Data Gouvernance, CRM, infrastrictures et marketing pour garantir la disponibilité et la qualité des données. Mettre en place des indicateurs de suivi et de cohérence des flux de données. Assurer une documentation technique rigoureuse pour assurer la pérennité des solutions mises en place. Piloter les projets data et assurer leur bonne exécution en respectant les délais et les exigences métier. Apporter une assistance technique du modèle de données et vous réaliserez les évolutions à apporter en intégrant et automatisant les évolutions.
Product Manager Data & IA - Pricing | Télétravail Hybride

Nous recherchons un Data Product Manager (h/f) pour piloter la mise en production d’un algorithme de computer vision permettant l’identification des composants de produits. Missions Définir et structurer la vision produit en collaboration avec les parties prenantes Piloter la mise en place des pipelines de données et assurer leur performance Coordonner les équipes techniques et fonctionnelles (Data Engineers, Data Owners, Product Managers) Suivre la mise en production de l’algorithme sous forme d’API et garantir sa maintenabilité Assurer la qualité des données et accompagner les utilisateurs dans l’adoption du produit
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.