Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php

Offre d'emploi
Data Engineer Finops
À propos de l’entreprise Spécialisée dans l’analyse et l’activation des données issues de la grande distribution, l'entreprise développe des solutions technologiques innovantes permettant aux industriels d’engager leurs consommateurs grâce à l’ultra personnalisation et au gaming. Grâce à des technologies avancées en intelligence artificielle et en data engineering, ils offrent des solutions performantes d’animation e-commerce adaptées aux enjeux du secteur. Descriptif du poste Face à une forte croissance et à des ambitions d’expansion à l’international, nous renforçons notre équipe data en recrutant un Data Ops spécialisé en finops (H/F) . 📌 Missions principales Sous la responsabilité du Lead Infra , vous aurez pour mission de : Assurer la scalabilité et la fiabilité des services utilisant la donnée face à une forte croissance des volumes. Gérer l’ensemble des pipelines de données, processus ETL et transformations, avec des tests automatisés et manuels. Optimiser les services existants pour améliorer les performances et réduire les coûts. Être force de proposition sur les choix d’architecture et les innovations technologiques. Collaborer avec les différentes équipes (marketing, R&D, produit, finance) pour garantir la cohérence des projets. Assurer un reporting rigoureux des activités et résultats. 📌 Compétences requises Maîtrise d’un ou plusieurs langages structurés (Python, JavaScript, Java, C/C++, Scala…). Expérience avec les bases de données SQL et NoSQL. Connaissance des technologies Big Data et de la Modern Data Stack (dbt, Airflow…). Expérience sur une plateforme Cloud (GCP, Azure, AWS). Sensibilité aux enjeux FinOps et optimisation des coûts. Capacité à collaborer avec différentes disciplines et équipes.
Mission freelance
Data Engineer
• Maintenir les backlog applicatifs en lien avec les utilisateurs des solutions • Définir avec l’ensemble des parties prenantes le planning des versions à venir • Concevoir, modéliser, développer les programmes en respectant les besoins, les délais et les différentes normes de qualité. • Prendre en charge la réalisation des tests unitaires • Participer au déploiement des réalisations en respectant les procédures internes • Prendre en charge les tickets des utilisateurs concernant les applications maintenues • Assurer le maintien en condition opérationnelle des applications • Gérer la documentation applicative • Communiquer sur l’avancement des réalisations auprès du management, des utilisateurs et des autres équipes impactées. Livrables : • Rédaction et mise à jour de « User Stories » • Rédaction de dossiers de spécifications techniques détaillées • Composants logiciels (sources, exécutables, scripts, tables, IHM, modèle de données etc.) • Plans de tests et bilans d'exécution • Documentations et mises à jour (dossiers d'exploitation, manuels utilisateurs, etc.) • Rapport d’activité • Tout autre livrable jugé nécessaire à l’atteinte du résultat

Offre d'emploi
Data Engineer GCP, Scala/Java Confirmé | Casabalanca 100% Remote
Nous recherchons un Data Engineer Confirmé (h/f) pour rejoindre les équipes Data d’un grand acteur du retail . L’objectif ? Concevoir, développer et maintenir des solutions de traitement de données à grande échelle dans un environnement 100% Cloud (GCP) et Full Remote . Tu évolueras dans un cadre stimulant où la data est au cœur des décisions stratégiques et où l’innovation technologique est une priorité ! Concevoir et développer des pipelines de données en Scala/Java et Spark Exploiter des outils GCP (BigQuery, BigTable, Dataproc) pour le stockage et le traitement des données Mettre en place des solutions de streaming en temps réel avec Kafka Travailler sur une architecture Data Centric , cassant les silos d’information pour fluidifier la gestion des données Assurer la qualité, la performance et la scalabilité des solutions Collaborer avec des équipes internationales et multidisciplinaires 🔧 Les technologies et outils que tu utiliseras : Cloud : GCP (BigQuery, BigTable, Dataproc, Cloud Storage) Développement : Scala, Java, SQL Big Data & Streaming : Spark, Kafka CI/CD & DevOps : Git, Kubernetes, GitLab CI/CD Méthodologies : Agile, Microservices
Mission freelance
Développeur Backend Golang
Rejoignez une équipe tech d’élite et façonnez l’avenir d’un réseau social en pleine ascension ! 🚀 Qui sont ils ? Je recrute pour une startup en pleine croissance qui révolutionne la manière dont les gens interagissent sur les réseaux sociaux. Leur mission ? Encourager l’authenticité et les connexions sincères. Aujourd’hui, ils comptent plus de 40 millions d’utilisateurs actifs mensuels et une équipe internationale de 30+ passionnés . Ils ont pour ambition de devenir un acteur incontournable du social media, utilisé par des centaines de millions de personnes à travers le monde. 🎯 Votre mission: Ils ont bâti notre produit avec une petite équipe d’ingénieurs ultra-talentueux , et ils comptent bien garder cette approche agile tout en passant à l’échelle. Ici, pas de bureaucratie : vous aurez une grande autonomie pour prendre des décisions et livrer des fonctionnalités innovantes plus vite que n’importe quel autre réseau social . Relevez des défis techniques uniques : des millions d’utilisateurs se connectent en seulement 2 minutes , un vrai challenge d’architecture et de scalabilité. Construisez une infrastructure robuste et performante capable de supporter une croissance massive. Collaborez étroitement avec les équipes produit et tech pour imaginer et développer de nouvelles fonctionnalités . Participez aux décisions techniques clés : trade-offs, architecture, performance, résilience. Apportez votre expertise en revue de code et en conception . 🔥 stack technique: 💾 Backend : Go 🖥️ Infrastructure : GCP, Kubernetes, Pub/Sub, GitHub Actions, ArgoCD 🗄️ Base de données : Spanner, PostgreSQL, Redis 💡 Le profil que nous recherchons : ✅ 5+ ans d’expérience sur des API en architecture distribuée ✅ Maîtrise de Go et expérience confirmée sur des microservices à fort volume ✅ Autonomie, sens de l’initiative et goût pour les défis techniques ✅ Expérience en startup ou environnement tech exigeant ✅ Anglais et français courants (notre équipe est internationale) ✅ Master en informatique ou domaine connexe ⚡ Pourquoi nous rejoindre ? 🔥 Un impact direct : chaque ligne de code que vous écrivez améliore l’expérience de millions d’utilisateurs. 🚀 Un challenge technique unique : travailler sur une plateforme avec des pics de charge impressionnants. 👩💻 Une équipe d’experts : travaillez avec des ingénieurs brillants et passionnés. 🌍 Un projet à dimension internationale : une croissance rapide, des opportunités infinies. 🎯 Un environnement agile et innovant : zéro lourdeur, place à l’efficacité et à la créativité. 📅 Disponibilité : ASAP 🎯 Vous croyez en notre vision et avez envie d’un vrai challenge ? Vous êtes au bon endroit. 📩 Prêt à relever le défi ? Postulez dès maintenant !

Mission freelance
Data analyste (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data analyste (H/F) à Lille, France. Contexte : Après une période de cadrage et de validation, nous sommes aujourd’hui dans la phase de décommissionnement et de migration Les rapports (ainsi que les univers) identifiés comme étant à migrer sous Looker sont migrés automatiquement via un partenaire, avant d’être enrichis/complétés, validés et mis à disposition pour les utilisateurs de chaque BU. Les missions attendues par le Data analyste (H/F) : C’est dans ce cadre que nous recherchons un Data Analyste qui sera en charge de : - Accompagnement technique de la migration - Mise en production des livrables validés - Tests intermédiaires des livrables - Analyse du niveau 1 des Bugs remontés Création des univers / explores Looker pour la Self BI - Soit à partir d’éléments migrés automatiquement - Soit une création complète des couches sémantiques Connaissance techniques : Looker(LookML) , SQL, Python, GIT

Mission freelance
Data Ops
Nous recherchons un consultant DataOps Engineer pour la mise en place et l'optimisation d'infrastructures fiables et scalables pour répondre aux besoins des produits digitaux Eco-responsables et sociaux du Groupe. L'objectif de ces produits digitaux est de mesurer l'impact environnemental et social des produits vendus par les BU du groupe pour identifier des axes d'amélioration et les simuler. STACK TECHNIQUE : - Terraform, Docker, Kubernetes, Git, - Connaissance Cloud GCP - Python PS : La présence sur site est obligatoire à hauteur de 3j par semaine.

Mission freelance
Data Engineer Maitrisant Looker
Les livrables sont Cahiers de test Suivi d'avancement Dashbords / Explore Looker Compétences techniques Looker - Confirmé - Impératif GCP - Confirmé - Impératif SAP BI 4.2 (Univers et rapport ) - Junior - Souhaitable Connaissances linguistiques Anglais Professionnel (Impératif) Français Courant (Impératif) Description détaillée Le projet Board Next : lancement d'un programme de migration de l’ensemble de ses rapports SAP BO vers deux solutions cibles (Power BI et Looker) Après une période de cadrage et de validation avec l’ensemble des BU, nous sommes aujourd’hui dans la phase de décommissionnement et de migration C’est dans ce cadre que nous recherchons un Data Analyste qui sera en charge de : - Accompagnement technique de la migration pour les BU - Mise en production des livrables validés par les BU - Tests intermédiaires des livrables suite à la livraison OpenAudit (Notre partenaire en charge de la migration automatique) et mise à disposition à la BU - Analyse du niveau 1 des Bugs remontés par les BU puis remonté à Open Audit Création des univers / explores Looker pour la Self BI - Soit à partir d’éléments migrés automatiquement par le partenaire (Univers Board -> Explores looker) - Soit une création complète des couches sémantiques

Mission freelance
Data Engineer
NIVEAU Maîtrisant SA MISSION : Il est garant de l'accès qualitatif aux sources de données. Il s'assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d'en faciliter l'exploitation par les équipes (Data Analysts et Data Scientists). Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT, Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons, ). SON ACTIVITE : QUALIFICATION ET GESTION DES DONNÉES : - Capte les données (structurées et non structurées) produites dans les différentes applications ou à l'extérieur de l'entité - Intègre les éléments - Structure la donnée (sémantique, etc.) - Cartographie les éléments à disposition - Nettoie la donnée (élimination des doublons, ) - Valide la donnée - Éventuellement, il crée le référentiel de données SES LIVRABLES : - Data Lake approprié et partagé et son dimensionnement - Cartographie des données - Les éléments permettant de garantir la qualité de la donnée

Offre d'emploi
Data Engineer MSBI & GCP (indispensable)
Contexte Intégrez la Direction de la Transformation au sein des Centres de Services Partagés (CSP) d’une grande organisation. Vous évoluerez dans une équipe dédiée au développement et à la maintenance de solutions IT couvrant une large gamme de technologies : développement applicatif, DevSecOps, intelligence artificielle, gestion documentaire, IoT, portails web et bien d'autres. Vous interviendrez au sein des départements Solutions Lab et Solutions Groupe , qui construisent et maintiennent les paliers techniques de composants logiciels. L’objectif est de fournir des solutions fiables, évolutives et répondant aux attentes métier. Missions Dans le cadre d’un projet BI pour la Direction Nucléaire, vos principales missions seront : Ateliers et chiffrage : Participer à la collecte des besoins utilisateurs et aux ateliers de définition des exigences métiers. Documentation : Produire la documentation des réalisations et études dans les outils collaboratifs de la plateforme DevOps (Cloud GCP ). Build et MCO : Contribuer au développement des applications BI et à leur maintenance en conditions opérationnelles. Démarche DevSecOps : Intégrer la qualité et la sécurité dans une démarche DevSecOps pour assurer des produits robustes et performants.

Offre d'emploi
Engineering Manager (H/F)
Nous recherchons pour notre client un Engineering Manager expérimenté pour l'équipe Connectivité, afin de concevoir, diriger et faire évoluer notre plateforme de connectivité et tous ses composants. Ce rôle clé consistera à bâtir une infrastructure robuste et évolutive permettant l'intégration de données et de services provenant de multiples partenaires. En tant qu'Engineering Manager, vous combinerez expertise en environnements distribués (traitement et stockage des données) et compétences en leadership pour développer une plateforme de référence. Responsabilités principales Conception et développement de la plateforme - Concevoir et mettre en oeuvre une architecture de plateforme distribuée et évolutive capable de gérer de grands volumes de données en temps réel. - Développer des connecteurs robustes pour intégrer des API et services tiers (Amadeus Hospitality, Sabre, etc.), facilitant la gestion des offres connectées avec les fournisseurs (tarification et stocks). - Optimiser les performances de traitement (latence, disponibilité, résilience) tout en garantissant la sécurité des flux de données. - Superviser le traitement et le stockage des données dans des environnements distribués. Leadership d'équipe - Diriger et encadrer une équipe d'ingénieurs logiciels en favorisant une culture d'innovation et d'excellence technique. - Collaborer avec des équipes interfonctionnelles pour aligner les solutions techniques aux objectifs commerciaux. - Gérer les priorités des projets, les ressources et les délais dans un environnement Agile. Planification stratégique - Contribuer à la stratégie technique à long terme de la plateforme de connectivité. - Se tenir informé des tendances du secteur et des nouvelles technologies en systèmes distribués et intégration de données.

Offre d'emploi
Chef de Projet AMOA F/H
Envie de participer à un projet ambitieux ? Pilotage, coordination et gestion sont tes maîtres mots ? Tu as soif d’aventure et de nouveaux challenges ? Si tu réponds OUI à ces 3 questions, c’est que tu es fait pour nous rejoindre ! Ta mission , si tu l’acceptes, sera d’intégrer la DSI au sein de la BU Transformation Digitale afin de piloter des projets d’intégration d’outils pour le Groupe. Ton quotidien sera rythmé par : L’analyse des besoins des métiers et la traduction en spécifications fonctionnelles Le pilotage de projets en coordonnant les différentes parties prenantes : équipes techniques, utilisateurs métiers, partenaires externes La contribution à la planification, au suivi et au reporting des projets de transformation digitale L’assurance de l’alignement des projets avec les objectifs stratégiques de l’entreprise L’organisation et l’animation des ateliers de travail avec les métiers pour optimiser leurs processus grâce aux solutions digitales L’accompagnement des utilisateurs lors des phases de conception, recette, déploiement et conduite du changement La formation des utilisateurs aux nouveaux outils et processus implémentés L’identification des axes d’amélioration des systèmes et processus existants La proposition des solutions innovantes pour répondre aux enjeux stratégiques de l’entreprise La veille technologique pour anticiper les opportunités de digitalisation La supervision et l’accompagnement de la gestion des applications déployées dans le cadre du run fonctionnel

Offre d'emploi
PRE EMBAUCHE Ingénieur SQL Server / BI Microsoft
PRE EMBAUCHE Ingénieur SQL Server / BI Microsoft Bonjour, Nous recherchons un/ une Ingénieur SQL Server / BI Microsoft en PRE EMBAUCHE (CDI) au terme de 6 mois de prestation chez notre client Grand Compte. Vous justifiez de 3 à 5 ans d’expérience sur le maniement du SGBD SQL sachant que SQL Server Analyse de données doit absolument être maitrisé. Rémunération selon profil. Vous aurez la charge de concevoir, déployer et optimiser des pipelines de données tout en garantissant la qualité et la résilience des traitements. Vous interviendrez principalement sur les technologies Microsoft SSIS, SSAS, SSRS avec une ouverture recommandée sur Talend, OpenText et les solutions cloud de Google Cloud Platform (GCP). Description du poste : • Concevoir, développer et maintenir des workflows ETL robustes et optimisés avec SSIS, en exploitant pleinement les fonctionnalités avancées telles que la gestion des packages, l’optimisation des performances, l’orchestration des traitements complexes et l’intégration de différentes sources de données. Collaborer avec les équipes pour assurer une mise en œuvre fluide et scalable des processus ETL. • Exploiter SSAS pour le développement et la gestion de cubes OLAP afin d'optimiser les analyses multidimensionnelles. • Utiliser SSRS pour maintenir et faire évoluer des rapports interactifs et automatisés répondant aux besoins des utilisateurs métiers. • Analyser les besoins métiers pour traduire leurs attentes en solutions techniques adaptées. • Réaliser des analyses approfondies des données pour garantir leur pertinence et répondre efficacement aux besoins identifiés. • Identifier et résoudre les goulots d’étranglement affectant les performances des pipelines de données. • Intégrer, transformer et charger les données depuis différentes sources en assurant leur qualité et leur cohérence. • Mettre en place et optimiser des pipelines de données sur des environnements hybrides (on-premise et cloud). • Assurer la résilience et le monitoring des traitements de données. • Collaborer avec les équipes Data Analysts, Data Scientists et autres Data Engineers pour répondre aux besoins des métiers. • Rédiger la documentation technique associée aux pipelines et aux traitements. • Participer aux phases de recette et garantir la conformité des livrables. Compétences techniques : • Expertise avérée sur SSIS pour le développement de processus ETL complexes. • Connaissance des technologies Talend, OpenText (souhaité). • Expérience sur Google Cloud Platform, incluant les outils BigQuery, Dataform et Cloud Composer. • Maîtrise avancée en SQL pour la manipulation et l’optimisation des bases de données. • Connaissance des concepts de Data Warehousing et des modèles en étoile et en flocon. Compétence clée et obligatoire : SQL SQL Server Analyse de données

Mission freelance
Data Engineer Big Query/GCP
Nous recherchons pour notre client un Data Engineer Big Query/GCP. Missions de l'équipe : - Prendre en charge le produit data Data4All aussi bien dans le build que dans le run : - Construire les nouveaux indicateurs issus de nouvelles sources ou de sources existantes - Mettre à jour et faire évoluer les indicateurs existants, en fonction des évolutions des données - Mettre à jour et faire évoluer les indicateurs existants, en fonction des évolutions des données - Traiter et corriger les anomalies - Concevoir les modèles de données adaptés aux besoins des utilisateurs - Accompagner les utilisateurs de Data4All dans leurs usages - Auditer et cartographier les données existantes de Data4All et proposer une vision cible performante, gouvernée et adaptée aux besoins et contraintes - Mettre en place le contrôle qualité sur les données Prestation attendue : En interaction avec les membres de l’équipe, la prestation consistera à participer à/au(x) : - La mise en place de pipelines de traitement de données - Développement des modèles de données - L’extraction et l’exposition des données issues de la zone silver de la plateforme data vers Data4All - L’industrialisation des différents environnements de Data4All, en collaboration avec l’équipe d’ops - Différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe - La veille technique pour l’amélioration de la stack - L’amélioration des performances et la maîtrise des coûts sur les différents environnements Data4All, sur la GCP

Mission freelance
Data Engineer
Contexte de la Mission: Nous recherchons un Data Engineer, intégrant une équipe spécialisée pour piloter des initiatives clés liées à la gestion et l'optimisation des données. Présence sur site requise trois jours par semaine pour une collaboration efficace. Profil Recherché: Maîtrise avancée en SQL et ETL avec des capacités éprouvées dans la gestion de flux de données complexes. Expérience dans l'implémentation de pratiques CI/CD et l'utilisation de GitHub, Terraform et Kafka. Connaissance pratique de Power BI et Looker, avec une familiarité dans la création de visualisations de données. Compétences en Google Cloud Platform, notamment GCS et BigQuery, sont hautement souhaitables. Aptitude à communiquer clairement en anglais, tant à l'écrit qu'à l'oral.

Offre d'emploi
Ingénieur MLOPS GCP/Vertex IA
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Ingenieur MLOPS sur GCP/Vertex IA Tâches: Conception jusqu’à la mise en production en prenant en charge les aspects techniques permettant d’obtenir un processus industriel depuis l’apprentissage d’un modèle IA jusqu’à la mise en production du modèle. Mise en en œuvre des technologies Devops et Mlops pour construire les livrables de façon sécurisée et le plus automatique possible. Réalisation des chaînes CICD et MLOPS. Construction des tableaux de bord avec des KPI adaptés pour permettre le monitoring de la solution IA en production. Si vous êtes actuellement à l'écoute du marché, je vous invite à m'envoyer votre candidature. Bien à vous, Nadia

Offre d'emploi
Data Engineer (H/F)
À propos de l’entreprise : Nous recherchons un Data Engineer hautement qualifié pour rejoindre notre équipe. En tant que Data Engineer, vous serez responsable de la conception, du développement et de la maintenance des pipelines de données, de l’optimisation des performances des bases de données et de la mise en place de solutions analytiques adaptées aux besoins métiers. Vous travaillerez sur des projets passionnants et collaborerez avec une équipe multidisciplinaire pour fournir des solutions de gestion et d’exploitation de données performantes et évolutives. Process de recrutement : 1. Qualification téléphonique (30 min) 2. Étude de cas 3. Rencontre avec la direction (en présentiel ou à distance) 4. Réponse sous 48h
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.