Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php

Mission freelance
Consultant ODI Oracle Data Integrator
Nous recherchons pour un de nos clients un Consultant senior ODI 2 jours de présentiel sursis client à Bordeaux par semaine demandé et 3 jours en TT Expérience Mulesoft un plus Le livrable est: Fonctionnalités Compétences techniques: ODI - Confirmé - Impératif Mulesoft - Confirmé - apprécié Description détaillée: Projet pour un client grand compte en agilité de 5ETP --- Nous recherchons pour un de nos clients un Consultant senior ODI 2 jours de présentiel sursis client à Bordeaux par semaine demandé et 3 jours en TT Expérience Mulesoft un plus Le livrable est: Fonctionnalités Compétences techniques: ODI - Confirmé - Impératif Mulesoft - Confirmé - apprécié Description détaillée: Projet pour un client grand compte en agilité de 5ETP

Mission freelance
Data Engineer GCP SSIS (Google Cloud Platform)
Je recherche pour un de mes clients un Data Engineer GCP ayant des connaissances sur SSIS afin d' accompagner ce dernier dans le RUN SSIS et la migration sur GCP. Vous intégrer une équipe Hyper sympa. Vous participerez à l’analyse et planification de la migration SQL Serveur (on prem) vers GCP Experience avec Data Form Expérience dans la mise en place de pipeline ETL et ELT Maitrise des langages SQL et Python travailler en équipe et excellente compétence en communication Connaissance de SQL serveur serait un plus Certification GCP est un plus Capacité au former et faire monter une équipe en compétence sur GCP

Mission freelance
lookML looker
Dans le cadre de la construction de Cockpit nous avons besoin de nous renforcer dans les aspects Analyse data et Data visualisation sous Looker ML maîtrise de la saolution de data LookML Looker Description Positionné à la DSI, il met en œuvre des outils informatiques, des techniques et des méthodes statistiques pour permettre d’organiser, synthétiser et traduire efficacement des données. Livrables - data analyses - modèles sémantiques - Cockpit - documentation data Compétences Look ML SQL Analyse de donnée Architecture data viz Autonomie

Mission freelance
Data Engineer Big Query/GCP
Nous recherchons pour notre client un Data Engineer Big Query/GCP. Missions de l'équipe : - Prendre en charge le produit data Data4All aussi bien dans le build que dans le run : - Construire les nouveaux indicateurs issus de nouvelles sources ou de sources existantes - Mettre à jour et faire évoluer les indicateurs existants, en fonction des évolutions des données - Mettre à jour et faire évoluer les indicateurs existants, en fonction des évolutions des données - Traiter et corriger les anomalies - Concevoir les modèles de données adaptés aux besoins des utilisateurs - Accompagner les utilisateurs de Data4All dans leurs usages - Auditer et cartographier les données existantes de Data4All et proposer une vision cible performante, gouvernée et adaptée aux besoins et contraintes - Mettre en place le contrôle qualité sur les données Prestation attendue : En interaction avec les membres de l’équipe, la prestation consistera à participer à/au(x) : - La mise en place de pipelines de traitement de données - Développement des modèles de données - L’extraction et l’exposition des données issues de la zone silver de la plateforme data vers Data4All - L’industrialisation des différents environnements de Data4All, en collaboration avec l’équipe d’ops - Différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe - La veille technique pour l’amélioration de la stack - L’amélioration des performances et la maîtrise des coûts sur les différents environnements Data4All, sur la GCP

Mission freelance
Data Analyst avec une expérience supply chain
Nous recherchons un consultant avec une double expertise : Supply chain et "Data analyst". Mission : Vous serez intégré à une équipe en charge d'analyser la performance de la supply chain d'un client en vous appuyant sur la data. Votre rôle sera de collecter de grandes quantités de données et de mener des analyse de performance et identifier des axes d'amélioration métier. Expérience de 2 ans requise sur un poste équivalent. Mission temps plein de 12 mois à pourvoir idéalement à compter du 27/01/2025.

Mission freelance
Architecte DATA expert GCP (mission courte)
Dans le cadre de son plan de transformation notre client recherche un profil Architecte DATA/ Expert GCP ayant également une expertise en modélisation et des compétences Power BI pour accompagner l’équipe DSI et métier dans le démarrage de sa data plateforme. Missions : Expertise architecture Data / Modélisation Garantir la performance et la qualité des données mises à disposition pour la DataViz Assurer la gouvernance et la cohérence des données (gestion des accès, conformité, catalogage). Définir l’architecture cible assurant une haute disponibilité et une performance optimale. Veille technologique et recommandations sur les meilleures pratiques Cloud & BI adaptées aux besoins métier. Assurer un accompagnement technique pour le choix des solutions d’ingestion de donnés dans bigQuery Produire les documents d’architecture générale et technique Émettre des recommandations priorisées, chiffrées et argumentées en termes de ROI/Bénéfice. Documentation rigoureuse des étapes clés du projet (DAT, PTI, DEX…). Développement et optimisation Expert de l’environnement GCP (BigQuery, dataform, Terraform) Maitrise de Power BI et de l’optimisation des performances des modèles Power BI (DAX, VertiPaq, Power Query). Assurer un accompagnement technique Sécurité et conformité Implémenter les meilleures pratiques en matière de gestion des accès et autorisations. Sécuriser les flux de données et garantir la conformité aux réglementations en vigueur (RGPD, best practices cloud). Définir et mettre en place une stratégie de sauvegarde et récupération des données.

Mission freelance
Architecte technique IT
Nous recherchons pour l'un de nos clients un Architecte technique IT. L’architecte technique est le garant du design détaillé de la solution d'infrastructure et il fait valider ses designs lors d’étapes de gouvernance auprès du management. Il est aussi amené à déployer lui-même des PoC dans le cadre d'étude de nouvelles solutions, notamment il étudie et propose des évolutions sur les designs des services d'infrastructure (landing zone cloud, clusters Kubernetes et ecosystème, redondance, disaster recovery plan, authentification, réseau et firewalling, stockage, … ). Expertise attendue : Azure (Services de base : EntraID, Network, Compute, Database, Storage, …) (Conception et déploiement) (Bon niveau) GCP (Services de base) (Niveau débutant ou plus) Kubernetes / AKS / GKE (Niveau débutant ou plus) Infra as code (Expérience concrète)

Mission freelance
Architecte Solution Big Data / RAG (H/F)
Notre client grand compte recherche un architecte Big Data. Notre client développe une plateforme basée sur des agents intelligents tel que les agents de type Retrieval-Augmented Generation (RAG), dans un environnement Google Cloud Platform (GCP). Cette plateforme doit permettre aux utilisateurs métiers de créer et de personnaliser des assistants et des workflows utilisant l'IA générative pour améliorer nos processus et systèmes d'information (SI) existants. Le Solution Architecte va s’intégrer dans une équipe de plusieurs personnes. Le développement est réalisé en Python et Java. Les composants techniques sont réalisés dans une architecture micro-services exposés en partie à l’ensemble de l’entreprise. L’objet de la prestation sera de renforcer l’équipe « plateforme self-service d’agents GenAI » Les activités concernent principalement : • l’évolution et la maintenance de l’architecture des briques de gestion d’assistants, de gestion de la sécurité et de routing vers les services d’IA du marché • l’intégration de nouveaux services d’agent dans l’architecture existante, • l’amélioration et l’optimisation des composants d’ingestion de données non structurées et des agents RAG

Offre d'emploi
Data Engineer GCP, Scala/Java Confirmé | Casabalanca 100% Remote
Nous recherchons un Data Engineer Confirmé (h/f) pour rejoindre les équipes Data d’un grand acteur du retail . L’objectif ? Concevoir, développer et maintenir des solutions de traitement de données à grande échelle dans un environnement 100% Cloud (GCP) et Full Remote . Tu évolueras dans un cadre stimulant où la data est au cœur des décisions stratégiques et où l’innovation technologique est une priorité ! Concevoir et développer des pipelines de données en Scala/Java et Spark Exploiter des outils GCP (BigQuery, BigTable, Dataproc) pour le stockage et le traitement des données Mettre en place des solutions de streaming en temps réel avec Kafka Travailler sur une architecture Data Centric , cassant les silos d’information pour fluidifier la gestion des données Assurer la qualité, la performance et la scalabilité des solutions Collaborer avec des équipes internationales et multidisciplinaires 🔧 Les technologies et outils que tu utiliseras : Cloud : GCP (BigQuery, BigTable, Dataproc, Cloud Storage) Développement : Scala, Java, SQL Big Data & Streaming : Spark, Kafka CI/CD & DevOps : Git, Kubernetes, GitLab CI/CD Méthodologies : Agile, Microservices

Mission freelance
Data Engineer
NIVEAU Maîtrisant SA MISSION : Il est garant de l'accès qualitatif aux sources de données. Il s'assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d'en faciliter l'exploitation par les équipes (Data Analysts et Data Scientists). Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT, Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons, ). SON ACTIVITE : QUALIFICATION ET GESTION DES DONNÉES : - Capte les données (structurées et non structurées) produites dans les différentes applications ou à l'extérieur de l'entité - Intègre les éléments - Structure la donnée (sémantique, etc.) - Cartographie les éléments à disposition - Nettoie la donnée (élimination des doublons, ) - Valide la donnée - Éventuellement, il crée le référentiel de données SES LIVRABLES : - Data Lake approprié et partagé et son dimensionnement - Cartographie des données - Les éléments permettant de garantir la qualité de la donnée

Offre d'emploi
CONSULTANTE(E) ETL ODI & PROCEDURES STOCKEES
Bonjour à toutes et tous 🙂 Dans le cadre d’un projet pour l’un de nos clients, nous recherchons un(e) consultant(e) spécialisé(e) en ETL et ODI afin d'intégrer une équipe Data. Le/la consultant(e) devra avoir une parfaite maîtrise d'ODI et une grande capacité à cadrer, comprendre, formaliser et spécifier les besoins métiers. Missions : Rédaction des spécifications techniques. Analyser et cadrer les besoins en collaboration avec la MOA Animer des réunions avec la MOA pour assurer une bonne compréhension des exigences Rédaction des spécifications techniques et validation par la MOA Conception et modélisation des flux de données Développement des flux sur (ODI) Réalisation des tests, corrections et optimisations nécessaires Accompagner des métiers lors de la phase de recette Assurer la livraison et le déploiement des développements Suivre l’exploitation et garantir la stabilité des flux Compétences techniques : Langages de programmation : SQL SGDB : SQL Server Dataviz : PowerBI Logiciels : ODI v12, SSRS
Mission freelance
Data Analyst (Semarchy OU Marklogic)
Contexte de la Mission Nous recherchons un Data Analyst pour intervenir au sein du secteur de l’assurance. Ce rôle stratégique requiert une double expertise : une maîtrise technique des mécanismes de la donnée et une capacité à comprendre les enjeux métiers pour structurer et optimiser les processus de gestion des données. Description des Missions Le consultant aura pour principales responsabilités : Analyse et cohérence des données : Comprendre les modèles de données existants et leur pertinence pour les besoins métiers. Garantir la cohérence et la qualité des données tout au long de leur cycle de vie. Restructurer les données pour optimiser leur gestion et leur utilisation. Gestion des flux de données : Analyser et comprendre les flux de données au sein des systèmes en place. Superviser l’acheminement et l’intégration des données dans les différentes plateformes. Interaction avec les équipes métier et DSI : Agir en tant qu’intermédiaire entre les équipes métier et la DSI pour recueillir, structurer, et formaliser les besoins. Traduire les exigences métiers en spécifications techniques adaptées. Contribution technique : Participer à l’intégration des données dans les systèmes d’information. Réaliser des requêtes et extractions de données en fonction des besoins. Environnement technique : Outils de gestion et d’intégration des données : Talend , Semarchy , MarkLogic (Datalake). Bases de données : Oracle . Compétences en requêtage SQL et autres langages pertinents. Profil Recherché Expérience avérée en tant que Data Analyst, idéalement dans le secteur de l’assurance (un atout). Bonne compréhension des modèles de données et des processus métiers. Solide vernis technique avec une connaissance approfondie des outils cités (Talend, Semarchy, MarkLogic, Oracle). Capacité à structurer et formaliser des demandes techniques complexes en lien avec les besoins métiers. Compétences en analyse et optimisation des flux de données. Excellentes compétences en communication pour interagir avec des interlocuteurs techniques et non techniques.
Mission freelance
Développeur Backend Golang
Rejoignez une équipe tech d’élite et façonnez l’avenir d’un réseau social en pleine ascension ! 🚀 Qui sont ils ? Je recrute pour une startup en pleine croissance qui révolutionne la manière dont les gens interagissent sur les réseaux sociaux. Leur mission ? Encourager l’authenticité et les connexions sincères. Aujourd’hui, ils comptent plus de 40 millions d’utilisateurs actifs mensuels et une équipe internationale de 30+ passionnés . Ils ont pour ambition de devenir un acteur incontournable du social media, utilisé par des centaines de millions de personnes à travers le monde. 🎯 Votre mission: Ils ont bâti notre produit avec une petite équipe d’ingénieurs ultra-talentueux , et ils comptent bien garder cette approche agile tout en passant à l’échelle. Ici, pas de bureaucratie : vous aurez une grande autonomie pour prendre des décisions et livrer des fonctionnalités innovantes plus vite que n’importe quel autre réseau social . Relevez des défis techniques uniques : des millions d’utilisateurs se connectent en seulement 2 minutes , un vrai challenge d’architecture et de scalabilité. Construisez une infrastructure robuste et performante capable de supporter une croissance massive. Collaborez étroitement avec les équipes produit et tech pour imaginer et développer de nouvelles fonctionnalités . Participez aux décisions techniques clés : trade-offs, architecture, performance, résilience. Apportez votre expertise en revue de code et en conception . 🔥 stack technique: 💾 Backend : Go 🖥️ Infrastructure : GCP, Kubernetes, Pub/Sub, GitHub Actions, ArgoCD 🗄️ Base de données : Spanner, PostgreSQL, Redis 💡 Le profil que nous recherchons : ✅ 5+ ans d’expérience sur des API en architecture distribuée ✅ Maîtrise de Go et expérience confirmée sur des microservices à fort volume ✅ Autonomie, sens de l’initiative et goût pour les défis techniques ✅ Expérience en startup ou environnement tech exigeant ✅ Anglais et français courants (notre équipe est internationale) ✅ Master en informatique ou domaine connexe ⚡ Pourquoi nous rejoindre ? 🔥 Un impact direct : chaque ligne de code que vous écrivez améliore l’expérience de millions d’utilisateurs. 🚀 Un challenge technique unique : travailler sur une plateforme avec des pics de charge impressionnants. 👩💻 Une équipe d’experts : travaillez avec des ingénieurs brillants et passionnés. 🌍 Un projet à dimension internationale : une croissance rapide, des opportunités infinies. 🎯 Un environnement agile et innovant : zéro lourdeur, place à l’efficacité et à la créativité. 📅 Disponibilité : ASAP 🎯 Vous croyez en notre vision et avez envie d’un vrai challenge ? Vous êtes au bon endroit. 📩 Prêt à relever le défi ? Postulez dès maintenant !

Mission freelance
Data analyste (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data analyste (H/F) à Lille, France. Contexte : Après une période de cadrage et de validation, nous sommes aujourd’hui dans la phase de décommissionnement et de migration Les rapports (ainsi que les univers) identifiés comme étant à migrer sous Looker sont migrés automatiquement via un partenaire, avant d’être enrichis/complétés, validés et mis à disposition pour les utilisateurs de chaque BU. Les missions attendues par le Data analyste (H/F) : C’est dans ce cadre que nous recherchons un Data Analyste qui sera en charge de : - Accompagnement technique de la migration - Mise en production des livrables validés - Tests intermédiaires des livrables - Analyse du niveau 1 des Bugs remontés Création des univers / explores Looker pour la Self BI - Soit à partir d’éléments migrés automatiquement - Soit une création complète des couches sémantiques Connaissance techniques : Looker(LookML) , SQL, Python, GIT

Mission freelance
Expert Data Center
Missions principales : Concevoir, implémenter et maintenir les architectures Data Center et L2DCI. Assurer l'implémentation, l'exploitation et la migration sur des environnements critiques mutualisés. Diagnostiquer et résoudre des incidents techniques sur des infrastructures complexes. Automatiser et optimiser les opérations réseau en utilisant des outils DevNet (Python, Netmiko). Veiller à l'application des processus stricts en matière de documentation, gestion des incidents et gestion des changements. Assurer un support technique de haut niveau et garantir la disponibilité des infrastructures.

Offre d'emploi
Data Analyste sur Massy
Nous recherchons pour un de nos clients, un Data Analyst expérimenté sur Massy Profil recherché Formation académique : Issu(e) d'une formation d'excellence (Polytechnique, Centrale, Télécom Paris, Supélec ou équivalent). Compétences techniques : Maîtrise approfondie de SQL (indispensable). Expérience fonctionnelle avec une vision métier sur l'analyse et le traitement des données. Expérience professionnelle : expérience significative en tant que Data Analyst dans des entreprises reconnues du secteur de la grande distribution (Auchan, Leclerc, Conforama, Decathlon, etc.). Missions principales Exploitation, analyse et structuration des données pour répondre aux enjeux métier. Collaboration avec des équipes métiers et techniques pour piloter et optimiser les processus décisionnels. Rédaction de rapports et tableaux de bord exploitables pour les responsables opérationnels. Environnement de travail Localisation : Massy . Télétravail : 2 jours par semaine. Durée de la mission : 6 mois à 1 an, avec possibilité de renouvellement. Démarrage : ASAP (dès que possible). Nous recherchons un profil fonctionnel avant tout, capable de comprendre les enjeux métiers et de proposer des solutions concrètes grâce à l’analyse de données.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.