Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php

Mission freelance
Data Engineer GCP SSIS (Google Cloud Platform)
Je recherche pour un de mes clients un Data Engineer GCP ayant des connaissances sur SSIS afin d' accompagner ce dernier dans le RUN SSIS et la migration sur GCP. Vous intégrer une équipe Hyper sympa. Vous participerez à l’analyse et planification de la migration SQL Serveur (on prem) vers GCP Experience avec Data Form Expérience dans la mise en place de pipeline ETL et ELT Maitrise des langages SQL et Python travailler en équipe et excellente compétence en communication Connaissance de SQL serveur serait un plus Certification GCP est un plus Capacité au former et faire monter une équipe en compétence sur GCP

Offre d'emploi
Consultant Data
Nous sommes un jeune cabinet de conseil en pleine expansion, spécialisé dans l’accompagnement des entreprises sur des enjeux stratégiques et opérationnels. Pour répondre à la demande croissante de nos clients, nous développons une nouvelle offre de services dédiée à la data. Plusieurs de nos partenaires, issus de secteurs variés, font face à des défis réglementaires et organisationnels dans la gestion de leurs données. Nous recherchons un(e) consultant(e) expérimenté(e) pour accompagner nos clients dans ces problématiques. Une première mission consistera à accompagner un de nos clients dans le monde assurantiel sur la qualité de ses données. Les principales missions seront de : Actualiser et consolider la documentation relative à la Qualité des Données Contribuer à la gestion et à l’évolution du répertoire des données Superviser et mettre en œuvre les dispositifs de contrôle Développer et piloter des indicateurs liés à la Qualité des Données Accompagner les équipes métier dans la gestion des anomalies et l’adoption des processus Participer activement aux instances et projets liés à la Qualité des Données Les compétences attendues : Connaissance de la réglementation Solvabilité II Compétences en qualité de données Maîtrise d'excel Des connaissances en QlikSense seraient un gros plus Disposer d'un minimum de connaissances en assurances et en gestion de projet

Mission freelance
Data Scientist transport (Remote)
Description de la Mission Nous recherchons un consultant freelance en Data Science pour un projet stratégique visant à analyser et prédire le taux de fraude dans les systèmes de transport public (bus, tram, TAD). Ce projet ambitieux implique l'analyse, la remise en qualité et l'exploitation de données provenant de multiples sources applicatives : SAE (Système d’Aide à l’Exploitation) Billettique Comptages Informations Contrôleurs L’objectif est de développer un modèle prédictif permettant : D'estimer le taux de fraude par ligne, tronçon et moyen de transport. De prédire en temps réel le nombre de fraudeurs présents dans un véhicule. Responsabilités Analyse des données : Identifier, structurer et interpréter les données issues de diverses sources applicatives liées au transport public. Remise en qualité des données : Nettoyer, uniformiser et valider les données pour garantir leur fiabilité. Développement de modèles prédictifs : Concevoir et entraîner des algorithmes pour prédire le taux de fraude et le nombre de fraudeurs en temps réel. Visualisation des résultats : Fournir des outils et tableaux de bord clairs pour faciliter la compréhension et l’exploitation des analyses. Collaboration avec les équipes métier : Travailler étroitement avec les experts du domaine pour valider les hypothèses et ajuster les modèles selon les besoins.

Offre d'emploi
Data Engineer GCP, Scala/Java Confirmé | Casabalanca 100% Remote
Nous recherchons un Data Engineer Confirmé (h/f) pour rejoindre les équipes Data d’un grand acteur du retail . L’objectif ? Concevoir, développer et maintenir des solutions de traitement de données à grande échelle dans un environnement 100% Cloud (GCP) et Full Remote . Tu évolueras dans un cadre stimulant où la data est au cœur des décisions stratégiques et où l’innovation technologique est une priorité ! Concevoir et développer des pipelines de données en Scala/Java et Spark Exploiter des outils GCP (BigQuery, BigTable, Dataproc) pour le stockage et le traitement des données Mettre en place des solutions de streaming en temps réel avec Kafka Travailler sur une architecture Data Centric , cassant les silos d’information pour fluidifier la gestion des données Assurer la qualité, la performance et la scalabilité des solutions Collaborer avec des équipes internationales et multidisciplinaires 🔧 Les technologies et outils que tu utiliseras : Cloud : GCP (BigQuery, BigTable, Dataproc, Cloud Storage) Développement : Scala, Java, SQL Big Data & Streaming : Spark, Kafka CI/CD & DevOps : Git, Kubernetes, GitLab CI/CD Méthodologies : Agile, Microservices

Mission freelance
Responsable pôle applicatif DATA
Pour le compte de notre client, dans le secteur de la distribution, nous sommes à la recherche d'un Responsable pôle applicatif DATA. Missions : Concevoir et déployer des solutions Data alignées avec notre vision métier transverse en assurant la gouvernance des données Planifier, exécuter et livrer des projets dans les délais et budgets impartis, tout en assurant une amélioration continue des applications Manager une équipe multidisciplinaire pour garantir une collaboration efficace (7 personnes) Travailler en étroite collaboration avec les équipes métiers Identifier et intégrer les meilleures solutions Data (Snowflake / DBT (Data Build Tool) )

Mission freelance
Architecte technique IT
Nous recherchons pour l'un de nos clients un Architecte technique IT. L’architecte technique est le garant du design détaillé de la solution d'infrastructure et il fait valider ses designs lors d’étapes de gouvernance auprès du management. Il est aussi amené à déployer lui-même des PoC dans le cadre d'étude de nouvelles solutions, notamment il étudie et propose des évolutions sur les designs des services d'infrastructure (landing zone cloud, clusters Kubernetes et ecosystème, redondance, disaster recovery plan, authentification, réseau et firewalling, stockage, … ). Expertise attendue : Azure (Services de base : EntraID, Network, Compute, Database, Storage, …) (Conception et déploiement) (Bon niveau) GCP (Services de base) (Niveau débutant ou plus) Kubernetes / AKS / GKE (Niveau débutant ou plus) Infra as code (Expérience concrète)

Mission freelance
Architecte Solution Big Data / RAG (H/F)
Notre client grand compte recherche un architecte Big Data. Notre client développe une plateforme basée sur des agents intelligents tel que les agents de type Retrieval-Augmented Generation (RAG), dans un environnement Google Cloud Platform (GCP). Cette plateforme doit permettre aux utilisateurs métiers de créer et de personnaliser des assistants et des workflows utilisant l'IA générative pour améliorer nos processus et systèmes d'information (SI) existants. Le Solution Architecte va s’intégrer dans une équipe de plusieurs personnes. Le développement est réalisé en Python et Java. Les composants techniques sont réalisés dans une architecture micro-services exposés en partie à l’ensemble de l’entreprise. L’objet de la prestation sera de renforcer l’équipe « plateforme self-service d’agents GenAI » Les activités concernent principalement : • l’évolution et la maintenance de l’architecture des briques de gestion d’assistants, de gestion de la sécurité et de routing vers les services d’IA du marché • l’intégration de nouveaux services d’agent dans l’architecture existante, • l’amélioration et l’optimisation des composants d’ingestion de données non structurées et des agents RAG

Mission freelance
Architecte DATA expert GCP (mission courte)
Dans le cadre de son plan de transformation notre client recherche un profil Architecte DATA/ Expert GCP ayant également une expertise en modélisation et des compétences Power BI pour accompagner l’équipe DSI et métier dans le démarrage de sa data plateforme. Missions : Expertise architecture Data / Modélisation Garantir la performance et la qualité des données mises à disposition pour la DataViz Assurer la gouvernance et la cohérence des données (gestion des accès, conformité, catalogage). Définir l’architecture cible assurant une haute disponibilité et une performance optimale. Veille technologique et recommandations sur les meilleures pratiques Cloud & BI adaptées aux besoins métier. Assurer un accompagnement technique pour le choix des solutions d’ingestion de donnés dans bigQuery Produire les documents d’architecture générale et technique Émettre des recommandations priorisées, chiffrées et argumentées en termes de ROI/Bénéfice. Documentation rigoureuse des étapes clés du projet (DAT, PTI, DEX…). Développement et optimisation Expert de l’environnement GCP (BigQuery, dataform, Terraform) Maitrise de Power BI et de l’optimisation des performances des modèles Power BI (DAX, VertiPaq, Power Query). Assurer un accompagnement technique Sécurité et conformité Implémenter les meilleures pratiques en matière de gestion des accès et autorisations. Sécuriser les flux de données et garantir la conformité aux réglementations en vigueur (RGPD, best practices cloud). Définir et mettre en place une stratégie de sauvegarde et récupération des données.

Mission freelance
Data Engineer Big Query/GCP
Nous recherchons pour notre client un Data Engineer Big Query/GCP. Missions de l'équipe : - Prendre en charge le produit data Data4All aussi bien dans le build que dans le run : - Construire les nouveaux indicateurs issus de nouvelles sources ou de sources existantes - Mettre à jour et faire évoluer les indicateurs existants, en fonction des évolutions des données - Mettre à jour et faire évoluer les indicateurs existants, en fonction des évolutions des données - Traiter et corriger les anomalies - Concevoir les modèles de données adaptés aux besoins des utilisateurs - Accompagner les utilisateurs de Data4All dans leurs usages - Auditer et cartographier les données existantes de Data4All et proposer une vision cible performante, gouvernée et adaptée aux besoins et contraintes - Mettre en place le contrôle qualité sur les données Prestation attendue : En interaction avec les membres de l’équipe, la prestation consistera à participer à/au(x) : - La mise en place de pipelines de traitement de données - Développement des modèles de données - L’extraction et l’exposition des données issues de la zone silver de la plateforme data vers Data4All - L’industrialisation des différents environnements de Data4All, en collaboration avec l’équipe d’ops - Différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe - La veille technique pour l’amélioration de la stack - L’amélioration des performances et la maîtrise des coûts sur les différents environnements Data4All, sur la GCP

Mission freelance
Data Engineer
NIVEAU Maîtrisant SA MISSION : Il est garant de l'accès qualitatif aux sources de données. Il s'assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d'en faciliter l'exploitation par les équipes (Data Analysts et Data Scientists). Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT, Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons, ). SON ACTIVITE : QUALIFICATION ET GESTION DES DONNÉES : - Capte les données (structurées et non structurées) produites dans les différentes applications ou à l'extérieur de l'entité - Intègre les éléments - Structure la donnée (sémantique, etc.) - Cartographie les éléments à disposition - Nettoie la donnée (élimination des doublons, ) - Valide la donnée - Éventuellement, il crée le référentiel de données SES LIVRABLES : - Data Lake approprié et partagé et son dimensionnement - Cartographie des données - Les éléments permettant de garantir la qualité de la donnée

Mission freelance
PMO Finance H/F
Contexte du Poste : Dans le cadre du renforcement des équipes de notre client, nous recherchons un(e) consultant(e) PMO orienté(e) plus spécifiquement sur la gestion financière. Vous interviendrez pour accompagner l’équipe PMO dans le suivi et la gestion des budgets de la DSI. Missions Principales : Suivi du Budget de la DSI Assurer le suivi budgétaire (Forecast, atterrissage, etc.) des projets et initiatives de la DSI. Organiser et animer des réunions de suivi avec les porteurs de budget afin de garantir la bonne gestion des coûts. Analyser les données financières en collaboration avec le service comptabilité et contrôle de gestion. Préparer des reportings financiers réguliers pour assurer une communication claire sur l’état des budgets. Créer des feuilles de suivi dans Qlik pour faciliter les reportings et les suivis financiers. Apporter un soutien au chef de projet pour la gestion des budgets, le suivi de la consommation des ressources financières et la planification des dépenses. Communication et Coordination Organiser la collecte des données nécessaires pour la réalisation du carnet de bord DSI bi-mensuel. Préparer les supports de présentation pour les comités DSI, les réunions plénières et autres réunions de management.

Mission freelance
Data Governance Senior - Data Architecture Collibra
Nous recherchons un Responsable Gouvernance des Données Senior possédant de solides compétences en Architecture des Données (modélisation de jeux de données hautement partageables) pour les accompagner sur différents projets (analytique et IA) Dans ce rôle, vous serez chargé de : • Construire un modèle de données conceptuel • Identifier les Data Stewards, les propriétaires des processus métier pour chaque jeu de données, effectuer la formation et le changement sur leurs rôles et responsabilités conformément au Cadre du Groupe • Identifier et documenter les processus métier • Modéliser des jeux de données logiques dans le but de créer des jeux de données hautement partageables • Documenter les jeux de données dans l'outil Data Catalog (Collibra) • Documenter les termes métier, les règles métier, les politiques d'accès aux données dans Data Catalog • Explorer les jeux de données à des fins de qualité des données · Anglais solide requis, solides compétences en communication profil technico-fonctionnel, apprenant rapide La connaissance de SAP serait un plus Objectifs et livrables Documentation dans Data Catalog Modèles de données (informationnels, conceptuels, Logique) Supports de formation et plan de gestion du changement Compétences Business Analysis : Confirmé data gouvernance : Confirmé Data management : Confirmé Communication : Expert English : Expert (Functional) Data Architecture : Expert change management : Confirmé

Offre d'emploi
Data Scientist - IA / Machine Learning - Assurance
Technologies et Outils GITPython Méthodes / Normes Agile Description et livrables de la prestation VOTRE ROLE En tant que Data Scientist (F/H), vous aurez pour premier rôle la réalisation de projets de Data Science pour la direction, autour des Use Cases de type Document Processing / Understanding, afin d'automatiser des processus Métier. Pour y parvenir il sera nécessaire de collaborer avec les ML Engineer / Data Engineer de l'équipe pour industrialiser les projets en Production, ainsi que de contribuer aux outils de monitoring nécessaires pour suivre la performance des IA livrées. Vos missions seront les suivantes : Opérationnelles : · Participer à la compréhension des besoins métiers et développer une proposition de valeur en accompagnant les Product Owners (faisabilité, pré-requis, timing) · Être garant de la qualité scientifique et de code des algorithmes développés, de la phase de prototype jusqu’à l’industrialisation et tout au long du run en production (retrain, drift detection …) · Structurer dès le démarrage les projets et le code dans la perspective d’une industrialisation de la solution IA et d’une intégration fluide dans le process métier : une IA réussie est une IA utilisée · Participer et animer au niveau de l'application des pratiques MLOPS, notamment au travers des code reviews, du peer programming ou des sessions de partage · Aider à organiser et à orienter le travail dans la bonne direction, en complément du Product Owner en questionnant le why et en cherchant une équilibre bénéfice / coût · Avoir une démarche IA responsable Transverses : · Participer à la mise en place et au maintien de bonnes pratiques de code et de modélisation au sein de l’équipe, dans une logique MLOps · Réaliser une veille active sur les dernières avancées dans les domaines de la data science & l’IA, mais aussi sur les acteurs du marché afin d’évaluer leur intérêt potentiel · Adopter une posture de conseil envers les différentes directions, afin de les accompagner dans l’usage de la data et de l’IA pour répondre à leurs problématiques · Collaborer avec le management afin de structurer et planifier la roadmap de l’équipe ainsi que le staffing des projets · Contribuer activement au rayonnement des travaux de l’équipe via des présentations didactiques ou des formations, pour un public large comme d’experts
Mission freelance
Développeur Backend Golang
Rejoignez une équipe tech d’élite et façonnez l’avenir d’un réseau social en pleine ascension ! 🚀 Qui sont ils ? Je recrute pour une startup en pleine croissance qui révolutionne la manière dont les gens interagissent sur les réseaux sociaux. Leur mission ? Encourager l’authenticité et les connexions sincères. Aujourd’hui, ils comptent plus de 40 millions d’utilisateurs actifs mensuels et une équipe internationale de 30+ passionnés . Ils ont pour ambition de devenir un acteur incontournable du social media, utilisé par des centaines de millions de personnes à travers le monde. 🎯 Votre mission: Ils ont bâti notre produit avec une petite équipe d’ingénieurs ultra-talentueux , et ils comptent bien garder cette approche agile tout en passant à l’échelle. Ici, pas de bureaucratie : vous aurez une grande autonomie pour prendre des décisions et livrer des fonctionnalités innovantes plus vite que n’importe quel autre réseau social . Relevez des défis techniques uniques : des millions d’utilisateurs se connectent en seulement 2 minutes , un vrai challenge d’architecture et de scalabilité. Construisez une infrastructure robuste et performante capable de supporter une croissance massive. Collaborez étroitement avec les équipes produit et tech pour imaginer et développer de nouvelles fonctionnalités . Participez aux décisions techniques clés : trade-offs, architecture, performance, résilience. Apportez votre expertise en revue de code et en conception . 🔥 stack technique: 💾 Backend : Go 🖥️ Infrastructure : GCP, Kubernetes, Pub/Sub, GitHub Actions, ArgoCD 🗄️ Base de données : Spanner, PostgreSQL, Redis 💡 Le profil que nous recherchons : ✅ 5+ ans d’expérience sur des API en architecture distribuée ✅ Maîtrise de Go et expérience confirmée sur des microservices à fort volume ✅ Autonomie, sens de l’initiative et goût pour les défis techniques ✅ Expérience en startup ou environnement tech exigeant ✅ Anglais et français courants (notre équipe est internationale) ✅ Master en informatique ou domaine connexe ⚡ Pourquoi nous rejoindre ? 🔥 Un impact direct : chaque ligne de code que vous écrivez améliore l’expérience de millions d’utilisateurs. 🚀 Un challenge technique unique : travailler sur une plateforme avec des pics de charge impressionnants. 👩💻 Une équipe d’experts : travaillez avec des ingénieurs brillants et passionnés. 🌍 Un projet à dimension internationale : une croissance rapide, des opportunités infinies. 🎯 Un environnement agile et innovant : zéro lourdeur, place à l’efficacité et à la créativité. 📅 Disponibilité : ASAP 🎯 Vous croyez en notre vision et avez envie d’un vrai challenge ? Vous êtes au bon endroit. 📩 Prêt à relever le défi ? Postulez dès maintenant !

Mission freelance
Data analyste (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data analyste (H/F) à Lille, France. Contexte : Après une période de cadrage et de validation, nous sommes aujourd’hui dans la phase de décommissionnement et de migration Les rapports (ainsi que les univers) identifiés comme étant à migrer sous Looker sont migrés automatiquement via un partenaire, avant d’être enrichis/complétés, validés et mis à disposition pour les utilisateurs de chaque BU. Les missions attendues par le Data analyste (H/F) : C’est dans ce cadre que nous recherchons un Data Analyste qui sera en charge de : - Accompagnement technique de la migration - Mise en production des livrables validés - Tests intermédiaires des livrables - Analyse du niveau 1 des Bugs remontés Création des univers / explores Looker pour la Self BI - Soit à partir d’éléments migrés automatiquement - Soit une création complète des couches sémantiques Connaissance techniques : Looker(LookML) , SQL, Python, GIT

Offre d'emploi
Ingénieur MLOPS GCP/Vertex IA
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Ingenieur MLOPS sur GCP/Vertex IA Tâches: Conception jusqu’à la mise en production en prenant en charge les aspects techniques permettant d’obtenir un processus industriel depuis l’apprentissage d’un modèle IA jusqu’à la mise en production du modèle. Mise en en œuvre des technologies Devops et Mlops pour construire les livrables de façon sécurisée et le plus automatique possible. Réalisation des chaînes CICD et MLOPS. Construction des tableaux de bord avec des KPI adaptés pour permettre le monitoring de la solution IA en production. Si vous êtes actuellement à l'écoute du marché, je vous invite à m'envoyer votre candidature. Bien à vous, Nadia
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.