Trouvez votre prochaine offre d’emploi ou de mission freelance BigQuery à Paris

Votre recherche renvoie 21 résultats.
Suivant
1
Freelance

Développeur I.A - LLM - RAG - Vertex AI -Python - Node.JS - GraphQL - React.JS - BigQuery

YGL consulting

Le département Data IA (DaIA) développe et opère une plateforme d’IA visant à fournir des solutions avancées aux différents métiers du groupe. Pour renforcer notre squad technique, nous recherchons un Développeur Full Stack (Front/Back) afin de concevoir, développer et déployer des solutions robustes et scalables d’IA générative. Responsabilités : Développement de nouvelles interfaces et amélioration du Frontend l’existant Développement API Backend et modèle de données Mise en place des pipelines de test et MCO associés Intégration de services API externes (RAG, prompt library, ...) Développement et gestion des APIs pour l’exposition des services IA Documentation et partage des bonnes pratiques avec l’équipe Compétences requises : Expérience en développement Python (FastAPI, DTO, Langchain): EXPERT Expérience en developpement front (typescript, React, Node.js ) : EXPERT Expertise des infrastructures cloud Google Cloud Platform (Cloud Run, Cloud Functions, Vertex AI) : CONFIRME Expertise DevOps (GitLab CI/CD) : CONFIRME Expérience en développement et déploiement d’APIs REST et GraphQL. : EXPERT Connaissance des bases de données relationnelles (BigQuery, PostgreSQL) et NoSQL : CONFIRME Maîtrise des outils d’orchestration et de conteneurisation (Docker, Kubernetes) : CONFIRME Expérience en Infrastructure as Code (Terraform, Cloud Build) : CONFIRME Connaissance des architectures RAG et orchestration LLM : CONFIRME Capacité à travailler en Agile/Scrum et à collaborer efficacement avec les équipes produit et DevOps : EXPERT Livrables attendus : Développement de nouvelles interfaces et fonctionnalités applicatives. Mise en place des tests associés. Mise en place de correctifs sur la plateforme d’IA générative. Documentation technique et partage des connaissances avec l’équipe. Rapports d’analyse des performances des services et des recommandations d’amélioration

Démarrage Dès que possible
Durée 12 mois
TJM 550-600 €⁄j
Lieu Paris, France
CDI

Business Analyst DATA

VISIAN

Contexte / Objectifs : Dans le cadre de différents projets dont le cadrage est à venir et où l'équipe est en mise en œuvre (PassAlm, DW Opérations, OTARIE) Description : • Pilotage de l’alignement du système d’information du métier sur les orientations stratégiques et sur les processus métiers • Proposition des scénarios d’évolution du système d’information cohérents avec les objectifs et les processus définis • Contribution à l’optimisation des processus métiers, des données, des applications et des systèmes associés (détection d’opportunités…) • Pilotage de la performance, notamment économique du SI • Mise à disposition de la cartographie du système d’information comme un outil d’aide à la décision et au pilotage de la performance • Anticipation des changements et de leurs impacts métiers sur le SI, et réciproquement • Gestion du budget d'informatisation de son domaine • Participation à l'administration du système d’information en termes de référentiels, règles, démarches, méthodologies, objets métier, et outils • Évaluation de la cohérence unitaire et globale (portefeuille) des projets par rapport au système d’information (existant/cible) • Consolidation des écarts en termes de délais, de coûts ou de qualité • Capitalisation de l’ensemble des connaissances sur le système d’information du métier • Mise en oeuvre de la qualité de la conduite de projet • Gestion de la cartographie des compétences nécessaires à l’évolution du SI • Apporter ponctuellement une expertise sur : des projets/activités à fortes spécificités Techniques,une connaissance spécifique du paramétrage technico-fonctionnel du produit/outil, des missions de conseil, audit, et/ou études spécifiques • Assistance de l'équipe maîtrise d'ouvrage projet dans ses activités, participation à l'animation et à la gestion de toutes les phases du projet de fabrication de la solution • Collecter et prioriser les exigences métier. S'assurer en recette MOA que la solution proposée couvre le périmètre et les exigences métier définies • Contribuer à la collecte, la formalisation et la priorisation des exigences métier et des cas d'utilisation. • Contribuer à la définition des scenarii de test métier et anime la recette MOA. • Contribuer à la définition des indicateurs d'appropriation de l'outil. • Contribuer à l'analyse de l'existant, à la modélisation des processus métiers cible et aux travaux d'accompagnement au changement métier. • Contribuer au pilotage et à l'animation des activités maîtrise d'ouvrage du projet.

Démarrage Dès que possible
Salaire 45k-55k €⁄an
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

Product Owner- Release Manager/ TT A VOIR AVEC LE CLIENT

SKILL EXPERT

Descriptif de la mission Notre client recherche un Product owner (60%) / Release Manager (40%) afin d'intégrer ses équipes. Lors de cette mission votre collaborateur devra effectuer les tâches suivantes: • Gestion de la Backlog : Prendre en charge la backlog autour de la Dataplatform sur GCP Big Query, en veillant à ce qu'elle soit bien organisée, priorisée et alignée sur les objectifs de l'entreprise et les besoins des métiers • Organisation du delivery : Planifier le delivery lors du PI planning en veillant à ce que l'équipe se concentre sur la livraison de fonctionnalités et d'améliorations à forte valeur ajoutée • Rédaction des User Stories : Rédiger des user stories claires et concises, des critères d'acceptance et des spécifications techniques pour guider l'équipe de développement dans la livraison de solutions de qualité • Amélioration continue : Piloter le plan d’amélioration des performances de la Dataplatform, de la qualité de des programmes, de la stratégie de test et de réduction des couts • Release management : Piloter les Releases de l’ensemble des équipes du département Data&BI Les compétences attendues sont les suivantes: - Bonne connaissance de Big Query (Google Cloud Platform) et du concept de Dataplatform - Expérience en SQL, modélisation de données et intégration de données - Expérience autour de Power BI souhaitée - Expérience en environnements Agile/Scrum, avec une solide compréhension des principes et pratiques Agile - Rigueur et bonne communication et faisant preuve de leadership pour guider et motiver l'équipe Mission renouvelable. Environnement technique de la prestation Big Query / GCP, SQL, Power BI

Démarrage Dès que possible
Durée 63 jours
TJM 400-500 €⁄j
Lieu Paris, France
Freelance

System Architect Data

Tenth Revolution Group

Objecrif de la mission : Vous êtes en charge de la conception et de la mise en œuvre d'une partie du patrimoine d'assets Data & BI (basés sur la Data Platform sur BigQuery) de l'organisation avec un souci d'évolutivité et de performance. Ces assets sont centrés sur les business domains de la Supply Chain et du Développement/Marketing Produit. Une connaissance des problématiques de ces domaines fonctionnels (lead time, prévisions de vente, planification de la distribution, kpis associés, ...) est un facteur déterminant.

Démarrage Dès que possible
Durée 12 mois
TJM 400-550 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

Data Analyst

Tenth Revolution Group

Je recherche un Data Analyst Freelance pour accompagner une entreprise en pleine croissance dans l’analyse et l’optimisation de ses données. La mission est à pourvoir dès que possible avec une présence requise de 4 jours par semaine sur site à Paris Intra-Muros . Exploiter et analyser les données pour fournir des insights actionnables sur la monétisation et l’engagement des utilisateurs. Utiliser Amplitude Analytics pour suivre le comportement des utilisateurs et identifier des leviers d’optimisation. Manipuler SQL pour extraire, transformer et analyser des données volumineuses. Concevoir et maintenir des tableaux de bord interactifs avec Tableau pour faciliter la prise de décision. Collaborer avec les équipes produit, marketing et data pour répondre aux problématiques business. Assurer la qualité et la fiabilité des données en appliquant des bonnes pratiques analytiques.

Démarrage Dès que possible
Durée 12 mois
TJM 600-700 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance
CDI

Data Steward confirmé (HF) anglais obligatoire

SMARTPOINT

We are looking for a Data Steward (F/M) to manage the data flow, continuity, and quality across our healthcare professional web portal and integrated systems including CRM, Digital Asset Manager, and Google Analytics. The ideal candidate will ensure end-to-end seamless data integration and maintain high data quality standards critical to our operations. Responsibilities : Monitor and maintain data flows between our web portal and connected systems Implement and enforce data quality controls and validation procedures across integrated platforms Identify and resolve data discrepancies, duplications, and integrity issues Document data structures, mappings, and dependencies across systems Collaborate with Data Office and development teams to troubleshoot integration issues Maintain data dictionaries and metadata repositories Develop and execute data quality metrics and reporting Technical Requirements : Ensure proper data mapping and transformation between systems Conduct regular data quality audits and cleansing operations Assist in designing data validation rules and exception handling processes Monitor system integrations for data continuity and completeness Pour l'un de nos clients dans le secteur de la santé. pharmaceutique, nous recherchons un Data Steward (HF) afin de gérer le flux, la continuité et la qualité des données sur un portail web dédié aux professionnels de santé et les systèmes intégrés, notamment le CRM , le Digital Asset Manager et Google Analytics . Le candidat idéal garantira une intégration des données fluide et de bout en bout tout en maintenant des normes de qualité de données élevées, essentielles à nos opérations. Activité : - Surveiller et maintenir les flux de données entre le portail web et les systèmes connectés. - Mettre en œuvre et appliquer des contrôles de qualité des données ainsi que des procédures de validation sur les plateformes intégrées. - Identifier et résoudre les écarts de données, les doublons et les problèmes d'intégrité. - Documenter les structures de données, les mappings et les dépendances entre les systèmes. - Collaborer avec le Data Office et les équipes de développement pour résoudre les problèmes d'intégration. - Maintenir des dictionnaires de données et des référentiels de métadonnées. - Développer et exécuter des indicateurs de qualité de données ainsi que des rapports de suivi.

Démarrage Dès que possible
Durée 6 mois
Salaire 60k-70k €⁄an
TJM 500-550 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

Ingénieur infrastructure et d’exploitation de la plateforme Data

KEONI CONSULTING

Contexte : La mission concerne la réalisation d’une prestation d’ingénierie d’infrastructure et d’exploitation de la plateforme Data et plus précisément d’une prestation d’expertise cloud et de construction et automatisation des infrastructures Cloud (publiques et privées) en lien avec les équipes de la Direction Data. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. MISSIONS Le candidat participera au(x)/à : - BUILD des services - l’analyse des besoins liés à l’hébergement des développements - l’adaptation de l’industrialisation des infrastructures pour les changements - la planification et exécution des changements, - RUN des services et l’exploitation quotidienne - la remontée d’alarmes - diagnostic - l’analyse des incidents - interventions sur incidents - la documentation Le prestataire sera la référence technique auprès des acteurs projets : - Ingénieurs d’exploitation - Développeurs - PO/PM - Prestataires externes - Maitrise de l’anglais technique (lu/écrit) - Veille technologique

Démarrage Dès que possible
Durée 12 mois
TJM 100-600 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
CDI

Data engineer GCP

KOMEET TECHNOLOGIES

Missions principales : Concevoir, développer et maintenir des pipelines de données robustes et scalables sur GCP. Collecter, transformer et charger des données depuis diverses sources (Oracle, Postgres, MySQL, fichiers plats, API) vers BigQuery . Mettre en place des contrôles de qualité des données , notamment pour les cas d’usage liés à l’achat-revente. Réaliser la modélisation des données dans BigQuery (SQL avancé). Orchestrer les workflows avec Cloud Composer (Airflow) . Assurer une bonne gestion des accès et de la sécurité (IAM / BigQuery). Participer à la mise en place et au maintien de la chaîne CI/CD sur GitLab . Environnement technique : Langages : Python, SQL Cloud : Google Cloud Platform (BigQuery, Cloud Storage, Cloud Composer) Orchestration : Airflow (via Cloud Composer) Sources de données : Oracle, PostgreSQL, MySQL, fichiers plats, API CI/CD : GitLab Sécurité & IAM : Gestion fine des accès, bonnes pratiques sur BigQuery

Démarrage Dès que possible
Salaire 40k-65k €⁄an
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

Mission Freelance – Expert DataOps – Secteur du Luxe (H/F)

EASY PARTNER

Contexte : Nous recherchons un Expert DataOps pour accompagner un acteur emblématique du secteur du luxe dans la construction de son socle data. Vous rejoindrez une équipe à taille humaine composée de 5 experts techniques, dans un environnement prestigieux, exigeant et stimulant. Mission longue durée avec démarrage immédiat. Vos missions : Encadrer et suivre les projets data en lien avec les équipes internes. Implémenter, optimiser et automatiser la plateforme Data. Accompagner les équipes dans la prise en main des outils DataOps. Participer à la définition des architectures cloud et des standards internes. Exécuter et maintenir les pipelines de données (data modeling, fiabilité des flux). Stack technique : Obligatoires : Python, SQL, DBT, Snowflake. Également utilisés : Apache Airflow, BigQuery, CI/CD, GCP, AWS.

Démarrage Dès que possible
Durée 5 mois
TJM 400-550 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

Développeur Full-Stack - IA Générative - H/F

Sapiens Group

En tant que Développeur Full-Stack, vous interviendrez sur l’ensemble de la chaîne applicative : Développement front-end (nouveaux écrans + refonte de l’existant) Développement back-end (API FastAPI, gestion des modèles de données) Mise en place de pipelines de tests et du MCO Intégration de services externes IA (RAG, prompt library…) Conception et exposition des APIs IA internes (REST & GraphQL) Contribution à la documentation, à l’industrialisation et au partage de bonnes pratiques Livrables attendus Interfaces utilisateurs modernes & fonctionnelles APIs stables, documentées et maintenables Pipelines de tests automatisés et suivis de qualité Correctifs et évolutions de la plateforme d’IA générative Documentation technique + recommandations de performances

Démarrage Dès que possible
Durée 3 ans
TJM 500-600 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

Data Engineer GCP / Talend

Onetribe SAS

Analyser les besoins métiers et comprendre les impacts business des données afin de réaliser une conception pertinente et alignée avec les objectifs stratégiques. • Concevoir et développer des pipelines de données robustes et scalables en utilisant Talend et les services de Google Cloud Platform (BigQuery, DataForm, Dataflow, Pub/Sub, CloudComposer). Vous serez au cœur de la construction d’une infrastructure de données moderne et performante. • Améliorer la performance et la scalabilité des solutions existantes pour répondre aux besoins stratégiques du client • Collaborer étroitement avec les architectes, PO et Data Analyst pour garantir la qualité et l’exploitation optimale des données. • Maintenir une documentation technique précise et complète sur les processus et les solutions implémentés. • Réaliser la recette technique et participer à animer la recette fonctionnelle avec les utilisateurs et le PO • Mettre en place et gérer des systèmes de monitoring et d’alerting pour assurer une supervision proactive des pipelines et systèmes de données, garantissant leur fiabilité et leur disponibilité. • Support au déploiement • Assurer la maintenance corrective ou évolutive • S’assurer de la cohérence des livrables avec les règles et bonnes pratiques prédéfinies

Démarrage Dès que possible
Durée 1 an
TJM 500-600 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance
CDI

Expert sécurité GCP

Ewolve

En tant qu'Architecte GCP Réseaux & Sécurité, vous serez en charge de la conception, de l’optimisation et de la sécurisation des architectures cloud de notre client bancaire. Vous travaillerez étroitement avec les équipes de développement et d’exploitation pour garantir que les solutions mises en place sont scalables, sécurisées et performantes. Votre rôle inclura également la gestion de projets d’infrastructure cloud, en intégrant des services PaaS et des solutions de sécurité adaptées aux besoins spécifiques du secteur bancaire. Missions principales : Concevoir des architectures réseaux complexes sur GCP pour répondre aux besoins spécifiques du client. Mettre en place des solutions sécurisées sur GCP en intégrant les meilleures pratiques de sécurité, notamment en matière de confidentialité des données et de conformité aux régulations bancaires. Assurer la gestion et l’optimisation des services managés cloud et des PaaS (par exemple, Google Kubernetes Engine, Cloud Pub/Sub, BigQuery, etc.). Collaborer avec les équipes de développement pour intégrer des applications dans l’environnement cloud, en veillant à la sécurité et à la performance des services déployés. Effectuer une veille technologique pour rester à jour sur les nouveautés GCP et les tendances en matière de réseaux et de sécurité dans le cloud. Assurer la documentation technique des architectures mises en place et des processus opérationnels associés.

Démarrage Dès que possible
Durée 2 ans
Salaire 45k-55k €⁄an
TJM 550-680 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance
CDI

DataOps GCP / AWS - Datalake - TERRAFORM - SPARK - AIRFLOW - BIGQUERY - LINUX

TOP TECH

La prestation concerne la réalisation d’une prestation d’ingénierie d’infrastructure et d’exploitation de la plateforme Data, et plus précisément d’une prestation d’expertise cloud et de construction et automatisation des infrastructures Cloud (publiques et privées) en lien avec les équipes de la Direction Data. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Le prestataire participera au(x)/à : - BUILD des services - l’analyse des besoins liés à l’hébergement des développements - l’adaptation de l’industrialisation des infrastructures pour les changements - la planification et exécution des changements, - RUN des services et l’exploitation quotidienne - la remontée d’alarmes - diagnostic - l’analyse des incidents - intervention sur incidents - la documentation

Démarrage Dès que possible
Durée 12 mois
Salaire 45k-55k €⁄an
TJM 500-700 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

INGENIEUR DATA BI - GENIO

PROPULSE IT

INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS

Démarrage Dès que possible
Durée 24 mois
TJM 250-500 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Freelance

Dev Python TypeScript IAGen plateforme média

ALXDR Software Engineering

Nous recherchons une prestation de développement fullstack Python TypeScript React Node, plateforme IA générative Data avec expérience souhaitée dans le secteur média. Python FastAPI, DTO, Langchain TypeScript, React, Node.js Google Cloud Platform (Cloud Run, Cloud Functions, Vertex AI) DevOps GitLab CI/CD APIs REST et GraphQL BDD relationnelles BigQuery, PostgreSQL, NoSQL Docker, Kubernetes, IaaC Terraform, Cloud Build RAG et orchestration LLM Agile/Scrum et collaboration avec les équipes produit et DevOps

Démarrage
Durée 12 mois
Télétravail Télétravail partiel
Lieu Paris, France
Freelance
CDI

Développeur Full Stack Python/TypeScript XP Média

OCSI

🚀 Votre mission : Concevoir, développer et déployer des solutions robustes et scalables d’IA générative Vous êtes passionné par l’IA générative et les technologies de pointe ? Rejoignez une équipe engagée dans la conception d’une plateforme innovante, performante et évolutive. En tant que Développeur Full Stack senior , vous interviendrez sur l’ensemble de la chaîne de valeur du développement logiciel : du front à l’infrastructure cloud, en passant par les APIs IA. 🧩 Vos responsabilités Concevoir et développer de nouvelles interfaces utilisateur performantes et accessibles Améliorer les interfaces existantes (frontend React / TypeScript) Développer et maintenir des APIs Backend (FastAPI, GraphQL, Langchain) Intégrer des services IA externes (RAG, prompt libraries, etc.) Concevoir et faire évoluer le modèle de données (PostgreSQL, BigQuery, NoSQL) Implémenter des pipelines CI/CD (GitLab) pour les tests et le MCO Documenter vos développements et partager les bonnes pratiques au sein de l’équipe Participer activement aux cérémonies Agile (Scrum) et aux échanges avec les équipes produit & DevOps

Démarrage Dès que possible
Durée 1 an
Salaire 40k-55k €⁄an
TJM 400-600 €⁄j
Télétravail Télétravail partiel
Lieu Paris, France
Suivant
1

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous