Trouvez votre prochaine offre d’emploi ou de mission freelance BigQuery

Votre recherche renvoie 33 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Suivant
Freelance

Mission freelance
Data engineer - GCP BigQuery Spark Scala

NEXORIS
Publiée le
BigQuery
Scala

12 mois
600-630 €
Paris, France

Notre client bancaire recherche un Data engineer - GCP BigQuery Spark Scala (H/F) pour renforcer l'équipe au sein de laquelle preste déjà un consultant de NEXORIS. Récupérer, traiter et mettre à disposition des agrégats de données via un datalake en utilisant des technologies et pratiques modernes de gestion de données. Tâches et activités de la mission - Récupérer les données issues de sources externes - Utiliser la puissance du datalake pour le traitement des données - Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels - Mettre en œuvre la chaîne d'ingestion, validation, croisement et déversement des données dans le datalake - Développer en respectant les règles d’architecture définies - Développer et documenter les user stories avec l’assistance du Product Owner - Produire les scripts de déploiement - Prioriser les corrections des anomalies - Assister les équipes d’exploitation - Participer à la mise en œuvre de la chaîne de delivery continue - Automatiser les tests fonctionnels Livrables - Agrégats de données journaliers, hebdomadaires et mensuels - Scripts de déploiement - Documentation des user stories

Freelance

Mission freelance
Architecte BigQuery

CAT-AMANIA
Publiée le
BigQuery
Docker
Google Cloud Platform

2 ans
420-870 €
Niort, Nouvelle-Aquitaine

Notre client du monde de l'assurance recherche un Architecte autour de GCP - BigQuery. Rattaché à la Direction Data de ce client, vous intervenez au sein d'une équipe pluri-disciplinaire. - Concevoir et mettre en oeuvre des architectures cloud sur Google Cloud Platform (GCP) en tenant compte des meilleures pratiques et des exigences spécifiques des clients. - Participer à la conception et à la mise en oeuvre de landing zones pour les environnements cloud. - Collaborer avec les équipes de développement pour concevoir et mettre en oeuvre des applications dans un environnement GCP. - Assurer la gestion de projet et la coordination des activités techniques liées à la conception et à la mise en oeuvre des solutions cloud. - Fournir une expertise technique et des conseils aux clients sur les solutions cloud, en mettant en avant les avantages et les meilleures pratiques de GCP. - Participer à l'évaluation et à l'intégration de nouvelles technologies cloud, y compris Terraform, Azure et AWS.

CDI

Offre d'emploi
Administrateur base de données Snowflake ou BigQuery H/F

HAYS MEDIAS
Publiée le

50k-60k €
Strasbourg, Grand Est

Les missions pour le poste sont les suivantes :L'administration courante de MAJ et patching des plateformes Snowflake et BigQuery, Assurer la résolution des incidents (pas de niveaux), Réaliser le MCO des plateformes et les sauvegardes spécifiques, Intégrer les données et les sécuriser, Faire évoluer les plateformes en fonction des besoins et des métiers, Optimiser les performances des plateformes, Documenter les évolutions et incidents.

Freelance

Mission freelance
Data Analytics Engineer Python BigQuery Looker (Maghreb)

skiils
Publiée le
BigQuery
Google Cloud Platform
Python

4 ans
100-310 €
Maroc

Dans le cadre de la mise en œuvre du programme de valorisation de la donnée, le prestataire conçoit, implémente et livre les nouvelles fonctionnalités de stockage, de traitement et de visualisation de données intégrées aux produits de notre client qui soient robustes, sécurisées, évolutives, hautement disponibles et dynamiques. ACTIVITÉS PRINCIPALES Concevoir, développer, opérationnaliser, sécuriser et surveiller des systèmes de stockage, de traitement et de visualisation de données Développer et opérationnaliser des systèmes de stockage, de traitement et de visualisation de données Développer une compréhension fine et approfondie des domaines métiers et des modèles de données.

Freelance

Mission freelance
Data Engineer

Enterprise Digital Resources Ltd
Publiée le
BigQuery
Data visualisation
Google Cloud Platform

6 mois
100-390 €
Hauts-de-France, France

Développer les produits du domaine de l'offre (consolidation de données de multiples sources, requêtage et optimisation, algo de recommandation). En lien avec notre référent Data Engineering du domaine, le candidat devra se charger des diverses activités listées ci-dessus. SA MISSION : Est garant de l'accès qualitatif aux sources de données. S'assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d'en faciliter l'exploitation par les équipes (Data Analysts et Data Scientists). Contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT, Assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons, ).

CDI

Offre d'emploi
Consultant BI (H/F)

KUBE Partners S.L. / Pixie Services
Publiée le
Apache Airflow
AWS Cloud
BigQuery

40k-50k €
Lille, Hauts-de-France

💼 Missions pour le Consultant BI : Développement et optimisation : Concevoir et déployer des solutions BI en utilisant Tableau, Power BI, SQL , Python, et plus, pour répondre aux besoins des clients. Analyse de données : Utiliser AWS, DBT, Databricks, GCP ( BigQuery ), pour l'analyse et la transformation des données. Automatisation des processus : Mettre en place des pipelines de données automatisés avec Docker, Airflow, et Git. Surveillance et optimisation : Utiliser Datadog, Looker, SAP BO, Cognos , pour surveiller les performances et optimiser les systèmes. Expertise technique : Fournir des conseils d'expert sur SQL Server, Cubes , SSIS, SSRS, SSAS , pour améliorer les processus et les performances.

Freelance
CDI

Offre d'emploi
Administrateur de la plateforme Data

Hays Medias
Publiée le
BigQuery
ETL (Extract-transform-load)
Snowflake

12 mois
10k-60k €
Strasbourg, Grand Est

Assurer la performance et la sécurité de la plateforme de données de l'entreprise, en se concentrant sur les outils et technologies tels que DataHub Semarchy Xdi, Snowflake, et BigQuery. Responsabilités principales : Gestion de la base de données : Concevoir, créer, maintenir et gérer les bases de données, y compris celles utilisant des systèmes tels que Snowflake et BigQuery. Evolution de la plateforme data : Veiller au maintien en condition opérationnelle de la plateforme. Dette technique : Identifier activement les domaines de la dette technique au sein de la plateforme de données et mettre en œuvre des plans d'action pour réduire cette dette au fil du temps. Optimisation des performances : Surveiller et optimiser les performances des bases de données, en utilisant des outils spécifiques à chaque technologie, tels que les fonctionnalités de Snowflake pour le scaling et les capacités de requête de BigQuery. Sécurité des données : Mettre en œuvre des mesures de sécurité spécifiques à chaque technologie, en utilisant les fonctionnalités de sécurité intégrées dans Snowflake et BigQuery, ainsi que des politiques de sécurité pour DataHub Semarchy Xdi. Intégration des données : Collaborer avec les équipes de développement pour intégrer les données provenant de différentes sources, en utilisant les fonctionnalités de transformation et d'intégration des données des outils de l’entreprise, ainsi que les fonctionnalités de Snowflake et BigQuery pour l'entreposage et l'analyse des données. Sauvegarde et récupération des données : Implémenter, adapter des politiques de sauvegarde des données spécifiques à chaque technologie, y compris la gestion des snapshots dans Snowflake et les fonctionnalités de sauvegarde dans BigQuery. Documentation : Maintenir une documentation complète de la structure de la base de données, des processus ETL, et des politiques de sécurité, en utilisant des outils de documentation appropriés pour chaque technologie.

Freelance

Mission freelance
Proxy Product Owner Data / Reporting

HIGHTEAM
Publiée le
Azure
BigQuery
Reporting

3 ans
400-550 €
Île-de-France, France

Le domaine Data BI est en charge de l’ensemble des projets Data/Reporting et du maintien en condition opérationnelle de ces derniers pour les périmètres fonctionnels suivants : Au sein de ce domaine, le PPO est le garant de la bonne adéquation entre les besoins du métier et les systèmes d'information. Il est force de proposition, analyse et formalise les besoins utilisateurs, participe à la conception. Il suit le déploiement en accompagnant les utilisateurs dans la mise en place du projet. Le PPO Data est l’interface entre les équipes métier et la maîtrise d’œuvre chargée de la réalisation technique du projet. Tout au long de la conduite du projet, il veille au respect des coûts, des délais et de la qualité. Principales Missions : - Recueil et analyse du besoin - Rédaction des spécifications fonctionnelles détaillées / cahier des charges /user stories - Data Analyse du besoin - Coordination de la maitrise d’œuvre (Développeurs) - Tests et recette fonctionnelle - Gestion du planning et garantie le respect des délais / coûts des projets - Animation de l’équipe projet - Rédaction des documentations utilisateurs - Garant du maintien de la connaissance des données et de la base documentaire associée - Prépare et présente les comités projets - S’assure que les priorités sont respectées suivant un critère de valeur métier - S’assure de la qualité des livrables - Agilité/scrum - Peut prendre des décisions sur le périmètre du besoin métier - Est force de proposition pour répondre aux attentes des métiers

CDI

Offre d'emploi
Data Analyst (H/F)

KUBE Partners S.L. / Pixie Services
Publiée le
AWS Cloud
Azure
BigQuery

35k-45k €
Lille, Hauts-de-France

🌈 Ce que nous offrons : L'opportunité de travailler avec des ensembles de données complexes et variés, en utilisant les technologies les plus avancées. Un rôle clé au sein d'une équipe où vos analyses influencent directement les décisions stratégiques de l'entreprise. Une position basée dans la métropole lilloise , un environnement dynamique propice à l'innovation. 📊 Missions pour le Data Analyst : Analyse de données : Interpréter les données en utilisant des outils avancés tels que Tableau, Power BI, Looker, QlikView , et plus encore. Modélisation et prévision : Utiliser Python, SQL et d'autres langages de programmation pour créer des modèles prédictifs et des analyses de tendances. Gestion des données : Travailler avec des plateformes de données cloud telles que GCP ( BigQuery ), Azure, AWS , pour organiser et optimiser les ensembles de données. Collaboration et rapport : Préparer des rapports clairs et persuasifs pour les parties prenantes, en utilisant des outils comme Github, Piano, SAP . Innovation continue : Rechercher constamment de nouvelles méthodes et outils pour améliorer l'analyse de données.

CDI

Offre d'emploi
Data Engineer (H/F)

KUBE Partners S.L. / Pixie Services
Publiée le
Azure Data Factory
BigQuery
Google Cloud Platform

40k-50k €
Lille, Hauts-de-France

💡 Missions pour le Data Engineer : Développement et maintenance : Créer et maintenir des ETLs et des pipelines de données robustes en utilisant Talend, MS BI, Azure ( DataFactory ), GCP ( BigQuery ) , SQL, Python, Scala... Modélisation des données : Proposer des modèles de données fiables et optimisés en termes de stockage et de traitement. Automatisation : Implémenter des processus de CI/CD pour automatiser le déploiement et la gestion des infrastructures de données. Analyse et reporting : Développer des rapports et des dashboards en utilisant Looker, Power BI, Qlikview, Tableau, pour faciliter l'accès aux insights data-driven.

Freelance

Mission freelance
Business Analyst RPA (Robotic Process Automation)

Enterprise Digital Resources Ltd
Publiée le
AMOA
Apache Kafka
API

3 mois
100-500 €
Hauts-de-France, France

En tant qu'Analyste Métier RPA et Process Mining, vous serez responsable de l'identification, de l'analyse et de l'optimisation des processus métier de l'entreprise, en particulier avec la plateforme UiPath. Vous travaillerez en étroite collaboration avec les équipes métier, les développeurs RPA, les experts en Process Mining et les gestionnaires de projet pour concevoir, développer et déployer des solutions RPA et Process Mining efficaces qui améliorent l'efficacité opérationnelle et la productivité de l'entreprise. Responsabilités : Analyser les processus métier existants pour identifier les opportunités d'automatisation et d'optimisation. Collaborer avec les équipes métier pour comprendre leurs besoins et leurs objectifs, et traduire ces besoins en solutions RPA. Concevoir et documenter les solutions, en incluant la modélisation des processus, la conception des robots, et la création des workflows. Tester et assurer la qualité et la fiabilité des solutions. Fournir un soutien technique aux équipes métier et aux utilisateurs finaux, en répondant aux questions, en résolvant les problèmes. Collaborer avec les développeurs RPA pour intégrer les solutions automatisées avec d'autres systèmes et technologies de l'entreprise. Suivre les performances des solutions RPA déployées, en identifiant les opportunités d'amélioration continue et en proposant des ajustements et des mises à jour au besoin. Assurer une communication transparente et efficace avec toutes les parties prenantes impliquées dans les initiatives d'automatisation RPA.

Freelance

Mission freelance
CONSULTANT PLATEFORME DATA

HAYS MEDIAS
Publiée le
BigQuery
ETL (Extract-transform-load)
Snowflake

12 mois
100-440 €
Strasbourg, Grand Est

Assurer la performance et la sécurité de la plateforme de données de l'entreprise, en se concentrant sur les outils et technologies tels que DataHub Semarchy Xdi, Snowflake, et BigQuery. Gestion de la base de données Evolution de la plateforme data Dette technique Optimisation des performances Sécurité des données Intégration des données Sauvegarde et récupération des données Documentation · Compréhension des principes de la sécurité des données, y compris les aspects liés à chaque technologie. · Capacité à résoudre des problèmes techniques de manière efficace. · Bonnes compétences en communication pour collaborer avec d'autres équipes et résoudre les problèmes de manière proactive.

Freelance

Mission freelance
Data Engineer

ICSIS
Publiée le
BigQuery
PL/SQL
Python

3 ans
440-510 €
Lille, Hauts-de-France

La mission consiste à : - Exposer les données utiles à l’entreprise pour les analyser et les utiliser afin d’améliorer l’expérience utilisateur et la productivité - Transformer des données issues du DataLake afin de les normaliser - Modéliser la sphère de données - Développer les flux - Exposer des données brutes et/ou agrégées au bon niveau de granularité aux différents métiers de l’entreprise - Travailler en lien avec des Data Scientists/Analysts sur les données qu’il aura exposées - Mettre en place des rapports de Dataviz - Mission basée en métropole lilloise avec présence sur site 3j/semaine obligatoire Compétences demandées : - Formation supérieure en école d’ingénieur, école d’informatique ou Master spécialisé dans la Data Science - Première expérience en Data Engineering indispensable - GCP, BigQuery, SQL, Python, Stambia, Shell, Data Studio, Power BI, Qlikview,... - Excellents savoir-être : rigueur, esprit analytique et de synthèse, communication... - Méthode Agile - Anglais

Freelance

Mission freelance
Developpeur back

Enterprise Digital Resources Ltd
Publiée le
Agile Scrum
Apache Kafka
API

7 mois
200-430 €
Hauts-de-France, France

Le développeur va construire une brique back qui s'accostera à d'autres briques digitales via des API ou du Kafka. Elle aura sa propre BDD. L'objectif sera de déduire des données descriptives Produit sur base de rapprochement identifiés par une brique digitale tierce. Ce produit n'existe pas et sera à construire from scratch. Une dimension architecture logicielle sera donc à prendre en compte. Il devra suivre les guidelines de développement du client. Ce chantier est ambitieux, volontariste et passionnant, nous recherchons donc un développeur Back à l’image de ce challenge.

Freelance

Mission freelance
Data analyst ( H/F )

Insitoo Freelances
Publiée le
BigQuery
Microsoft Power BI
MySQL

2 ans
300-502 €
Lille, Hauts-de-France

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data analyst ( H/F ) à Lille et périphérie. Contexte : Nous recherchons dans le cadre d'accompagnement data des enjeux performance, un data analyste expert dataviz (maitrise de Power BI très avancée, représentation visuelle du storytelling , grande qualité visuelle des dashboard). Une très bonne maitrise du SQL dans un environnement GCP BQ est impérative. Les missions attendues par le Data analyst ( H/F ) : - Mise en place d'un dashboard Power BI de suivi des projets digitaux et data - Mise en place d'autres dashboards dans les domaines Performance et Finance, amélioration UI des dashboards existants, adaptation des reportings en version mobile

Freelance

Mission freelance
Administrateur de la platefofrme Data (H/F)

HAYS MEDIAS
Publiée le
BigQuery
Snowflake

3 mois
100-430 €
Grand Est, France

Dans le cadre d'un renfort, mon client recherche son futur Administrateur de la plateforme Data (H.F). Le rythme de travail est de 2 jours de télétravail par semaine. Votre principale mission : Gestion de la base de données Concevoir, créer, maintenir et gérer les bases de données y compris celles utilisant des systèmes tels que snowflake et BigQuery Evolution de la plateforme Data Veiller au maintien en condition opérationnelle de la plateforme. Dette technique Identifier activement les domaines de la dette technique au sein de la plateforme de données et mettre en œuvre des plans d'action pour réduire cette dette au fil du temps. Optimisation des performances Surveiller et optimiser les performances des bases de données, en utilisant des outils spécifiques à chaque technologie, tels que les fonctionnalités de Snowflake pour le scaling et les capacités de requête de BigQuery. Sécurité des données : Mettre en œuvre des mesures de sécurité spécifiques à chaque technologie, en utilisant les fonctionnalités de sécurité intégrées dans Snowflake et BigQuery, ainsi que des politiques de sécurité pour DataHub Semarchy Xdi Intégration des données : Collaborer avec les équipes de développement pour intégrer les données provenant de différentes sources, en utilisant les fonctionnalités de transformation et d'intégration des données des outils de l’entreprise, ainsi que les fonctionnalités de Snowflake et BigQuery pour l'entreposage et l'analyse des données.

Suivant
33 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous