Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 299 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Data engineer - GCP BigQuery Spark Scala

NEXORIS
Publiée le
BigQuery
Scala

12 mois
600-630 €
Paris, France

Notre client bancaire recherche un Data engineer - GCP BigQuery Spark Scala (H/F) pour renforcer l'équipe au sein de laquelle preste déjà un consultant de NEXORIS. Récupérer, traiter et mettre à disposition des agrégats de données via un datalake en utilisant des technologies et pratiques modernes de gestion de données. Tâches et activités de la mission - Récupérer les données issues de sources externes - Utiliser la puissance du datalake pour le traitement des données - Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels - Mettre en œuvre la chaîne d'ingestion, validation, croisement et déversement des données dans le datalake - Développer en respectant les règles d’architecture définies - Développer et documenter les user stories avec l’assistance du Product Owner - Produire les scripts de déploiement - Prioriser les corrections des anomalies - Assister les équipes d’exploitation - Participer à la mise en œuvre de la chaîne de delivery continue - Automatiser les tests fonctionnels Livrables - Agrégats de données journaliers, hebdomadaires et mensuels - Scripts de déploiement - Documentation des user stories

Freelance

Mission freelance
Architecte BigQuery

CAT-AMANIA
Publiée le
BigQuery
Docker
Google Cloud Platform

2 ans
420-870 €
Niort, Nouvelle-Aquitaine

Notre client du monde de l'assurance recherche un Architecte autour de GCP - BigQuery. Rattaché à la Direction Data de ce client, vous intervenez au sein d'une équipe pluri-disciplinaire. - Concevoir et mettre en oeuvre des architectures cloud sur Google Cloud Platform (GCP) en tenant compte des meilleures pratiques et des exigences spécifiques des clients. - Participer à la conception et à la mise en oeuvre de landing zones pour les environnements cloud. - Collaborer avec les équipes de développement pour concevoir et mettre en oeuvre des applications dans un environnement GCP. - Assurer la gestion de projet et la coordination des activités techniques liées à la conception et à la mise en oeuvre des solutions cloud. - Fournir une expertise technique et des conseils aux clients sur les solutions cloud, en mettant en avant les avantages et les meilleures pratiques de GCP. - Participer à l'évaluation et à l'intégration de nouvelles technologies cloud, y compris Terraform, Azure et AWS.

CDI

Offre d'emploi
Administrateur base de données Snowflake ou BigQuery H/F

HAYS MEDIAS
Publiée le

50k-60k €
Strasbourg, Grand Est

Les missions pour le poste sont les suivantes :L'administration courante de MAJ et patching des plateformes Snowflake et BigQuery, Assurer la résolution des incidents (pas de niveaux), Réaliser le MCO des plateformes et les sauvegardes spécifiques, Intégrer les données et les sécuriser, Faire évoluer les plateformes en fonction des besoins et des métiers, Optimiser les performances des plateformes, Documenter les évolutions et incidents.

Freelance

Mission freelance
Data Analytics Engineer Python BigQuery Looker (Maghreb)

skiils
Publiée le
BigQuery
Google Cloud Platform
Python

4 ans
100-310 €
Maroc

Dans le cadre de la mise en œuvre du programme de valorisation de la donnée, le prestataire conçoit, implémente et livre les nouvelles fonctionnalités de stockage, de traitement et de visualisation de données intégrées aux produits de notre client qui soient robustes, sécurisées, évolutives, hautement disponibles et dynamiques. ACTIVITÉS PRINCIPALES Concevoir, développer, opérationnaliser, sécuriser et surveiller des systèmes de stockage, de traitement et de visualisation de données Développer et opérationnaliser des systèmes de stockage, de traitement et de visualisation de données Développer une compréhension fine et approfondie des domaines métiers et des modèles de données.

Freelance

Mission freelance
Data Engineer

Enterprise Digital Resources Ltd
Publiée le
BigQuery
Data visualisation
Google Cloud Platform

6 mois
100-390 €
Hauts-de-France, France

Développer les produits du domaine de l'offre (consolidation de données de multiples sources, requêtage et optimisation, algo de recommandation). En lien avec notre référent Data Engineering du domaine, le candidat devra se charger des diverses activités listées ci-dessus. SA MISSION : Est garant de l'accès qualitatif aux sources de données. S'assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d'en faciliter l'exploitation par les équipes (Data Analysts et Data Scientists). Contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT, Assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons, ).

CDI

Offre d'emploi
Consultant BI (H/F)

KUBE Partners S.L. / Pixie Services
Publiée le
Apache Airflow
AWS Cloud
BigQuery

40k-50k €
Lille, Hauts-de-France

💼 Missions pour le Consultant BI : Développement et optimisation : Concevoir et déployer des solutions BI en utilisant Tableau, Power BI, SQL , Python, et plus, pour répondre aux besoins des clients. Analyse de données : Utiliser AWS, DBT, Databricks, GCP ( BigQuery ), pour l'analyse et la transformation des données. Automatisation des processus : Mettre en place des pipelines de données automatisés avec Docker, Airflow, et Git. Surveillance et optimisation : Utiliser Datadog, Looker, SAP BO, Cognos , pour surveiller les performances et optimiser les systèmes. Expertise technique : Fournir des conseils d'expert sur SQL Server, Cubes , SSIS, SSRS, SSAS , pour améliorer les processus et les performances.

CDI
Freelance

Offre d'emploi
Développeur(euse) Talend - H/F- Poitiers

K-Lagan
Publiée le
Data analysis
ETL (Extract-transform-load)
Talend

2 ans
10k-43k €
Poitiers, Nouvelle-Aquitaine

Chez K-LAGAN, nous parions sur vous ! 🚀 🔊 Vous êtes à la recherche d'un projet stable et durable ? Vous cherchez à vous épanouir professionnellement jour après jour ? N'hésitez pas à rejoindre notre équipe ! Vous êtes intéressé ? Alors, je vous laisse l’opportunité d’en lire plus... Responsabilités: · Développement et maintenance des jobs Talend. · Developpement des processus ETL. · Optimisation des performances. · Intégration de sources de données. · Assurance qualité des données. · Collaboration avec les équipes métier. · Maintenance et amélioration continue. · Documentation technique. · Support et dépannage aux utilisateurs finaux. 😉 Conditions : 📝 CDI, ASAP. 📍 Poitiers (France). 💰 Rémunération et conditions très intéressantes, selon profil. 🚀 Projet et missions au sein d'une équipe et société en évolution. 🎓 Formations et suivi de carrières. 💻 Hybride 3 jours au bureau - 2 jours à distance. Rejoignez notre équipe ! Chez K-LAGAN, l'égalité des chances fait partie de nos valeurs. Cela vous semble intéressant ? Postulez ! 📩 GROWING UP WITH YOU 🦾🤖🦿

Freelance
CDI

Offre d'emploi
Data Analyst / Business analyst Datat junior à confirmé

Digistrat consulting
Publiée le
Data analysis

36 mois
10k-200k €
Paris, France

💡 Contexte /Objectifs : Ll s'agira de contribuer à divers projets de la filière Finance, en renforcement des personnes actuellement en charge de piloter ces sujets dans l'équipe. • Déclaration de nouveaux indicateurs environnementaux, sociaux et de gouvernance (ESG). Pour l'IT Finance il s'agit plus particulièrement d'apporter au métier Finance des solutions pour construire un Datamart Transactionnel ESG en s'arrimant aux Golden Sources du Datalake. • Maintenance évolutive sur les modules Datalake Coût du Risque, Intragroupe ou Effets Ifrs9. La personne aura en charge: De récupérer les besoins auprès des métiers et de les valider De rédiger les spécifications fonctionnelles en cohérence avec le modèle de données du datalake et des golden sources disponibles. De participer aux tests conjointement avec l’IT et d’accompagner le métier dans ses recettes. De participer aux comités de suivi du projet (CSO, revue des Jiras du Sprint, etc…) 🤝 Expertises spécifiques : Expériences business analyst sur des projets en environnement bancaire autour de la data et problématiques associées (détermination des golden sources, appropriation des modèles de données) : exigé Connaissance des outils de BI comme EasyMorph, PowerBi, Tableau, requêtage SQL: exigé Maitrise de l'anglais écrit (reporting en anglais) et parlé : exigé Compétences génériques recherchées travail en équipe / capacité d'analyse / réactivité / force de proposition / organisation et rigueur : exigé Connaissances des architectures Systèmes d'Information bancaires : souhaité Connaissance de la méthode agile Scrum : souhaité (expérience sur un projet serait un plus) Connaissances fonctionnelles des produits de marché & de financement: serait un plus. Connaissance de la comptabilité bancaire : serait un plus

Freelance

Mission freelance
data analyst anglais

Innov and Co
Publiée le
Data analysis

12 mois
100-490 €
Paris, France

210 jours max par an Compétences requises: • Expériences business analyst sur des projets en environnement bancaire autour de la data et problématiques associées (détermination des golden sources, appropriation des modèles de données) : exigé • Connaissance des outils de BI comme EasyMorph, PowerBi, Tableau, requêtage SQL: exigé • Maitrise de l'anglais écrit (reporting en anglais) et parlé : exigé • Compétences génériques recherchées travail en équipe / capacité d'analyse / réactivité / force de proposition / organisation et rigueur : exigé • Connaissances des architectures Systèmes d'Information bancaires : souhaité • Connaissance de la méthode agile Scrum : souhaité (expérience sur un projet serait un plus) • Connaissances fonctionnelles des produits de marché & de financement: serait un plus. • Connaissance de la comptabilité bancaire : serait un plus

CDI
Freelance

Offre d'emploi
Data Analyst (h/f)

SCALIAN
Publiée le
AWS Cloud
BI
Data analysis

12 mois
60k-65k €
Paris, France

Contexte Le Groupe est un leader européen de la connaissance juridique et fiscale qui place la Data au cœur de sa transformation digitale. Au travers de marques de renom, l’entreprise combine des expertises dans les domaines de l’édition, de la formation et du logiciel. La DSI France (200+ collaborateurs) recherche pour son équipe Data Factory un(e) Data Analyst. La Data Factory est composée d’environ 15 personnes expertes de la Donnée qui travaillent dans le Cloud Amazon Web Services à la construction d’un Socle d’Entreprise (Datalake – Data Warehouse – Data Lab) et à l’industrialisation des principaux indicateurs de pilotage (BI) en datavisualisation (Qliksense). L’équipe Data Factory travaille également en lien étroit avec le Data Office (Data Gouvernance, Data Science, Data Analytics) et toutes les fonctions support de la DSI (Architecture, Sécurité, Compliance, Infra, …).

Freelance

Mission freelance
Business Analyst sénior (H/F)

Insitoo Freelances
Publiée le
Data analysis

2 ans
400-480 €
Lyon, Auvergne-Rhône-Alpes

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Business Analyst sénior (H/F) à Lyon, Auvergne-Rhône-Alpes, France. Contexte : Fonctionnement : sur site à Lyon + Télétravail 50% Les missions attendues par le Business Analyst sénior (H/F) : Description du profil : Assure la cohérence entre la demande métier et son intégration dans le SI. Peut alimenter le backlog si nécessaire. Il recense les besoins d'informations et les sources de données exploitables selon l'horizon de temps de la décision à prendre. En proximité constante avec l'équipe de développement il sait les accompagner dans la réalisation. Il connait les données de son produit et leur exploitation par les data ingénieurs et data scientists. 5 années d'expérience sont attendues sur le rôle au minimum. Activité principale : o Garantit l’adéquation besoin/développement afin de répondre aux questions et de compléter au besoin o Prépare et anime des ateliers avec le métier et ses représentants utilisateurs o Conception et maquettage des solutions o Modélisation du processus des données o Analyse de l’impact des solutions proposées o Organise et participe aux réunions de planification de sprint o Rédige les expressions de besoins, les user-stories, les spécifications o Alimente et maintien du backlog produit o Suit des prérequis aux développement afin de répondre aux questions et de compléter, au besoin, les user-stories. o Rédige des spécifications o Pré-recette des livrables avant livraison à la cellule test o Participe à la formation des utilisateurs Activité secondaire : o Participe à l’animation des cérémonies Agiles o Relation et échange avec les équipes de conduite du changement Stack technique du projet : Excel, Jira, Confluence, SQL, Tableau/PowerBI

Freelance

Mission freelance
Data Engineer - Risque de Crédit

NEXORIS
Publiée le
Data analysis

6 mois
490-500 €
Paris, France

Notre client, un groupe bancaire, recherche un consultant techino-fonctionnel, Data engineer risque de crédit (H/F). Renforcement de l'équipe pour le projet Surveillance Crédit, axé sur la production de POC, l'analyse métier, et le développement de solutions tactiques. Tâches et activités de la mission - Contribution à la production de POC (Proof of Concept). - Réalisation d'analyses métier spécifiques au risque de crédit. - Développement de solutions tactiques pour la gestion et l'analyse de données. Livrables - POCs fonctionnels pour nouvelles initiatives. - Rapports d'analyses métier détaillés. - Solutions tactiques développées et implémentées.

Freelance
CDI

Offre d'emploi
Administrateur de la plateforme Data

Hays Medias
Publiée le
BigQuery
ETL (Extract-transform-load)
Snowflake

12 mois
10k-60k €
Strasbourg, Grand Est

Assurer la performance et la sécurité de la plateforme de données de l'entreprise, en se concentrant sur les outils et technologies tels que DataHub Semarchy Xdi, Snowflake, et BigQuery. Responsabilités principales : Gestion de la base de données : Concevoir, créer, maintenir et gérer les bases de données, y compris celles utilisant des systèmes tels que Snowflake et BigQuery. Evolution de la plateforme data : Veiller au maintien en condition opérationnelle de la plateforme. Dette technique : Identifier activement les domaines de la dette technique au sein de la plateforme de données et mettre en œuvre des plans d'action pour réduire cette dette au fil du temps. Optimisation des performances : Surveiller et optimiser les performances des bases de données, en utilisant des outils spécifiques à chaque technologie, tels que les fonctionnalités de Snowflake pour le scaling et les capacités de requête de BigQuery. Sécurité des données : Mettre en œuvre des mesures de sécurité spécifiques à chaque technologie, en utilisant les fonctionnalités de sécurité intégrées dans Snowflake et BigQuery, ainsi que des politiques de sécurité pour DataHub Semarchy Xdi. Intégration des données : Collaborer avec les équipes de développement pour intégrer les données provenant de différentes sources, en utilisant les fonctionnalités de transformation et d'intégration des données des outils de l’entreprise, ainsi que les fonctionnalités de Snowflake et BigQuery pour l'entreposage et l'analyse des données. Sauvegarde et récupération des données : Implémenter, adapter des politiques de sauvegarde des données spécifiques à chaque technologie, y compris la gestion des snapshots dans Snowflake et les fonctionnalités de sauvegarde dans BigQuery. Documentation : Maintenir une documentation complète de la structure de la base de données, des processus ETL, et des politiques de sécurité, en utilisant des outils de documentation appropriés pour chaque technologie.

Freelance

Mission freelance
Data Scientist IA Générative

NEXORIS
Publiée le
Data analysis

1 an
570-580 €
Paris, France

Notre client, secteur bancaire recherche un Data Scientist - IA Générative (H/F) dans le cadre d'un elongue mission. L'objectif est d'améliorer un POC existant et de continuer le développement du projet sur de nouveaux cas d'utilisation dans le domaine de l'IA générative. - Établir des scénarios pour anticiper des leviers métiers ou opérationnels. - Réaliser le cycle complet de valorisation de la donnée : collecte, analyse, préparation, et valorisation spécifique à la Data Science. - Appliquer des techniques d'extraction et d'analyse d'informations à partir de grands ensembles de données. - Évaluer la qualité des données, les modéliser, et vérifier leur véracité. - Analyser les résultats pour intégration dans le système d’information cible. - Traduire des problématiques métiers en problèmes mathématiques/statistiques.

Freelance

Mission freelance
Data Analyst - Data Lake

HIGHTEAM
Publiée le
Data analysis
Dataiku
SQL

3 ans
400-500 €
Île-de-France, France

Le poste se situe à la DSI métier Finance qui regroupe toutes les activités MOA et MOE sur les outils du périmètre Comptabilité, Ratios prudentiels, Liquidité, Pilotage Financier, Gestion Financière et Communication financière et plus particulièrement la personne recherchée intègrera l’équipe Inventaire Data Lake en tant que Data Analyste. Il s'agira de contribuer à divers projets de la filière Finance, en renforcement des personnes actuellement en charge de piloter ces sujets dans l'équipe. Pour l'IT Finance il s'agit plus particulièrement d'apporter au métier Finance des solutions pour construire un Datamart Transactionnel ESG en s'arrimant aux Golden Sources du Data Lake. Maintenance évolutive sur les modules Data Lake Coût du Risque, Intragroupe . De récupérer les besoins auprès des métiers et de les valider De rédiger les spécifications fonctionnelles en cohérence avec le modèle de données du data Lake et des golden sources disponibles. De participer aux tests conjointement avec l’IT et d’accompagner le métier dans ses recettes. De participer aux comités de suivi du projet (CSO, revue des Jira du Sprint, etc…)

CDI

Offre d'emploi
Data Engineer (H/F)

KUBE Partners S.L. / Pixie Services
Publiée le
Azure Data Factory
BigQuery
Google Cloud Platform

40k-50k €
Lille, Hauts-de-France

💡 Missions pour le Data Engineer : Développement et maintenance : Créer et maintenir des ETLs et des pipelines de données robustes en utilisant Talend, MS BI, Azure ( DataFactory ), GCP ( BigQuery ) , SQL, Python, Scala... Modélisation des données : Proposer des modèles de données fiables et optimisés en termes de stockage et de traitement. Automatisation : Implémenter des processus de CI/CD pour automatiser le déploiement et la gestion des infrastructures de données. Analyse et reporting : Développer des rapports et des dashboards en utilisant Looker, Power BI, Qlikview, Tableau, pour faciliter l'accès aux insights data-driven.

299 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous