Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Data engineer - GCP BigQuery Spark Scala
Notre client bancaire recherche un Data engineer - GCP BigQuery Spark Scala (H/F) pour renforcer l'équipe au sein de laquelle preste déjà un consultant de NEXORIS. Récupérer, traiter et mettre à disposition des agrégats de données via un datalake en utilisant des technologies et pratiques modernes de gestion de données. Tâches et activités de la mission - Récupérer les données issues de sources externes - Utiliser la puissance du datalake pour le traitement des données - Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels - Mettre en œuvre la chaîne d'ingestion, validation, croisement et déversement des données dans le datalake - Développer en respectant les règles d’architecture définies - Développer et documenter les user stories avec l’assistance du Product Owner - Produire les scripts de déploiement - Prioriser les corrections des anomalies - Assister les équipes d’exploitation - Participer à la mise en œuvre de la chaîne de delivery continue - Automatiser les tests fonctionnels Livrables - Agrégats de données journaliers, hebdomadaires et mensuels - Scripts de déploiement - Documentation des user stories
Mission freelance
Architecte BigQuery
Notre client du monde de l'assurance recherche un Architecte autour de GCP - BigQuery. Rattaché à la Direction Data de ce client, vous intervenez au sein d'une équipe pluri-disciplinaire. - Concevoir et mettre en oeuvre des architectures cloud sur Google Cloud Platform (GCP) en tenant compte des meilleures pratiques et des exigences spécifiques des clients. - Participer à la conception et à la mise en oeuvre de landing zones pour les environnements cloud. - Collaborer avec les équipes de développement pour concevoir et mettre en oeuvre des applications dans un environnement GCP. - Assurer la gestion de projet et la coordination des activités techniques liées à la conception et à la mise en oeuvre des solutions cloud. - Fournir une expertise technique et des conseils aux clients sur les solutions cloud, en mettant en avant les avantages et les meilleures pratiques de GCP. - Participer à l'évaluation et à l'intégration de nouvelles technologies cloud, y compris Terraform, Azure et AWS.
Offre d'emploi
Administrateur base de données Snowflake ou BigQuery H/F
Les missions pour le poste sont les suivantes :L'administration courante de MAJ et patching des plateformes Snowflake et BigQuery, Assurer la résolution des incidents (pas de niveaux), Réaliser le MCO des plateformes et les sauvegardes spécifiques, Intégrer les données et les sécuriser, Faire évoluer les plateformes en fonction des besoins et des métiers, Optimiser les performances des plateformes, Documenter les évolutions et incidents.
Mission freelance
Data Analytics Engineer Python BigQuery Looker (Maghreb)
Dans le cadre de la mise en œuvre du programme de valorisation de la donnée, le prestataire conçoit, implémente et livre les nouvelles fonctionnalités de stockage, de traitement et de visualisation de données intégrées aux produits de notre client qui soient robustes, sécurisées, évolutives, hautement disponibles et dynamiques. ACTIVITÉS PRINCIPALES Concevoir, développer, opérationnaliser, sécuriser et surveiller des systèmes de stockage, de traitement et de visualisation de données Développer et opérationnaliser des systèmes de stockage, de traitement et de visualisation de données Développer une compréhension fine et approfondie des domaines métiers et des modèles de données.
Mission freelance
Data Engineer
Développer les produits du domaine de l'offre (consolidation de données de multiples sources, requêtage et optimisation, algo de recommandation). En lien avec notre référent Data Engineering du domaine, le candidat devra se charger des diverses activités listées ci-dessus. SA MISSION : Est garant de l'accès qualitatif aux sources de données. S'assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d'en faciliter l'exploitation par les équipes (Data Analysts et Data Scientists). Contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT, Assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons, ).
Offre d'emploi
Consultant BI (H/F)
💼 Missions pour le Consultant BI : Développement et optimisation : Concevoir et déployer des solutions BI en utilisant Tableau, Power BI, SQL , Python, et plus, pour répondre aux besoins des clients. Analyse de données : Utiliser AWS, DBT, Databricks, GCP ( BigQuery ), pour l'analyse et la transformation des données. Automatisation des processus : Mettre en place des pipelines de données automatisés avec Docker, Airflow, et Git. Surveillance et optimisation : Utiliser Datadog, Looker, SAP BO, Cognos , pour surveiller les performances et optimiser les systèmes. Expertise technique : Fournir des conseils d'expert sur SQL Server, Cubes , SSIS, SSRS, SSAS , pour améliorer les processus et les performances.
Offre d'emploi
Développeur(euse) Talend - H/F- Poitiers
Chez K-LAGAN, nous parions sur vous ! 🚀 🔊 Vous êtes à la recherche d'un projet stable et durable ? Vous cherchez à vous épanouir professionnellement jour après jour ? N'hésitez pas à rejoindre notre équipe ! Vous êtes intéressé ? Alors, je vous laisse l’opportunité d’en lire plus... Responsabilités: · Développement et maintenance des jobs Talend. · Developpement des processus ETL. · Optimisation des performances. · Intégration de sources de données. · Assurance qualité des données. · Collaboration avec les équipes métier. · Maintenance et amélioration continue. · Documentation technique. · Support et dépannage aux utilisateurs finaux. 😉 Conditions : 📝 CDI, ASAP. 📍 Poitiers (France). 💰 Rémunération et conditions très intéressantes, selon profil. 🚀 Projet et missions au sein d'une équipe et société en évolution. 🎓 Formations et suivi de carrières. 💻 Hybride 3 jours au bureau - 2 jours à distance. Rejoignez notre équipe ! Chez K-LAGAN, l'égalité des chances fait partie de nos valeurs. Cela vous semble intéressant ? Postulez ! 📩 GROWING UP WITH YOU 🦾🤖🦿
Offre d'emploi
Data Analyst / Business analyst Datat junior à confirmé
💡 Contexte /Objectifs : Ll s'agira de contribuer à divers projets de la filière Finance, en renforcement des personnes actuellement en charge de piloter ces sujets dans l'équipe. • Déclaration de nouveaux indicateurs environnementaux, sociaux et de gouvernance (ESG). Pour l'IT Finance il s'agit plus particulièrement d'apporter au métier Finance des solutions pour construire un Datamart Transactionnel ESG en s'arrimant aux Golden Sources du Datalake. • Maintenance évolutive sur les modules Datalake Coût du Risque, Intragroupe ou Effets Ifrs9. La personne aura en charge: De récupérer les besoins auprès des métiers et de les valider De rédiger les spécifications fonctionnelles en cohérence avec le modèle de données du datalake et des golden sources disponibles. De participer aux tests conjointement avec l’IT et d’accompagner le métier dans ses recettes. De participer aux comités de suivi du projet (CSO, revue des Jiras du Sprint, etc…) 🤝 Expertises spécifiques : Expériences business analyst sur des projets en environnement bancaire autour de la data et problématiques associées (détermination des golden sources, appropriation des modèles de données) : exigé Connaissance des outils de BI comme EasyMorph, PowerBi, Tableau, requêtage SQL: exigé Maitrise de l'anglais écrit (reporting en anglais) et parlé : exigé Compétences génériques recherchées travail en équipe / capacité d'analyse / réactivité / force de proposition / organisation et rigueur : exigé Connaissances des architectures Systèmes d'Information bancaires : souhaité Connaissance de la méthode agile Scrum : souhaité (expérience sur un projet serait un plus) Connaissances fonctionnelles des produits de marché & de financement: serait un plus. Connaissance de la comptabilité bancaire : serait un plus
Mission freelance
data analyst anglais
210 jours max par an Compétences requises: • Expériences business analyst sur des projets en environnement bancaire autour de la data et problématiques associées (détermination des golden sources, appropriation des modèles de données) : exigé • Connaissance des outils de BI comme EasyMorph, PowerBi, Tableau, requêtage SQL: exigé • Maitrise de l'anglais écrit (reporting en anglais) et parlé : exigé • Compétences génériques recherchées travail en équipe / capacité d'analyse / réactivité / force de proposition / organisation et rigueur : exigé • Connaissances des architectures Systèmes d'Information bancaires : souhaité • Connaissance de la méthode agile Scrum : souhaité (expérience sur un projet serait un plus) • Connaissances fonctionnelles des produits de marché & de financement: serait un plus. • Connaissance de la comptabilité bancaire : serait un plus
Offre d'emploi
Data Analyst (h/f)
Contexte Le Groupe est un leader européen de la connaissance juridique et fiscale qui place la Data au cœur de sa transformation digitale. Au travers de marques de renom, l’entreprise combine des expertises dans les domaines de l’édition, de la formation et du logiciel. La DSI France (200+ collaborateurs) recherche pour son équipe Data Factory un(e) Data Analyst. La Data Factory est composée d’environ 15 personnes expertes de la Donnée qui travaillent dans le Cloud Amazon Web Services à la construction d’un Socle d’Entreprise (Datalake – Data Warehouse – Data Lab) et à l’industrialisation des principaux indicateurs de pilotage (BI) en datavisualisation (Qliksense). L’équipe Data Factory travaille également en lien étroit avec le Data Office (Data Gouvernance, Data Science, Data Analytics) et toutes les fonctions support de la DSI (Architecture, Sécurité, Compliance, Infra, …).
Mission freelance
Business Analyst sénior (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Business Analyst sénior (H/F) à Lyon, Auvergne-Rhône-Alpes, France. Contexte : Fonctionnement : sur site à Lyon + Télétravail 50% Les missions attendues par le Business Analyst sénior (H/F) : Description du profil : Assure la cohérence entre la demande métier et son intégration dans le SI. Peut alimenter le backlog si nécessaire. Il recense les besoins d'informations et les sources de données exploitables selon l'horizon de temps de la décision à prendre. En proximité constante avec l'équipe de développement il sait les accompagner dans la réalisation. Il connait les données de son produit et leur exploitation par les data ingénieurs et data scientists. 5 années d'expérience sont attendues sur le rôle au minimum. Activité principale : o Garantit l’adéquation besoin/développement afin de répondre aux questions et de compléter au besoin o Prépare et anime des ateliers avec le métier et ses représentants utilisateurs o Conception et maquettage des solutions o Modélisation du processus des données o Analyse de l’impact des solutions proposées o Organise et participe aux réunions de planification de sprint o Rédige les expressions de besoins, les user-stories, les spécifications o Alimente et maintien du backlog produit o Suit des prérequis aux développement afin de répondre aux questions et de compléter, au besoin, les user-stories. o Rédige des spécifications o Pré-recette des livrables avant livraison à la cellule test o Participe à la formation des utilisateurs Activité secondaire : o Participe à l’animation des cérémonies Agiles o Relation et échange avec les équipes de conduite du changement Stack technique du projet : Excel, Jira, Confluence, SQL, Tableau/PowerBI
Mission freelance
Data Engineer - Risque de Crédit
Notre client, un groupe bancaire, recherche un consultant techino-fonctionnel, Data engineer risque de crédit (H/F). Renforcement de l'équipe pour le projet Surveillance Crédit, axé sur la production de POC, l'analyse métier, et le développement de solutions tactiques. Tâches et activités de la mission - Contribution à la production de POC (Proof of Concept). - Réalisation d'analyses métier spécifiques au risque de crédit. - Développement de solutions tactiques pour la gestion et l'analyse de données. Livrables - POCs fonctionnels pour nouvelles initiatives. - Rapports d'analyses métier détaillés. - Solutions tactiques développées et implémentées.
Offre d'emploi
Administrateur de la plateforme Data
Assurer la performance et la sécurité de la plateforme de données de l'entreprise, en se concentrant sur les outils et technologies tels que DataHub Semarchy Xdi, Snowflake, et BigQuery. Responsabilités principales : Gestion de la base de données : Concevoir, créer, maintenir et gérer les bases de données, y compris celles utilisant des systèmes tels que Snowflake et BigQuery. Evolution de la plateforme data : Veiller au maintien en condition opérationnelle de la plateforme. Dette technique : Identifier activement les domaines de la dette technique au sein de la plateforme de données et mettre en œuvre des plans d'action pour réduire cette dette au fil du temps. Optimisation des performances : Surveiller et optimiser les performances des bases de données, en utilisant des outils spécifiques à chaque technologie, tels que les fonctionnalités de Snowflake pour le scaling et les capacités de requête de BigQuery. Sécurité des données : Mettre en œuvre des mesures de sécurité spécifiques à chaque technologie, en utilisant les fonctionnalités de sécurité intégrées dans Snowflake et BigQuery, ainsi que des politiques de sécurité pour DataHub Semarchy Xdi. Intégration des données : Collaborer avec les équipes de développement pour intégrer les données provenant de différentes sources, en utilisant les fonctionnalités de transformation et d'intégration des données des outils de l’entreprise, ainsi que les fonctionnalités de Snowflake et BigQuery pour l'entreposage et l'analyse des données. Sauvegarde et récupération des données : Implémenter, adapter des politiques de sauvegarde des données spécifiques à chaque technologie, y compris la gestion des snapshots dans Snowflake et les fonctionnalités de sauvegarde dans BigQuery. Documentation : Maintenir une documentation complète de la structure de la base de données, des processus ETL, et des politiques de sécurité, en utilisant des outils de documentation appropriés pour chaque technologie.
Mission freelance
Data Scientist IA Générative
Notre client, secteur bancaire recherche un Data Scientist - IA Générative (H/F) dans le cadre d'un elongue mission. L'objectif est d'améliorer un POC existant et de continuer le développement du projet sur de nouveaux cas d'utilisation dans le domaine de l'IA générative. - Établir des scénarios pour anticiper des leviers métiers ou opérationnels. - Réaliser le cycle complet de valorisation de la donnée : collecte, analyse, préparation, et valorisation spécifique à la Data Science. - Appliquer des techniques d'extraction et d'analyse d'informations à partir de grands ensembles de données. - Évaluer la qualité des données, les modéliser, et vérifier leur véracité. - Analyser les résultats pour intégration dans le système d’information cible. - Traduire des problématiques métiers en problèmes mathématiques/statistiques.
Mission freelance
Data Analyst - Data Lake
Le poste se situe à la DSI métier Finance qui regroupe toutes les activités MOA et MOE sur les outils du périmètre Comptabilité, Ratios prudentiels, Liquidité, Pilotage Financier, Gestion Financière et Communication financière et plus particulièrement la personne recherchée intègrera l’équipe Inventaire Data Lake en tant que Data Analyste. Il s'agira de contribuer à divers projets de la filière Finance, en renforcement des personnes actuellement en charge de piloter ces sujets dans l'équipe. Pour l'IT Finance il s'agit plus particulièrement d'apporter au métier Finance des solutions pour construire un Datamart Transactionnel ESG en s'arrimant aux Golden Sources du Data Lake. Maintenance évolutive sur les modules Data Lake Coût du Risque, Intragroupe . De récupérer les besoins auprès des métiers et de les valider De rédiger les spécifications fonctionnelles en cohérence avec le modèle de données du data Lake et des golden sources disponibles. De participer aux tests conjointement avec l’IT et d’accompagner le métier dans ses recettes. De participer aux comités de suivi du projet (CSO, revue des Jira du Sprint, etc…)
Offre d'emploi
Data Engineer (H/F)
💡 Missions pour le Data Engineer : Développement et maintenance : Créer et maintenir des ETLs et des pipelines de données robustes en utilisant Talend, MS BI, Azure ( DataFactory ), GCP ( BigQuery ) , SQL, Python, Scala... Modélisation des données : Proposer des modèles de données fiables et optimisés en termes de stockage et de traitement. Automatisation : Implémenter des processus de CI/CD pour automatiser le déploiement et la gestion des infrastructures de données. Analyse et reporting : Développer des rapports et des dashboards en utilisant Looker, Power BI, Qlikview, Tableau, pour faciliter l'accès aux insights data-driven.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes