Trouvez votre prochaine offre d’emploi ou de mission freelance Snowflake
Architecte / Conseil Data / IA

Livrables : Définir et formaliser la politique sur les solutions IA Gen afin de donner un cadre général pour le dé… Mise en conformité de la plateforme Data Science Enrichir l’offre CoIOT avec l’ajout de fonctionnalités génériques Étudier et déployer une nouvelle solution pour le socle de la plateforme APIness Étudier et déployer l’extension de la plateforme Data Science Rationaliser l’outillage Data Science en vue de la sortie de Dataiku au profit de la PDA Offrir une solution permettant de documenter les données/produits data et de faciliter leur accès et… Définir un scénario alternatif à la solution Aveva PI permettant les gains d’Opex et de limiter la dépendance Étudier une solution alternative au service MS SSAS en cours d’obsolescence Mettre à jour le cadre technologique sur les périmètres Data et Échanges Réaliser la conduite du changement relative à la PDA afin de démocratiser les usages des données d… Définir l’offre de services et la gouvernance du périmètre IA
Senior SnowFlake Data Engineer

En tant qu'ingénieur de données, vous jouerez un rôle essentiel dans la construction et le déploiement de notre Data Warehouse (DWH) et de nos DataMarts, qui font partie intégrante de la mise en œuvre réussie du projet financier, de notre outil EPM appelé Board ou d'outils dédiés à l'audit financier. Vous travaillerez en étroite collaboration avec des équipes interfonctionnelles pour assurer une intégration et une transformation transparentes des données. • Résolution de problèmes : solides compétences analytiques pour dépanner et résoudre des problèmes de données complexes. • Communication et collaboration : capacité à travailler en étroite collaboration avec les équipes financières, informatiques et DevOps pour aligner les solutions techniques sur les besoins de l'entreprise. • Méthodologies Agile : Expérience de travail dans un environnement Agile/Scrum, gestion de la planification de sprint, affinement du backlog et livraison itérative.
Data Engineer H/F

• Développer et maintenir des architectures Data évolutives et scalables . • Mettre en place et optimiser les flux de données (ETL, ELT) • Participer à l’industrialisation des traitements de données . • Implémenter les bonnes pratiques DevOps & CI/CD (automatisation, tests, monitoring) • Participer aux échanges techniques et contribuer à l’amélioration continue des solutions. • Documenter et partager les bonnes pratiques avec les autres membres de l’équipe.
Architect Data ( H/F)

🔎 Opportunité Freelance – Architecte Data (Snowflake / AWS / Airflow / Hadoop) 🔎 Missions: 🔹 Architecturer la migration Hadoop → Snowflake , en garantissant l'intégrité des données et en minimisant les interruptions 🔹 Concevoir un nouveau modèle de données optimisé pour Snowflake (passage de la 3NF à un modèle dimensionnel) 🔹 Mettre en œuvre et optimiser les processus de transformation des données avec DBT 🔹 Orchestrer les flux de données à l'aide d' Apache Airflow 🔹 Collaborer avec les équipes métiers et techniques pour s’assurer que la nouvelle architecture répond aux besoins de l’entreprise 🔹 Documenter l’ architecture des données, les processus de migration et les modèles de données 🔹 Assurer la gouvernance, la sécurité et la conformité des données
Développeur TALEND – Snowflake & Qlik

Description : Pour un client grand compte du secteur de l'assurance nous recherchons un développeur TALEND confirmé pour une mission de 50 jours répartis sur Avril, Mai et Juin dans le cadre d'un projet concernant la prévoyance individuelle. Rôle attendu : Concevoir et développer des flux ETL sous TALEND Intégrer et optimiser les données dans Snowflake Travailler en collaboration avec les équipes BI et Data Assurer la qualité et la performance des traitements Si possible, participer à l’intégration et à l’exploitation des tableaux de bord sous Qlik
Senior Data Engineer Snowflake

Contexte de la mission En tant que Data Engineer, vous jouerez un rôle important dans la construction et le déploiement de notre Data Warehouse (DWH) et DataMarts, qui font partie intégrante de la mise en œuvre réussie de projets financiers, de notre outil EPM Board ou d'outils dédiés à l'audit financier. Vous travaillerez en étroite collaboration avec des équipes inter fonctionnelles afin d'assurer l'intégration et la transformation transparentes des données. Objectifs et livrables Responsabilités : Concevoir, construire et maintenir des Data Warehouse et DataMarts évolutifs basés sur des données financières. Vous êtes en charge de l'élaboration et de l'optimisation des requêtes SQL complexes et des procédures stockées dans Snowflake Vous travaillez avec des données SAP, vous comprenez les structures des tables et vous assurez un mappage et une transformation des données exacts. Utiliser Azure Data Factory pour la construction des données et l'orchestration du pipeline. Collaborer avec les équipes DevOps pour mettre en œuvre des pipelines CI/CD à l'aide d'Azure DevOps. Assurer la qualité et l'intégrité des données tout au long du processus ELT.
Architecte Cloud & Data

📍 Contexte de la mission Au sein de l’équipe Data Capture , nous recherchons un Architecte Cloud & Data expérimenté pour concevoir, développer et optimiser les solutions de gestion de données basées sur Azure Cloud et Snowflake . Ce rôle nécessite une solide expertise en architecture IT , en développement de microservices , ainsi qu’en Event-Driven Architecture (EDA) . Le candidat devra collaborer étroitement avec les équipes IT Groupe/Zone, les partenaires métiers, les prestataires externes et les membres de l’équipe Data & Analytics . Ce poste exige également un leadership fort, une autonomie avérée , ainsi qu’une capacité à documenter rigoureusement les solutions mises en place dans le cadre d’audits, de Proof of Concept (PoC) ou d’alignements architecturaux.
Data Engineer

- Migrer les données existantes de Redshift vers Snowflake à l'aide de DBT et d'Airflow. - Collaborer avec des équipes transverses pour traduire les exigences métier en solutions techniques. - Concevoir et mettre en œuvre des pipelines de données, des processus ETL et des modèles de données. - Automatiser l'ingestion, la transformation et la validation des données grâce aux technologies Azure (Data Factory, Functions, Databricks). - Développer des procédures stockées, des vues et des fonctions SQL Server pour l'accès aux données et le reporting. - Optimiser les performances de l'entrepôt de données et identifier les axes d'amélioration. - Mettre en œuvre des politiques de gouvernance des données pour garantir l'exactitude, l'exhaustivité et la sécurité. - Documenter les processus et les bonnes pratiques d'ingénierie des données. - Se tenir informé des tendances du secteur et des technologies émergentes en matière d'ingénierie des données et de cloud computing.
Data Analyst

Je recrute un Data Analyst expérimenté pour nous aider dans la migration de notre système décisionnel vers le Cloud AWS (via Snowflake) et pour contribuer à des projets liés à l'intelligence artificielle générative (GenIA). Missions : Assurer le suivi et la maintenance de la migration vers le Cloud AWS déjà effectuée. Participer à des projets liés à l'intelligence artificielle générative. Préparer des données pour les équipes de Data Science et les métiers (dénormalisation, filtrage, agrégation, transcodification, etc.). Compétences Techniques : ETL Matillion sur base Redshift : Solide expérience avec l'outil ETL Matillion pour l'intégration et la transformation des données. Capacité à automatiser les processus ETL et à optimiser les performances. Dataiku (recettes SQL) sur base Snowflake : Maîtrise de l'outil Dataiku, en particulier pour la création de recettes SQL sur la base de données Snowflake. Expérience dans la gestion et la transformation de grandes volumétries de données. Python : Compétences avancées en programmation Python pour l'analyse des données et le développement de scripts automatisés. Connaissance des bibliothèques courantes (pandas, numpy, scikit-learn, etc.). SQL : Excellente maîtrise de SQL pour l'interrogation et la manipulation des bases de données. Capacité à écrire des requêtes complexes et à optimiser les performances des requêtes.
Constulant / Développeur BI

Concevoir et développer des tableaux de bord interactifs sous Power BI . Définir et implémenter des indicateurs de performance clés (KPI) pertinents. Gérer et optimiser les flux de données avec Talend . Concevoir et maintenir des modèles de données dans Snowflake . Assurer la qualité et la cohérence des données pour des analyses fiables. Accompagner les équipes métier dans l’exploitation des données et la prise de décision. Automatiser et industrialiser les processus d'intégration et de transformation des données . Assurer une veille technologique sur les outils BI et proposer des améliorations.
Data Analyst (H/F)

Pour notre client, nous recherchons un(e) Data Analyst. Vous transformerez des données complexes en insights stratégiques pour les équipes métiers et les clients. Missions Principales Analyse de données : Nettoyage et traitement de datasets variés Création de dashboards interactifs (Power BI/Tableau) Analyses ad-hoc pour répondre aux besoins métiers Reporting : Automatisation des rapports mensuels Identification des KPI clés Présentation des résultats aux stakeholders Optimisation : Amélioration des processus data Collaboration avec les équipes Data Engineering Veille sur les nouvelles méthodes d'analyse Stack Technique Outils BI : Power BI (70%), Tableau (30%) Langages : SQL avancé, Python (pandas, numpy) Data : Snowflake, BigQuery, Excel avancé Méthodes : Analyse prédictive basique, clustering
Data Engineer (H/F)

Vos missions ? Intégré(e) à nos équipes ou chez nos clients, vous contribuez à développer et valoriser l'ensemble des données en résolvant des problématiques business concrètes via les technologies liées à la Data A ce titre, vos missions seront les suivantes : - Concevoir et mettre en place des architectures de données en choisissant les technologies adaptées aux besoins. - Gestion des bases de données en garantissant la performance et la scalabilité des solutions de stockage. - Analyser et explorer les données avec les différents outils. - Mettre en place des tableaux de bord avec Power BI ou Tableau en exploitant les données transformées via Talend. - Interagir avec les équipes métier pour comprendre et les besoins. - Utiliser TALEND pour extraire des données depuis plusieurs sources (SQL, API, Excel ...). - Automatiser les processus ETL pour centraliser les données dans un Data Wrehouse (Snowflake). - Participation aux projets IA. Compétences requises : • ETL: Talend • Analyse de données (PowerBI, Tableau) • Base de données (SQL, MongoDB, PostgreSQL) • Langages: Python, SQL
POT8356-Un Architecte / DBA Sur Montargis

Almatek recherche pour l'un de ses clients Un Architecte / DBA Sur Montargis. Compétences Technologies et Outils PostgreSQL Gitlab Snowflake Docker Oracle CI/CD Méthodes / Normes DevOps: Développement Operations Secteurs d'activités Assurance Mutuelle / Santé / Prévoyance Description et livrables de la prestation Description des prestations : • Contribuer aux projets d’évolution des applicatifs en apportant votre expertise. (Montées de versions, Optimisation, rationalisation, migrations dans le Cloud). • Participer au support quotidien en assurant le maintien en condition opérationnelle des bases de données associées aux applicatifs. • Optimiser les sauvegardes et restaurations de bases de données. • Participer à la maintenance évolutive périodique des applicatifs et des bases de données (Montées de version, optimisation, patchs…) • Suivre la charge et les performances des bases de données afin d’anticiper les évolutions et les incidents éventuels. • Contribuer à la documentation des architectures techniques selon les standards existants ou à définir. • Vous êtes force de proposition sur l’évolution du SI et vous participez aux projets techniques transverses. • Contribuer à l’industrialisation des opérations sur le périmètre Bases de données en automatisant : o Le déploiement d’infrastructures bases de données o Le rafraichissement d’environnements de recette. o Le suivi des règles de sécurité du SI, l’obsolescence des logiciels. o La mise à disposition des bases de données clones et d’intégration. o La supervision, l’audit, le diagnostic, l’optimisation. o Les livraisons SQL o Le maintien à jour des référentiels ITSM et des documents techniques. Expertise souhaitée Expérience et compétence requises : • Maîtrise des SGBD, expertise sur PostgreSQL, SQL Server et Oracle. • Maîtrise des architectures de haute disponibilité sur PostgreSQL et SQL Server. • Maîtrise de la supervision, de l’audit, du diagnostic d’incident et du diagnostic de performance. Appétence pour l’optimisation de performance des traitements SQL. • Maîtrise de l’automatisation des opérations (Build, Run et Supervise). • Appétence pour le support des études et projets, exigence sur la qualité du service. • Connaissance : Cloud AWS, DevOPS, Docker, CI/CD, GitLab, Big Data, Snowflake.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Avoir des tickets restaurant ça vaut le coup ou pas ?il y a 24 minutes
- Mise en demeure urssafil y a une heure
- ACRE : Questions multiples début d'activité/proratail y a 2 heures
- ARCE ou ARE : Nouvelles règles 2025il y a 3 heures
- 4 ans de BI, des projets complexes, de la mobilité… mais aucune missionil y a un jour
- Etat du marché - Avril 2025il y a un jour