Trouvez votre prochaine offre d’emploi ou de mission freelance ETL (Extract-transform-load)
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
PC - Expert Snowflake - 314
Nous recherchons pour le compte de l'un de nos clients un dconsultant Snowflake (H/F). Les missions : Intégration de Sources de Données Multiples : Configurer les connexions et intégrer diverses sources de données (API, bases de données, fichiers CSV, etc.) dans Snowflake, tout en assurant la qualité et la cohérence des données. Optimisation de la Performance : Améliorer l’efficacité des pipelines et des traitements SQL dans Snowflake Surveillance et Débogage : Mettre en place des systèmes de monitoring pour identifier rapidement les erreurs et anomalies dans les processus ETL, assurer la continuité des flux de données et maintenir la qualité des données en production.
Offre d'emploi
DBA SQL Server et MSBI
Vous interviendrez en tant que DBA SQL Server et MSBI pour un client d’envergure internationale au sein du service regroupant les équipes d'ingénieries infrastructures, middlewares et bases de données. Votre rôle Administration et supervision des bases de données SQL server · Gérer l’administration de MSSQL Engine · Optimiser la performance de bases de données · Résoudre les incidents techniques liés aux bases de données · Contribution aux sujets d'architecture · Participation à l’amélioration continue de l’offre de service de l’équipe · Accompagnement des projets · Suivi de l'évolution du marché autour des technologies DB Développement et optimisation en Transact-SQL · Concevoir et optimiser les requêtes et procédures stockées en Transact-SQL · Assurer le développement de scripts d’automatisation en Powershell Administration et développement MSBI (SSIS, SSAS, PowerBI RS) · Mettre en place et maintenir les flux de données (ETL) avec SSIS · Créer et maintenir des rapports sous PowerBI Report Server Intégration aux pratiques DevOps · Participer à la mise en place de processus CI/CD Collaborer avec les équipes développement et infrastructure pour intégrer les bases de données dans les pipelines de déploiement continu
Offre d'emploi
Architecte Data Mlops
Le bénéficiaire souhaite une prestation d´accompagnement dans l´objectif d´assurance des services d´ingénierie technique pour le pôle en charge du cloud IBM, notamment dans l´architecture & design des couches techniques basses. L´objectif principal est assurance de l’ hybridation au cloud IBM ainsi qu' autres fournisseurs au futur, et assurance de la cohésion entre le backend (Datalab Platform) et les produits. Les missions sont: - Définition, assurance et déploiement des architecture intimes des produits; - Définition, assurance et priorisation des produits; - Définition et assurance de la roadmap Produit; - Déploiement des solutions; - Participation au support des services construits, selon le principe "You Make it You Run it"; - Acceleration du développement de produits data dans le cloud. (calculs distribués, datascience, ETL, datahubs); - Création des services de terraformation des clouds internes/externes; - Création des pipelines de deploiements; - Sécurisation de tous les produits et services (MFA , encryption, etc).
Offre d'emploi
Technicien Support Applicatif N1
Contexte : Notre client, acteur majeur en solutions monétiques et de paiement, recherche un(e) Technicien(ne) Support Applicatif N1 pour renforcer son équipe du pôle « Infrastructures et solutions techniques ». Ce poste inclut 2 jours de télétravail par semaine. Le/La technicien(ne) aura la charge d'assurer le support auprès d'environ 800 utilisateurs. Missions : Sous la responsabilité du service « ETL », vos missions principales incluront : · Administration et support : gérer la solution O365/Azure sans interruption de service et assurer le support quotidien sur tous les composants (SharePoint, Teams, Outlook, etc.). Vous réaliserez des tâches comme la création de comptes et la gestion logistique des matériels. · Sécurisation : en lien avec les équipes sécurité, veiller à la prévention des intrusions et des fuites de données. · Mini-projets : gérer des transferts d'activités entre outils pour uniformiser les pratiques, déployer de nouveaux postes de travail, inventorier les PC et utilisateurs. · Documentation : rédiger des procédures internes et promouvoir un « Self-Service utilisateur » pour optimiser l’autonomie des équipes. · Développement en option : selon les besoins, créer des applications pour réduire les demandes de support, ou répondre à des besoins spécifiques. Développement de scripts pour automatiser la création de comptes Office 365. Résultats attendus : · Production de documentations détaillées. · Rédaction d'un rapport d’amélioration et de correction de la solution O365/Azure. · Documentation pour chaque application développée. · Accompagnement des utilisateurs et amélioration continue de la qualité du support.
Mission freelance
Architecte Data - Informatica / Qlik
Refonte de la collecte de la data : Identifier et interroger les 40 ERP pour optimiser l'acquisition des données essentielles. Concevoir un processus de collecte de données automatisé, robuste et scalable. Comparaison et traitement des données : Inté grer des outils de BI tels que Qlik et Power BI pour analyser, comparer, et consolider les données en temps réel. Développer des indicateurs clés pour suivre les performances et effectuer des comparaisons efficaces entre différents systèmes ERP. Mise en place d’un ETL et d’un Data Warehouse : Développer un ETL pérenne (Informatica) pour centraliser la donnée de manière fiable et performante. Concevoir un data warehouse structuré permettant une exploitation BI efficace. Objectif moyen terme : Internalisation de l'écosystème BI : Superviser l’architecture et la mise en place d’un environnement BI internalisé, sécurisé, et adapté aux besoins des utilisateurs. Participer activement à la roadmap de traitement des données pour les 5 prochaines années, en cassant les silos de données et en renforçant le core model France.
Mission freelance
Responsable d'application MDM Informatica Unix Shell Sql F/H
MISE EN ŒUVRE DU SYSTÈME D'INFORMATION Peut être amené à participer à la rédaction des spécifications des applications et des échanges associés de son périmètre Peut être amené à effectuer du paramétrage fonctionnel S'assurer de la qualité attendue des développements réalisés si nécessaire avec la contribution de Dev Factory Peut participer au déroulement des tests fonctionnels de ses applications avant livraison en intégration ou recette MAINTIEN EN CONDITIONS OPÉRATIONNELLES (MCO**) DU SI Assiste les utilisateurs et métiers dans l'usage de l'application et l'identification des dysfonctionnements Assure le support niveau 3 pour la résolution d'incidents (dans le respect des Contrats de Services et du Plan Qualité) Assure la gestion des tickets de MCO (Assistance, MCO, Améliorations, ?) Assure le traitement des incidents et le suivi des tickets : création de la fiche d'incident, résolution de l'incident et Rex sur l'incident Assure le reporting quotidien des applications QUALITÉ DU SI (PERFORMANCE, COHÉRENCE, COÛT, DÉLAI?) Applique les normes, méthodes et outils de référence définis au sein du domaine ou de la Direction de référence Contribue à la gestion documentaire des applications de son périmètre (même si cette documentation est centralisée par un tiers) en s'assurant des impacts transverses Évalue le niveau de service des applications de son périmètre et s'assure de la mise en place des plans d'actions d'amélioration lorsque nécessaire Contrainte forte du projet Très bonne connaissance des modules MDM et ETL d'informatica on prem, + maîtrise SQL, unix, shell.. Les livrables sont : MCO MEV Contribution projet Compétences techniques MDM Informatica - Confirmé - Impératif Intégration - Confirmé - Impératif Unix Shell - Confirmé - Impératif sql - Confirmé - Impératif
Mission freelance
CONSULTANT TECHNQUE BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS
CONSULTANT BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS Expérience ciblée : PLUS DE 10 ANS Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
Mission freelance
EXPERT POWER BI 2
CONTEXTE Nous recherchons un(e) profil(e) avec une forte expertise et un savoir-faire dans le développement de solutions de tableaux de bord et de cockpits Bl attrayantes à l’aide de PowerBI de Microsoft. Au-delà d’une excellente connaissance de l’outil en lui-même et d’une grande aisance en main des problématiques Big Data,. Le profil attendu doit être capable d’utiliser les données collectées pour comprendre les besoins métiers et de les intégrer au sein d’outils de gestion clairs et intuitifs. Compétences attendues: Data Visualization Proven expertise using Power BI and Power BI Embedded (API) 25 Programming Language (Python and R are one of the most widely used languages by Data Scientists) "DAX under Power BI and advanced features,R, M, Python" 1 Formation / certification / expérience Power BI certification with 2 years of proven experience (based on examples of successful Power BI projects) Data integration : ETL (Extract Transform and Load) "Extract data from such sources Oracle, MySQL DB, Google Analytics, APIs Extract data from our Azure Datalake (Parquet,CSV and Sql Server) Transform and store data in a proper format or structure for the purposes of querying and analysis" Data Wrangling and Data Exploration "Familiarity with data structures and content of the analytical data sources (data warehouse, datamart, etc) Clean and unify the heterogeneous and complex data sets for easy access and analysis (Data Wrangling)" Additional Skills Work in Agile mode (SCRUM Methodology, DevOps) Language skills "A good technical English is mandatory (all functional and technical specifications are in English) Fluent French" MANDATORY Use of Git / Gitflow as a Versioning control system / Develpment workflow MANDATORY Soft Skills "Autonomy and adaptability Problem solving and critical thinking High attention to detail Top-notch communication skills Continuous technology watch to stay on top of industry trends Knowledge in the media / audiovisual field is a plus." MANDATORY
Offre d'emploi
ADMINISTRATION INFORMATICA / DATASTAGE
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : La prestation consiste à contribuer à/au(x) : - L'assistance technique des environnements PROD et NON PROD (support aux entités fonctionnelles). - Suivi des environnements de production, d'UAT, d'Homologation et de développement pour les différentes applications INFORMATICA/ DATASTAGE(Installation, configuration, patch, administration, backup ...) - La maintenance et l’évolution des architectures techniques et des systèmes de supervision - Tests, validations, suivi de la mise en production de nouvelle application Livrables attendus Les livrables attendus sont : - Installations et configuration des infrastructures ETL - Documentation des procédures opérationnelles - Documentation du suivi des incidents, des changes et des opérations sur l'infrastructure via l'outil d'ITSM - Document sur l’élaboration des architectures - Reporting d'activité hebdomadaire
Offre d'emploi
Data Engineer h/f
Missions principales : En tant que Data Engineer, vous serez responsable de la conception, de la construction et de la maintenance des infrastructures de données nécessaires à la collecte, au stockage, à la transformation et à l'analyse des données de l'entreprise. Vous travaillerez en étroite collaboration avec les data scientists, les chefs de projet data et les équipes métiers pour garantir la qualité et la disponibilité des données. Vos missions incluent : Conception et Développement de Pipelines de Données : Concevoir, développer et déployer des pipelines de données pour collecter, traiter et transformer les données provenant de diverses sources (ERP, CRM, IoT, capteurs sur chantiers, etc.) ; Assurer l’ingestion, la transformation et le nettoyage des données dans un Data Lake ou Data Warehouse ; Mettre en place des processus d'automatisation pour garantir des flux de données fiables et sécurisés. Gestion et Maintenance de l’Infrastructure Data : Participer à la mise en place et à la gestion des infrastructures cloud (AWS, Azure, Google Cloud) pour le stockage et le traitement des données ; Assurer la disponibilité et la performance des plateformes de données (bases de données, Data Lake) Surveiller et optimiser les performances des systèmes de stockage et de traitement des données. Qualité et Sécurité des Données : Mettre en œuvre les pratiques de gouvernance des données pour garantir leur qualité, leur conformité (RGPD) et leur sécurité ; Effectuer des contrôles de qualité des données pour détecter et corriger les anomalies ; Collaborer avec les équipes sécurité pour garantir la protection des données sensibles. Support aux équipes Data Science et BI : Travailler en collaboration avec l’équipe data pour préparer les jeux de données nécessaires à la modélisation et à l’analyse ; Optimiser les requêtes et les modèles de données pour faciliter les analyses et la visualisation (ETL/ELT) ; Accompagner les équipes BI dans la conception de tableaux de bord et de rapports à partir des données disponibles. Veille Technologique et Innovation : Rester informé des dernières évolutions technologiques dans le domaine de la data engineering (outils, langages, méthodologies) ; Proposer des solutions innovantes pour améliorer les architectures de données et répondre aux nouveaux besoins métiers ; Participer à des projets de R&D pour explorer de nouvelles approches en matière de stockage et de traitement de données.
Offre d'emploi
Ingénieur Expert MDM - Référentiel Produit H/F
Contexte de la mission : Viveris accompagne les organisations dans l'optimisation de leur patrimoine data, de manière à apporter une meilleure performance aux processus opérationnels et décisionnels de l'entreprise. A cet effet, notre Centre de Services dédié Master Data Management, gère les référentiels centralisés regroupant les données opérationnelles nettoyées, exactes et cohérentes sur les produits et les fournisseurs. Notre Master Data Management (MDM) repose sur un progiciel auquel sont accolées plusieurs applications (ETL gérant l'exposition de la donnée : flux, API, events Kafka, Application de gestion des modèles de données produit, Application de gestion de l'identification des produits, référentiel fournisseurs...). Dans ce cadre, nous recherchons notre Ingénieur Développement Expert qui sera l'interface entre le responsable du projet et l'équipe de développement. Vos missions et responsabilités : - Recueillir les besoins du client ; - Animer les workshops de conception du référentiel ; - Concevoir le modèle des données du référentiel et des processus et règles associés ; - Réaliser la conception technique et fonctionnelle des interfaces d'échange du référentiel ; - Participer aux paramétrages des solutions éditeurs ; - Elaborer les développements et le paramétrage des Business Rules en Javascript, qui se concentrent essentiellement sur des évolutions apportant une plus-value métier forte aux directions utilisateurs ; - Participer à la conduite du changement (formations utilisateurs, accompagnement au démarrage, ...).
Offre d'emploi
Data Engineer (H/F)
En bref : Nice- CDI - Data Engineer Talend (F/H) - Salaire selon expérience - Télétravail Adsearch, cabinet de recrutement basé à Nice vous accompagne dans votre carrière pour vous trouver LE poste idéal. Je recrute pour un client un Data Engineer Talend (F/H) basé à Nice. Vos missions : Cadre du besoin Implémentation des solutions BI - Talend Rédaction des spécifications techniques et fonctionnelles Modélisation des systèmes décisionnels Optimisation et monitoring Adsearch vous propose des milliers d''opportunités de carrières dans toute la France pour les profils d''experts, cadres et managers. Que ce soit pour un emploi ou pour une mission, Adsearch c''est le cabinet de recrutement qu''il vous faut ! Retrouvez toutes nos offres d'emploi en CDI, CDD, Intérim et Freelance sur notre site internet !
Mission freelance
POT8079-Un Consultant Sécurité Junior Sur Saint-Quentin-en-Yvelines
Almatek recherche pour l'un de ses clients, Un Consultant Sécurité Junior Sur Saint-Quentin-en-Yvelines. Compétences : Windows (SCCM : fonctionnement), gestion des vulnérabilités (60/70% couvertes par le patch management) Capable d’accompagner les ingé exploit sur le patching et les vulnérabilités, soft skills en communication (adresser des ingé exploit en Inde, et des managers : savoir vulgariser sur les sujets techniques), travailler sur la couverture de patch (production d’indicateurs : ETL, récupération des données d’un datalake, idées de produire des dashboards ds PowerBI -> savoir comment fonctionne un ETL) Anglais nécessaire (technique et basique : ¼ de l’activité)
Offre d'emploi
Data Architecte / MLOPS
Prestation d´accompagnement dans l´objectif d´assurance des services d´ingénierie technique pour le pôle en charge du cloud IBM, notamment dans ´architecture & design des couches techniques basses. L´objectif principal est assurance de l’ hybridation au cloud IBM ainsi qu' autres fournisseurs au futur, et assurance de la cohésion entre le backend (Datalab Platform) et les produits Les missions sont : - Définition, assurance et déploiement des architecture intimes des produits; - Définition, assurance et priorisation des produits; - Définition et assurance de la roadmap Produit; - Déploiement des solutions; - Participation au support des services construits, selon le principe "You Make it You Run it"; - Acceleration du développement de produits data dans le cloud. (calculs distribués, datascience, ETL, datahubs); - Création des services de terraformation des clouds internes/externes; - Création des pipelines de deploiements; - Sécurisation de tous les produits et services (MFA , encryption, etc). Connaissances techniques essentielles: - Bon background dans les infrastructures legacy serveurs/storage; - Haut niveau d'expertise en DEVOPS (Gitlab /ArgoCD/ Terraform / Ansible /Vault); - Expertise en cloud native infrastructures: Kubernetes/ Openshift dans des environnements "statefull"; - Experience significative dans un cloud provider publique - Construction des SAAS data clé en main vu des utilisateurs groupe à partir de comptes cloud "natif" - Haut niveau d´expertise dans beaucoup de technologies différentes.
Offre d'emploi
Senior Analyste BI
La DSI recherche un Senior Analyste BI pour renforcer son pôle MOA dans l’exploitation, la maintenance et l’évolution des reportings, KPI, tableaux de bord ainsi que la modélisation d’univers. Le rôle requiert une expertise avancée sur la plateforme SAP BO (BusinessObjects) version 4.3 et une capacité à collaborer étroitement avec les métiers et les équipes techniques. Le Senior Analyste BI sera en charge de concevoir, développer et optimiser des solutions BI pour répondre aux besoins analytiques de différents domaines de l’entreprise. Analyse des besoins métiers et conception des solutions : Assister les utilisateurs métiers dans l'expression de leurs besoins et comprendre les objectifs d’analyse de données. Concevoir des solutions technico-fonctionnelles en collaboration avec les équipes internes de la DSI et les divers interlocuteurs. Développement et maintenance BI : Réaliser des reportings, KPI, et tableaux de bord via la plateforme SAP BO, en particulier à travers les documents Webi et la modélisation d'univers. Assurer l’évolution, la maintenance corrective et préventive des solutions BI en place. Modélisation et intégration de données : Contribuer à la modélisation d’univers pour faciliter l’accès aux données et optimiser les performances des analyses. Utiliser l'ETL SSIS pour l’intégration de données depuis diverses sources vers le data warehouse. Suivi de projet et amélioration continue : Gérer les projets BI de bout en bout, en assurant le respect des délais et des standards de qualité. Être force de proposition pour l’optimisation des processus et l’évolution des outils BI utilisés.
Offre d'emploi
Ingénieur Développement Javascript - Référentiel Produit H/F
Contexte de la mission : Viveris accompagne les organisations dans l'implémentation et l'utilisation de référentiels de données Produits, avec notamment la solution STEP de StiboSystems. Dans ce cadre, vous contribuerez au programme de fiabilisation et de maintenance perfective et évolutive de la plateforme. Vos missions et responsabilités : Le référentiel produits collecte et diffuse les informations produit dans le système d'information global. Ce Master Data Management (MDM) repose sur un progiciel auquel sont accolées plusieurs applications (ETL gérant l'exposition de la donnée : flux, API, events Kafka, Application de gestion des modèles de données produit, Application de gestion de l'identification des produits, référentiel fournisseurs...). Au sein des équipes dédiées, vous assumerez l'activité BUILD et RUN. Vos missions sont : - Assumer le bon fonctionnement du parc applicatif MDM ; - Assumer le maintien en condition opérationnelle : gestion des incidents dans le respect des process et des niveaux de services ; - Elaborer les développements et le paramétrage des Business Rules en Javascript, qui se concentrent essentiellement sur des évolutions apportant une plus-value métier forte aux directions utilisateurs ; - Rédaction de la documentation de l'application ; - Pilotage du cycle d'amélioration continue.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Peut-on créer une société au nom de son conjoint pour facturer ses prestations en étant sous ARE ?
- Close de non concurrence freelance à portgae salarial
- Arce 7 mois après la création de l'entreprise ?
- Calcul de crédit impôt - cas pratique
- situation compliquée fin de mission pression client comment gèrer ?
- 🎯 Recherche Expert pour Accompagnement sur SCCM et Intune 🚀