Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 662 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI

Offre d'emploi
Architecte Data

VISIAN
Publiée le
Architecture
Big Data

3 ans
59k-94k €
Vélizy-Villacoublay, Île-de-France

Visian recherche pour un de ses clients grand compte un profil Architecte Data . Contexte : Au sein de la direction Architecture de notre client grand compte, l'Architecte de Data conçoit et met en œuvre l'architecture et la stratégie de données d'une organisation. Dans le cadre d'un programme de transformation numérique initié par le groupe, vous serez impliqué dans la conception et le soutien à la construction de l'environnement DATA 4.0. À cette fin, en tant qu'architecte data, vos principales missions seront de : Contribuer à l'architecture, à la mise en œuvre et à la pérennité de l'entreprise du point de vue technique et fonctionnel, en accord avec les architectes/expert IT de chaque domaine de compétence (Stockage, Réseau, etc.) afin de soutenir les données de l'entreprise et leur utilisation ; Formaliser la description des bases de données (modèle de données métiers et dictionnaire de définition) et s'appuyer sur le responsable des données ; Orienter les pratiques des Data Engineers de la plateforme (ingestion et exposition des données), ainsi que les responsables des pratiques en gestion des données, Dataviz et ingénierie ML avec la plateforme de données, responsables respectivement de la mise en œuvre de la gouvernance des données, de la dataviz et de la science des données ; Soutenir les projets informatiques (architecture) dans la définition des besoins métiers concernant la description et l'utilisation des données (concepts métiers, exigences métiers, utilisation des données dans les algorithmes, modèles de données, flux de données, etc.) et animer l'urbanisation des données du SI de l'entreprise ; Concevoir les produits et solutions de données soutenus par les équipes de la fabrique numérique (Data Factory) (BI, self-service, IA, IAGen, gestion des données) en fonction de la stratégie technique et industrielle du département IT en ce qui concerne les problématiques de données ; Orienter les projets en mettant en place et en appliquant des normes et standards applicables à la construction des données et à leur description, en particulier en utilisant le dictionnaire de données et les modèles métiers ; Porter la vision technique, en interne comme en externe, et encourager ses développements avec les équipes en ligne avec la stratégie globale ; Contribuer à la qualité du contenu du dictionnaire de données et des modèles de bases de données dans le temps, et mettre en place des outils pour garantir la pérennité des données Assurer la gestion des changements de données (formation à l'utilisation des données, communication), mais aussi sur les évolutions en matière de normes et standards de données, sur l'évolution du dictionnaire et des modèles de données.

CDI

Offre d'emploi
Data Engineer GCP - BigQuery, Azure Data Factory et DBT

Hexateam
Publiée le
Azure Data Factory
BigQuery
Microsoft Power BI

40k-65k €
Paris, France

Nous recherchons un Data Engineer GCP - BigQuery, Azure Data Factory et DBT pour contribuer à des projets de transformation de données. Vous serez responsable de la conception et de la gestion des pipelines de données en utilisant Google BigQuery comme base de données principale, Azure Data Factory (ADF) pour le processus ELT , et DBT (Data Build Tool) pour orchestrer les transformations entre les bases de données BigQuery. Vous travaillerez sur des projets de captage et de transformation de données ainsi que sur la mise en place d'indicateurs et de rapports via des outils de BI tels que Power BI , SSRS ou d'autres plateformes de visualisation. Développement de pipelines de données (ELT) : Créer et maintenir des pipelines de données avec Azure Data Factory pour orchestrer l'extraction, le chargement et la transformation des données. Intégrer des flux de données provenant de multiples sources vers BigQuery pour le stockage et l’analyse. Gérer l'architecture des données, en assurant la qualité et la conformité tout au long du processus ELT. Transformation des données avec DBT : Utiliser DBT (Data Build Tool) pour transformer et modéliser les données au sein de BigQuery . Développer et maintenir des modèles de données modifiables et bien structurés pour répondre aux besoins d'analyse métier. Assurer une documentation claire des transformations et des modèles DBT pour faciliter leur réutilisation et leur maintenabilité. Gestion des données sur BigQuery : Assurer l'optimisation des performances des bases de données BigQuery en termes de stockage, de requêtes et de coûts. Implémenter les meilleures pratiques pour la gestion des données, y compris les partitions et les indexations. Mise en place de reporting et d'indicateurs : Collaborer avec les équipes métiers pour définir les KPI et concevoir des tableaux de bord personnalisés avec Power BI ou SSRS . Créer des visualisations interactives et dynamiques permettant d’analyser les données stockées dans BigQuery et issues des transformations réalisées via DBT . Automatiser les processus de reporting pour fournir des rapports en temps réel et des indicateurs fiables. Documentation et optimisation : Documenter toutes les étapes des pipelines de données, des transformations DBT et des processus de reporting pour garantir la transparence et la collaboration entre les équipes. Identifier et implémenter des solutions pour améliorer les performances des pipelines de données et des processus d'analyse. Collaboration inter-équipes : Travailler en collaboration avec les équipes data, DevOps, et les parties prenantes métier pour comprendre les besoins, résoudre les problèmes techniques et optimiser les flux de données. Participer activement à l'amélioration continue des processus et des outils.

CDI

Offre d'emploi
Data Analyst / Data Engineer

Tenth Revolution Group
Publiée le

50k-55k €
Île-de-France, France

Contexte : Notre client est à la recherche de futurs Consultants Data Analysts pour renforcer son équipe. Dans le cadre de son développement commercial, il souhaite accueillir un analyste de données talentueux. Le candidat idéal devra avoir une solide expérience en analyse de données et être capable de travailler de manière autonome tout en collaborant efficacement avec les autres membres de l'équipe. Votre mission : En tant que Consultant Data Analyst, vous intégrerez l'équipe de consultants de notre client pour analyser et structurer des ensembles de données provenant de diverses sources, telles que les systèmes comptables, la gestion des données ERP et les données non structurées. Vous serez également impliqué dans la modélisation de systèmes complexes. Votre rôle nécessitera un contact étroit avec les clients afin de répondre à leurs besoins tout en respectant les contraintes de qualité, de coût et de délai. Responsabilités : • Collecter, nettoyer et préparer les données pour l'analyse. • Analyser les données pour identifier les tendances, les anomalies et les opportunités. • Élaborer des rapports et des visualisations pour présenter les résultats aux parties prenantes. • Collaborer avec l'équipe pour cerner les besoins d'analyse de données. • Identifier et appliquer des méthodes pour améliorer la qualité des données. Compétences requises : Dans ce rôle, les compétences interpersonnelles sont importantes, mais des compétences techniques solides sont indispensables pour évoluer dans un environnement complexe. Compétences techniques : • Maîtrise des langages de programmation : Python, Java ou VBA. • Capacité à travailler sur le conditionnement des données. • Gestion des bases de données relationnelles (RDBMS). • Maîtrise de SQL et des systèmes de gestion de bases de données NoSQL. Atouts supplémentaires : • Connaissance des technologies OLAP. • Expérience avec les hypercubes. Profil recherché : • Diplôme d'ingénieur ou qualification technique équivalente. • Confort avec les analyses de données. • Capacité à travailler sous pression et à gérer le stress. • Précision et attention aux détails. • Volonté de collaborer au sein d'une équipe. • Maîtrise du français et de l'anglais courant Comment postuler : Si vous êtes passionné par l'analyse des données et souhaitez rejoindre une équipe innovante dans le secteur aéronautique, n'hésitez pas à postuler !

CDI

Offre d'emploi
Data Engineer - Retail H/F

VIVERIS
Publiée le

40k-50k €
Lille, Hauts-de-France

Contexte de la mission : Viveris pilote les chantiers de transformation métier et IT qui contribuent à la performance des entreprises du Retail. Dans le cadre de nos priorités stratégiques DATA, nous cherchons un DATA Engineer expérimenté. Vos missions et responsabilités : Vous rejoignez l'équipe Supply Chain en charge des échanges de données entre le moteur de calcul de prévision de vente et de réapprovisionnement et l'ensemble des applications internes. Actuellement l'équipe est composée de 3 ingénieurs Data, 1 Product Owner, 1 Scrum Master, 2 Business Analyst et 1 Tech Lead. Nous recherchons un ingénieur Data pour renforcer l'équipe pour assurer le run opérationnel, optimiser l'existant et dans un avenir proche participer au déploiement de la solution dans d'autres pays. Vos missions : - Traitement d'activités de support / maintenance corrective ; - Analyse et cadrage technique des différents besoins ou problématiques remontées par les Bus ; - Réalisation et maintien de la documentation technique du produit (Spécification technique, dossier d'architecture, etc...) ; - Réalisation des développements du produit (Modules GCP, Terraform, Python, BigQuery) ; - Veille et optimisation technique (architecture, fiabilisation, optimisation financière (finops)) ; - Appliquer les normes de qualités définies pour le groupe Nous recherchons quelqu'un de motivé ayant déjà une expérience dans la Data.

Freelance

Mission freelance
Tech Lead Confirmé – Azure Factory (Nantes ou Paris)

Intuition IT Solutions Ltd.
Publiée le
Azure Data Factory
Databricks

4 mois
600 €
Paris, France

Description de la mission : Dans le cadre d'un projet stratégique au sein d'une organisation en pleine transformation numérique, nous recherchons un Tech Lead Confirmé pour prendre en charge la direction technique de notre Azure Factory . Vous serez responsable de l'architecture, de la mise en œuvre et de l'optimisation des processus de développement dans un environnement cloud. Votre mission consistera à : Piloter les équipes techniques dans la conception et la réalisation des solutions basées sur Azure Data Factory . Garantir la qualité des livrables et respecter les délais tout en supervisant les bonnes pratiques de développement. Collaborer étroitement avec les différentes parties prenantes, incluant les équipes métiers, pour comprendre leurs besoins et transformer ces derniers en solutions techniques performantes. Être le référent technique sur l'ensemble des sujets liés à l'intégration et l'exploitation des données dans le cloud Azure. Accompagner l'équipe dans le développement des compétences autour des technologies Azure, avec une forte emphase sur Azure Data Factory . Contribuer à l'amélioration continue des processus de développement, de déploiement et de monitoring des applications.

Freelance
CDI

Offre d'emploi
Data Product Manager

Ela Technology
Publiée le
Agile Scrum
Data analysis
Data management

3 mois
30k-200k €
Île-de-France, France

Vous allez intégrer l'équipe Data "Digital In Store" a pour objectif de révolutionner l'activité dans les magasins du groupe. Nous fournissons aux équipes digitales les insights et intégrons toute l'intelligence possible dans les outils opérationnels magasin. L'enjeu est d'augmenter l'impact et l'efficience des collaborateurs, afin de leur permettre les meilleures prises de décisions. Nous apportons des solutions techniques innovantes au service de nos utilisateurs internes et assurons au quotidien leur plus haut niveau de satisfaction.

CDI
Freelance

Offre d'emploi
Ingénieur Data SAP/Snowflake

1G-LINK CONSULTING
Publiée le
Azure Data Factory
Snowflake
Talend

12 mois
10k-64k €
La Défense, Île-de-France

Contexte : Dans le cadre d'un programme de transformation digitale basée sur S4/HANA, mon client, acteur majeur du secteur de l'industrie recherche un Data Engineer Snowflake, ADF, SAP concernant la réalisation de l' intégration des données issues de SAP vers les applications BI.. Le datalake est composé d’un modèle hybride Azure Data Factory + ADLS2 qui vient déverser la donnée dans le datalake Snowflake. Le profil qui nous rejoindra devra piloter et organiser son activité ainsi que celle d’un consultant moins senior afin de maintenir un rythme ainsi qu’une qualité de livraison constants tout en affichant une communication claire sur l’activité.

CDI

Offre d'emploi
Data Analyst / Data Engineer

Tenth Revolution Group
Publiée le

45k-50k €
Lyon, Auvergne-Rhône-Alpes

Contexte : Notre client est à la recherche de futurs Consultants Data Analysts pour renforcer son équipe. Dans le cadre de son développement commercial, il souhaite accueillir un analyste de données talentueux. Le candidat idéal devra avoir une solide expérience en analyse de données et être capable de travailler de manière autonome tout en collaborant efficacement avec les autres membres de l'équipe. Votre mission : En tant que Consultant Data Analyst, vous intégrerez l'équipe de consultants de notre client pour analyser et structurer des ensembles de données provenant de diverses sources, telles que les systèmes comptables, la gestion des données ERP et les données non structurées. Vous serez également impliqué dans la modélisation de systèmes complexes. Votre rôle nécessitera un contact étroit avec les clients afin de répondre à leurs besoins tout en respectant les contraintes de qualité, de coût et de délai. Responsabilités : • Collecter, nettoyer et préparer les données pour l'analyse. • Analyser les données pour identifier les tendances, les anomalies et les opportunités. • Élaborer des rapports et des visualisations pour présenter les résultats aux parties prenantes. • Collaborer avec l'équipe pour cerner les besoins d'analyse de données. • Identifier et appliquer des méthodes pour améliorer la qualité des données. Compétences requises : Dans ce rôle, les compétences interpersonnelles sont importantes, mais des compétences techniques solides sont indispensables pour évoluer dans un environnement complexe. Compétences techniques : • Maîtrise des langages de programmation : Python, Java ou VBA. • Capacité à travailler sur le conditionnement des données. • Gestion des bases de données relationnelles (RDBMS). • Maîtrise de SQL et des systèmes de gestion de bases de données NoSQL. Atouts supplémentaires : • Connaissance des technologies OLAP. • Expérience avec les hypercubes. Profil recherché : • Diplôme d'ingénieur ou qualification technique équivalente. • Confort avec les analyses de données. • Capacité à travailler sous pression et à gérer le stress. • Précision et attention aux détails. • Volonté de collaborer au sein d'une équipe. • Maîtrise du français et de l'anglais courant Comment postuler : Si vous êtes passionné par l'analyse des données et souhaitez rejoindre une équipe innovante dans le secteur aéronautique, n'hésitez pas à postuler !

Freelance

Mission freelance
Chef de projet Web

MIND7
Publiée le
Data management
Développement web

12 mois
650-750 €
Île-de-France, France

Recherche d’un Chef de Projet Web Expérimenté dans le Secteur des Mutuelles Nous recherchons un chef de projet Web expérimenté , avec une solide connaissance du secteur des mutuelles. Vous devez maîtriser une large gamme de compétences : fonctionnelles, techniques, développement, et gestion de projet. Il s'agit d'une mission longue durée, avec des enjeux stratégiques. Objectifs de la mission : Votre rôle consistera à piloter les évolutions d’un site Web développé par un prestataire externe. Vous interviendrez à différents niveaux clés : Organisation des releases : Gestion des demandes fonctionnelles et techniques, évaluation de leur maturité pour une mise en production, et définition du contenu de chaque release. Suivi des développements : S’assurer de l'avancement des travaux réalisés par le fournisseur. Supervision des livraisons : Gestion des livraisons en cours ou à venir, avec un suivi rigoureux des étapes jusqu'à la mise en production (installation, validation, go live).

CDI
Freelance
CDD

Offre d'emploi
Chef de projet DATA

GROUPE ALLIANCE
Publiée le
Big Data
Data Warehouse

36 mois
10k-60k €
Paris, France

Le candidat sera amené à piloter plusieurs projets, dont celui sur le décommissionnement d'un l'infocentre. - Gestion de l’obsolescence du SID - Assurer la continuité de service en mettant à disposition les tables encore utilisées sur la plateforme data cible La mission consiste à : - Animation des équipes projets - Planification dans ITBM - Suivi des consommés et des restes à faire - Coordination des acteurs MOE - Préparation et présentation dans les instances de la gouvernance projets - Reporting et alertes projets

Freelance

Mission freelance
FREELANCE – Architecte Data (H/F)

Jane Hope
Publiée le
Azure Data Factory
Dataiku
Python

3 mois
450-550 €
Lyon, Auvergne-Rhône-Alpes

Identifier les enjeux métiers et les besoins en données : Vous collaborerez avec les chefs de projet et les référents métiers pour analyser les besoins en gestion et exploitation des données, anticiper les migrations et contribuer aux actions de nettoyage des données. Structurer et optimiser l'architecture applicative du domaine DATA : Vous assurerez la modélisation des processus liés aux données (comme la cartographie applicative et des flux), garantissant une organisation fluide et performante des systèmes. Concevoir et faire évoluer les solutions techniques : Vous aurez la charge de l'implémentation des solutions et de leurs améliorations, tout en supervisant la gestion et l’exploitation de la plateforme data (flux, modèles de données, gestion des données). Assurer la cohérence du système d’information : En étroite coordination avec les architectes applicatifs d’autres domaines et les équipes infrastructure, vous veillerez à l’alignement technique global du système d’information de l’entreprise. Encadrer le développement et la maintenance des systèmes : Vous superviserez le cycle de développement, les phases de test et la maintenance des systèmes data, tout en gérant la relation avec les prestataires et développeurs. Garantir la sécurité et la qualité des données : Vous vous assurerez de la sécurisation des accès aux données, de l’élimination des redondances et de la réduction des coûts liés à la gestion des données. Veiller à l’évolution des normes et standards : Vous contribuerez à l'amélioration continue des standards et normes en matière de structuration des données, en intégrant les évolutions technologiques et réglementaires

Freelance

Mission freelance
Data Engineer MLOps (SENIOR) F/H

LeHibou
Publiée le
DevOps
Python

12 mois
550-600 €
Paris, France

Notre client dans le secteur Assurance recherche un Data Engineer MLOps F/H Descriptif de la mission: Contexte de l'organisation : Nous recherchons un service en Tech Lead pour rejoindre notre projet dynamique et innovant. En tant que tech lead du service, la mission se déroulera dans un environnement de moteur de tarification pour l'assurance, où il y aura des actuaires, des architectes IT, et des services de données et de ML. Le service fera ce qui suit : - Diriger et gérer l'équipe technique travaillant sur le moteur de tarification pour l'assurance. - Collaborer avec les actuaires, l'architecte informatique et les ingénieurs de données et de ML pour assurer la réussite du projet. - Concevoir, développer et mettre en œuvre des solutions techniques pour le moteur de tarification de bout en bout. - Superviser le développement et la mise en œuvre de modèles d'apprentissage automatique pour le moteur de tarification. - Assurer la fiabilité, l'évolutivité et la performance du moteur de tarification. - Coordonner les équipes pluridisciplinaires impliquées dans le projet - Assurer la qualité des solutions développées. Expertise - Python. - Expertise dans la livraison de projets dans le domaine de l'assurance - Expérience en ingénierie ML. - Expertise sur les moteurs de notation pour l'assurance. - Expertise en DevOps et MLOps. - Environnement français et anglais Compétences / Qualités indispensables: Data engineer, python,anglais courant,une expérience devops,une expérience sur des sujets MLops

Freelance

Mission freelance
CONSULTANT MOE BI ORIENTE DATA

PROPULSE IT
Publiée le
BI
Big Data
Consultant

24 mois
275-550 €
Nanterre, Île-de-France

Consultant MOE BI / Domaine Socle Data Expérience ciblée : 3-4 ans minimum Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)

Freelance

Mission freelance
Chef de Projet Stratégie Data (H/F) - 93 ou 94

Mindquest
Publiée le
Azure Data Factory

2 mois
500-700 €
Paris, France

La DSI & la Direction Générale des Opérations (DGO) sont deux acteurs clés de la Data & l’IA. La Direction Facilitation, au sein de la DGO, porte deux fonctions clefs dans la définition d'une stratégie Data au profit des opérations aéroportuaires : la Fonction AMOA SI Aéro & Sûreté (AMOA), et la fonction Data & Management Science (DMS). Ces deux entités orientées métier travaillent en étroite collaboration avec la DSI qui assure la maitrise d'œuvre et la robustesse technique des systèmes aéroportuaires

Freelance
CDI

Offre d'emploi
Architecte Data Engineer AWS

Hexateam
Publiée le
Apache Spark
Architecture
AWS Cloud

3 ans
10k-60k €
Paris, France

Dans le cadre de la croissance rapide de HEXATEAM, nous renforçons notre équipe technique en intégrant de nouveaux talents capables d’accompagner notre transition et expansion dans l’univers du Big Data . Nous cherchons actuellement des Architecte Data Engineer AWS pour concevoir, évoluer et maintenir nos plateformes data sur le cloud AWS. En tant qu'Architecte Data Engineer AWS, vous jouerez un rôle clé dans la conception, le développement, l’optimisation et la maintenance des pipelines de données pour répondre aux besoins de nos clients et assurer la robustesse de notre infrastructure Data. Conception et Gestion de Databricks : Création et gestion de clusters , jobs , et notebooks dans Databricks. Utilisation avancée de SQL pour créer des requêtes performantes et gérer de grandes bases de données. Maintien en condition opérationnelle : Analyser, corriger et prévenir les incidents et les défauts de la plateforme data en production. Assurer la stabilité et la disponibilité de la plateforme. Développement de pipelines d'ingestion et de transformation des données : Utilisation de Python avec Apache Spark pour traiter de grands volumes de données. Conception de jobs d’ingestion automatisés et performants. Stratégie à long terme : Proposer et implémenter une vision stratégique pour le développement de la plateforme Data. Travailler en collaboration avec les équipes pour définir la feuille de route technique à long terme. Accompagnement et diffusion des bonnes pratiques : Promouvoir les standards de qualité dans l'équipe. Accompagner les équipes dans l’adoption des bonnes pratiques en termes de développement et de gestion des données. Participation aux ateliers de conception techniques et fonctionnels : Collaborer avec les équipes de développement et de produit pour concevoir des solutions adaptées aux besoins métiers. Documentation technique : Rédiger et maintenir à jour la documentation technique des projets en cours. Indispensable : Langages : Python, SQL Big Data Framework : Apache Spark Outils : Databricks Cloud AWS : Expérience avec les services AWS (S3, Glue, Lambda, Airflow, CloudWatch, IAM) Versioning : Git Méthodologies : Travail en Agile , principalement en mode Scrum Suivi de projet : Expérience avec JIRA et Confluence Souhaité (plus) : CI/CD : Connaissance et utilisation de GitLab pour l’intégration et le déploiement continus. Outils Big Data : Expérience dans la gestion de grands volumes de données . Expérience en CI/CD avec des pratiques avancées d'automatisation.

Freelance

Mission freelance
Data Engineer expert IICS / Snowflake

KUBE Partners S.L. / Pixie Services
Publiée le
Informatica
Snowflake

3 mois
100-3k €
Paris, France

En tant que Data Engineer Expert IICS et Snowflake, vous serez responsable de la conception, du développement et de l'optimisation des solutions de gestion de données en exploitant l'intégration cloud et les technologies modernes de data warehouse. Vous travaillerez en collaboration avec des équipes multidisciplinaires pour assurer une transformation efficace des données, leur intégration et leur exploitation à grande échelle. Concevoir et mettre en œuvre des pipelines de données en utilisant Informatica Intelligent Cloud Services (IICS) et Snowflake . Assurer l'intégration des données provenant de diverses sources vers Snowflake. Optimiser les processus ETL/ELT et garantir la performance des flux de données. Collaborer avec les équipes d’analystes et data scientists pour répondre aux besoins métiers. Maintenir une documentation technique à jour et participer aux bonnes pratiques de gouvernance des données. Assurer la qualité, la sécurité et la conformité des données.

662 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous