Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 548 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI
CDD

Offre d'emploi
Infrastructure Architect (Ref : AG)

FIRST CONSEIL
Publiée le
Azure
Big Data
Google Cloud Platform

3 ans
10k-100k €
Paris, France

Le poste est au sein de l'équipe d'architecture du groupe. L'équipe est composée d'un architecte d'infrastructure, d'un architecte fonctionnel, d'un architecte d'usine de développement, d'un architecte Datascience. Les tâches sont les suivantes : Suivi et conseil aux équipes de conception Participation à la définition des infrastructures techniques Gestion de projets d'infrastructures Suivi et amélioration des processus Adaptabilité et curiosité technique car les évolutions technologiques sont rapides et doivent être assimilées pour pouvoir optimiser l'existant Polyvalence, goût de la technique et créativité pour identifier les solutions techniques appropriées Rigueur et esprit critique afin de distinguer la technique du discours marketing Capacité à travailler avec des équipes d'experts Bonne ouverture relationnelle afin de travailler avec les autres services de l'entreprise (achats, services commerciaux notamment)

Freelance

Mission freelance
Ingénieur IT / OT (SCADA - Industrie 4.0)

Mon Consultant Indépendant
Publiée le
Data science
SCADA

6 mois
600-700 €
Nogent-sur-Seine, Grand Est

En collaboration avec l’équipe du programme de transformation du métier des malteries, vous serez responsable des pré-requis techniques permettant le déploiement d’une solution d’intelligence artificielle. Le projet Industrie 4.0 vise notamment à optimiser les processus de fabrication industrielle, sur les sites industriels à l’international du client. Vous aurez en charge la standardisation des données industrielles sur la base des supervisions, des PLC et des solutions d'automatisation utilisés en production. Vous serez intégré à l’équipe d’ingénieurs IT / OT, qui vous guidera, dans les premières semaines, pour appréhender le processus industriel de maltage. En interaction quotidienne avec des équipes pluridisciplinaires (Business Product Owner, Product Manager, responsables de production et maintenance des sites, chefs de projet Transformation…), vous reporterez au chef de projet Industrie 4.0, sous la codirection du Directeur Industriel et Directeur Transformation. Vos principales missions : Standardiser les données reçues via les automates des sites industriels (création du core model des données industrielles) Créer les spécifications des modèles de données (à partir du code automate, basés sur les supervisions WinCC, Schneider…) pour chaque étape du processus industriel de maltage, à destination du partenaire externe en charge du traitement de ces données Gérer les éventuelles pannes automates et/ou AVEVA (Historian) avec les sites industriels, de manière adhoc Participer aux réunions de pilotage du projet Industrie 4.0 en tant qu’expert technique PROFIL RECHERCHE L'ingénieur OT retenu devra avoir une expérience pratique des systèmes SCADA et une bonne expérience de l'automatisation des processus, en secteur industriel. COMPETENCES SOUHAITEES +3 ans d’expérience sur la création et la maintenance de codes automates / supervisions Expérience en tant qu’automaticien en industrie (la connaissance du secteur agroalimentaire et/ou agricole sera appréciée) Raisonnement analytique et appétence pour le traitement de données Bonne communication écrite et orale Anglais indispensable (B2 minimum) ENVIRONNEMENT & CONDITIONS MISSION La mission est d’une durée initiale de 3 mois (renouvelable), avec un rythme idéalement de 5 jours par semaine (possible 4j). Démarrage immédiat requis. Après une période d’intégration à l’équipe et de formation (deux semaines environ, à 1h de Paris en train), au siège et auprès du partenaire IA (lieu : La Défense), la mission pourra avoir lieu à 90% en distanciel. Des déplacements ponctuels sur les sites industriels (République Tchèque, Allemagne, Serbie, UK…), à raison de 2-3 jours par mois maximum, sont à prévoir. Budget : 600-650€/jour (+ prise en charge des déplacements et des déjeuners sur site)

CDI

Offre d'emploi
Profils Data en pré-embauche

SARIEL
Publiée le
Big Data

10k-65k €
Paris, France

Pour un de nos clients situé dans la région parisienne nous cherchons en pré-embauche, les différents profils suivants: Profils Data maitrisant DataLake. La connaissance de l'anglais est un vrai plus. Nous recherchons obligatoirement des profils en CDI et non des indépendants. Le salaire est compris entre 45 et 55 Ke pour les confirmés et entre 55 et 60-65 Ke pour les experts. Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format Word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.

Freelance

Mission freelance
Architect data

ESENCA
Publiée le
Apache Kafka
Apache Spark
Big Data

3 mois
500-600 €
Lille, Hauts-de-France

L’équipe est actuellement composée de 3 personnes qui gèrent le périmètre technique du Data Office ( 50 personnes dont 15 data Analystes – 20 DE – 5 dataviz – 10 PM ). Le Data Office a un patrimoine applicatif utilisant les briques techniques suivantes : - GCP – dataproc – BQ – dataform - Dynatrace - Datawarehouse Oracle - Tableau Software - SAP Business Objects Mission principale : En tant qu'Architecte de Data plateforme, avec l’équipe, vous serez responsable de la conception, de la mise en œuvre et de l'optimisation de notre data plateforme sur GCP. Vous travaillerez en étroite collaboration avec les équipes technique de la DSI et les squad du data Office pour garantir que la plateforme réponde aux besoins actuels et futurs de l'entreprise. Responsabilités : 1. Conception et architecture : o Concevoir l'architecture globale de la data plateforme en respectant les meilleures pratiques de développement et des standards GCP et en garantissant la scalabilité, la performance, le finops et la sécurité. 2. Mise en œuvre et développement : o Superviser la mise en œuvre technique de la plateforme en collaboration avec les développeurs et les ingénieurs en données. o Participer activement au développement et à la maintenance des composants de la plateforme o Participer activement à la formation de l’équipe sur les outils de la data plateforme. o Participer au run sur les outils du Data Office afin de solutionner tous problèmes techniques. o Valider le coté financier des solutions mise en oeuvre 3. Gestion des données : o Apporter son support sur les stratégies de gestion des données incluant la collecte, le stockage, le traitement et l'archivage des données. 4. Sécurité et conformité : o Mettre en place des mesures de sécurité pour protéger les données sensibles et garantir la conformité aux réglementations en vigueur. o Participer aux audits de sécurité et les tests de vulnérabilité et à leur remédiation ( CSPR ) o Participer à la définition et à la mise en place du PRA 5. Innovation et veille technologique : o Rester informé des dernières avancées technologiques sur GCP et proposer des améliorations continues. o Tester et évaluer de nouvelles technologies susceptibles d'améliorer la plateforme. o Participer au guilde de dev

Freelance
CDI

Offre d'emploi
Skiils recherche son Expert data quality

skiils
Publiée le
Data management

12 mois
10k-98k €
Lille, Hauts-de-France

Au sein du Data Office, le Data Quality Process Owner est garant du processus global de data quality, transverse à l’ensemble des domaines digitaux de l’entreprise. il collabore avec l'ensemble des contributeurs de l'entreprise (Business, Produit, Data, Tecc..) pour s’assurer de l’application cohérente des politiques et standards de qualité des données, et il veille à ce que le processus de data quality soutienne les objectifs stratégiques Cohérence et intégrité des processus : Veiller à ce que les standards de qualité des données soient appliqués de manière homogène à travers les différents domaines, tout en restant adaptés aux spécificités de chacun. Amélioration continue : Identifier et promouvoir des stratégies d’amélioration continue en matière de Data Quality, Support et accompagnement au changement: Apporter un soutien aux différents contributeurs (Business, Produit, Data, Tech) dans la mise en oeuvre de leurs actions, en fournissant les bonnes pratiques, outils et retours d’expérience pour améliorer la qualité des données dans les périmètres métiers. Le Data quality Process Owner assure l’intégrité, la cohérence, la pérennité, la valeur des pratiques de qualité des données au niveau global, tout en s’assurant que chaque domaine dispose des moyens et des outils pour mettre en place un dispositif de data quality.

Freelance
CDI

Offre d'emploi
Directeur de projet migration Data - snowflake

Digistrat consulting
Publiée le
Big Data
Hadoop

3 ans
50k-60k €
Paris, France

🏭 Secteurs stratégiques : Banque de détail 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Les données transversales sont historiquement hébergées dans 3 entrepôts de données en technologie Teradata ainsi que dans divers datamarts utilisant plusieurs solutions d’accès aux données (Microstrategy, SAS, DataIku). Les data pipelines utilisent majoritairement les solutions DataStage et Informatica. Afin d’optimiser les coûts de run (TCO) et de gagner en productivité, nous envisageons de migrer en mode « lift end shift » les entrepôts de données et la partie data lake vers une solution lake house (Snowflake ou Databricks) avec un enjeu fort sur les délais. Une étude de cadrage détaillée a été lancée cet été et doit se terminer fin 2024 en vue de démarrer la phase d’exécution du projet de migration dès janvier 2025 afin de pouvoir tenir nos jalons. Cette étude vise à : Finaliser le Business case, la formalisation de la valeur métier et l’estimation des coûts (éditeurs, intégrateurs, SG, infrastructure on-premise et public cloud) Préciser l’architecture cible et en particulier la strategy à adopter sur le code ETL/ELT et les couches d’accès à la donnée Identifier avec précision l’ensemble du code/données à migrer en incluant les usages industriels et ceux de type shadow IT Contractualiser un forfait avec l’éditeur avec engagement de résultat sur la migration et potentiellement un second forfait avec un intégrateur pour assurer le déploiement dans l’infra SG du code migré ainsi que les tests d’acceptance permettant de valider les livrables de l’éditeur Définir la stratégie de migration (découpage en lots, périodes de freeze, stratégie de tests, prallel run...) dans un environnement avec une forte complexité applicative (grand nombre d’interdépendances) et organisationnel (plus d’une vingtaine d’équipes à coordonner) Construction de la roadmap de migration, de son suivi, définition des KPIs/critères de succès avec un focus fort sur le suivi contractuel des éditeurs/intégrateurs et la définition de la gouvernance associée Instruire les process SG visant au bon respect de nos règles de sécurité, d’architecture et de nos principes data dans le cadre réglementaire applicable Dans ce cadre la prestation consiste à contribuer à/au(x) : Contribuer au pilotage de l’étude détaillée 2024, Livrables, suivi et gestion dans son ensemble Reporting au senior management

Freelance

Mission freelance
CLOUDERA DATA ANALYST

AIS
Publiée le
Big Data
Cloudera

1 an
100-550 €
Nantes, Pays de la Loire

Nous recherchons un Administrateur Bases de Données (DBA) freelance pour une mission stratégique. Vous serez responsable de la gestion et de l’optimisation des bases de données d’une application critique. Vos principales missions incluront : Assurer le bon fonctionnement et la maintenance des bases de données. Optimiser l’exploitation et la performance des applications. Participer aux décisions de mise en production et gérer les incidents. Rédiger des retours d’expérience et maintenir la documentation à jour.

Freelance

Mission freelance
Chef de projet Data

Mon Consultant Indépendant
Publiée le
Data science
Gestion de projet
Python

6 mois
100-410 €
Paris, France

Nous recherchons en région parisienne pour nos clients (Grand Groupe Secteur Banque, Assurance ou autres), un Chef de projet Data pour intervenir dans les missions suivantes : - Piloter des projets d'amélioration de la qualité des données : proposer, formaliser le cadrage des projets et en animer la gouvernance, le développement, la mise en place et le suivi en collaboration étroite avec le DSI groupe et les métiers. - Superviser de manière fonctionnelle les échanges de données entre les applications métiers du Client. - Sensibiliser les équipes aux enjeux de la qualité des données : information, formation, communication…) - Support fonctionnel : analyser des problèmes identifiés en lien avec les données ; produire des reportings ; cartographier des flux ; optimiser des processus ; automatiser.

CDI

Offre d'emploi
Data Base Administrator Talend (H/F)

Randstad
Publiée le
Data management
Talend

55k €
Marseille, Provence-Alpes-Côte d'Azur

Nous recherchons pour le compte de notre client spécialité dans l'énergie un Data Base Administrator Talend (H/F) habilitable secret défense en CDI à Marseille. Conception de bases de données : - Effectuer les choix d'implémentation des bases de données dans le respect du cahier des charges et en collaboration avec les différents acteurs du projet (chef de projet, architectes, consultants ERP, experts « décisionnels » ...) - Concevoir, réaliser et optimiser l'architecture de la donnée du système d'information opérationnel - Participer à la conception et au développement de l'architecture de l'entrepôt de données décisionnel - Maintenir la documentation des schémas relationnels et non relationnels - Proposer et suivre les optimisations des requêtes SQL et no SQL afin de garantir les meilleures performances de nos applications métier - Assurer le support aux équipes de développement afin d'identifier et proposer des solutions performantes Gestion de la donnée : - Concevoir, développer et maintenir les flux de synchronisation entre nos différents systèmes avec notre outil ETL - Définir les templates, concevoir et réaliser les opérations d'import de données en masse - Support technique, assistance et observabilité - Participer aux corrections d'incidents, demandes d'évolutions des chefs de projet métier et assurer l'assistance utilisateurs de niveau 3 - Participer au déploiement de l'architecture applicative de microservices en adaptant le modèle de données historique - Suivre et gérer les performances des Bases Oracle et mongoDB - Assurer la veille technologique et traiter l'obsolescence technique

Freelance

Mission freelance
Lead Data Engineer Senior

PROPULSE IT
Publiée le
Big Data
engineer
lead

24 mois
450-900 €
Paris, France

PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code

Alternance

Offre d'alternance
Data Analyst Junior (H/F) - Alternance

IEF2I
Publiée le
Big Data

15 mois
20k-25k €
Paris, France

L' Ecole DSP , école du groupe IEF2I Education recherche activement pour le compte de l'un de ses partenaires "Préciser le type de société - ex : Startup parisienne", un profil Data Analyst Junior (H/F) en apprentissage, pour une durée de 12 à 24 mois. Sous la supervision de votre maitre d'apprentissage, vos missions principales seront les suivantes : Collecte et Traitement des Données : Collecter des données à partir de diverses sources internes et externes Nettoyer et préparer les données pour l'analyse, en assurant leur qualité et leur intégrité Analyse des Données : Effectuer des analyses statistiques pour identifier des tendances, des schémas et des anomalies Utiliser des outils de visualisation des données pour créer des rapports et des tableaux de bord interactifs Support aux Équipes Métier : Collaborer avec les équipes métier pour comprendre leurs besoins en données et fournir des analyses ad hoc Présenter des conclusions et des recommandations basées sur les analyses de données Amélioration Continue : Proposer des améliorations pour optimiser les processus d'analyse de données Participer à la mise en place de nouvelles méthodologies et outils d'analyse Conditions de l'offre : Une opportunité unique de travailler sur des projets innovants et à fort impact Un environnement de travail dynamique et collaboratif Des perspectives d’évolution de carrière au sein de l’entreprise. Rémunération : Selon la réglementation en vigueur pour les contrats d'apprentissage Début du contrat : ASAP

Freelance

Mission freelance
Tech Lead Confirmé – Azure Factory (Nantes ou Paris)

Intuition IT Solutions Ltd.
Publiée le
Azure Data Factory
Databricks

4 mois
600 €
Paris, France

Description de la mission : Dans le cadre d'un projet stratégique au sein d'une organisation en pleine transformation numérique, nous recherchons un Tech Lead Confirmé pour prendre en charge la direction technique de notre Azure Factory . Vous serez responsable de l'architecture, de la mise en œuvre et de l'optimisation des processus de développement dans un environnement cloud. Votre mission consistera à : Piloter les équipes techniques dans la conception et la réalisation des solutions basées sur Azure Data Factory . Garantir la qualité des livrables et respecter les délais tout en supervisant les bonnes pratiques de développement. Collaborer étroitement avec les différentes parties prenantes, incluant les équipes métiers, pour comprendre leurs besoins et transformer ces derniers en solutions techniques performantes. Être le référent technique sur l'ensemble des sujets liés à l'intégration et l'exploitation des données dans le cloud Azure. Accompagner l'équipe dans le développement des compétences autour des technologies Azure, avec une forte emphase sur Azure Data Factory . Contribuer à l'amélioration continue des processus de développement, de déploiement et de monitoring des applications.

CDI

Offre d'emploi
INGENIEUR D'AFFAIRE technique IT PARIS

Cogniwave dynamics
Publiée le
Data management
Informatique
Intelligence artificielle

60k-75k €
Paris, France

INGENIEUR D'AFFAIRE IT PARIS – Luxembourg Pour développer notre clientèle en France et au Luxembourg sur la partie IT de façon plus globale, nous recherchons un(e) Ingénieur d'affaire / practice manager avec plusieurs années d’expériences (3 / 8 ans) Vous avez déjà travaillé comme ingénieur d'affaire ou practice manager ou dans un rôle similaire Vous avez un background technique en IT et / ou Data-IA Vous avez déjà une clientèle établie Vous êtes familier avec des outils comme odoo ou salesforce Vous êtes à minima bilingue Français / Anglais courant (impératif) Poste basé à Paris ou Luxembourg Rejoignez notre équipe d'intelligence appliquée et plongez-vous dans des solutions innovantes et tournées vers l'avenir en utilisant des technologies de pointe. Dans notre culture bienveillante de succès partagé, de pensée diversifiée et d'opportunités illimitées, vous aurez la chance d'apprendre, de grandir et de faire progresser votre carrière de manière nouvelle et passionnante. Merci de nous préciser vos compétences techniques en quelques lignes Processus de sélection Pré-entretien Entretien technique (Skills IT) Prise de référence commerciale SALAIRE Salaire à discuter en fonction de votre expérience Primes trimestrielles de performance (% de la marge) Téléphone Voiture de fonction (Luxembourg)

Freelance
CDI

Offre d'emploi
Architecte Data

VISIAN
Publiée le
Architecture
Big Data

3 ans
59k-94k €
Vélizy-Villacoublay, Île-de-France

Visian recherche pour un de ses clients grand compte un profil Architecte Data . Contexte : Au sein de la direction Architecture de notre client grand compte, l'Architecte de Data conçoit et met en œuvre l'architecture et la stratégie de données d'une organisation. Dans le cadre d'un programme de transformation numérique initié par le groupe, vous serez impliqué dans la conception et le soutien à la construction de l'environnement DATA 4.0. À cette fin, en tant qu'architecte data, vos principales missions seront de : Contribuer à l'architecture, à la mise en œuvre et à la pérennité de l'entreprise du point de vue technique et fonctionnel, en accord avec les architectes/expert IT de chaque domaine de compétence (Stockage, Réseau, etc.) afin de soutenir les données de l'entreprise et leur utilisation ; Formaliser la description des bases de données (modèle de données métiers et dictionnaire de définition) et s'appuyer sur le responsable des données ; Orienter les pratiques des Data Engineers de la plateforme (ingestion et exposition des données), ainsi que les responsables des pratiques en gestion des données, Dataviz et ingénierie ML avec la plateforme de données, responsables respectivement de la mise en œuvre de la gouvernance des données, de la dataviz et de la science des données ; Soutenir les projets informatiques (architecture) dans la définition des besoins métiers concernant la description et l'utilisation des données (concepts métiers, exigences métiers, utilisation des données dans les algorithmes, modèles de données, flux de données, etc.) et animer l'urbanisation des données du SI de l'entreprise ; Concevoir les produits et solutions de données soutenus par les équipes de la fabrique numérique (Data Factory) (BI, self-service, IA, IAGen, gestion des données) en fonction de la stratégie technique et industrielle du département IT en ce qui concerne les problématiques de données ; Orienter les projets en mettant en place et en appliquant des normes et standards applicables à la construction des données et à leur description, en particulier en utilisant le dictionnaire de données et les modèles métiers ; Porter la vision technique, en interne comme en externe, et encourager ses développements avec les équipes en ligne avec la stratégie globale ; Contribuer à la qualité du contenu du dictionnaire de données et des modèles de bases de données dans le temps, et mettre en place des outils pour garantir la pérennité des données Assurer la gestion des changements de données (formation à l'utilisation des données, communication), mais aussi sur les évolutions en matière de normes et standards de données, sur l'évolution du dictionnaire et des modèles de données.

Freelance
CDI

Offre d'emploi
Data Product Manager

Ela Technology
Publiée le
Agile Scrum
Data analysis
Data management

3 mois
30k-200k €
Île-de-France, France

Vous allez intégrer l'équipe Data "Digital In Store" a pour objectif de révolutionner l'activité dans les magasins du groupe. Nous fournissons aux équipes digitales les insights et intégrons toute l'intelligence possible dans les outils opérationnels magasin. L'enjeu est d'augmenter l'impact et l'efficience des collaborateurs, afin de leur permettre les meilleures prises de décisions. Nous apportons des solutions techniques innovantes au service de nos utilisateurs internes et assurons au quotidien leur plus haut niveau de satisfaction.

Freelance

Mission freelance
Ingénieur Data (Snowflake)

Phaidon London- Glocomms
Publiée le
AWS Cloud
Big Data
Python

12 mois
500-650 €
Paris, France

En partenariat avec un cabinet de conseil partenaire de Snowflake, GloComms recherche un ingénieur de données senior doté d'une vaste expérience et d'une solide expérience dans Snowflake. Poste : Ingénieur Data Snowflake Durée : Projet de 12 mois Lieu : France Remote: Oui - Déplacements occasionnels dans l'un des bureaux de nos clients à Paris ou à Lyon Date de début : Octobre Contrat : Freelance (Portage Salarial, Autoentrepreneur, SASU) Principales responsabilités : Vous concevrez, construirez et installerez des systèmes de gestion de données hautement évolutifs Maintiendrez et testerez l'infrastructure de données et fournirez un support si nécessaire Contribuerez à la migration de l'on-prem vers Snowflake Collaborerez étroitement avec les autres Data Scientists pour créer et améliorer le produit du client Contribuer aux meilleures pratiques en matière de données au sein de l'équipe et de l'entreprise Profil du candidat idéal : 6+ années d'expérience professionnelle en ingénierie des données et au moins 2+ années avec Snowflake Idéalement, avoir déjà travaillé sur des projets de migration vers Snowflake Vaste expérience du langage de programmation avec Python, SQL ou Java Connaissances/expérience solides des principes de l'architecture des données et des couches de la plateforme de données Expérience supplémentaire également sur 1 ou plusieurs outils ETL/ELT dans Talend ou Informatica Une expérience dans le cloud est un plus (AWS, Azure ou GCP) Anglais courant

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

548 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous