Trouvez votre prochaine offre d’emploi ou de mission freelance Teradata à Paris
Consultant Teradata ( BTEQ) - Datastage

Vous contribuerez à la construction des solutions sous technologie Teradata, en étroite collaboration avec les autres membres de l'équipe. Vous aurez en charge le développement des solutions de collecte des données, de leur stockage, traitement et usages, mise à disposition : une expérience des environnements Unix, du SQL et des SGDB relationnels est indispensable ainsi que des bonnes pratiques de développement et modélisation sous technologie Teradata BTEQ. Concrètement cela consiste en : Mesurer de nouveaux indicateurs internes, donc les collecter et les stocker en DATAHUB puis constituer le livrable attendu selon différentes périodicités Collecter et stocker les retours pour traitement interne (3 flux identifiés) Adapter des outils de pilotage existants (Rapport SSRS, flux pour applications aval, extractions…) et en créer de nouveaux (Marché ENT et PRO…). Concrètement, les principaux travaux porteront sur : Conception, modélisation et développement de collecte de flux et de traitements Entrepôt/DATALAB Une fois les résultats validés, industrialisation du DATALAB en DATAMART
Data Engineer SQL GCP Talend BigQuery Python Teradata DataForm CloudComposer
Data Engineer Compétences clés Obligatoires : SQL GCP Talend BigQuery Compétences clés Importantes : Python Teradata DataForm CloudComposer Missions principales : • Analyser les besoins métiers et comprendre les impacts business des données afin de réaliser une conception pertinente et alignée avec les objectifs stratégiques. • Concevoir et développer des pipelines de données robustes et scalables en utilisant Talend et les services de Google Cloud Platform (BigQuery, DataForm, Dataflow, Pub/Sub, CloudComposer). Vous serez au cœur de la construction d’une infrastructure de données moderne et performante. • Améliorer la performance et la scalabilité des solutions existantes pour répondre aux besoins stratégiques de l’entreprise. • Collaborer étroitement avec les architectes, PO et Data Analyst pour garantir la qualité et l’exploitation optimale des données. • Maintenir une documentation technique précise et complète sur les processus et les solutions implémentés. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Mettre en place et gérer des systèmes de monitoring et d’alerting pour assurer une supervision proactive des pipelines et systèmes de données, garantissant leur fiabilité et leur disponibilité. • Support au déploiement • Assure la maintenance corrective ou évolutive • S’assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l’équipe
Expert Teradata / Pyspark
Bonjour, Pour un de mes clients, je suis à la recherche Profil Teradata & PySpark | Pour une Mission Long Terme. 📍 Lieu : 2 jours de déplacement par semaine à Tours (reste en télétravail) 📅 Durée : 6 mois renouvelables (long terme) 🕒 Disponibilité : ASAP 🌍 Langue : Bon niveau d’ anglais requis 🔹 Compétences requises : ✔ Expertise Teradata ✔ Maîtrise de PySpark ✔ Expérience en traitement et manipulation de données à grande échelle ✔ Capacité à travailler en environnement international Je reste à disposition pour toutes informations complémentaires. Bien cdt,
Data Engineer GCP / Talend
Analyser les besoins métiers et comprendre les impacts business des données afin de réaliser une conception pertinente et alignée avec les objectifs stratégiques. • Concevoir et développer des pipelines de données robustes et scalables en utilisant Talend et les services de Google Cloud Platform (BigQuery, DataForm, Dataflow, Pub/Sub, CloudComposer). Vous serez au cœur de la construction d’une infrastructure de données moderne et performante. • Améliorer la performance et la scalabilité des solutions existantes pour répondre aux besoins stratégiques du client • Collaborer étroitement avec les architectes, PO et Data Analyst pour garantir la qualité et l’exploitation optimale des données. • Maintenir une documentation technique précise et complète sur les processus et les solutions implémentés. • Réaliser la recette technique et participer à animer la recette fonctionnelle avec les utilisateurs et le PO • Mettre en place et gérer des systèmes de monitoring et d’alerting pour assurer une supervision proactive des pipelines et systèmes de données, garantissant leur fiabilité et leur disponibilité. • Support au déploiement • Assurer la maintenance corrective ou évolutive • S’assurer de la cohérence des livrables avec les règles et bonnes pratiques prédéfinies
INGENIEUR DATA BI - GENIO

INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
ARCHITECTE GENERALISTE MOVE TO CLOUD AZURE ET GCP

Au sein d'une équipe Architecture d'une Direction des Infrastructures et de la Production de l'un de nos clients, nous recherchons un(e) architecte technique généraliste qui contribuera aux activités suivantes : - Etudes techniques & Design - Cadrage budgétaire - Définition des best practices d'architecture - Documentation (DAT) - Accompagnement de la stratégie Move2Cloud - Accompagnement des équipes d'exploitation et de développement Environnement général : - Plateformes E-commerce - Plateformes BackOffice & Logistique - Cloud Public Azure & GCP - Cloud Privé (Infrastructure VMWARE Infogérée) - CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) - Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle - Big Data Hadoop, Terradata, MapR, BigQuery, DataBricks - Conteneurisation Docker & Orchestration AKS - Progiciels SAP, Siebel, HRAccess
ARCHITECTE TECHNIQUE ON PREMISE & CLOUD AZURE ET GCP

Nous recherchons plusieurs Architectes Technique OnPrem & Cloud pour une mission longue chez l'un de nos clients. Niveau expérimenté à senior requis. CONTEXTE DE LA MISSION Au sein de l'équipe Architecture de la Direction des Infrastructures et de la Production du groupe, le consultant contribuera aux activités : - Etudes techniques & Design - Cadrage budgétaire - Définition des best practices d'architecture - Documentation - Accompagnement de la stratégie Move2Cloud - Co-construction des solutions - Accompagnement des équipes d'exploitation et de développement Environnement général - Plateformes E-commerce - Plateformes BackOffice & Logistique - Cloud Public Azure & GCP - Cloud Privé (Infrastructure VMWARE Infogérée) - CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) - Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle - Big Data Hadoop, Terradata, MapR, BigQuery, DataBricks - Conteneurisation Docker & Orchestration AKS - Progiciels SAP, Siebel, HRAccess DESCRIPTION DE LA MISSION - Etude des besoins issus des équipes de développement - Etude de l'évolution des composants de plateformes techniques ou de l'intégration de nouveaux services - Rédaction des documents d'architecture et d'intégration générale et détaillée - Rédaction des supports d'aide à l'exploitation et accompagnement des équipes d'exploitation durant la transition - Contribution à l'évaluation budgétaire des solutions mises en œuvre - Support N3 des équipes d'exploitation Démarrage souhaité : au plus tôt Durée de la mission : Longue Paris
Architecte technique infrastructure On premise & Cloud Azure et GCP

o Au sein de l'équipe Architecture de la Direction des Infrastructures et de la Production du groupe, le consultant contribuera aux activités : • Cadrages techniques et budgétaires en collaboration avec les chefs de projet • Définition des best practices d'architecture • Documentation (DAT, HLD…) • Accompagnement de la stratégie Move2Cloud • Accompagnement des équipes d'exploitation et de développement • Veille technologique Environnement général o Plateformes E-commerce o Plateformes BackOffice & Logistique o Cloud Public Azure & GCP o Cloud Privé (Infrastructure VMWARE Infogérée) o CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) o Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle o Big Data Terradata, MapR, BigQuery, DataBricks o Conteneurisation Docker & Orchestration AKS o Progiciels SAP, Siebel, HRAccess DESCRIPTION DE LA MISSION Missions à prévoir et Expérience acquise Etude des besoins issus des équipes de développement : 5 à 10 ans Etude de l'évolution des composants de plateformes techniques ou de l'intégration de nouveaux services : 5 à 10 ans Rédaction des documents d'architecture et d'intégration générale et détaillée : 5 à 10 ans Rédaction des supports d'aide à l'exploitation et accompagnement des équipes d'exploitation durant la transition : 5 à 10 ans Contribution à l'évaluation budgétaire des solutions mises en œuvre : 5 à 10 ans Support N3 des équipes d'exploitation : 5 à 10 ans Une grande majorité des sujets actuellement adressés par l'équipe d'architecture technique concerne les environnements OnPrem.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.