Trouvez votre prochaine offre d’emploi ou de mission freelance Teradata
Data Engineer SQL GCP Talend BigQuery Python Teradata DataForm CloudComposer
Data Engineer Compétences clés Obligatoires : SQL GCP Talend BigQuery Compétences clés Importantes : Python Teradata DataForm CloudComposer Missions principales : • Analyser les besoins métiers et comprendre les impacts business des données afin de réaliser une conception pertinente et alignée avec les objectifs stratégiques. • Concevoir et développer des pipelines de données robustes et scalables en utilisant Talend et les services de Google Cloud Platform (BigQuery, DataForm, Dataflow, Pub/Sub, CloudComposer). Vous serez au cœur de la construction d’une infrastructure de données moderne et performante. • Améliorer la performance et la scalabilité des solutions existantes pour répondre aux besoins stratégiques de l’entreprise. • Collaborer étroitement avec les architectes, PO et Data Analyst pour garantir la qualité et l’exploitation optimale des données. • Maintenir une documentation technique précise et complète sur les processus et les solutions implémentés. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Mettre en place et gérer des systèmes de monitoring et d’alerting pour assurer une supervision proactive des pipelines et systèmes de données, garantissant leur fiabilité et leur disponibilité. • Support au déploiement • Assure la maintenance corrective ou évolutive • S’assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l’équipe
Data engineer Teradata

je recherche un Développeur Data pour rejoindre une squad dédiée aux sujets CRM et Conformité . Vous intégrerez une équipe pluridisciplinaire intervenant sur des plateformes data de dernière génération, dans un environnement technique riche et stimulant. Participer à la conception et au développement de Datalabs et Datamarts sur la technologie Teradata ; Développer et maintenir des solutions de collecte , stockage et traitement de la donnée (constitution d’agrégats, calculs de scores, etc.) ; Assurer la mise à disposition des données pour les équipes data science et les utilisateurs métiers ; Respecter les bonnes pratiques de modélisation , de développement et d’ optimisation des performances .
Data Engineer Teradata / Informatica (HF)

La prestation concerne la prise en charge de bout en bout des demandes de data. Le/la consultant(e) sera en lien direct avec l'ensemble des métiers sans intermédiaire et devra être en capacité de délivrer les développements attendus. Il/elle devra challenger les besoins et être force de proposition dans les solutions attendues. Il/elle se verra affecter un portefeuille de demande et devra être en capacité d’organiser son plan de charge en fonction de ses engagements et la disponibilité de ses interlocuteurs. Il/elle devra avoir une démarche agile, à savoir délivrer par itération et privilégier une approche de type « prototypage ». L’équipe est répartie en plusieurs « cellules » pour les activités suivantes : Appui au Pilotage Production Projets Agiles Projets Industriels Projets Industriels : Prendre en charge les demandes de data complexe (croisements, enrichissements de fichiers, rapprochement, intégration, modélisation, mise en qualité) Participer ou organiser des ateliers métiers, recueil et analyse des besoins, Modéliser les traitements en mode industriel Réaliser la recette qualitative et quantitative Accompagner le métier dans la phase de validation Communiquer à toutes les phases du projet Réaliser la documentation (EB, Cahier de Recette) Présenter le sujet aux autres équipes (Fiche synthétique projet, Présentation .ppt, Communication par email, …) Accompagner les autres membres de l’équipe dans la phase de modélisation Assurer la gouvernance de la donnée Production : Maintien en condition opérationnelle en effectuant le suivi de production, mise à jour de la documentation, optimisation et correction des traitements afin de respecter les bonnes pratiques en vigueur, rattrapages et relances auprès des partenaires internes et externes pour fiabiliser les échanges Prend en charge les demandes de data simples (croisements, production de listing, enrichissement de fichiers) Participe à des ateliers métiers, recueil et analyse des besoins, Développe et déploie les traitements en mode agile Communication en cas d’incident Assure la permanence, l’assistance et le support utilisateurs (questions, incidents, etc.) Projets Agiles : Prend en charge les POC et projets data en mode agile (croisements, enrichissements de fichiers, rapprochement, intégration, modélisation, mise en qualité) Participe ou organise des ateliers métiers, recueil et analyse des besoins, Modélise, développe et déploie les traitements en mode agile Réalise la recette qualitative et quantitative Accompagne le métier dans la phase de validation Communique à toutes les phases du POC / projet Livrables attendus : Documentation (exigences logiciels, standards et bonnes pratiques) Exigences Fonctionnelles Guides utilisateurs Rapport de test Spécifications fonctionnelles Spécifications techniques
Expert Teradata / Pyspark
Bonjour, Pour un de mes clients, je suis à la recherche Profil Teradata & PySpark | Pour une Mission Long Terme. 📍 Lieu : 2 jours de déplacement par semaine à Tours (reste en télétravail) 📅 Durée : 6 mois renouvelables (long terme) 🕒 Disponibilité : ASAP 🌍 Langue : Bon niveau d’ anglais requis 🔹 Compétences requises : ✔ Expertise Teradata ✔ Maîtrise de PySpark ✔ Expérience en traitement et manipulation de données à grande échelle ✔ Capacité à travailler en environnement international Je reste à disposition pour toutes informations complémentaires. Bien cdt,
Tech Lead Linux

🎯 Missions : ✔ Administration de la plateforme SAS (ajout d'utilisateurs, configuration des serveurs) ✔ Développement et automatisation de scripts SAS & SHELL ✔ Analyse et optimisation des chargements de bases de données ✔ Ouverture de la plateforme aux outils Python & Dataiku ✔ Support aux utilisateurs en France et à l’international 🔎 Environnement technique : SAS, SHELL, Teradata (TPT, SQL), GIT, awk, SQL, DDL Teradata, Ansible, Agile SCRUM Langue : Anglais obligatoire ✅ Compétences requises : 🔹 Expérience en migration de serveurs 🔹 Expertise en scripting Linux Shell 🔹 Bonne maîtrise des environnements SaaS 🔹 Connaissance approfondie de Teradata et capacité à migrer des données SaaS vers Teradata
développeur expérimenté AB Initio

Pour le besoin de mon client en Île de France , je cherche un développeur expérimenté AB Initio Compétences et environnement techniques : Expertise Ab Initio : Maîtrise des graphes, de la qualité des données et des outils comme Ab Initio Deep Dive. Solide expérience dans l’ingestion et la transformation des données depuis un mainframe jusqu’à un entrepôt de données comme Teradata. Compréhension approfondie du lignage technique et fonctionnel des données. Bonne connaissance des pratiques de gouvernance et gestion des métadonnées Outils / langages : Script Shell, Python, Dataiku, Java, Ansible, Git, Cloud Méthode/Outils : Agile / JIRA => Vous savez lire des programmes (dans différents langages), des scripts, vous avez des compétences DevOPS (Ansible, Git, web et infra) et Cloud.
INGENIEUR DATA BI - GENIO

INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
ARCHITECTE GENERALISTE MOVE TO CLOUD AZURE ET GCP

Au sein d'une équipe Architecture d'une Direction des Infrastructures et de la Production de l'un de nos clients, nous recherchons un(e) architecte technique généraliste qui contribuera aux activités suivantes : - Etudes techniques & Design - Cadrage budgétaire - Définition des best practices d'architecture - Documentation (DAT) - Accompagnement de la stratégie Move2Cloud - Accompagnement des équipes d'exploitation et de développement Environnement général : - Plateformes E-commerce - Plateformes BackOffice & Logistique - Cloud Public Azure & GCP - Cloud Privé (Infrastructure VMWARE Infogérée) - CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) - Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle - Big Data Hadoop, Terradata, MapR, BigQuery, DataBricks - Conteneurisation Docker & Orchestration AKS - Progiciels SAP, Siebel, HRAccess
Architecte technique infrastructure On premise & Cloud Azure et GCP

o Au sein de l'équipe Architecture de la Direction des Infrastructures et de la Production du groupe, le consultant contribuera aux activités : • Cadrages techniques et budgétaires en collaboration avec les chefs de projet • Définition des best practices d'architecture • Documentation (DAT, HLD…) • Accompagnement de la stratégie Move2Cloud • Accompagnement des équipes d'exploitation et de développement • Veille technologique Environnement général o Plateformes E-commerce o Plateformes BackOffice & Logistique o Cloud Public Azure & GCP o Cloud Privé (Infrastructure VMWARE Infogérée) o CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) o Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle o Big Data Terradata, MapR, BigQuery, DataBricks o Conteneurisation Docker & Orchestration AKS o Progiciels SAP, Siebel, HRAccess DESCRIPTION DE LA MISSION Missions à prévoir et Expérience acquise Etude des besoins issus des équipes de développement : 5 à 10 ans Etude de l'évolution des composants de plateformes techniques ou de l'intégration de nouveaux services : 5 à 10 ans Rédaction des documents d'architecture et d'intégration générale et détaillée : 5 à 10 ans Rédaction des supports d'aide à l'exploitation et accompagnement des équipes d'exploitation durant la transition : 5 à 10 ans Contribution à l'évaluation budgétaire des solutions mises en œuvre : 5 à 10 ans Support N3 des équipes d'exploitation : 5 à 10 ans Une grande majorité des sujets actuellement adressés par l'équipe d'architecture technique concerne les environnements OnPrem.
ARCHITECTE TECHNIQUE ON PREMISE & CLOUD AZURE ET GCP

Nous recherchons plusieurs Architectes Technique OnPrem & Cloud pour une mission longue chez l'un de nos clients. Niveau expérimenté à senior requis. CONTEXTE DE LA MISSION Au sein de l'équipe Architecture de la Direction des Infrastructures et de la Production du groupe, le consultant contribuera aux activités : - Etudes techniques & Design - Cadrage budgétaire - Définition des best practices d'architecture - Documentation - Accompagnement de la stratégie Move2Cloud - Co-construction des solutions - Accompagnement des équipes d'exploitation et de développement Environnement général - Plateformes E-commerce - Plateformes BackOffice & Logistique - Cloud Public Azure & GCP - Cloud Privé (Infrastructure VMWARE Infogérée) - CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) - Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle - Big Data Hadoop, Terradata, MapR, BigQuery, DataBricks - Conteneurisation Docker & Orchestration AKS - Progiciels SAP, Siebel, HRAccess DESCRIPTION DE LA MISSION - Etude des besoins issus des équipes de développement - Etude de l'évolution des composants de plateformes techniques ou de l'intégration de nouveaux services - Rédaction des documents d'architecture et d'intégration générale et détaillée - Rédaction des supports d'aide à l'exploitation et accompagnement des équipes d'exploitation durant la transition - Contribution à l'évaluation budgétaire des solutions mises en œuvre - Support N3 des équipes d'exploitation Démarrage souhaité : au plus tôt Durée de la mission : Longue Paris
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Freelance No-codeil y a 2 minutes
- Facture impayé que faire ?il y a une heure
- Proposition de CDI en tant que freelanceil y a 4 heures
- comment negocier frais mission ville éloignée ?il y a 4 heures
- Valoriser des travaux R&D faits soi-même sans salairesil y a 4 heures
- Clause de non concurrence en CDIil y a 6 heures