Trouvez votre prochaine offre d’emploi ou de mission freelance SCADA
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Référent automatisme et supervision (H/F)

Référent Automatisme & Supervision H/F Type de contrat : CDI Localisation : Bordeaux (33000) Ref : 1810 Points clés du poste : Définir les spécifications des systèmes de supervision, concevoir et tester les solutions, Superviser la maintenance et la fiabilité des systèmes SCADA, Résoudre les problématiques techniques et valider les modifications de configuration, Faciliter la transition entre les phases de développement et de déploiement, Recetter les systèmes après mise en service, Assister le chef de projet dans le suivi des actions et la coordination avec les cotraitants.
Architecte Système Kafka

Nous recherchons un Architecte Système Kafka pour un client grand compte afin de concevoir et déployer des architectures de données scalables et résilientes sur Kafka Confluent Cloud . Missions principales Concevoir et optimiser les architectures de streaming haute performance Définir les stratégies de déploiement et de scalabilité des clusters Kafka Intégrer Kafka avec diverses sources de données et plateformes Encadrer et former les équipes techniques Piloter les audits de sécurité, conformité et performance Assurer la documentation et le support N3
Data Engineer Risk

La mission va se dérouler au sein du département IT Data Management & Business Intelligence, plus précisément dans l'équipe Big Data & API / Squad Financing & Risk. Cette équipe est actuellement responsable du développement et de la gestion d'un datalake nommé RiskLake. Ce datalake sert de plateforme de données centralisée pour les équipes IT et métiers. Il permet de stocker, traiter et analyser de grandes quantités de données de manière efficace et sécurisée. L'objectif principal de la mission est d'assurer le rôle de Data Engineer pour le RiskLake. Les responsabilités incluent : - Gestion de la production - Gestion de la dette technique - Revoir l'architecture actuelle et proposer des évolutions - Développements liés aux projets
Développeur Big Data

La DSI Fonctions Centrales de BNP Paribas Personal finance (350 personnes) a en charge la gestion d'applications métiers pour le compte des clients corporate de PF (Finance, risque, conformité, marketing, automobile, RH, ...) et des plateformes data. Elle opère pour le compte de ses clients en central, mais est également fournisseur d'applications pour l'ensemble des filiales de PF sur ce périmètre transverse. La prestation se déroule sur le site de BNPP PF Unicity (Levallois) au sein de la Tribe Data France. Au sein de l’équipe "DATA IT", la prestation consiste à : Contribuer à l’estimation des User Stories et s’engager avec l’équipe sur un périmètre de réalisation au cours du prochain sprint, en adéquation avec la capacité à faire de l’équipe Développer les User Stories dans le respect des normes et standards de développement et de sécurité, en intégrant les enjeux data et sécurité Aider à définir et actualiser régulièrement les artefacts de l’équipe (DOR, DOD…) Durant le Sprint, partager l’avancement de ses travaux ainsi que les points de blocage à lever pour atteindre l’objectif fixé Contribuer à l’optimisation de la qualité du code (code review) et à sa maintenabilité Assurer les tests unitaires et contribuer aux autres activités de tests Mettre en œuvre les corrections nécessaires sur les anomalies détectées (build et run) Co-présenter en Sprint Review les résultats des stories prises en charge, les problèmes rencontrés et leur résolution, et répondre aux questions des participants Contribution à la documentation technique du produit Participer à la livraison du produit dans les différents environnements L'environnement technologique est du Big Data Hadoop, le développement est en SPARK SCALA. Expérience requise en SPARK SCALA
Data Engineer

Poste : Nous recherchons un Data Engineer (H/F) afin de renforcer notre pôle AI Experts qui intervient sur des sujets impactant directement notre business et l'expérience client, afin d'optimiser la personnalisation, le taux de conversion et les assets. Grâce à ses compétences alliant développement bigdata, appétences pour les modèles d’IA et architecture applicative, le data engineer participe à la conception d’applications mettant à l’échelle des algorithmes créateurs de valeur pour l’entreprise.
Développeur Data - Unicity

Localisation Levallois La DSI Fonctions Centrales (350 personnes) a en charge la gestion d'applications métiers pour le compte des clients corporate de PF (Finance, risque, conformité, marketing, automobile, RH, ...) et des plateformes data. Elle opère pour le compte de ses clients en central, mais est également fournisseur d'applications pour l'ensemble des filiales de PF sur ce périmètre transverse. La prestation se déroule sur le site de Levallois au sein de la Tribe Data France. Au sein de l’équipe "DATA IT", la prestation consiste à :
Consultant Red Team (F/H). CDI uniquement

Description du poste : En tant que consultant Red Team au sein de notre entreprise pure player de la cybersécurité (membre d’Hexatrust), vous serez responsable de mener des évaluations avancées de la sécurité des systèmes d'information de nos clients. Vous travaillerez en équipe pour simuler des attaques réelles afin d'identifier les vulnérabilités et d'améliorer la résilience de leurs infrastructures face aux menaces cybernétiques. Ce rôle nécessite une expertise technique approfondie et une compréhension avancée des tactiques d'attaques et des techniques de défense. Responsabilités : Concevoir et exécuter des simulations d'attaques cybernétiques complexes pour évaluer la sécurité des réseaux, des applications et des systèmes. Utiliser des outils et des méthodologies avancées pour identifier les points faibles et les vecteurs potentiels d'attaques. Collaborer avec les équipes de sécurité pour recommander et mettre en œuvre des mesures correctives et des améliorations de sécurité. Rédiger des rapports détaillés sur les résultats des tests et des recommandations pour les clients. Participer à l'élaboration de stratégies de sécurité et à la sensibilisation des équipes internes et des clients sur les pratiques de sécurité optimales.
Operational Technology Manager
Pilotage et évolution des systèmes OT 🚀 Superviser et faire évoluer les systèmes d’automatisation et de supervision industrielle (SCADA, MES, HMI, PLC). Assurer l’intégration et la compatibilité des équipements industriels avec les systèmes IT de l’entreprise. Garantir l’interopérabilité des solutions et la standardisation des outils utilisés sur les différents sites. 2️⃣ Sécurisation et conformité des infrastructures OT 🔒 Mettre en place et piloter les stratégies de cybersécurité OT , en collaboration avec les équipes IT et ingénierie. Assurer la conformité des systèmes OT avec les normes et réglementations en vigueur (NIS2, Industry 4.0, GAMP5 si applicable). Définir et appliquer les politiques de gestion des accès et de monitoring des infrastructures industrielles . 3️⃣ Gestion des projets OT et coordination multi-sites 🎯 Accompagner la digitalisation des opérations en déployant des solutions innovantes d’amélioration continue (IoT industriel, data analytics, smart maintenance). Piloter des projets d’investissement et d’amélioration des infrastructures de production. Gérer la relation avec les fournisseurs et intégrateurs pour l’installation et la maintenance des solutions OT. 4️⃣ Collaboration et support aux équipes internes 🤝 Travailler en synergie avec les équipes production, IT, maintenance et ingénierie pour optimiser l’utilisation des technologies industrielles. Assurer le support technique et fonctionnel des systèmes OT, en garantissant leur disponibilité et leur performance. Former et sensibiliser les équipes à l'utilisation des outils OT et aux bonnes pratiques en cybersécurité industrielle.
Data engineer (H/F)
En tant que Data Engineer, vos principales responsabilités incluront : Optimisation et migration des jobs existants : Optimiser des jobs déjà en place et migrer ceux écrits en Hive vers Spark pour améliorer leurs performances. Modification et ajustement des workflows : Adapter les workflows actuels pour répondre aux nouvelles exigences des partenaires. Tuning des applications Spark : Effectuer des ajustements techniques pour améliorer les performances des applications Spark. Création et développement de nouveaux jobs : Concevoir et développer de nouveaux jobs de bout en bout en réponse aux besoins clients. Développement de backend : Développer de nouveaux backends afin de faire évoluer la stack technique du train SAFe PNS. Résultats attendus : Amélioration significative des performances grâce à la migration vers Spark. Refonte de l'architecture de certains jobs permettant de détecter et corriger des problèmes des anciennes versions. Création de jobs répondant aux nouvelles attentes des clients dans les délais impartis.
Consultant Data Engineer Expérimenté

Contexte : Le programme DATA a pour objectif de doter notre client dans le secteur des médias des outils permettant une meilleure exploitation des données dans la prise de décision et le développement d'une approche data-driven . Ce programme impacte à la fois les outils, l'organisation et les processus. Les projets en cours couvrent : Initiatives métier : Intelligence Artificielle (IA), segmentation & activation, reportings & analyses. Initiatives techniques : Socles de données, gouvernance & qualité. Organisation : Le consultant intégrera l'équipe DATA Delivery au sein du pôle ingénierie de la direction DATA du groupe. Cette équipe est responsable de l'évolution et de la maintenance des socles de données (usage, VOD, advertising, etc.), ainsi que du partage des données avec des partenaires comme Apple+, Paramount+, etc. L'écosystème technique inclut : AWS (Lambda, EMR Serverless, Kinesis Stream, Firehose, S3, DynamoDB), Spark, DBT, Scala, Python, Snowflake, GitLab CI/CD, Terraform, IA.
Data engineer Scala / Kafka / Azure - H/F

Nous recherchons un Data Engineer Senior passionné(e) par les données et les infrastructures modernes. Vous jouerez un rôle clé dans la mise en place et la gestion des pipelines de données, tout en garantissant la fiabilité et l'efficacité des systèmes Principales activités : Développer, tester et démontrer les différentes briques de la plateforme, les services et les usages Améliorer les services existants en collaboration avec les Product Owners Documenter et partager les solutions sur Confluence Assurer une veille technologique et participer à l’innovation Participer aux cérémonies Agile/SAFe et aux divers ateliers Environnement technique : Langages : Scala (maîtrise requise), Python Cloud & Data : Azure, Databricks, HDFS, Spark Orchestration & Streaming : Airflow, Oozie, Kafka (Kafka Streams, Flink, Spark Streaming) CI/CD & Conteneurisation : Git, Docker, AWX, CDP, OpenShift Méthodologies : Agile, Scrum, SAFe
Ingénieur Data (H/F)

CITECH recrute ! 👌 🚀 Rejoignez-nous et intégrez un environnement Big Data à la pointe de la technologie ! Vous êtes passionné(e) par les environnements Big Data et souhaitez relever des défis en gestion courante applicative au sein d’une équipe dynamique et engagée ? Nous avons le poste d’ Ingénieur Data (H/F) pour vous ! ✨ 💰 Votre mission est pour un client du secteur banque et assurance qui dispose de 3000 caisses locales sur l’ensemble du territoire ainsi que de 8000 conseillers. Le projet est pour l’une de ces caisses. 📝 Au sein de la Direction des Systèmes d’Information, vous rejoignez l’équipe Gestion Courante Décisionnelle et jouerez un rôle clé dans le maintien et l’évolution des applications décisionnelles du groupe. 🙌🔽 Vous aurez les missions principales suivantes : 🔽🙌 ✅ Suivi et exploitation des traitements quotidiens en Spark/Scala ✅ Analyse et correction des incidents fonctionnels ✅ Reprise et qualité des données en lien avec l’équipe Datalake ✅ Rédaction et mise à jour de la documentation ✅ Livraison en production des corrections et suivi des mises en production ✅ Collaboration avec les chefs de projet pour assurer une amélioration continue
Data Engineer Databricks Sénior

Nous recherchons un Data Engineer Databricks Sénior avec une expérience minimale de 5 ans. Le contexte : Migration des traitement Apache Spark/Scala du datalake depuis une plateforme AKS/Airflow vers Azure Databricks et mise en place de nouveaux pipelines Organisation et suivi des migrations des projets depuis AKS vers Databricks Audit du patrimoine applicatif et organisation de chantiers de refactorisation pour améliorer la résilience et les performances des applications Homogénéisation des pratiques de développement au sein du service (mise en place TU, process de code review, mise en place d’outils de code quality ...) Suivi et résolution de failles de sécurité Elargissement de l’utilisation des services Databricks par les projets (Unity Catalog, migration parquet vers delta, workflows ...) Maitrise DevOps Maitrise de Spark / Scala / Databricks & AZURE sont indispensables 2 ans d'expérience minimum dans le même environnement technique
Architecte DATA

SI LA GESTION DES DONNEES EST TON DADA, TU PEUX GAGNER LA COURSE EN LISANT CETTE ANNONCE … Ce que tu recherches : · Evoluer au sein d’une équipe dynamique · Participer à des projets innovants d’envergure · Relever des défis · Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’acteurs majeurs du secteur Bancaire, tu participeras des projets d’envergure sur des évolutions majeures à mettre en œuvre dans le SI du client : · Audit et conseil, tu feras · L’architecture et/ou socle technique, tu définiras · Dossiers d’architecture, tu rédigeras · Cadrage de projet, tu t’occuperas · Bonnes pratiques, tu instaureras · Accompagnement des développements, tu géreras · Aux instances de pilotage, tu participeras
Ingénieur Data expérimenté
Bonjour, Nous recherchons des talents passionnés pour renforcer notre équipe Data. En tant qu’Ingénieur(e) Data, vous jouerez un rôle clé dans la conception et la mise en œuvre de solutions robustes pour traiter et analyser de grands volumes de données. Vos missions principales : Développer, optimiser et automatiser des pipelines ETL/ELT. Concevoir des architectures Big Data performantes et évolutives. Implémenter des solutions de stockage, de traitement et de modélisation des données. Assurer la qualité, la sécurité et la gouvernance des données. Collaborer étroitement avec les Data Scientists, les Analystes et les équipes DevOps.
Data engineer Finlake

Contexte / Objectifs : La mission va se dérouler au sein de l'IT Financement dans l'équipe Business intelligence qui aujourd'hui développe et gère un datalake (FinLake). Ce datalake est utilisé comme une data plateforme pour les équipes IT et métiers. L'objectif de la mission est d'assurer le rôle de Data Engineer du Finlake : - Gestion de la production - Gestion de la dette technique - Revoir l'architecture actuelle et proposer des évolutions - Développements liés aux projets Description : • Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise • Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent Activités et tâches : • Acheminement de la donnée • Mise à disposition de la donnée aux équipes utilisatrices • Mise en production de modèles statistiques • Suivi de projet de développement • Développement job spark • Traitement et ingestion de plusieurs formats des données • Développement des scripts • Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données • Développement des moyens de restitution via génération de fichier et ou API & Dashboarding • Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers • Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) • Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP • Participer à la conception, mise en place et administration de solutions Big Data • Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka • Normalisation et agrégation des données afin de produire les rapports sous forme de Business View
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Prime de partage de la valeur (ex Prime Macron)il y a 6 heures
- Imposition de la prime de rémunérationil y a 7 heures
- Faire passer des travaux sur le compte proil y a 7 heures
- Proposition de CDI en tant que freelanceil y a 7 heures
- Questionnement Client final /Apporteur d'affaires / Salarié portéil y a 7 heures
- Quitter I**y pour Numbr, Keobiz, Evoliz ?il y a 7 heures