Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Service Delivery Manager DATACENTER
Contexte : Au sein du pôle en charge de l’exploitation des Datacenters ainsi que les projets de mutualisation et de consolidation des Datacenters du Groupe en France et à l’international. Missions : La gestion des demandes émanant des partenaires, des utilisateurs et des demandes internes du pôle Datacenter. L’analyse mensuelle des SLA et mise en place de présentations Suivi budgétaire du périmètre La gestion des reporting mensuel RUN / PROJET ainsi que diverses documentations La gestion et le suivis de la roadmap projets Livrables : CR des points Hebdomadaires avec les partenaires ou utilisateurs Présentation mensuelle des performances de suivi auprès du partenaire ou utilisateurs Fichier de suivi budgétaire des différents projets Roadmap des projets (projection, validé, en cours) Expertise : Agile Scrum Conception et Urbanisation de salles Datacenter ITIL LAN DC (cisco ACI, Spine and leaf) Outillage Datacenter Infrastructure Management (Nlyte, …)
Offre d'emploi
Ingénieur Intégration SI
Rôle : Ingénieur Intégration SI Concevoir, déployer, documenter et assurer les conditions d’une bonne MCO/MCS lors d’intégrations de systèmes applicatifs d’entreprise (ERP, CRM, PMS, CMS, RH...) dans des environnements cloud privés et publiques. Missions : S'engager avec les parties prenantes, les chefs de projet et responsables métiers, pour convertir les spécifications fonctionnelles en spécifications techniques appropriées. Porter les projets d'intégration, de la conception initiale au go live en veillant à l'alignement sur les objectifs de l'entreprise et les compliances sécuritaires, techniques et réglementaires. Sélectionner et mettre en œuvre les différentes plateformes présentes dans le catalogue de service ingénierie. Documenter les designs (HLD, LLD), codes sources et configurations d'intégration afin de maintenir un haut niveau de transparence et de faciliter le partage des connaissances au sein de équipes. Appliquer les meilleures pratiques en matière de sécurité, de DevOps et de CI/CD au sein de l’écosystème d'intégration. Monitorer et optimiser les intégrations, en travaillant activement à l'amélioration des performances, de la fiabilité et de l'évolutivité. Fournir un support applicatif de Niveau 3.
Offre d'emploi
Support applicatif Trade Finance
Spécialisé dans le secteur bancaire, l'entreprise recherche un support trade finance pour renforcer ses effectifs sur son site à trappes (78). En tant que support trade finance, vos missions seront les suivantes: Contrôle de la disponibilité des applications en matinée et reprise des traitements en erreur Reporting quotidien aux responsables d’application Prise en compte ou détection des incidents Analyse de l'incident , consultation des logs, des données et des programmes Correction de bug - livraison à chaud Contact avec les utilisateurs finaux (Métiers) Contact avec les équipes de Production (ITS) Contact avec les autres équipes supports Contact avec des éditeurs (Linedata, Swift etc…) Préparation d'intervention en Production (« INTPROD ») (rédaction de script SQL transmis à l'IT pour exécution en Prod) Force de proposition sur des incidents récurrents Assistance aux recettes, aux utilisateurs finaux Demande d'extraction de données,… Demande de paramétrage technique Spécifique au support Loan : Consultation et Analyse dans le progiciel UNILOAN Contact avec l’éditeur LineData Environnement technique : OS : MVS Langage : COBOL , SQL DB : DB2 Control M DV visualizer
Mission freelance
Chef de projet MDM sur SAP4Hana
Pour le compte de notre client dans le secteur de l'agroalimentaire, nous recherchons un Chef de projet data pour une mission Master Data Management (MDM) sur SAP4Hana. Le profil doit avoir deja réalisé des missions de MDM avec SAP4Hana. Expérience de 5 ans minimum requis sur une poste équivalent. MERCI DE NE POSTULER QUE SI C'EST VOTRE CAS Mission à temps plein, de 3 mois à pourvoir idéalement à compter du 06/01/2025. Cette mission nécessite d'être présent 100% du temps sur site, pas de télétravail possible. TJM proposé : 681€HT (hors éventuels frais de mission, à discuter avec le client)
Offre d'emploi
SDM Datacenter
Le département de notre client fournit le socle technique de base de ces infrastructures et a ainsi pour objectif de promouvoir l'excellence opérationnelle du Groupe, en améliorant la qualité de service, en accroissant la réactivité des organisations, en réduisant les risques opérationnels et en optimisant les coûts. Dans le pôle Datacenters en charge de l’exploitation des Datacenters ainsi que les projets de mutualisation et de consolidation des Datacenters du Groupe en France et à l’international. Missions : La gestion des demandes émanant des partenaires, des utilisateurs et des demandes internes du pôle Datacenter. L’analyse mensuelle des SLA et mise en place de présentations de celle-ci à (DCM/DIR) Suivi budgétaire du périmètre La gestion des reporting mensuel RUN / PROJET ainsi que diverses documentations La gestion et le suivis de la roadmap projets
Mission freelance
Consultant (H-F-Y) Expert réseau Datacenter
Nous recherchons un Expert Réseau Datacenter ayant une solide expérience dans la mise en œuvre et le support d’équipements réseau LAN Datacenter et d’infrastructure de sécurité réseau. Votre mission consistera à installer, configurer et maintenir des équipements tels que switchs, routeurs, load balancers, firewalls, DMZ, ainsi qu’à gérer la configuration des VLAN et des liens WAN dans un environnement complexe. Vous serez également amené à intervenir sur des problématiques de sécurité réseau et à collaborer avec des équipes pluridisciplinaires pour garantir la performance et la sécurité des infrastructures.
Offre d'emploi
Data Engineer Azure databricks
Rejoignez une entreprise innovante à la pointe des technologies data ! En tant que Data Engineer Senior spécialisé en Azure Databricks, vous serez un acteur clé dans la conception et la mise en œuvre de pipelines de données performants et scalables. Vous évoluerez dans un environnement technique avancé, collaborerez avec des experts passionnés et contribuerez à des projets stratégiques ayant un fort impact métier. Conception et développement de pipelines de données : Développer, tester et déployer des pipelines ETL/ELT complexes sur Azure Databricks. Garantir la performance et l'optimisation des traitements Big Data. Gestion des environnements Azure Databricks : Exploiter les fonctionnalités avancées de Databricks pour le traitement batch et streaming. Configurer et gérer des clusters Databricks performants et rentables. Optimisation et industrialisation : Mettre en place des pratiques DevOps (CI/CD) pour l'automatisation des workflows. Identifier et implémenter des solutions d'optimisation des coûts et de la performance sur Azure. Accompagnement et innovation : Être un référent technique pour les équipes Data et former les membres juniors. Participer à la définition de la roadmap technologique et à l'intégration de nouvelles solutions. Cloud et Big Data : Azure Databricks (5 ans minimum), Azure Data Lake, Azure Data Factory. Traitement de données : Spark, Delta Lake, Streaming (Kafka/Event Hub). Langages : Python, Scala, SQL. Bases de données : Snowflake, Cosmos DB, PostgreSQL. CI/CD : Git, Terraform, pipelines Azure DevOps. Monitoring et sécurité : Azure Monitor, Azure Security Center, IAM. Bac+5 en informatique, data ou équivalent. Expérience confirmée (5 ans minimum) sur Azure Databricks et solutions Big Data. Solides compétences en optimisation des performances et gestion de pipelines complexes. Expertise dans les environnements cloud Azure, avec une certification Azure (un plus). Capacité à travailler en équipe, à résoudre des problèmes complexes et à communiquer efficacement. Rémunération attractive : Fixe compétitif, bonus et primes. Formation continue : Certifications Azure Databricks et participation à des conférences spécialisées. Flexibilité : Télétravail partiel et horaires flexibles. Avantages : Mutuelle premium, RTT, prise en charge des transports. Impact et innovation : Projets ambitieux avec des technologies de pointe. Vous êtes prêt à relever des défis techniques passionnants et à jouer un rôle clé dans la transformation digitale des données ? Rejoignez-nous !
Mission freelance
Expert SCCM/INTUNE
Nous recherchons pour notre client un expert Windows / Poste de travail pour une mission longue à paris 7eme, Contexte de la mission: Le service infrastructure Feature team Windows server et poste de travail est à la recherche d'un ingénieurs N3 pour assurer la mise en place de la transformation du poste de travail et de l’écosystème Microsoft associé et Support N3 des serveurs Windows 2019. Il aura pour rôle d’assurer : L’expertise des environnements Windows Servers, des outils SCCM, INTUNE, MDT et AD La Réalisation des scripts PowerShell Le Support et le maintien en condition opérationnelle La Gestion des obsolescences L’Intégration et sécurité de services O365 (Teams/EXOL/AAD…) La Migration de la messagerie vers Exchange Online L’Infrastructure Microsoft N3 La Définition de la nouvelle architecture SCOM 2016 La Mise en place des exigences de sécurité sur les composants Windows La Rédaction de procédures et documents techniques Le Transfert de compétences aux équipes RUN Le Support N3 dans un environnement : Intune, AD, Windows Server 2012R2-2022, SCOM 2016, Jira, Confluence, CICD, AZ AD
Mission freelance
Lead Master data SAP MGD
Notre client va passer sur S4 ; deux entités avec deux ERP différents, c'est dans ce contexte que nous recherchons pour un de nos clients, un.e Lead Master Data SAP. Missions : Comprendre les différents environnements S’approprier le design des différents objets mis en place par l’intégrateur, Contrôler les données, leur qualité, complétude Etablir les procédures cibles aussi pour le maintien du référentiel dans le futur… Full périmètre SAP : FI COP SD MM PP QM EWM
Mission freelance
Data analyst Celonis
Description : Une entreprise de services partagés recherche un spécialiste en Process Mining pour renforcer l'efficacité opérationnelle grâce à des compétences d'analyste d'affaires et une connaissance approfondie des domaines de la finance, des achats et des ressources humaines. Le candidat idéal maîtrise les outils de process mining (certifié et expérimenté sur Celonis) pour analyser et optimiser les processus métiers, en garantissant l'intégrité des données et en développant des indicateurs de performance clés (KPI) ainsi que des modèles de données. La plateforme de process mining est déjà déployée pour des processus clés (P2P, I2P, paie, acquisition de talents). Les domaines prioritaires incluent l’automatisation des tâches manuelles, la conformité et la standardisation des processus, la performance opérationnelle, et le respect des accords de service (SLA). En 2025, l’objectif est d’optimiser la configuration actuelle en aidant les lignes de services à mieux comprendre les dysfonctionnements à travers des indicateurs opérationnels, en mettant en œuvre des actions d'amélioration et en observant les progrès grâce à Celonis. Responsabilités : Collaboration avec les équipes métiers : Travailler étroitement avec les équipes Finance, Achats et RH pour comprendre leurs besoins spécifiques et leurs défis. Présenter les cas d’usage (arbre de valeur, KPI) Analyser le processus existant (As-Is) Analyse de données : Utiliser Celonis pour extraire, transformer et analyser les données — En 2025, l'accent sera mis sur l’ajustement des connexions existantes sans ajout majeur de nouvelles sources de données. Support dans la complétion des prérequis techniques Évaluer les meilleurs mécanismes pour l’extraction de données Exécuter la connexion de données Construire le modèle de données Rédiger des scripts Support dans le mapping des données (champs clés, tables) Activer le kit de démarrage si nécessaire Affiner l’explorateur de processus Assurance qualité des données : Garantir l’exactitude et l’intégrité des données utilisées dans les analyses. Exécuter/proposer des vérifications de qualité des données Développement de KPI : Créer et maintenir des KPI et des modèles de données pour soutenir l’analyse métier. Collecter les règles pour les KPI Construire/ajuster les tableaux de bord Support technique pour les corrections Amélioration des processus : Analyser les processus métiers pour identifier les inefficacités et recommander des améliorations. Animer des ateliers pour identifier les améliorations de processus Co-animer avec les équipes métier l’analyse de processus Co-réaliser l’analyse des causes racines Déterminer les résultats pertinents et leur impact pour le métier Calculer l’impact pour le métier Co-exécuter la phase de suivi de la valeur Adoption : Former les utilisateurs Animer des sessions de questions/réponses pour faciliter l’adoption des tableaux de bord
Offre d'emploi
Incident Manager
La prestation s’articule principalement autour de ces activités : - Suivi de Production avec les Infogérants : o Participation et contribution aux différents comités infogérance (Comité des Changements, Comités de Suivi hebdomadaire et mensuels…) et techniques nécessaires au Suivi et pilotage de la Prestation (Tickets, metrics, KPIs, SLAs, …). o Suivi des actions de remédiations et plan de progrès. o Piloter la mise en œuvre des solutions techniques de concert avec les responsables de domaines infrastructures et experts. o Suivi opérationnel des Demandes. o Suivi de la disponibilité des Infrastructures. o Suivi du bon déroulement des sauvegardes et rétentions sur disque, et remédiations en cas de d’échec. o Conduite des tests de restauration de données. o Accompagner sur site les intervenants de l’infogérant pour les opérations nécessaires (maintenance corrective, incidents…). o Fourniture des câbles et accessoires hors scopes de l’infogérant à ses intervenants si besoin. o Réaliser les premières vérifications du matériel (healthy checks, triage…) du Data Center des équipements serveurs et réseaux afin de confirmer à l’Infogérant l’envoie sur site d’un intervenant. o Rédiger / mettre à jour les procédures d'exploitation et les modes opératoires. o Mise en place et documentation de contrôles de la facturation mensuelle sur la base des éléments déclaratifs de l’infogérant, et des accès à certains outils permettant de générer des données / rapports. o Assurer la communication et le reporting régulier vers les différentes instances o Piloter le plan de patching des serveurs et équipements des data centers en relation avec le Centre de Service Sécurité et l’infogérant. o Participer aux actions correctrices de non-conformité de l’Active Directory, en procédant aux demandes nécessaires, et en les supervisant jusqu’à résolution. o Suivi du reporting sécurité et vulnérabilités Qualys o Assurer le suivi des Contrats de maintenance hardware et software. o S’assurer de la bonne mise à jour des Runbooks et documentations pour les mécanismes de Failover maintenus par l’Infogérant. - Assister la Gouvernance du périmètre de services Job Scheduling : o Contrôle des documentations. o Suivi récurrent de la prestation avec le nouveau prestataire. o S’assurer que la roadmap de versioning des logiciels est bien appliquée. o Suivi de la performance de l’Infogérant. o Gérer la coordination avec les différents acteurs Infogérance, d’hébergement, et l’Infogérant en charge des services de Job Scheduling. o Assurer le reporting et les alertes nécessaires - Suivi et préparation du Change Advisory Board (CAB) : o Passer en revue et préparer les tickets éligibles au CAB hebdomadaire, en fonction des origines des tickets. o Créer les tickets Change en fonction du besoin. o Suivi opérationnel des Changements. o Challenger les différentes parties prenantes sur la documentation et la conformité des tickets Change. o Evaluer les impacts et vérifier les dépendances sur l’infrastructure.
Offre d'emploi
Data Engineer GCP
À propos de l'opportunité : Envie de contribuer aux projets data de demain au sein d'une structure à l'avant-garde de l'innovation ? Nous recherchons un Data Engineer Senior spécialisé en Google Cloud Platform (GCP) , passionné par les environnements Cloud et motivé par la création d'architectures de données robustes et scalables. Rejoignez une équipe data dynamique, qui travaille sur des projets divers et stimulants pour accompagner la transformation numérique de ses clients. Missions 🏗️ : 📊 Concevoir et Développer des Pipelines de Données : Concevoir et optimiser des pipelines ETL/ELT dans un environnement GCP, en assurant la performance et la fluidité des flux de données. 🚀 Optimiser les Processus de Collecte et Transformation : Travailler avec les équipes Data Science et Analytics pour automatiser et améliorer l'ingestion, la transformation et le stockage de données, avec des outils comme Dataflow et BigQuery. 🛠️ Mettre en Place des Meilleures Pratiques DevOps : Implémenter des processus de CI/CD et des solutions de monitoring pour garantir des déploiements rapides et fiables. 🕹️ Participer à la Stratégie de Gouvernance et Sécurité : Veiller à la sécurité et à la conformité des données en respectant les standards de sécurité et en participant à la mise en œuvre de pratiques de gouvernance data. 🤝 Collaborer avec les Équipes : Travailler en étroite collaboration avec les équipes produits, data scientists, et analystes pour bien aligner les solutions techniques avec les objectifs business. Environnement Technique 💻 : Cloud : Google Cloud Platform (BigQuery, Dataflow, Pub/Sub, Dataproc) Outils d'Ingénierie de Données : Spark, Apache Beam, Airflow Langages de Programmation : Python, SQL Outils de DevOps : Terraform, Docker, Kubernetes Gouvernance et Sécurité : IAM, gestion des rôles, chiffrement de données Profil Recherché : Expérience : Minimum 4 ans en ingénierie de données avec une spécialisation Cloud, idéalement sur Google Cloud Platform. Compétences Techniques : Maîtrise de GCP (BigQuery, Dataflow), avec de solides compétences en Python et SQL pour le traitement et la transformation de données. Connaissances Avancées en Cloud et Data Engineering : Expérience dans la conception et l'optimisation de pipelines ETL/ELT. Esprit d'Analyse et Résolution de Problèmes : Capacité à identifier des solutions data innovantes et efficaces, en tenant compte des contraintes de temps et des impératifs business. Qualités Personnelles : Proactivité, esprit d'équipe, rigueur et capacité à communiquer efficacement avec des interlocuteurs variés (techniques et non techniques). Pourquoi Rejoindre ? 🌐 Notre environnement est à la fois stimulant et axé sur l'innovation, où chaque membre de l'équipe peut exprimer sa créativité technique et avoir un réel impact sur les projets clients. En rejoignant cette équipe, vous participerez activement à la transformation numérique et bénéficierez d'opportunités de développement professionnel.
Offre d'emploi
Data Engineer GCP & AWS
Mon client est une entreprise reconnue dans le domaine de la transformation et de l'analyse de données, dédiée à aider ses partenaires à exploiter leurs données stratégiques pour gagner en performance. Acteur majeur dans l'intégration de solutions Cloud, il accompagne divers secteurs, du retail à la finance, en passant par la santé. L'entreprise rassemble des talents internationaux autour de projets innovants et est en pleine croissance. Description du Poste : En tant que Data Engineer Senior spécialisé en GCP & AWS , vous participerez à la conception, au développement et au déploiement de pipelines de données robustes et évolutifs sur les plateformes Cloud. Vous collaborerez étroitement avec les Data Scientists, Data Analysts et équipes DevOps pour assurer la fiabilité et l'optimisation des architectures de données sur des projets à fort impact. Responsabilités : 📈 Développer et Gérer des Pipelines de Données : Concevoir, déployer et gérer des pipelines complexes sur Google Cloud Platform (GCP) et Amazon Web Services (AWS) pour l'ingestion, la transformation et la modélisation des données. 🚀 Optimiser les Flux de Données : Identifier et résoudre les points de latence pour maximiser la performance et l'efficacité des architectures Big Data. ⏱️ Gérer les Données en Temps Réel : Mettre en place des solutions pour gérer des données en streaming en utilisant des outils tels qu'Apache Kafka, Google Pub/Sub ou Kinesis. 🔒 Assurer la Sécurité et la Conformité : Veiller à la conformité des données en déployant des pratiques de gouvernance et de catalogage. 🤝 Collaborer avec les Équipes : Travailler main dans la main avec les équipes Data Science et DevOps pour déployer des modèles de Machine Learning en production et contribuer aux initiatives IA. 🛠️ Automatiser et Maintenir les Pipelines : Intégrer des technologies de CI/CD et des outils de monitoring pour garantir la disponibilité et la performance continue des flux de données. Environnement Technique : Cloud : Google Cloud Platform (BigQuery, Dataflow, Pub/Sub, Dataproc), Amazon Web Services (Redshift, Glue, Kinesis, Lambda) Data Engineering : Spark, Airflow, Python, SQL, Terraform, Docker Big Data & Streaming : Apache Kafka, Google Pub/Sub, Kinesis Sécurité et Conformité : IAM, gestion des rôles et permissions, chiffrement des données Profil Recherché : Formation : Diplôme en informatique, ingénierie ou domaine connexe. Expérience : Minimum 5 ans d'expérience en Data Engineering, avec une expertise en GCP et AWS. Compétences Techniques : Excellente maîtrise de Python et SQL, et des outils d'orchestration de données (Airflow, Spark) ainsi que de CI/CD. Expérience en data warehousing (BigQuery, Redshift) appréciée. Esprit d'Analyse et Autonomie : Solide capacité à optimiser et structurer des flux de données, et aptitude à gérer plusieurs projets simultanément. Langues : Maîtrise du français et de l'anglais (écrit et oral). Pourquoi Rejoindre ? Mon client valorise l'innovation, la collaboration et l'excellence technique. Il propose un environnement dynamique, des perspectives d'évolution, et un accès aux formations et technologies de pointe dans le domaine de la data. Rejoignezuneéquipepassionnéeetcontribuez à desprojetstransformantsdansledomainedu Cloud etdesdonnées.
Offre d'emploi
Data Engineer GCP & AWS
Mon client est une entreprise reconnue dans le domaine de la transformation et de l'analyse de données, dédiée à aider ses partenaires à exploiter leurs données stratégiques pour gagner en performance. Acteur majeur dans l'intégration de solutions Cloud, il accompagne divers secteurs, du retail à la finance, en passant par la santé. L'entreprise rassemble des talents internationaux autour de projets innovants et est en pleine croissance. Description du Poste : En tant que Data Engineer Senior spécialisé en GCP & AWS , vous participerez à la conception, au développement et au déploiement de pipelines de données robustes et évolutifs sur les plateformes Cloud. Vous collaborerez étroitement avec les Data Scientists, Data Analysts et équipes DevOps pour assurer la fiabilité et l'optimisation des architectures de données sur des projets à fort impact. Responsabilités : 📈 Développer et Gérer des Pipelines de Données : Concevoir, déployer et gérer des pipelines complexes sur Google Cloud Platform (GCP) et Amazon Web Services (AWS) pour l'ingestion, la transformation et la modélisation des données. 🚀 Optimiser les Flux de Données : Identifier et résoudre les points de latence pour maximiser la performance et l'efficacité des architectures Big Data. ⏱️ Gérer les Données en Temps Réel : Mettre en place des solutions pour gérer des données en streaming en utilisant des outils tels qu'Apache Kafka, Google Pub/Sub ou Kinesis. 🔒 Assurer la Sécurité et la Conformité : Veiller à la conformité des données en déployant des pratiques de gouvernance et de catalogage. 🤝 Collaborer avec les Équipes : Travailler main dans la main avec les équipes Data Science et DevOps pour déployer des modèles de Machine Learning en production et contribuer aux initiatives IA. 🛠️ Automatiser et Maintenir les Pipelines : Intégrer des technologies de CI/CD et des outils de monitoring pour garantir la disponibilité et la performance continue des flux de données. Environnement Technique : Cloud : Google Cloud Platform (BigQuery, Dataflow, Pub/Sub, Dataproc), Amazon Web Services (Redshift, Glue, Kinesis, Lambda) Data Engineering : Spark, Airflow, Python, SQL, Terraform, Docker Big Data & Streaming : Apache Kafka, Google Pub/Sub, Kinesis Sécurité et Conformité : IAM, gestion des rôles et permissions, chiffrement des données Profil Recherché : Formation : Diplôme en informatique, ingénierie ou domaine connexe. Expérience : Minimum 5 ans d'expérience en Data Engineering, avec une expertise en GCP et AWS. Compétences Techniques : Excellente maîtrise de Python et SQL, et des outils d'orchestration de données (Airflow, Spark) ainsi que de CI/CD. Expérience en data warehousing (BigQuery, Redshift) appréciée. Esprit d'Analyse et Autonomie : Solide capacité à optimiser et structurer des flux de données, et aptitude à gérer plusieurs projets simultanément. Langues : Maîtrise du français et de l'anglais (écrit et oral). Pourquoi Rejoindre ? Mon client valorise l'innovation, la collaboration et l'excellence technique. Il propose un environnement dynamique, des perspectives d'évolution, et un accès aux formations et technologies de pointe dans le domaine de la data. Rejoignezuneéquipepassionnéeetcontribuez à desprojetstransformantsdansledomainedu Cloud etdesdonnées.
Mission freelance
Consultant IFS FINANCE FULL REMOTE
Offre d'emploi
Architecte Technique Infrastructure & Sécurité
Au sein de l’équipe d’Architecture, l’architecte a la charge de définir les feuilles de route technologiques en alignement avec les stratégies et exigences du groupe. Il/elle s’assure de leurs bonnes mises en œuvre en collaborant avec les différents pôles de la direction et en conduisant les phases de pré-études (dossier de décision, dossier d’architecture, appel d’offre…). Fonction transverse, il/elle garantit le respect des principes et standards du groupe et il/elle s’inscrit en conseil et support auprès des responsables produits les accompagnant dans la mise en place de solutions créatives et innovantes. L’architecte solution dirige la conception des solutions d’intégration des systèmes, des données et des équipements via leur sélection en adéquation des patterns d’intégration d’entreprise. Il/elle participe à la mise en œuvre des solutions dans un contexte de transformation de notre système d’information. Il/elle participe au Change Approval Board et maintient à jour les référentiels d’architecture de l’entreprise. Responsabilités · Concevoir et gérer les aspects spécifiques à l’intégration des architectures d’entreprise et des solutions · Contribuer à la définition et à la mise en place de la stratégie Intégration & Services · Rédaction de Dossier d'Architecture Technique (DAT) avec expertise en infrastructure et affinités en sécurité et réseau · Gouverner le processus d’intégration à travers tout le cycle de vie d’une solution et coordonner le process de revue d’architecture et de design d’intégration pour les projets de l’entreprise · Diriger la validation des nouvelles solutions et leur intégration dans le catalogue des applications · Accompagner les équipes techniques et métiers durant le cadrage, la conception et la réalisation des solutions d’intégration en tenant compte des normes de gouvernances & sécurité induites par le Groupe et la législation en vigueur · Gérer les relations avec les parties tiers impliquées dans les intégrations « end to end », comprendre les contraintes et les besoins afin de proposer la solution d’intégration la plus adaptée · Contribuer à la communauté des architectes, au développement des nouvelles capacités d’intégration des solutions, aux meilleurs pratiques associées et à leur amélioration continue · Evaluer les choix technologiques du marché (software, cloud, SaaS, PaaS) pour déterminer l’adéquation dans le contexte projet · Participer à l’estimation de l’effort nécessaire pour les tâches d’architecture, de conception et de développement des solutions d’intégration · Participer de manière pratique à la création de prototypes
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.