Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Architecte Sécurité / Cloud / Data
Objectif: |Analyser les besoins * Participer aux ateliers afin d’étudier et de cadrer les besoins en sécurité • Préconiser les solutions et architectures cibles • Contribuer à la rédaction des dossiers d’architecture et spécifications techniques basés sur les principes de sécurisation de la donnée • Coordonner la sécurité des projets afin d'aider les équipes à fournir des solutions d'infrastructure sécurisées avec les recommandations et les exigences de la SSI • Participer aux audits de sécurité des applications et des socles techniques • Effectuer des évaluations des risques techniques, la modélisation des menaces, des examens de la sécurité de l'architecture, des conseils et des suivis répétables pour les projets impliquant des services destinés aux clients • Garantir la prévention et la bonne gestion des risques techniques en proposant des améliorations aux politiques, directives et normes de sécurité • Communiquer efficacement tout en répondant aux besoins de sécurité et en validant que les mesures de sécurité appropriées sont en place • Superviser le socle technique (sécurité, réseau, gouvernance...) • Veiller la sécurité et la fiabilité des environnements déployés • Créer / mettre à jour le corpus documentaire • Rédiger les dossiers d'arbitrage en étant force de proposition et de décision en coordination avec les parties prenantes du projet Industrialiser et opérer les environnements * Contribuer à la mise en place des outils d’automatisation et de monitoring adaptés à l’environnement • Participer à l’implémentation des outils nécessaires à la mise en place des pratiques DevOps (Puppet, Chef, Gitlab CI, Travis CI, Cloud Build, etc.)|
Offre d'emploi
Data Engineer DBT, Snowflake et Power BI
En tant que Data Engineer, vous jouerez un rôle clé dans la conception, l'implémentation et l'optimisation des différentes couches de notre Data Platform. Vous serez chargé de structurer les données et de développer des pipelines de données efficaces et évolutifs pour répondre aux besoins métiers et garantir la qualité des données. Modélisation des couches basses de la Data Platform : Participer à la conception des couches de données, en particulier la modélisation DataVault pour les couches RawVault et BusinessVault. Modéliser les données en étoile pour le CoreDataModel (DataMart), facilitant ainsi l'analyse métier. Conception et optimisation des pipelines de données : Mettre en place des architectures de pipelines de données génériques, en s'appuyant sur des macros existantes ou personnalisées pour les différentes couches (Raw, Staging, RV, BV, CDM). Implémenter et maintenir les pipelines de données via l'outil dbt pour garantir la fluidité et la cohérence des flux entre les différentes couches de données. Tests automatisés et contrôle qualité : Concevoir des tests automatisés afin de garantir la cohérence des données, d'éviter les régressions et de valider la qualité des livrables à chaque étape du pipeline. Refonte de la Data Visualization : Reprendre et améliorer la DataViz existante en la migrant vers Power BI Premium. Réaliser des préconisations pour le mode de lecture des données dans le DataSet (POC). Créer et mettre en place une charte graphique cohérente pour les rapports. Concevoir des maquettes et des designs de rapports cibles afin d'améliorer la lisibilité et l'impact visuel. Travail en méthode Agile (Scrum/SAFe) : Participer activement aux cérémonies Agile : Daily Standups, Refinement, Planning Poker, Sprint Planning, Sprint Review et Rétrospectives. Contribuer à l’amélioration continue de l'équipe et des processus.
Offre d'emploi
Pré-embauche client final Responsable d'Applications Exploitation Data Center
Le poste s'inscrit dans une logique d'intégration à terme en CDI les équipes de notre Client. Poste de Responsable des solutions / applications en production qui permettent d’opérer les data centers (GMAO, BMS, Planification des interventions…) et de traiter les demandes des clients du data center (portail client, ticketing…). S'agissant d'une activité en croissance (ouverture de nouveaux sites), le Responsable des solutions contribuera aux projets d’implémentation de sites. Ses principales responsabilités sont : Garant du bon maintien en conditions opérationnelles des applicatifs : interfaces, traitements, en escalade de l'équipe Exploitation (interne ou infogérance) et autres. Référent fonctionnel / technique des outils de son périmètre, responsable du support des applications en lien avec les éditeurs, contribution aux études et cadrage pour les impacts liés aux outils de son périmètre, contributeur actif aux projets impactant les outils de son périmètre. Gestion du portefeuille applicatif des outils de son périmètre : anticipation des sujets de montée de version, dette technique, planning de release management, roadmap produit. Gestion des évolutions et des montées de versions : gestion des priorités, animation des recettes utilisateurs, gestion / coordination des mises en production, pilotage et préparation de la communication métiers Maintien à jour de la documentation fonctionnelle et technique des outils de son périmètre, dans le respect des standards définis au sein de la DSI. Garant de la qualité des Produits de son périmètre, tant sur les aspects méthodologiques (documentation…) que conceptuels et technologiques, afin d'assurer stabilité, pérennité, évolutivité des produits. Production de tableaux de bord de suivi et pilotage de son activité. Animation régulière des comités key users Responsabilité du respect des procédures définies au sein de la DSI de façon générale. Gestion de la relation fournisseurs / éditeurs / intégrateurs des outils de son périmètre, dans le cadre de la gestion du cycle de vie Produits.
Mission freelance
AMOA/MDM
Nous sommes à la recherche d’un profil AMOA /Data Steward à Grenoble ou à Lyon Collecte des besoins métiers sur les données et les indicateurs qu’ils doivent suivre & un accompagnement à la réalisation d’état des lieux des processus Assistance des représentants métiers dans la définition de ces données Assistance des représentants métiers dans la définition des règles de gestion s’appliquant sur ces données Participation à la capitalisation en rédigeant les définitions dans les outils dédiés (My/Data Galaxy)
Offre d'emploi
Ingénieur GRC - Domaine Datacenter
Missions principales : Superviser et coordonner les projets de cybersécurité liés aux infrastructures critiques des datacenters et des SI sûreté/sécurité. Analyser les risques et les impacts des évolutions technologiques sur les infrastructures des datacenters, sans avoir à configurer directement les équipements (switchs, routeurs, etc.). Traduire les recommandations d’audit en actions concrètes pour les équipes cybersécurité, afin de renforcer la protection des datacenters. Participer à la planification des interventions dans les datacenters, y compris en heures non ouvrées (HNO), et assurer un suivi rigoureux des tâches. Collaborer étroitement avec les équipes techniques pour garantir que les recommandations de sécurité sont bien intégrées dans les systèmes. Être garant de l’évolution des systèmes datacenter et SI sûreté/sécurité en lien avec les besoins spécifiques du terrain. Proposer des stratégies d’amélioration continue en cybersécurité, en tenant compte des contraintes propres aux infrastructures des datacenters.
Offre d'emploi
Data Engineer Python/Spark
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'n Data Engineer Python/Spark. Les missions de la prestation notamment seront : Remplacement des pipelines Informatica par des pipelines spark, pyspark et python Ordonnancement : Remplacement du DAC de OBIEE par Dagster Restitution : Création de rapports sur Apache SuperSet sur la base du LakeHouse Les principales missions à mener sont : - Description des fonctionnements existants et des besoins couverts, - Développement d’une solution de collecte de données, - Développement d’un système de stockage de la donnée, - Réalisation de tests unitaires, - Mise en place d’un suivi des traitements, - Assistance à la recette par la MOA / les utilisateurs.
Mission freelance
Product Owner Data (NANTES
✅ Nous vous serions reconnaissants de nous adresser un bref message précisant les raisons de votre candidature et confirmant que vous avez bien pris en compte le lieu de la mission. 🔴 TT partiel (Présence sur site hebdo NANTES obligatoire) - La mission ne peut pas se faire en full Remote Afin de répondre aux enjeux du programme DATA / IA, le département Agence Data Service se réorganise. La mise en oeuvre d'une plateforme DATA / IA fédérée ainsi qu'un objectif d'accompagner les équipes produites à tendre vers la prise en compte des données comme un produit à part entière (Data as a product) ont amenés une réorganisation autour des activités liées au lac de données. C'est dans ce contexte, qu'un ensemble de produits sont en cours de changement de responsabilité entre DDL et ADS. Cette mission s'inscrit dans ce contexte de bascule et porte plus précisément sur la reprise des activités de pilotage et d'accompagnement des activités d'acquisition du lac. Ainsi nous recherchons un DataSteward - PO DATA pour piloter un périmètre d'activités d’acquisition des données dans le lac, de l’apparition du besoin jusqu’au suivi de la donnée en production. Vous pourrez aussi prendre en charge l'accompagnement des lignes produits pour leur permettre une plus grande autonomie dans la réalisation de leur cas d'usage. Cette mission s'inscrit dans une démarche de transformation, vous participerez aux réflexions d'optimisation des processus et des socles existants. Vous rejoindrez la tribu en charge du Socle Data. 2 DataStewart/PO Data participent déjà à cette activité. Votre arrivée permettra de répondre à la montée de charge des responsabilités de l'équipe. Activités Principales : Piloter les besoins d'ingestion des données dans le LAC (Synchronisation de plusieurs équipes, relation Centre de Services) Accompagner les lignes produit dans la définition de leur besoin et cadrer les prérequis attendus (formats de données, définition des traitements) Porter des sujets impacts les processus et les données du LAC (Reprise de stock, purges réglementaires par exemple) Contribuer à la documentation des données du lac. Participer aux ateliers de définition de la plateforme DATA/I
Mission freelance
Senior Data Gouvernance - Bruxelles - Nationalité Européenne Exigée - Anglais Courant
Gouvernance des données Avec la politique de gouvernance des données, nous définissons principalement les rôles, c'est-à-dire qui a la responsabilité d'un actif de données spécifique au cours de son cycle de vie global. Cela favorise la responsabilité dans le traitement des données et la transparence dans les activités liées aux données. L'objectif est de rédiger et d'adopter une politique de gouvernance des données en tenant compte des politiques similaires adoptées par d'autres EUBIA. Inventaire et catalogue des données Un catalogue de données est un référentiel centralisé qui permet à une organisation de stocker et de rechercher l'emplacement, la lignée, le format, l'utilisation et d'autres métadonnées concernant les actifs de données de l'organisation. Le catalogue de données vise à fournir un point central de référence et d'accès aux ensembles de données importants utilisés dans l'institution. Il existe déjà un inventaire/catalogue MVP. En 2025, le travail pourrait s'étendre à d'autres domaines avec un outil de catalogue à sélectionner. Données de base et données de référence Les données de base sont des données réutilisées par de nombreuses applications et systèmes. Certains principes doivent s'appliquer à ces données précieuses afin de garantir leur qualité, leur disponibilité et leur réutilisation. Les données de référence sont des données utilisées pour classer ou catégoriser d'autres données. Elles se présentent généralement sous la forme de listes de codes qui définissent les valeurs autorisées, par exemple les listes de codes pour les pays, les genres, les types de procédures juridiques. La normalisation et la gestion de ces données sont importantes pour assurer un échange de données fluide entre les différentes applications et garantir l'interopérabilité. Les travaux se concentreront sur les politiques et les bonnes pratiques pour la gestion des données de base et des données de référence. L'objectif est de rédiger et d'adopter une politique pertinente en faisant le point sur les initiatives internes ou les initiatives similaires dans d'autres EUBIA et en pilotant la politique dans le contexte d'une activité interne en cours.
Offre d'emploi
Développeur Infra (pas data !) Python - Kubernetes H/F
Mise en œuvre d'une offre « Cluster Microsoft SQL AsAservice » sur le Cloud privé : - Développement d' API permettant à nos clients de créer en mode self service des clusters Microsoft SQL En tant que développeur d’ API, vous aurez pour missions principales de : • Contribuer aux actions d'automatisation et de fiabilisation ; • Mettre en place les bonnes pratiques en terme de développement de code. • Traiter tant les aspects techniques et fonctionnels et intervenir sur l’ensemble des environnements de l’intégration à la production
Offre d'emploi
Domain Data Architect Senior
Le Domain Data Architect sera responsable de la coordination des activités d'une unité du groupe. Cette mission ne comporte pas de responsabilité managériale directe. Il est attendu une intervention sur divers aspects notamment : Logistique Étapes d'approvisionnement Gestion d'entrepôt Il faut couvrir l'ensemble des besoins de l'entité en matière d'outils et de reporting, en définissant les solutions nécessaires et en collaborant avec les différentes équipes pour valider la trajectoire. Le Domain Data Architect travaillera en transverse avec 4 à 5 équipes couvrant l'ensemble du périmètre. Il sera le seul à avoir une vision transverse, apportant des compétences organisationnelles et en coordination avec le Data Product Owner qui gère les équipes. Compétences: • + 10 ans en architecture de données • Azure (Databricks, Data Factory...) • Stack Technique : BI & Analytics (pas de forte composante en IA ou Machine Learning) • Anglais courant ou billingue (entretien tout en anglais) Le candidat devra faire preuve d'une réelle capacité de communication, de force de conviction et d'intelligence relationnelle, car il sera confronté à des interlocuteurs parfois réfractaires. Niveau de compétence Azure Expert Conception d'architecture de données Expert DataBricks Expert Agile Expert Niveau de langue Anglais
Mission freelance
Teach Lead Data Scientist / IA
Description du Projet : Au sein de l'équipe AI, rattachée au domaine AI Solutions, vous jouerez un rôle crucial dans la supervision technologique et la scalabilité de deux suites de produits d'intelligence artificielle phares, destinés à l'ensemble de l'écosystème : > ML Solutions : Une solution complète d’outils MLOps offrant différents niveaux de service pour la gestion simplifiée et le déploiement optimisé de modèles d'IA. > GenAI Solutions : gestion et évolution d’une plateforme LLM chatbot interne, développement d'une plateforme de déploiement de chatbots RAG, et développement futur d’une plateforme d’agents. Votre mission en tant que Tech Lead, sera de garantir l'efficacité, et la scalabilité de ces solutions, tout en vous assurant de leur alignement avec la stratégie technologique. L’équipe AI aujourd’hui constituée de 5 personnes est en forte croissance. Vos principales missions : Leadership et Expertise Technique : > Fédérer l'équipe technique : Instaurer un environnement collaboratif et bienveillant, en guidant les développeurs vers les meilleures pratiques (DevOps, CI/CD, tests automatisés). > Garantir la réalisation de la roadmap : Superviser la roadmap produit en collaboration avec les Product Owners, en vous assurant de son adéquation avec la stratégie technologique > Décisions architecturales et sécurité : Prendre des décisions éclairées concernant l'architecture des solutions Excellence Opérationnelle et Innovation : > Maintien en conditions opérationnelles : Assurer la stabilité, la performance et la fiabilité des solutions. > Interopérabilité des technologies : Collaborer étroitement avec les autres Tech Leads de la plateforme. > Mise en place des bonnes pratiques : Promouvoir et implémenter les meilleures pratiques de développement et de DevOps. Collaboration et Amélioration Continue : > Support et assistance utilisateurs : Être à l'écoute des besoins des utilisateurs et leur garantir une expérience optimale. > Participation active aux processus de revue : Contribuer activement aux MOBs, pair reviews et autres mécanismes de collaboration pour améliorer continuellement la qualité du code et des produits. > Conformité au framework Global Ready : Veiller à la conformité des solutions avec les standards du framework technologique, en travaillant en étroite collaboration avec les équipes transverses Tech & Data.
Mission freelance
Data Analyste Power BI /SQL
Au sein de la Direction de la Relation Client à Distance l’équipe Data a pour mission de développer, maintenir et diffuser des indicateurs de pilotage à destination des 3 Directions métiers : • Relation client à distance • Ventes à distance . L’équipe Data RCD recherche un(e) Data Analyste, rattaché(e) au Responsable Data RCD. Description Le(a) Data Analyste RCD aura une expérience significative dans l’analyse de données, le profiling, le développement d’indicateurs de performance et la création de tableaux de bord, avec une expertise particulière en SQL et Power BI. Une expérience dans le domaine de la relation client à distance est un plus. Responsabilités : • En collaboration avec les équipes métiers RCD e, identifier toutes les données nécessaires pour supporter la mise en place d’indicateurs clés de performance clés (KPI) et contribuer à la définition du modèle de ce socle de données RCD. Ce socle sera mis en place par la Data Factory. • Recetter le socle data RCD et le documenter. • Mettre en place des solutions pour vérifier quotidiennement la qualité et l’intégrité du socle data RCD. • Collaborer avec les équipes métiers RCD pour comprendre leurs problématiques et formaliser leurs besoins en matière de KPI. Collecter tous les éléments permettant de prioriser les besoins. Documenter les KPI. • Développer et maintenir des tableaux de bord de restitution des KPI, ils devront être interactifs et visuels, développés dans Power BI, et la mise à jour devra être automatique. Documenter les tableaux de bord. • Former les utilisateurs à l’utilisation des tableaux de bord. • Participer à des projets transversaux pour améliorer les processus et les outils de la relation client à distance. • La mise en place du socle data RCD et les tableaux de bord Power BI remplaceront progressivement les reporting développés dans QlikView et MicroStrategy. Le(a) Data Analyste RCD participera également, si besoin, à la maintenance de ces outils, jusqu’à leur décommissionnement. Le(a) Data Analyste est garant du respect des engagements suivants : • Rigueur et qualité des reporting et des datas : fiabilité des reporting et des données communiquées, cohérence des résultats, etc… • Relation partenariale avec les métiers et avec la Data & IA Factory : être en co-construction des reporting avec le métier et avec la data & IA Factory pour le socle. Ce poste nécessite de comprendre les besoins métiers, les enjeux, les processus.
Offre d'emploi
Data Engineer Talend à Paris
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation
Offre d'emploi
Data Analyst confirmé/sénior H/F
CONCEPTION ET CADRAGE Définit, développe, met en place et maintient les outils nécessaires à l'analyse des données par les équipes Data Conçoit les modèles de données et les contrats d'interfaces Est responsable de créer des solutions permettant le traitement de volumes importants de données tout en garantissant leur sécurité MISE EN PRODUCTION Prépare les documents requis pour les Mises En Production (MEP) et pour le Run (document d'exploitation, supervision, ?) Participe à la mise en place des processus et outils de supervision de son produit et des traitements associés Participe au transfert de compétences vers l'équipe en charge du RUN Respecte les bonnes pratiques de développement (optimisation, sécurisation, documentation, etc.) Participe aux différentes cérémonies agiles VEILLE ET SUIVI Assure une veille active sur les technologies et langages utilisés et leurs évolutions afin d'améliorer les compétences des équipes Participe à la résolution d'incidents sur le produit en collaboration avec les parties prenantes
Mission freelance
Product Owner DATA (H/F)
Nous recherchons pour notre TOP client un Product Owner DATA (H/F) : Pré-Embauche : Prestation Freelance pendant 6 mois Démarrage : Dès que possible ; Localisation : Aix en Provence (13) ; Télétravail : 3 jours / semaine ; Secteur : Banque – Assurance. Mission : Notre client recherche un Product Owner Data. Vous intégrerez une équipe en charge d’une solution appelée THEIA (stack ELK), permettant à l’ensemble des équipes IT de stocker, exploiter leurs logs techniques et applicatives et tout cela en As a Service avec des outils développés en interne Dans ce contexte, vous aurez en charge : Accompagner les utilisateurs dans leurs différentes sollicitations sur l’utilisation des outils THEIA et support Elasticsearch. Participer à l’ensemble des sprints planning pour les évolutions et corrections sur les différents produits. Rédiger les documentations nécessaires
Mission freelance
Intégrateur système et réseau Data Center expérimenté en Build
Pour le compte de notre client, dans le secteur de l'aéronautique, nous recherchons un intégrateur Système et réseau(data center). Il est important que le candidat ait une expérience significative en BUILD (en opposition à l’aspect ADMIN). Les systèmes doivent avoir être réalisés par le candidat, et non par des prestataires / fournisseurs externes. Technologies : - Virtualisation : Vmware ( vMotion, vSphere HA , DRS , vSwitch, PorGroup , vSAN , FT , LAG ) et Hyper V. - Système : MS Windows 2019 / 2022 Server ( AD , DNS , CNAME , DHCP , ADCS , GPO , NTP, RDS ) / linux : Redhat / Alma / Debian / ubunu - Sauvegarde : Veeam Backup and Réplication - Stockage : SAN , NAS , RAID , LUN , THIN , THIK - Réseau : CISCO CATALYST / NEXUS - Firewall : Stormshield / Palo Alto ( DMZ , NAT , Policy de sécurité , VPN IPSEC, VPN SSL ) /Pfsense - Monitoring : Centreon - Hardware : iDrac , ilo
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.