Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Data Architect Azure
🎯Inventifs Wanted Nous recherchons un architecte Data Azure ayant une expertise en architecture de données, chiffrage de projets Big Data et méthodologies Agile. Avec 8 ans d'expérience au minimum Travaillant sur plusieurs Projets Data; Participation à l’évaluation et à la livraison de composants Azure Conception et mise en œuvre d’architectures de solutions data sur Azure (data lakes, ingestion, service et consommation de données). Développement d’architectures Azure Data Lake pour stocker les données IoT et configurer Databricks. Implémentation de solutions utilisant Azure SQL Database, Azure Data Factory, et Azure SQL Managed Instance. Direction de projets cloud axés sur les services Azure et gestion de la qualité des livrables pour les projets de migration et d’infrastructure. Cadrage et chiffrage des divers projets Big Data Définition des solutions d’architecture Big Data dans le Cloud Azure Garantir la cohérence technique et la pérennité du système d’information. Mise en place de l'architecture des projets Big Data sur le Cloud Azure en rédigeant des Dossiers d’Architecture Logiciels (DAL) et en validant des Dossiers d’Architecture Technique (DAT). Migration des projets dans des nouvelles architectures (HDI vers AKS, Datalake Gen1 ver Gen2, AKS 1.19 vers AKS 1.) et concevoir de nouvelles solutions avec un monitoring de PaaS et une synchronisation des données de Prod et Hprod. Participation à des instances de : Design Authority, CoArch avec les Architectes Techniques, CAO (Comité d'Architecture Opérationnel) Validation de l'architecture du Product Incrément, à des réunions de qualification Validation avec le RSSI et au suivi de chantiers de résilience et de suivi FinOps. Conception de solutions BI avec Power Platform (Power BI, Power Automate, Power Virtual Agents). Création de rapports, tableaux de bord, et KPI avec Power BI, ainsi que gestion de la sécurité des données. Environnement Technique : Cloud Platform & Services : Azure, Azure API APPS, Azure DevOps, Azure Data Factory, Azure Data Lake, Azure Synapse Analytics, Azure Databricks, Azure IoT, Azure Stream Analytics, Azure SQL DB, Azure SQL Managed Instance Data & Analytics : Datalake, SQL, Power BI, Azure Synapse Analytics, Azure Databricks, Azure Data Lake, Azure Stream Analytics Automation & Scripting : PowerShell, CI/CD, Azure DevOps
Mission freelance
Ingénieur IT / OT (SCADA - Industrie 4.0)
En collaboration avec l’équipe du programme de transformation du métier des malteries, vous serez responsable des pré-requis techniques permettant le déploiement d’une solution d’intelligence artificielle. Le projet Industrie 4.0 vise notamment à optimiser les processus de fabrication industrielle, sur les sites industriels à l’international du client. Vous aurez en charge la standardisation des données industrielles sur la base des supervisions, des PLC et des solutions d'automatisation utilisés en production. Vous serez intégré à l’équipe d’ingénieurs IT / OT, qui vous guidera, dans les premières semaines, pour appréhender le processus industriel de maltage. En interaction quotidienne avec des équipes pluridisciplinaires (Business Product Owner, Product Manager, responsables de production et maintenance des sites, chefs de projet Transformation…), vous reporterez au chef de projet Industrie 4.0, sous la codirection du Directeur Industriel et Directeur Transformation. Vos principales missions : Standardiser les données reçues via les automates des sites industriels (création du core model des données industrielles) Créer les spécifications des modèles de données (à partir du code automate, basés sur les supervisions WinCC, Schneider…) pour chaque étape du processus industriel de maltage, à destination du partenaire externe en charge du traitement de ces données Gérer les éventuelles pannes automates et/ou AVEVA (Historian) avec les sites industriels, de manière adhoc Participer aux réunions de pilotage du projet Industrie 4.0 en tant qu’expert technique PROFIL RECHERCHE L'ingénieur OT retenu devra avoir une expérience pratique des systèmes SCADA et une bonne expérience de l'automatisation des processus, en secteur industriel. COMPETENCES SOUHAITEES +3 ans d’expérience sur la création et la maintenance de codes automates / supervisions Expérience en tant qu’automaticien en industrie (la connaissance du secteur agroalimentaire et/ou agricole sera appréciée) Raisonnement analytique et appétence pour le traitement de données Bonne communication écrite et orale Anglais indispensable (B2 minimum) ENVIRONNEMENT & CONDITIONS MISSION La mission est d’une durée initiale de 3 mois (renouvelable), avec un rythme idéalement de 5 jours par semaine (possible 4j). Démarrage immédiat requis. Après une période d’intégration à l’équipe et de formation (deux semaines environ, à 1h de Paris en train), au siège et auprès du partenaire IA (lieu : La Défense), la mission pourra avoir lieu à 90% en distanciel. Des déplacements ponctuels sur les sites industriels (République Tchèque, Allemagne, Serbie, UK…), à raison de 2-3 jours par mois maximum, sont à prévoir. Budget : 600-650€/jour (+ prise en charge des déplacements et des déjeuners sur site)
Offre d'emploi
Consultant Data Gouvernance Collibra
Nous un recherchons un Data Manager - Consultant Data Gouvernance étant spécialisé en Gouvernance de données. Maîtrisant la Data Management et la Data Visualisation. Dans le cadre de la gestion et de la mise en gouvernance des données d'une Plateforme Data. Accompagnement des Uses Cases Data pour la définition de leur architecture data au sein de la plateforme dans le respect du paradigme du Data Mesh ; Identification, modélisation et documentation des Data-as-a-products exposés par chaque domaine de données ; Animation et contribution aux ateliers avec les correspondants RGPD (relais DPO) ainsi que les MOA pour l’identification et la classification des données sensibles et des données à caractère personnel ; Catalogage et taggage des données de couche Bronze dans le gestionnaire des métadonnées ; Accompagnement pour la prise en main de l’outil COLLATE (Open Metadata) par les ingénieurs de données afin d’effectuer le taggage des métadonnées de leurs domaines data respectifs conformément aux règles data management ; Participation aux cadrages des fonctionnalités techniques relatives au Data Management : gestion des schémas de données, gestion des contrats d’interface, minimisation des données, framework d’exposition des données … Conception et développement d’une newsletter Data Management sous forme d’un tableau de bord Power BI pour suivre l’évolution des principaux KPIs du patrimoine de données de la plateforme. Environnement Technique : Data Engineering : Databricks Data Storage & DB : AWS S3 Data Visualisation : Microsoft Power BI Data Management : OPEN METADATA, COLLIBRA, Data Galaxy / Data Catalog
Mission freelance
Data Engineer 6
Contexte de la mission : Vous interviendrez en tant que Data Engineer au sein d'une cellule de Développement de notre client un acteur majeur du trading de l'énergie. Tâches à réaliser : Contribution aux Guidelines (utilisation de la plateforme et pratiques de développement et de déploiement) Conception et réalisation de solutions (développement) pour répondre aux besoins prioritaires (de type analyse et restitution de données) Rédaction des Dossiers de conception et d’exploitation des solutions délivrées Veille technologique et proposition de solutions innovantes pour exploiter les données
Mission freelance
Data Business Analyst F/H
METSYS est un intégrateur de solutions Microsoft, Cloud & Cybersécurité. Nous recherchons pour l'un de nos clients grands-comptes dans le secteur assurantiel un.e Data Business Analyst (F/H) pour une mission de longue durée à Courbevoie (92), pour un démarrage prévu fin octobre. Dans le cadre de cette mission, vous seriez amené.e à concevoir et à modéliser un socle fonctionnel pour permettre l'intégration de données tierces dans la data warehouse de notre Client, et ce au sein d'un environnement international.
Mission freelance
Architect data
L’équipe est actuellement composée de 3 personnes qui gèrent le périmètre technique du Data Office ( 50 personnes dont 15 data Analystes – 20 DE – 5 dataviz – 10 PM ). Le Data Office a un patrimoine applicatif utilisant les briques techniques suivantes : - GCP – dataproc – BQ – dataform - Dynatrace - Datawarehouse Oracle - Tableau Software - SAP Business Objects Mission principale : En tant qu'Architecte de Data plateforme, avec l’équipe, vous serez responsable de la conception, de la mise en œuvre et de l'optimisation de notre data plateforme sur GCP. Vous travaillerez en étroite collaboration avec les équipes technique de la DSI et les squad du data Office pour garantir que la plateforme réponde aux besoins actuels et futurs de l'entreprise. Responsabilités : 1. Conception et architecture : o Concevoir l'architecture globale de la data plateforme en respectant les meilleures pratiques de développement et des standards GCP et en garantissant la scalabilité, la performance, le finops et la sécurité. 2. Mise en œuvre et développement : o Superviser la mise en œuvre technique de la plateforme en collaboration avec les développeurs et les ingénieurs en données. o Participer activement au développement et à la maintenance des composants de la plateforme o Participer activement à la formation de l’équipe sur les outils de la data plateforme. o Participer au run sur les outils du Data Office afin de solutionner tous problèmes techniques. o Valider le coté financier des solutions mise en oeuvre 3. Gestion des données : o Apporter son support sur les stratégies de gestion des données incluant la collecte, le stockage, le traitement et l'archivage des données. 4. Sécurité et conformité : o Mettre en place des mesures de sécurité pour protéger les données sensibles et garantir la conformité aux réglementations en vigueur. o Participer aux audits de sécurité et les tests de vulnérabilité et à leur remédiation ( CSPR ) o Participer à la définition et à la mise en place du PRA 5. Innovation et veille technologique : o Rester informé des dernières avancées technologiques sur GCP et proposer des améliorations continues. o Tester et évaluer de nouvelles technologies susceptibles d'améliorer la plateforme. o Participer au guilde de dev
Offre d'emploi
Référent Power BI
Expertise technique : Assurer la maîtrise technique de la plateforme Power BI. Être le référent technique pour l'ensemble des utilisateurs. Développer et maintenir des rapports, des tableaux de bord et des visualisations de haute qualité. Optimiser les performances et la scalabilité des modèles de données. Accompagnement des utilisateurs : Former et accompagner les utilisateurs sur les différentes fonctionnalités de Power BI. Recueillir et analyser les besoins des utilisateurs pour adapter les solutions. Assurer un support de niveau 2 et 3. Gouvernance des données : Contribuer à la définition et à la mise en œuvre d'une gouvernance des données cohérente. Garantir la qualité, la fiabilité et la sécurité des données utilisées dans Power BI. Innovation : Être force de proposition pour l'évolution de la plateforme Power BI et l'intégration de nouvelles fonctionnalités. Suivre les évolutions technologiques et les meilleures pratiques en matière de BI.
Mission freelance
Tech lead - Data
Participer au développement d'un Framework de gestion des flux de données Concevoir l'architecture technique de la solution cible Proposer des solutions innovantes Assurer la cohérence technique et les bonnes pratiques Être force de proposition sur le design des solutions techniques Rédiger les dossiers techniques et autres documentations nécessaires Participer activement au développement de la solution cible Assurer la cohérence technique des différents modules du projet et garantir les bonnes pratiques (cohérence du code au sein de l’équipe, choix des modèles ..) en ligne.
Offre d'emploi
Data Engineer GCP - BigQuery, Azure Data Factory et DBT
Nous recherchons un Data Engineer GCP - BigQuery, Azure Data Factory et DBT pour contribuer à des projets de transformation de données. Vous serez responsable de la conception et de la gestion des pipelines de données en utilisant Google BigQuery comme base de données principale, Azure Data Factory (ADF) pour le processus ELT , et DBT (Data Build Tool) pour orchestrer les transformations entre les bases de données BigQuery. Vous travaillerez sur des projets de captage et de transformation de données ainsi que sur la mise en place d'indicateurs et de rapports via des outils de BI tels que Power BI , SSRS ou d'autres plateformes de visualisation. Développement de pipelines de données (ELT) : Créer et maintenir des pipelines de données avec Azure Data Factory pour orchestrer l'extraction, le chargement et la transformation des données. Intégrer des flux de données provenant de multiples sources vers BigQuery pour le stockage et l’analyse. Gérer l'architecture des données, en assurant la qualité et la conformité tout au long du processus ELT. Transformation des données avec DBT : Utiliser DBT (Data Build Tool) pour transformer et modéliser les données au sein de BigQuery . Développer et maintenir des modèles de données modifiables et bien structurés pour répondre aux besoins d'analyse métier. Assurer une documentation claire des transformations et des modèles DBT pour faciliter leur réutilisation et leur maintenabilité. Gestion des données sur BigQuery : Assurer l'optimisation des performances des bases de données BigQuery en termes de stockage, de requêtes et de coûts. Implémenter les meilleures pratiques pour la gestion des données, y compris les partitions et les indexations. Mise en place de reporting et d'indicateurs : Collaborer avec les équipes métiers pour définir les KPI et concevoir des tableaux de bord personnalisés avec Power BI ou SSRS . Créer des visualisations interactives et dynamiques permettant d’analyser les données stockées dans BigQuery et issues des transformations réalisées via DBT . Automatiser les processus de reporting pour fournir des rapports en temps réel et des indicateurs fiables. Documentation et optimisation : Documenter toutes les étapes des pipelines de données, des transformations DBT et des processus de reporting pour garantir la transparence et la collaboration entre les équipes. Identifier et implémenter des solutions pour améliorer les performances des pipelines de données et des processus d'analyse. Collaboration inter-équipes : Travailler en collaboration avec les équipes data, DevOps, et les parties prenantes métier pour comprendre les besoins, résoudre les problèmes techniques et optimiser les flux de données. Participer activement à l'amélioration continue des processus et des outils.
Mission freelance
Looker Expert
Le candidat idéal doit avoir une connaissance approfondie de Looker (pas Looker Studio), y compris une expertise en Looker Extensions et en mécanismes de réécriture de données. Une expérience dans la création d'applications interactives au sein de Looker est essentielle. De solides compétences en communication en anglais sont requises pour une collaboration et une résolution de problèmes efficaces. We are looking for a candidate to define and develop advanced solutions using Looker. The ideal candidate must have extensive knowledge of Looker (not Looker Studio), including expertise in Looker Extensions and data write-back mechanisms. Experience in creating interactive applications within Looker is essential. Strong English communication skills are required for effective collaboration and problem-solving.
Mission freelance
Business Anlayst Data
Notre client dans le secteur Banque et finance recherche un Data Business Analyst H/F Descriptif de la mission: Le Data Business analyst accompagne le métier dans le rencensement des données utiles à son besoin exprimé. A partir d'une expression de besoin métier, il traduit le souhait en besoins datas. Pour ce, il doit : - animer des ateliers métier, comprendre les besoins métier, les challenger - identifier les données nécessaires à la réalisation de ces besoins, en consolidant l'ensemble des besoins - Modéliser les données (modèle métier entreprise), en assurant une cohérence globale de ce modèle (consolidation des différents projets) - Travailler en binôme avec l'architecte de données pour sourcer les données dans le SIO, et permettre de décliner un modèle de données technique - Travailler avec le data steward pour que celui-ci mette à jour les dictionnaires de données (description, traçabilité, règles de gestion métier), les fiches de données... tous les livrables indispensables à la gouvernance - coordonner avec l'équipe informatique la déclinaison technique des données sur la plateforme Data Connaissance des principes DATA de la modélisation à l'implémentation, aguerri aux projets Data Maîtrise de la modélisation, de la conception de données Capacité à comprendre les besoins métiers, à challenger Force de proposition, communication aisée, sens relationnel
Offre d'emploi
Data Engineer
Bonjour, Nous recherchons pour un pote à pourvoir ASAP pour notre client banque basé en Région parisienne un profil Data Engineer La mission consiste à intégrer l'équipe Projets en charge de l'intégration des données de l'entreprise au sein de la plateforme Data sous le Cloud Azure afin de couvrir les besoins Big Data et BI de nos métiers. La personne sera intégrée dans l'équipe projet qui fonctionne dans une organisation en mode Agile. Nous recherchons un Data Engineer confirmé/sénior avec une forte expertise sur Azure, Databricks, Spark, Scala, Python et SQL · Développement et l’implémentation de solutions Big Data Analytics · Analyse du besoin, étude d'impacts et conception de la solution technique · Conception et modélisation des données au niveau d'un Data Lake (format Parquet, Delta table, …) · Construction des pipelines de données pour collecter, transformer et traiter des données dans le Data Lake · Développements de notebooks (ex : Databricks) de traitements avancés des données · Cloud Datawarehousing (tuning, optimisation de traitements et requêtes SQL) · Rédaction de documentation technique (Dossier d'Analyse Technique, release delivery note, ….) · Revue de code · Réalisation de tests unitaires · Maintenance corrective et évolutive · Livraison dans un environnement Devops, CI/CD et outils associés Compétences techniques requises · Expérience Data minimum 5 ans · Azure minimum 3 ans · Expérience architecture Lakehouse minimum 2 ans · Databricks minimum 5 ans · Spark minimum 5 ans · Scala, Python, SQL minimum 5 ans · Maitrise de CI/CD, Azure DevOps minimum 3 ans · Connaissance des outils Agile (JIRA) et ayant déjà travaillé en mode Agile minimum 1 an Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format Word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.
Offre d'emploi
Expert/e Solution Référencement - PIM/DAM
Winside Technology , jeune ESN dynamique, crée en 2020, continue son développement. Au fil des ans, elle a connu une très belle croissance , avec l'ouverture de nouveaux clients (plus d’une quarantaine à son actif dans différents secteurs), l’ accroissement de sa communauté (actuellement plus de 150 collaborateurs), et des événements techniques et festifs reconnus à ce jour ! Winside Technology est actuellement présent à Paris , Lille et Bordeaux . Et ce n'est que le début ! Si tu recherches une entreprise jeune et dynamique, pour qui évoluer est le mot d'ordre , n'attends plus ! Aujourd'hui nous recherchons un/e Expert/e Solution Référencement. Ce que l'on attend de toi … ✨Analyse des besoins en gestion de la donnée produits: compréhension des besoins métier, gap analysis entre les capacités des produits et le besoin ✨ Définition des bonnes pratiques de gestion de la donnée produit, modélisation du dictionnaire de données ✨ Audit de la Conception actuelle du PIM incluant un potentiel changement de modèle pour s’aligner avec les besoins métiers actuels et futurs et pour s’assurer que tout ce qui est actuellement créé est toujours utile ✨ Mise en place de mesure et de pilotage de la qualité de données (intrinsèque aux produit set d’alignement entre différents systèmes) ✨ Mise en place et animation d’une gouvernance de la donnée produit ✨ Accompagnement et support aux utilisateurs dans leurs tâches quotidiennes (traitement des tickets fonctionnels entrants) ✨ Assurer les tests d’intégration avant et après la mise en ligne des Produits et réaliser les correctifs si nécessaire Démarrage : 11/11/2024 On t'embarque dans l’aventure Winside Rejoindre la communauté des Winsiders, c’est commencer une belle aventure au sein d’une société en pleine évolution, qui a à cœur de créer une structure centrée sur ses collaborateurs et sur le respect d’autrui. Tu te reconnais ? Alors, tu es fait.e pour nous rejoindre ! Viens échanger avec nous !
Offre d'emploi
Chef de Projet Data (H/F)
CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation d’un projet important, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Chef de Projet Data (H/F) 🚀 Vous interviendrez pour un client international dans le domaine pharmaceutique, leur mission est de favoriser le progrès thérapeutique au service des patients. Il emploie plus de 21 400 personnes dans le monde dont 4 500 en France. Vous serez au sein de l’équipe Data, Digital & Systèmes d’Information qui établit la gouvernance Data du groupe, afin de devenir une « data-driven company » et qui développe des centres d'expertise et de ressources sur les compétences digitales clés de demain (UX, Data Science, Agile, DevOps, Data Ops, Digital Marketing). La Direction SI s’est dotée d’une SAP Factory afin de regrouper les expertises SAP pour renforcer la maîtrise d'un SI colonne vertébrale de l’entreprise et de fournir une plateforme SI commune. 🙌🔽 Vous aurez les missions principales suivantes : 🔽🙌 🔸 Responsable de l'exécution des flux du DDIS, conformément à la qualité, la planification, le budget et les ressources du début à la fin du programme 🔸 Garant de la stratégie et documentation concernant la migration des données, de son exécution ainsi que de la qualité/intégrité des données migrées 🔸 Responsable des activités de migration : identifier et piloter les reprises de données, qualifier l’effort d’intégration de la solution dans le paysage applicatif global et local 🔸 Accompagner le déploiement de la solution sur les aspects techniques 🔸 Coordonner les différentes parties prenantes, alerter et agir en cas de problème ou de désalignement avec les fournisseurs et/ou prestataires de services IS 🔸 Contribuer à la préparation et à l’animation des instances de gouvernance 🔸 Suivi de la mise en œuvre : rédaction des spécifications fonctionnelles générales et détaillées, supervision des développements, réalisation des tests unitaires / des tests d’intégration / des tests utilisateurs de bout en bout et validation, correction des anomalies, suivi de l’état d’avancement des livrables, accompagner le déploiement de la solution, assurer la conformité de la gouvernance de données et sa sécurité
Mission freelance
Architecte Data Urbaniste des Systèmes d'Information (SI)
Contexte Le Data Business analyst accompagne le métier dans le recensement des données utiles à son besoin exprimé. A partir d'une expression de besoin métier, il traduit le souhait en besoins datas. Pour ce, il doit : MISSIONS - animer des ateliers métier, comprendre les besoins métier, les challenger - identifier les données nécessaires à la réalisation de ces besoins, en consolidant l'ensemble des besoins - Modéliser les données (modèle métier entreprise), en assurant une cohérence globale de ce modèle (consolidation des différents projets) - Travailler en binôme avec l'architecte de données pour sourcer les données dans le SIO, et permettre de décliner un modèle de données technique - Travailler avec le data steward pour que celui-ci mette à jour les dictionnaires de données (description, traçabilité, règles de gestion métier), les fiches de données... tous les livrables indispensables à la gouvernance - Coordonner avec l'équipe informatique la déclinaison technique des données sur la plateforme Data.
Offre d'emploi
QA DATA
En tant que QA Data, vous ferez partie du pôle Qualité Data sera d'assurer la préparation, l'exécution et le suivi de la recette technico fonctionnelle tout en contribuant à l'amélioration de la qualité de données. 1. Participer aux ateliers/rituels agiles 2. Réaliser la stratégie de test 3. Identifier et réceptionner les environnements de test 4. Analyser et évaluer les cas d'usage/User Story 5. Rédiger les plans de test, identifier les prérequis et spécifier les jeux de données 6. Exécuter les cas de tests 7. Créer et suivre les anomalies avec les différentes parties prenantes 8. Maintien du référentiel de test 9. Réaliser le PV de recette
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.