Trouvez votre prochaine offre d’emploi ou de mission freelance DAT
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Data Analyst
Nous recherchons pour l'un de nos clients un(e) Data Analyst spécialisé en Power BI. Vos principales missions seront les suivantes : Collecter des données Analyser les données remontées par les utilisateurs Transformer les données en éléments exploitables Réaliser des études complètes de ces données Interpréter les résultats Rassembler les données chiffrées dans un seul outil et définir les règles de gestion de nettoyage pour supprimer les doublons. Mettre au point des algorithmes pour les explorer et en tirer des graphiques faciles à comprendre et à exploiter. Présenter ses résultats à la direction commerciale ou générale et proposer des possibilités d'en tirer parti. Participer aux ateliers d'expression des besoins internes et des clients. Organiser une veille sur les évolutions technologiques.
Mission freelance
Data Engineer Senior
Contexte de la mission : Notre partenaire client recherche pour son nouveau projet, un Data Engineer. Objectifs/Descriptif de mission : • Le développement de nouvelles fonctionnalités et correction d’anomalies sur l’application Vizion hébergée par la plateforme data groupe : o dans le respect de la qualité attendue o dans le respect des technologies autorisées • La participation active aux cérémonies agile organisées par la Squad Vizion : o Daily meeting o Sprint planning o Sprint review (démonstration du développement réalisé) o Sprint rétrospective Les livrables attendus sont les suivants : • Code développé dans le respect du cadre contractuel et de la qualité attendue • Compte-rendu d’activité mensuel
Offre d'emploi
Consultant Data Gouvernance H/F
A propos de JEMS Nous sommes le seul industriel de la donnée en Europe. Notre métier est de créer, manager et exploiter le patrimoine data de nos clients. Nous avons la conviction que chaque entreprise peut adopter une démarche innovante de gestion de la donnée et créer des cas d'usage disruptifs en réduisant l'impact écologique et en diminuant la dette technique. Nous comptons plus de 840 collaborateurs en mission chez nos clients grands comptes dans tout secteur d'activité : banque, assurance, santé, énergie, e-commerce, automobile, luxe, retail, transport, agritech... Pour rejoindre notre équipe dynamique de 30 experts en gouvernance nous recherchons un(e) consultante en gouvernance de données. Le candidat idéal aura une solide expérience en gestion de données, une connaissance approfondie des réglementations en matière de confidentialité et de sécurité des données, ainsi que de solides compétences en communication et en gestion de projet. Vos missions : Vous aurez la charge de : - Participer à la définition du cadre de gouvernance des données et au déploiement opérationnel du dispositif - Assurer la conformité aux réglementations en matière de protection des données, telles que la RGPD - Mettre en place et animer l'équipe en charge de la qualité, de la diffusion et de l'analyse des données et en garantir les engagements de service - Identifier les risques potentiels pour la gouvernance des données et proposer des solutions pour les atténuer - Gérer la qualité des données et la stratégie d'amélioration continue pour assurer la fiabilité des données - Établir et maintenir la cartographie des données (définition et modélisation, identification des sources et des flux) - Animer l'équipe en charge de l'administration fonctionnelle des SI du département en assurant les fonctions de collecte et de centralisation des données métiers - Collaborer avec les autres équipes pour soutenir les initiatives de données de l'entreprise et maximiser la valeur commerciale des données Vos compétences : En tant que Consultant(e) Data Gouvernance vous maîtrisez : - Les bonnes pratiques de gouvernance de l'information et de data management - Des framework de Data management (DAMA/DMBOK, DGI/Data Governance Framework ou autre) - Des outils de modélisation de données - Le paramétrage, la configuration et le développement d'outils de Qualité des Données (Talend DQM, Informatica Data Quality (IDQ ou autre) - Le paramétrage, la configuration et le développement des outils de Gouvernance des Données ou de MDM (Informatica, Talend, Data Galaxy, Collibra) Et vous disposez : - D'une connaissance approfondie des réglementations en matière de confidentialité et de sécurité des données - D'une excellente compétence en communication verbale et écrite - De la capacité à travailler en équipe et à gérer des projets de manière autonome - D'une expérience de travail avec des outils de gouvernance de données tels que Data Catalog, MDM, DQM, ETL, etc. Votre profil Vous êtes diplômé(e) d'une école d'ingénieur ou d'une université et avez au moins 4 ans d'expérience sur des projets data (Data Gouvernance, Data Management, Data Quality ou Business Intelligence). Rigoureux(se), proactif(ve) et autonome vous restez en veille technologique et êtes force de proposition. Vous êtes capable de prendre de la hauteur et vous adapter aux enjeux du projet. Avantages à travailler chez JEMS - Une JEMS Académie au service de votre montée en compétences (formations et certifications sur les technologies de pointe) - Un accompagnement personnalisé et un management de proximité pour vous proposer des évolutions de carrière - Une intégration dans des communautés techniques et de pratiques JEMS (encadrement par des experts, échanges sur les bonnes pratiques, favoriser l'innovation...) - Une entreprise reconnue \"Great Place To Work\" - Des évènements et séminaires inoubliables, des soirées d'agence conviviales Mobilité Une mobilité nationale et internationale pour vous accompagner dans vos projets de vie. Diversité Le Groupe JEMS porte fièrement sa valeur \"Diversité\" en se mobilisant pour l'inclusion et l'égalité des chances et en luttant contre toutes formes de discrimination. Tous nos postes sont ouverts aux personnes en situation de handicap.
Mission freelance
Data Analyst -Expert Etudes
Contexte Dans le cadre de la Squad Data Métrologie et de la production d’un tableau de bord de suivi des usages M365 et de son adoption. MISSION : - Communication avec les équipes Participer aux ateliers d’expression des besoins internes. Comprendre les problématiques métiers et les traduire de manière analytique. Etudier / réaliser le cahier des charges du rapport de métrologie attendu. - Analyser et explorer les données de plusieurs sources (BDD SQL, Active Directory, Azure Cloud, Microsoft Graph connectors …). Réaliser les tableaux de bord. Réaliser des tests statistiques sur les données. - Documentation / Transfert de connaissance Réaliser le Dossier d’Architecture Technique des cas d’usage. Amender les Dashboard avec les explications pour accompagner l’utilisateur sur la compréhension de la donnée. Accompagner les collaborateurs sur la compréhension des calculs du Dashboard.
Mission freelance
Backlog Manager (H-F)
Principales responsabilités Dans le cadre de sa transformation, la division Data & Regulatory souhaite renforcer ses équipes avec un Backlog Manager , dont les missions seront les suivantes : Construire et gérer un Backlog Global pour la division. Collaborer étroitement avec les leaders de chaque stream et les Product Owners pour livrer la roadmap globale de la division. Assurer la préparation et l'exécution des artefacts Agile clés (planification stratégique, PI planning, Sprint planning...). Animer les scrums et maintenir à jour le tableau de bord Scrum. Garantir un service de haute qualité , en comprenant l'environnement de travail et les attentes métiers. Coordonner avec les leaders IT et les managers de release pour garantir un déploiement fluide en production. Assumer le rôle de Chef de projet global en suivant de près les parties prenantes internes et externes. Superviser la cohérence du Backlog et veiller à son alignement avec les priorités stratégiques. Assurer une communication fluide avec les autres responsables de streams et la direction IT.
Mission freelance
Data Visualization Engineer
Nous recherchons pour l'un de nos clients un(e) Data Visualization Engineer. Intégré à la DSI, vous viendrez apporter votre expertise technique sur l'industrialisation et la mise en place des briques de reporting de la société. A l'écoute des clients, vous comprenez leurs attentes techniques et vous ferez évoluer les process, outils, codes, plateformes permettant de répondre au mieux à leurs besoins. Vous serez notamment chargé de : - Mettre à disposition des outillages d'aide aux développement, monitoring… - Contribuer à la réduction des coûts dans une démarche FinOps. - Encadrer l’industrialisation du déploiement des applications de reporting en utilisant les bonnes pratiques de la CICD. - Proposer des architectures techniques en mettant en œuvre les principes de l’Agilité, d'intégration et de déploiement continu, en anticipant les besoin de scalabilité. - Former et accompagner les utilisateurs aux bonnes pratiques de développement des reporting. - Participer à l'animation de la communauté Power BI. - Optimiser des datasets et dashboard - Faire une veille technologique autour des architectures de reporting.
Mission freelance
Ingénieur Système Linux (H/F)
Nous recherchons pour l'un de nos clients basés à Paris : Un(e) Ingénieur Système Linux (H/F) Votre mission consistera à : Garantir la disponibilité des infrastructure et des applications Maintenir et assurer l'exploitation et garantir le bon fonctionnement des infrastructure Linux (upgrade, patching OS, Redhat) Gérer le support N2-N3 (assurer une analyse technique des incidents) Déployer et mettre en exploitation les nouveaux systèmes et services associés Apporter son support aux métiers Evaluer les risques et impacts des changements Participer à la démarche d'amélioration Administrer les serveurs d'applications Etablir la documentation technique L'Anglais parlé sera indispensable afin de correspondre avec les équipes à l'international
Offre d'emploi
Ingénieur Data Confirmé H/F
NOOEH , Entreprise de Service du Numérique basée à Aix-en-Provence, recherche pour le compte d'un de ses clients situés à Marseille un.e Ingénieur Data Confirmé - bras droit du CTO . Vous serez en charge de la refonte et de l'amélioration de l'infrastructure de traitement des données, contribuant à un produit novateur intégrant des technologies de machine learning et deep learning. Refonte et rationalisation de l'ETL, incluant la migration vers une infrastructure plus flexible. Acquisition et intégration de nouvelles sources de données, avec création de pipelines d'ingestion. Construction de jeux de données pour entraîner des modèles d’IA. Gestion et optimisation des bases de données (PostgreSQL et Elasticsearch). Application de techniques de NLP et participation à l'amélioration de modèles. Contribution occasionnelle au développement Full Stack (Vue.js, Vuetify).
Offre d'emploi
Data Analyst
Le Consultant en Réconciliation de Données sera amené à effectuer un large éventail de tâches. Celles-ci peuvent inclure : Collecte des Données d'Entrée : Obtenir les données d'entrée/documentation nécessaires auprès des différentes équipes pour compléter les étapes de préparation à la réconciliation des données. Préparation et Organisation de la Documentation : Préparer et organiser la documentation et les dossiers requis pour l'exécution des tâches de réconciliation des données à chaque phase. Réconciliation des Données : Effectuer un "premier passage" de réconciliation des données en amont des parties prenantes métier dans le cadre d'un contrôle préliminaire de la qualité des données. Gestion de la Liste de Contrôle : Améliorer la liste de contrôle si nécessaire avant chaque phase de réconciliation, en garantissant l'exhaustivité de cet outil sur la base du transfert de connaissances (KT) et des informations pertinentes obtenues de l'équipe de réconciliation des données. Pendant les phases de réconciliation, suivre et rendre compte de la liste de contrôle de réconciliation des données jusqu'à son achèvement. Coordination des Réunions : Planifier et activer des réunions de réconciliation des données avec les parties prenantes définies. Coordonner avec les parties prenantes métier et les former sur les activités de réconciliation des données. Produire des procès-verbaux de réunions complets. Revue de la Documentation : Examiner la qualité de la documentation de réconciliation des données en fonction des directives spécifiques fournies. Préparation des Rapports : Préparer le rapport final de réconciliation des données en fonction des directives spécifiques fournies. Suivi et Rapport sur le Statut : Conserver la documentation requise pour l'organisation et le suivi du statut des périmètres ci-dessus. Rendre compte du statut des activités de manière organisée. Gestion de la Communication : Établir des canaux de communication clairs avec toutes les parties prenantes pour faciliter l'échange d'informations en temps utile et de manière précise.
Mission freelance
Mission AMOA pour ex Responsable d'exploitation Data Center
Dans le cadre de la création d'un nouvel opérateur de Data Center, de la définition et de la mise en oeuvre du SI d'exploitation d'un nouveau Data center, nous recherchons un ancien Directeur d'exploitation de Data Center ou un profil analogue (expérience indispensable en exploitation d'un Data Center en tant qu'opérateur de Data Center pour des Clients) pour collecter les besoins, les challenger et rédiger toutes les spécifications : comprendre le besoin du métier, le challenger, et formaliser.
Offre d'emploi
Architecte SI
Nous recherchons un architecte SI orienté architecture client/Server ayant une bonne connaissance en N-tiers, web services, micro services en mode conteneur (kubernetes/Aks/Eks). Au sein de la cellule d’architecture CORETEAM, gérant plus de 40 projets actifs autour de la SI. Conception des architectures IT Conseil en architecture Mise à jour du continuum d’entreprise Veille technologique Compétences et expériences obligatoires en architecture des SI : Architectures client/server, N-tiers, web services, micro-services en mode conteneur (kubernetes / aks / eks) Serveurs d’application: Tomcat, JBoss EAP, Wildfly, ... Brokers : KAFKA, RabbitMQ, ActiveMQ, ... ETL : Talend, Mulesoft, ... SGBD : PostGreSQL, SQL Server, MongoDB, Oracle Systèmes : Linux et Windows Server Framework : TOGAF, SAFe, … Connaissances spécifiques obligatoires en infrastructure Datacenter : Hébergement, exploitation et infogérance Cloisonnements réseaux et ouverture extranet des SI (DMZ, infrastructure d’accès, …) Secours de sites, continuité de service, reprise à chaud et bascule en cas d’incident Stratégie de stockage, de sauvegarde et d’archivage Compétences et expériences obligatoires en rédaction de Dossiers d’Architecture Technique (DAT) : Cadrage et interprétation des besoins fonctionnels et non-fonctionnels pour la définition de l’architecture technique Traitement des exigences opérationnelles : disponibilité, performance, sécurité Modélisation des architectures selon les différents angles : fonctionnels, logiques, physiques () Intégration des contraintes de sécurité, contraintes de gestion et de propagation d’identité et de mécanisme d’authentification et d’accès Analyse et plan de mitigation des risques techniques Compétences et expériences obligatoires en communication de solution d’architecture : Expérience en synthèse et rédaction de documents Expérience en organisation et à animation d’ateliers techniques avec différents contributeurs Expérience en contribution à une démarche de catalogue de services et/ou portail de solutions techniques Expérience en Publication de patterns d'architecture
Mission freelance
Product Owner Sénior - BORDEAUX
Product Owner expérimentés avec une forte appétence pour les sujets techniques et la data, un fort intérêt pour le fonctionnel, un bon relationnel et une excellente communication avec des interlocuteurs internes et externes. Product Owner expérimentés avec une forte appétence pour les sujets techniques et la data, un fort intérêt pour le fonctionnel, un bon relationnel et une excellente communication avec des interlocuteurs internes et externes. Product Owner expérimentés avec une forte appétence pour les sujets techniques et la data, un fort intérêt pour le fonctionnel, un bon relationnel et une excellente communication avec des interlocuteurs internes et externes.
Offre d'emploi
Data Engineer
Nous recherchons pour notre partenaire, un Data Engineer pour construire, livrer et maintenir des produits de données. (pipelines de données, services, APIs...). Les technologies utilisées par l'ingénieur de données pour le développement sont : Databricks pour le pipeline de données Palantir Foundry pour les ontologies et les tableaux de bord. Le Data Engineer travaillera en collaboration avec les équipes produits pour développer de nouvelles fonctionnalités liées à ces produits, en particulier des fonctionnalités liées à : le pipelining de données au sein de plusieurs produits ou entre eux les capacités d'analyse et de stockage pour l'exploration des données, la science des données, la BI le calcul parallèle sur de grands volumes de données. Le Data Engineer est responsable de la construction, de la livraison, de la maintenance et de la documentation d'artefacts de données lu de fonctionnalités en suivant des modèles de pointe Les critères requis pour pouvoir occuper ce poste : -être orienté vers la résolution de problèmes et avoir une forte capacité d'analyse -Etre autonome et rigoureux dans sa manière d'aborder les défis techniques -Conseiller sur l'architecture des flux de données de bout en bout -Collaborer avec les différentes parties prenantes (product owners, solution owners, data solution analysts, developers, technical leads, architects) pour livrer des artefacts de données dans un esprit d'équipe. -7 ans d'expérience Nous ne sommes pas ouverts à la sous-traitance.
Offre d'emploi
Data Architecte (H/F)
En Bref : Alpes-Maritimes - CDI - Data Architecte (F/H) Adsearch, cabinet de recrutement basé à Nice vous accompagne dans votre carrière pour vous trouver LE poste idéal. Je recrute pour un client, un Data Architecte (F/H) basé dans le 06 au sein dune DSI à taille humaine dans un contexte de luxe. Vos missions : Data Management / Gouvernance Data Construction du Datawarehouse / EDS Architecture data Migration, optimisation, développement Interface éditeurs / métiers Création de tableau de bord Environnement technique : Microsoft 365, MSSQL, Azure Data, PowerBI ou Talend, Microsoft SQL Server Integration Services (SSIS), SQL Serveur Adsearch vous propose des milliers d''opportunités de carrières dans toute la France pour les profils d''experts, cadres et managers. Que ce soit pour un emploi ou pour une mission, Adsearch c''est le cabinet de recrutement qu''il vous faut ! Retrouvez toutes nos offres d'emploi en CDI, CDD, Intérim et Freelance sur notre site internet !
Mission freelance
Data Ingénieur Cloud
Nous recherchons un Data Ingénieur Cloud Compétences techniques: Github - Expert - Impératif AWS - Expert - Impératif Python - Expert - Impératif Connaissances linguistiques: Français Courant Impératif Anglais Courant Impératif Description détaillée: Sur un plateau d'équipe autour de la data, environnement avec des interlocuteurs basés en France au Maroc et en Inde Équipe de Data Engineer à monter avec des seniors et expérimentés les must have: une expérience dans l'utilisation des git hub actions avec des multibranches avec utilisation de triggers, de if conditions, de workflow, de jobs. ET en priorité qui ont une expérience GLUE et ensuite EC2, S3, LAMBDA, STEP FUNCTIONS, CLOUDWATCH Il/elle doit maîtriser python. En plus de cela, il devra pouvoir effectuer les actions suivantes : -Développement des fonctionnalités -Assurer les tests de validation techniques -Livrer la documentation technique -Vérification & validation des nouvelles versions du code (Maîtriser git, avoir vu l’utilisation des branches git dans Databricks serait un plus)
Offre d'emploi
Data Engineer Kafka (production/ Run)
Spécialisé dans le secteur bancaire, l'entreprise recherche un Expert Data Engineer Kafka pour renforcer ses effectifs. . Le rôle consiste à mettre en œuvre des solutions de streaming de données à grande échelle et en temps réel pour répondre aux besoins des différents départements métiers et améliorer la prise de décision grâce à une infrastructure de données solide, évolutive et performante. Architecture et conception : Concevoir et développer des pipelines de données en streaming avec Apache Kafka pour gérer des volumes de données élevés en temps réel. Participer à la définition de l’architecture de la plateforme Kafka et de ses composants (brokers, zookeepers, clusters). Développement de flux de données : Créer, configurer, et maintenir des topics Kafka , des streams et des connecteurs Kafka pour assurer l’ingestion, la transformation et la livraison des données aux consommateurs en temps réel. Optimisation des performances : Surveiller et ajuster les configurations pour optimiser la latence et le débit des flux de données en streaming. Mettre en place des processus de mise à l’échelle et de gestion des performances pour maintenir un haut niveau de fiabilité. Sécurité et conformité : Mettre en œuvre des mesures de sécurité et de gouvernance des données pour protéger les flux de données Kafka en conformité avec les exigences internes et réglementaires (authentification, contrôle d’accès, chiffrement des données en transit). Innovation continue : Mener une veille technologique active sur les évolutions d'Apache Kafka et les nouvelles technologies de streaming, telles que Apache Flink , Kafka Streams , ksqlDB , afin d’améliorer continuellement l’écosystème de données. Maîtrise de Kafka : Expertise approfondie sur Apache Kafka , avec une expérience dans l’implémentation, l’optimisation et le maintien de clusters Kafka en environnement de production. Compétences en programmation : Compétences en Java , Scala , et/ou Python pour la création de flux de données et l’intégration de Kafka avec d’autres systèmes. Traitement des données en temps réel : Connaissance des frameworks de traitement en temps réel et streaming, tels que Apache Flink , Kafka Streams , et Spark Streaming . Architecture de données distribuées : Solide compréhension des architectures de données distribuées, de la gestion des clusters et de l’optimisation des performances des systèmes de streaming. Sécurité des données : Maîtrise des pratiques de sécurité des données, y compris le chiffrement, l'authentification (SASL, SSL) et le contrôle d’accès (ACL) dans les systèmes Kafka. Environnement cloud : Expérience avec les environnements cloud (AWS, GCP, Azure) et familiarité avec les services Kafka managés comme Confluent Cloud ou Amazon MSK . Compétences en DevOps : Connaissance des outils DevOps tels que Docker , Kubernetes , et Terraform pour le déploiement, l’orchestration, et la gestion des clusters Kafka.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.