Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Data Engineer H/F
Notre client recherche un Développeur Big Data senior pour l’accompagner dans l'organisation et la mise en œuvre d'une solution Cloudera au sein de son dispositif technique. L'équipe est actuellement composée de 3 personnes pour le POC, qui devrait être terminé fin septembre, mais il y a des retards techniques : La possibilité de faire des mises à jour par rapport à Teradata Hadoop est plus permissif Trouver une solution de requêtage facile pour les statisticiens Descriptif de la mission : Rattaché au responsable Fabrication Décisionnel & Big Data, vous aurez pour principales missions : Concevoir techniquement les traitements dans le respect de l'architecture mise en place des exigences du client. Codifier les traitements des applications et rédiger la documentation technique dans le respect des normes de développement et des processus établis à notre client. Prendre en charge les maintenances correctives (modification d'une application existante pour corriger des erreurs techniques ou fonctionnelles) Réaliser les tests unitaires pour chaque composant : nouvelle fonctionnalité et non-régression, dans le cas de la maintenance ; Réaliser les tests d'assemblage des composants décrivant une fonction applicative : nouvelle fonctionnalité et non-régression, dans le cas de la maintenance ; premier niveau de vérification des performances et de l'exploitabilité. Transformation du SI BI : Passage de Datastage / Cognos à Hadoop / Power BI.
Mission freelance
Data Analyst (€400 MAX)
Hanson Regan recherche actuellement un Data Analyst (€400 MAX) pour travailler avec une entreprise française réputée, basée à Paris, Nantes ou Aix en Provence. Vous travaillerez aux côtés d'autres analystes de données pour effectuer plusieurs tâches cruciales telles que l'analyse des besoins, la manipulation et l'exploitation de bases de données, et pour comprendre les changements fonctionnels et techniques des données dans le cadre de la même activité. L'analyste de données retenu devra avoir une expérience démontrable dans un rôle similaire et une excellente connaissance d'Excel et de l'interrogation de bases de données (SQL, Hive, etc.) pour tester et explorer la base de données. Vous serez à l'aise pour comprendre les exigences fonctionnelles de l'entreprise et aurez de solides compétences en communication. En raison des exigences du client, nous ne pouvons envoyer des freelances travaillant que via leur propre entreprise française. Malheureusement, nous ne pouvons pas travailler avec des solutions de portage pour cette mission. Si cela vous intéresse, veuillez nous contacter dès que possible avec un CV à jour aux coordonnées ci-dessous.
Offre d'emploi
Responsable de Plateforme Data
En partenariat avec un client financier établi de GloComms, nous recherchons un responsable senior de la plateforme de données pour aider à diriger le développement et la gestion de la plateforme de données existante. Role: Responsable de Plateforme Data Lieu: Paris Hybride Teletravail Debut: Novembre/Decembre Role: Superviser la création et l'entretien d'une infrastructure et d'une plateforme de données sûres, évolutives et performantes. Travailler avec les équipes de Data Science, Data Engineering et Quant pour s'assurer que les pipelines de données et les procédures s'intègrent de manière transparente. Superviser le développement de services et de parties communes utilisés par les équipes Data et Quant. Réduire le temps de mise en production en rationalisant les opérations de développement à l'aide de l'automatisation et de modèles réutilisables. Superviser un groupe multidisciplinaire d'ingénieurs en logiciels, en fiabilité des sites et en DevOps. Établir, mettre en pratique et garder un œil sur les KPI qui sont liés à la valeur de l'entreprise et à l'expérience de l'utilisateur.
Mission freelance
Ingénieur(e) Splunk - Freelance - (Junior/Confirmé)
CONTEXTE : Nous recherchons des Ingénieurs Splunk Junior ou Confirmé pour rejoindre notre équipe, et nos clients. Vous travaillerez sur des projets variés dans un environnement dynamique et innovant, où vous aurez l’opportunité d'évoluer rapidement et d'acquérir de nouvelles compétences. MISSIONS RECHERCHÉES : 1) Implémentation : Gérer l’ implémentation de solutions Splunk sur les infrastructures locales ou cloud, en fonction des besoins et de l’architecture spécifique de l’entreprise. Configurer et déployer des modules Splunk IT Service Intelligence (ITSI) et d'autres applications spécifiques pour automatiser la collecte de données pertinentes. Collaborer avec les équipes de développement pour mettre en place des alertes et des dashboards personnalisés en fonction des besoins de l’organisation. 2) Déploiement : Déployer des instances Splunk sur des environnements complexes (cloud, hybride, on-premise) en respectant les meilleures pratiques d'architecture et de sécurité. Assurer le déploiement de nouvelles fonctionnalités sur Splunk, en garantissant la continuité des services et en minimisant les interruptions. Implémenter des solutions de monitoring de la performance pour les applications et systèmes, en utilisant Splunk et d’autres outils comme Dynatrace pour suivre les métriques de déploiement. 3) Observabilité : Implémenter et configurer des solutions d’ observabilité sur la plateforme Splunk , permettant une surveillance proactive des performances, des logs et des événements des systèmes informatiques. Assurer la visualisation des métriques , des logs, et des traces pour garantir une vue d'ensemble des performances des applications et de l'infrastructure. Créer des dashboards interactifs dans Splunk pour assurer une observabilité en temps réel, facilitant la détection des anomalies et la résolution des incidents. 4) ITSI (IT Service Intelligence) : Implémenter Splunk ITSI pour la surveillance proactive des services IT et garantir la visibilité des performances des applications et des systèmes. Créer et déployer des Service Monitoring Dashboards dans ITSI pour suivre l’état de santé des services IT en temps réel. Configurer des notifiers dans ITSI pour assurer que des alertes sont générées en cas de détection d’incidents dans l’infrastructure ou les applications. 5) Dynatrace : Assurer l'intégration et l'interopérabilité entre Splunk et Dynatrace , permettant une visibilité complète sur les performances applicatives et l'infrastructure. Utiliser Dynatrace pour collecter des données de performance des applications et des environnements cloud, puis les analyser dans Splunk pour des actions correctives plus efficaces. Travailler sur l' automatisation du monitoring et des remontées d’informations entre Dynatrace et Splunk , pour une réponse plus rapide aux anomalies.
Offre d'emploi
Ingénieur Splunk - CDI - (Junior/Confirmé)
CONTEXTE : Nous recherchons des Ingénieurs Splunk Junior ou Confirmé pour rejoindre notre équipe, et nos clients. Vous travaillerez sur des projets variés dans un environnement dynamique et innovant, où vous aurez l’opportunité d'évoluer rapidement et d'acquérir de nouvelles compétences. MISSIONS RECHERCHÉES : 1) Implémentation : Gérer l’ implémentation de solutions Splunk sur les infrastructures locales ou cloud, en fonction des besoins et de l’architecture spécifique de l’entreprise. Configurer et déployer des modules Splunk IT Service Intelligence (ITSI) et d'autres applications spécifiques pour automatiser la collecte de données pertinentes. Collaborer avec les équipes de développement pour mettre en place des alertes et des dashboards personnalisés en fonction des besoins de l’organisation. 2) Déploiement : Déployer des instances Splunk sur des environnements complexes (cloud, hybride, on-premise) en respectant les meilleures pratiques d'architecture et de sécurité. Assurer le déploiement de nouvelles fonctionnalités sur Splunk, en garantissant la continuité des services et en minimisant les interruptions. Implémenter des solutions de monitoring de la performance pour les applications et systèmes, en utilisant Splunk et d’autres outils comme Dynatrace pour suivre les métriques de déploiement. 3) Observabilité : Implémenter et configurer des solutions d’ observabilité sur la plateforme Splunk , permettant une surveillance proactive des performances, des logs et des événements des systèmes informatiques. Assurer la visualisation des métriques , des logs, et des traces pour garantir une vue d'ensemble des performances des applications et de l'infrastructure. Créer des dashboards interactifs dans Splunk pour assurer une observabilité en temps réel, facilitant la détection des anomalies et la résolution des incidents. 4) ITSI (IT Service Intelligence) : Implémenter Splunk ITSI pour la surveillance proactive des services IT et garantir la visibilité des performances des applications et des systèmes. Créer et déployer des Service Monitoring Dashboards dans ITSI pour suivre l’état de santé des services IT en temps réel. Configurer des notifiers dans ITSI pour assurer que des alertes sont générées en cas de détection d’incidents dans l’infrastructure ou les applications. 5) Dynatrace : Assurer l'intégration et l'interopérabilité entre Splunk et Dynatrace , permettant une visibilité complète sur les performances applicatives et l'infrastructure. Utiliser Dynatrace pour collecter des données de performance des applications et des environnements cloud, puis les analyser dans Splunk pour des actions correctives plus efficaces. Travailler sur l' automatisation du monitoring et des remontées d’informations entre Dynatrace et Splunk , pour une réponse plus rapide aux anomalies.
Mission freelance
Data Anlyst/Expert Power BI
Contexte de la mission : Dans le cadre d’un remplacement de congé paternité, notre client, acteur clé dans le domaine du service client, recherche un Consultant Data et Automatisation. La mission débute le 10 janvier avec une période de transition de 15 jours. Vous interviendrez au sein d’une équipe en charge d’améliorer l’expérience client, d’automatiser les processus, et d’optimiser le pilotage des call centers. Objectifs principaux de la mission : Améliorer l’expérience client : mise en place de pratiques Lean Management et Data-Driven Management pour optimiser les interactions clients via téléphone, e-mail et chat. Automatiser et digitaliser les processus : simplifier et fluidifier les workflows des call centers pour des économies et une meilleure productivité. Optimiser les prévisions et le pilotage : utilisation des données pour anticiper les pics d’activité dans une logique d’aplatissement des flux et de réduction des remontées clients. Missions principales : Analyse et visualisation de données : Effectuer du data crunching pour analyser les flux d'activité client et anticiper les variations liées à une activité imprévisible. Créer des visualisations de données pour faciliter la prise de décision via des outils tels que Power BI . Automatisation et optimisation : Automatiser les calculs et prévisions liés à l’activité des call centers. Contribuer à l’automatisation des prévisions sur l’activité Optimiser les processus pour améliorer le Customer Feedback Management . Gestion des anomalies et suivi : Identifier, suivre et résoudre les anomalies remontées par les outils et le CRM. Garantir la fiabilité et la qualité des données utilisées dans le CRM et les tableaux de bord. Collaboration avec l'équipe technique et métier : Utiliser le CRM PEGA (2 systèmes distincts intégrés avec le SID en temps réel). Participer à l’amélioration des intégrations entre API et outils de reporting. Faciliter la connexion entre Power BI et le SID pour améliorer le suivi et le pilotage des performances. Compétences requises : Expertise en data visualisation avec des outils comme Power BI . Bonne connaissance des CRM, en particulier PEGA et leurs intégrations API. Expérience en automatisation de processus et en gestion des flux de données. Compétences en prévisions et data crunching , notamment pour des activités irrégulières et imprévisibles. Sensibilité au Lean Management et à l’amélioration de l’expérience client. Environnement technique : CRM PEGA avec intégration temps réel via SID. Outils de visualisation et de data crunching, principalement Power BI . API pour la gestion et l’automatisation des flux. Durée de la mission : 4 mois Profil recherché : Minimum 3 ans d’expérience en gestion et visualisation de données, avec une expertise avérée en automatisation et optimisation des processus . Une bonne compréhension des environnements CRM et des call centers. Forte capacité d’adaptation face à des pics d'activité et des problématiques complexes liées à des flux imprévisibles.
Mission freelance
Etude Data IA
Objectif Cette étude vise à : Identifier les solutions de gestion de données les plus appropriées qu’elles soient on premise ou sur le cloud souverain, en prenant en compte notre volonté de développer à la fois des cas d’usage data et IA, pour des données sensibles qui ne peuvent pas bénéficier de notre plateforme data existante (Azure) Rationaliser, dans la mesure du possible, les plateformes data existantes Définir le périmètre fonctionnel optimal de chacune de nos briques applicatives Nos capacités de traitement "data" sont actuellement réparties sur deux plateformes. Une plateforme unique pourrait-elle améliorer la performance/les délais de réalisations des projets ? Qu'elles seraient les gains associés à une solution unifiées de gestion de la donnée ? Est-ce que les opérateurs de cloud souverains proposent des solutions suffisamment matures pour hébergés de manière efficace une plateforme data/IA (GPU, scalabilité …) ?
Mission freelance
Architecte Cloud Data h/f à Lille
Expertise permettant de couvrir les besoins en expertises d’Ingénierie Cloud sur les sujets et produits liés aux données : administration bases de données, expertise data, architecture cloud data, etc. Automatisation et réalisation de modules Terraform pour le provisionnement Expertise et accompagnement projet (DSM ou DSI) sur un périmètre de PaaS comme : poc, architecture, aide à l’utilisation, paramétrage spécifique, optimisation, etc. Proposer une vision bout-en-bout et end-user sur un périmètre PaaS Définir et mettre en œuvre des meilleures pratiques associées à l’optimisation de la consommation des services PaaS – FinOps et GreenIT. Assurer une veille technologique constante : étude d’opportunité, analyse des nouveaux modèles d'utilisation pour faire évoluer les services existants, proposer de nouveaux produits et fonctionnalités. Assurer le BUILD et le RUN d’un périmètre PaaS.
Offre d'emploi
Senior Data Engineer Azure / Lead
En tant que Senior Data Engineer Azure, vous jouerez un rôle clé dans la conception, l'implémentation et l'optimisation des solutions de données cloud. Vous travaillerez en étroite collaboration avec les équipes de développement, les data scientists et les analystes pour construire et maintenir une architecture de données robuste et scalable. Concevoir et développer des pipelines de données sur la plateforme Azure en utilisant des technologies telles qu’Azure Data Factory, Databricks, Synapse, etc. Garantir la qualité, la sécurité et la gouvernance des données. Optimiser les performances des bases de données et des entrepôts de données. Collaborer avec les équipes métiers pour comprendre les besoins en données et concevoir des solutions adaptées. Assurer la maintenance, la supervision et le monitoring des pipelines et des flux de données. Réaliser des audits techniques et des revues de code pour garantir les bonnes pratiques en matière de développement de données. Assurer une veille technologique et recommander des évolutions architecturales et technologiques.
Offre d'emploi
Data Architect GCP
Chez K-LAGAN , nous sommes à la recherche d'un-e Architect des solutions, data GCP, au sein de notre équipe des experts DATA, chez un de nos clients - secteur assurances, 📍 Niort (Nouvelle-Aquitaine, hybride). 🔥Rejoignez une aventure passionnante au sein du cabinet Pure Player Data & IA du Groupe🔥 Vous intégrerez une super équipe d'experts passionnés, et utiliserez les technologies de pointe. Vous aurez l'opportunité de travailler sur des projets innovants, de collaborer avec des partenaires de renom et d'apporter votre expertise à une entreprise en pleine croissance. 🧑💻 Compétences nécessaires : Connaissance et maître du cloud GCP Capacité à construire une feuille de route technique de mise en œuvre de plateforme Data (type Hub/lakehouse) Capacité à construire des plans de migration data cloud Connaissance des architectures hybrides/ multiCloud Bon background engineering. Connaissance CI/CD Avoir, au minimum, 3-5 ans d'expérience en tant qu'architecte BIG DATA (hors stage et/ou alternance).
Offre d'emploi
Tech Lead en IA Generative
Descriptif de la prestation Prestation complexe sur une technologie de niche innovante ou en cours de raréfaction. Projet de grande envergure. Présence de certifications liées au contexte de la prestation. Contexte & Objectifs de la prestation Dans le cadre de l'initiative IA Gen, un chantier socle commence autour de l'architecture et la construction d'une plateforme IA Gen, mobilisant des briques à orchestrer autour des LLM du marché, le RAG, l'architecture Cloud, le prompting, la sécurité et la gestion des droits. Nature et étendue de la prestation Prestation de cadrage technique et de pilotage de la mise en oeuvre du socle technique GenAI : - Challenge d'une première version de l'architecture macro réalisée par les équipes Data/Architecture - Organisation d'ateliers d'affinage de la vision et définition du plan d'actions nécessaire pour la réalisation - Animation des ateliers avec les experts Data engineers, Architectes, Data Scientists
Mission freelance
Data Quality Analyst
Ce poste est rattaché à la Directrice Data . Au sein d'une équipe composée de data analystes intégrée aux rituels Product, vous participez à l'évolution fonctionnelle et technique de nos produits data en environnement Agile. Vous aurez l’opportunité de collaborer avec l’ensemble des équipes product, tech et métiers autour des missions suivantes : ● Explorer, analyser et documenter les données du data Warehouse du groupe. ● Contribuer à l’amélioration de la qualité du data Warehouse : mettre en place le plan d’action défini sur 2024 : contrôles, monitoring et alerting. ● Réaliser des travaux d’automatisation afin de gagner en productivité et efficacité. rôle support, retro-engineering et documentation, mise en place de tests de qualité de données (data quality/observabilité) via Sifflet/Python/SQL et Looker/Looker Studio Encadrer une équipe de 3 data analystes : les former aux pratiques Links, les challenger sur leurs réalisations, les monter en compétence sur la partie technique. Notre stack data : GCP, BigQuery, Python, Looker Studio
Mission freelance
Consultant Senior Anonymisation de données
Bonjour, Nous recherchons un consultant senior en projet d’anonymisation de données et ayant un profil IT et faisant preuve d'une grande autonomie. La durée de la mission est de 6 mois sur Paris. Début de la mission : sous quinzaine Bonnes connaissances RGPD car le cadrage doit se faire en relation avec les DPO Prérequis : avoir déjà cadré et piloté un projet d’anonymisation de données dans le monde banque / assurance ou de santé avec un focus sur les données de tests. Responsabilités principales : ? Fournir des conseils d'expert sur la conformité de données, avec un accent sur les techniques et meilleures pratiques d?anonymisation des données. ? Développer et mettre en ?uvre des stratégies d?anonymisation pour garantir que les données personnelles soient efficacement anonymisées en conformité avec les exigences RGPD. ? Effectuer des évaluations régulières et des audits des activités de traitement des données pour identifier des pistes d'amélioration et assurer une conformité continue. ? Collaborer avec des équipes pluridisciplinaires pour intégrer les pratiques d?anonymisation dans les flux de traitement des données. ? Concevoir et dispenser des programmes de formation pour sensibiliser les collaborateurs à la conformité de données et aux techniques d?anonymisation. ? Suivre les évolutions des réglementations en matière de protection des données. ? Préparer et maintenir une documentation détaillée des processus d?anonymisation et des activités de conformité.
Mission freelance
Data engineer
Notre client, est un acteur majeur dans le domaine de l'éducation supérieure et de la recherche, avec une forte spécialisation en gestion et en management. Son histoire et sa réputation lui permettent de se distinguer par une approche innovante et tournée vers l'avenir, notamment en matière de transformation numérique et de gestion de la donnée. Dans ce cadre, notre client un Architecte DATA visant à optimiser les infrastructures de gestion et d'analyse des données pour soutenir son évolution technologique et assurer une prise de décision basée sur des données fiables et précises. Directement rattaché à la direction générale, vous intégrerez un data office constitué de deux pôles, digital et métier, représentant une équipe d’une dizaine de personnes.
Mission freelance
Business Analyst - Valorisation et Data Market
Notre Client recherche un consultant Business Analyst - Valorisation et Data Market (H/F). Renforcer l'équipe fonctionnelle en charge du référentiel de données de marché, répondre aux besoins des utilisateurs pour valoriser de nouvelles opérations, et participer aux projets d'évolution de l'outil d'administration des données de marché. - Analyser les besoins des études métiers, techniques et spécifiques nécessaires à la réalisation des projets - Assurer l’expertise et le diagnostic métier et technique en intégrant les besoins spécifiques aux traitements des données de marché pour les clients - Rédiger les spécifications et la documentation des livrables - Garantir la qualité des livrables attendus et l’intégration dans l’existant - Identifier les besoins prévisionnels en Maitrise d’Ouvrage en lien avec les métiers et proposer et concevoir des actions/solutions correspondantes - Assurer une veille sur l’ensemble des problématiques Maitrise d’Ouvrage en relation avec les objectifs de l’entreprise - Elaborer des plans de tests, exécuter des recettes, produire des procès-verbaux et intégrer ces cas de tests aux plans récurrents - Assurer une assistance aux utilisateurs en support de second niveau (50 % de votre temps).
Mission freelance
Expert Hadoop
-Pilotage et mise en œuvre opérationnelle des travaux de fiabilisation des socles Hadoop -Vérification de la bonne application des normes et des standards -Force de de proposition, étude, analyse et mise en œuvre de solutions pour améliorer l’outillage utilisateurs, optimiser les performances et la résilience du Duster -Etude d’impact et réalisation opérationnelle des montées de version Cloudera et outils Hadoop, -Prise en compte de l’écosystème : ordonnanceur IWS, sauvegarde HDPS, supervision Prometheurs/Grafana Expertise Hadoop de niveau 3 : -Configuration du Cluster Cloudera en fonction des besoins identifiés -Optimisation des traitements Support : -Accompagnement des équipes de développement -Assistance auprès des équipes : optimisation des traitements, Prise en main de l’outillage mis à disposition, chargement des données -Transmission de savoir-faire via la rédaction de documentations et transfert de connaissances Savoir être : -Coordination et pilotage des chantiers en collaboration avec les différents services DSI -Autonomie pour la prise en charge des sujets et travail en équipe -Capacité à s’adopter en fonction des différents interlocuteurs
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Arce 7 mois après la création de l'entreprise ?
- Close de non concurrence freelance à portgae salarial
- situation compliquée fin de mission pression client comment gèrer ?
- 🎯 Recherche Expert pour Accompagnement sur SCCM et Intune 🚀
- Peut-on créer une société au nom de son conjoint pour facturer ses prestations en étant sous ARE ?
- Calcul frais télétravail en étant propriétaire