Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Architecte Azure Data
Dans le cadre d’un projet agile, nous recherchons un Architecte Azure expérimenté dans la data pour accompagner notre client dans la conception et la mise en œuvre de solutions cloud sécurisées et conformes aux meilleures pratiques. Ce rôle nécessite une expertise approfondie de l’écosystème Azure, notamment sur les contraintes spécifiques des landing zones. Définir et améliorer les standards et les patterns d'architecture. Rédiger la documentation technique : ARD, HLD, LLD, guides d’exploitation et de bonnes pratiques. Collaborer étroitement avec les équipes agiles et les parties prenantes grâce à un excellent relationnel. Ecosystème Azure Data : Azure Synapse Analytics Azure Data Lake Storage Gen2 (ADLS Gen2) Azure Data Factory Azure SQL Power BI Landing Zone Azure : Expertise avérée dans leur conception et gestion. Services réseaux dans Azure : Configuration et optimisation. Infrastructure as Code : Terraform. Outils DevOps : Azure DevOps. Certification Azure : Un atout significatif.
Mission freelance
Développeur Data Engineer – Traitement et Calcul de Données Financières
Nous recherchons un Développeur Data Engineer pour contribuer au développement, à l’adaptation, et à l’amélioration des processus d’intégration, de traitement et de calcul des données dans le cadre d'une application dédiée à la valorisation et à l’ajustement de la Fair Value . Cette application repose sur une architecture distribuée basée sur Hadoop et intègre également une interface utilisateur (IHM) pour le paramétrage, la consultation des données et le monitoring. Ce système, utilisé pour traiter des volumes massifs de données financières, est essentiel pour calculer la Fair Value des instruments financiers, leur observabilité et leur matérialité. Ces calculs s'appuient sur diverses données, notamment : Les sensibilités. Les chocs de données de marché. Le risque de contrepartie. Les données concernent un large éventail d'actifs, de positions, de trades et de paramètres, couvrant plusieurs régions (Paris, New York, Asie) et consolidées à partir de multiples sources de données. Développer et optimiser les processus d’intégration et de traitement de données volumineuses sur une architecture distribuée ( Hadoop ). Implémenter les calculs complexes nécessaires pour déterminer la Fair Value , l'observabilité et la matérialité des instruments financiers. Adapter les processus existants pour répondre aux évolutions fonctionnelles ou réglementaires. Concevoir et intégrer des fonctionnalités dans l’interface utilisateur permettant le paramétrage, le monitoring et la consultation des données. Travailler sur la performance et l’ergonomie de l’IHM pour améliorer l’expérience utilisateur. Manipuler des données provenant de multiples sources : instruments financiers, trades, positions, market data, sensibilités, chocs et ajustements. Garantir l’intégrité, la fiabilité et la traçabilité des données traitées et calculées. Travailler en étroite collaboration avec les équipes métiers pour comprendre les besoins et spécifications des utilisateurs finaux. Assurer le support technique et fonctionnel pour garantir le bon fonctionnement de l’application. Participer à la rédaction de la documentation technique et fonctionnelle.
Offre d'emploi
Ingénieur Data expérimenté
Bonjour, Nous recherchons des talents passionnés pour renforcer notre équipe Data. En tant qu’Ingénieur(e) Data, vous jouerez un rôle clé dans la conception et la mise en œuvre de solutions robustes pour traiter et analyser de grands volumes de données. Vos missions principales : Développer, optimiser et automatiser des pipelines ETL/ELT. Concevoir des architectures Big Data performantes et évolutives. Implémenter des solutions de stockage, de traitement et de modélisation des données. Assurer la qualité, la sécurité et la gouvernance des données. Collaborer étroitement avec les Data Scientists, les Analystes et les équipes DevOps.
Mission freelance
Data Manager
Nous recherchons pour notre client, un Data Manager dans le cadre d'un projet Salesforce, en Freelance ou Portage salarial Mission : Maîtrise de l’architecture et des composants de modélisation Salesforce S’approprier les notions de référentiels de données relatives aux business du groupe Comprendre les dépendances relationnelles entre les différents objets et processus métiers Traduire un besoin fonctionnel en spécification détaillées digitales Expérience sur des projets d’intégration de données, participer aux workshop intégration avec le digital (ERP <> CRM) Notion de gouvernance et compliance Alimenter le département Data Gouvernance avec catalogue de données, data owners, assurer le lien avec les projets Notions de compliance RGPD, data retention Conseiller l’équipe sur la conception technique des modèles de données, grâce à sa compréhension des données et de l’impact sur les activités data (intégration de données, reporting, analyse de données)
Offre d'emploi
Développeur Big Data (Java/Scala)
Nous recherchons un(e) Développeur Big Data pour accompagner le développement de l’application Lutte contre la Fraude . Vous interviendrez au sein d’une équipe agile et participerez activement à la conception, au développement, et à l’intégration de solutions innovantes pour répondre aux enjeux de la lutte contre la fraude. Vos missions principales : Participer aux rituels agiles (Scrum/Kanban). Analyser et concevoir le socle projet de référence. Développer de nouvelles fonctionnalités en respectant les bonnes pratiques. Intégrer les applications avec les différentes briques techniques. Contribuer à la mise en place et au respect des règles de développement en collaboration avec l’équipe. Apporter un support technique et assurer le suivi de la recette.
Mission freelance
PMO/Chef de projet MDM-référentiels produits
Dans le cadre du développement de projets data complexes, notre client recherche un PMO Senior Data en freelance, capable de faire le lien entre les besoins métiers et la delivery des projets. Le PMO senior interviendra sur une plateforme de données comprenant des systèmes comme SAP, Salesforce, Informatica, et des référentiels clients, et devra assurer la bonne coordination entre les différentes équipes projet tout en respectant les contraintes métier. En tant que PMO Senior Data , vos responsabilités seront les suivantes : Médiation et Coordination : Servir d'intermédiaire entre les différentes parties prenantes, en particulier les équipes métier et les équipes techniques (data engineering, analytics, etc.). Suivi des projets Data : Assurer la bonne gestion des projets data, de la planification à la livraison, en garantissant le respect des délais, des coûts et des objectifs. Gestion des référentiels : Apporter une expertise sur les référentiels clients et autres données essentielles (MDM - Master Data Management), et superviser la gouvernance des données. Communication avec les parties prenantes : Garantir une communication fluide avec les responsables métiers pour comprendre leurs besoins et les traduire en exigences techniques claires. Pilotage de la delivery : Suivre les indicateurs clés de performance (KPIs) des projets data, en identifiant rapidement les risques et en proposant des solutions pour les résoudre. Mise en place des bonnes pratiques : Mettre en place des processus et des méthodologies adaptées à la gestion de projets data complexes, tout en renforçant la gouvernance des données.
Offre d'emploi
Ingénieur(e) Data/Expert(e) Apache Flink
Développer et déployer des applications Apache Flink pour le traitement par lots et en flux. Assurer la maintenance des pipelines Flink en production et optimiser leurs performances. Déployer et configurer un cluster Flink prêt pour la production, optimisé pour l’évolutivité et la tolérance aux pannes. Mettre en place et configurer des outils de surveillance et d’alertes (ex. : Prometheus, Grafana). Identifier et résoudre les problèmes liés aux performances et aux échecs des tâches Flink. Fournir une documentation détaillée (architecture, tuning, troubleshooting, meilleures pratiques). Animer une session de transfert de connaissances avec les équipes internes. Familiarité avec l’écosystème Big Data et les meilleures pratiques d’ingénierie des données. Sens de la collaboration et capacité à transférer des connaissances à une équipe technique.
Offre d'emploi
Ingénieur DevOps - Exploitation (H/F)
🙌🔽 Les tâches à effectuer seront donc les suivantes : 🔽🙌 🔸 Assurer le bon fonctionnement, la disponibilité et la continuité des services, l’administration et l’exploitation des applications du domaine Clients, (dans le respect des engagements de résultats, de délais et de coûts), ainsi que la communication sur incident et opérations planifiées ; 🔸 Contribuer à la mise en œuvre, l’animation et la gestion de processus opérationnels d’Applications (ITIL) tels que la gestion des incidents, la gestion des problèmes, la gestion de configuration, la gestion des changements et la gestion de mise en production ; 🔸 Assurer la Vérification d’Aptitude au Bon Fonctionnement Opérationnel (VABFO) des applications du domaine sur les environnements de pré-production, dans le respect des engagements de services attendus ; 🔸 Réaliser les mises en production ; 🔸 Rendre compte auprès du manager opérationnel 🔸 Contribuer à la création, la modification ou la suppression de services applicatifs en production, en facilitant la transition de l’état projet à l’état opérationnel, dans le respect des exigences métiers ; 🔸 Contribuer à la mise à disposition, de manière industrielle et dans un contexte devops, des environnements nécessaires aux projets et à la production en collaboration avec les différents acteurs du domaine Client 🔸 Contribuer en continu à l’amélioration du fonctionnement des applicatifs et services associés
Offre d'emploi
Data Analyst Senior F/H
Envie de participer à un projet ambitieux ? Envie d’allier la technique au relationnel ? Pilotage, coordination et gestion sont tes maîtres mots ? Si tu réponds OUI à ces 3 questions, c’est que tu es fait(e) pour nous rejoindre ! Ta mission , si tu l’acceptes, sera d’intégrer notre DSI afin de définir la gouvernance et les politiques d’utilisation de la donnée au sein du Groupe, et de fournir des informations pertinentes et exploitables pour les métiers afin de les aider à prendre des décisions éclairées et d'optimiser leurs processus. Ton quotidien sera rythmé par : L’identification des besoins en données de l'entreprise et leurs objectifs d'analyse La participation aux ateliers d’expression des besoins internes La compréhension des problématiques métiers et leur traduction de manière analytique La définition et la garantie de la gouvernance des données de l’entreprise La rédaction des spécifications d’automatisation des règles de gestion des données La maîtrise de la qualité des données tout au long de leur traitement La mise en place et maintien du catalogue de données La collecte des données à partir des différentes sources Le nettoyage et la préparation des données L’analyse des données La création des tableaux de bord, des graphiques et des visualisations L’élaboration de rapports et des recommandations
Mission freelance
Expert Azure Cloud H/F
En tant qu'Expert Azure Cloud, vous serez responsable de la conception, de l'implémentation et de la gestion des solutions cloud sur Microsoft Azure. Vous jouerez un rôle clé dans l'optimisation et la sécurisation de l'infrastructure cloud. Principales responsabilités Concevoir et déployer des architectures cloud sécurisées et évolutives sur Microsoft Azure Gérer et optimiser les services Azure existants pour garantir la performance, la fiabilité et l'efficacité des coûts Développer et mettre en œuvre des procédures de monitoring, backup et sécurisation des objets Azure Assurer la sécurité et la conformité des environnements cloud Azure Collaborer avec les équipes Architecture et Développement pour intégrer les meilleures pratiques DevOps et CI/CD Fournir un support technique et former les équipes internes sur les solutions Azure Planifier et exécuter les migrations d'infrastructures et d'applications vers Azure Assurer une veille technologique sur les dernières innovations Azure
Mission freelance
MCO / deploiement d'applications digitale
La mission se concentre autour de 2 grands périmètres : le Maintien en Conditions Opérationnelles des applications sur le domaine digital (compte clients, frontaux) l'homologation en pre-production et la mise en production des applications La mission se réalisera dans un contexte "devops". - Assurer le bon fonctionnement, la disponibilité et la continuité des services, l’administration et l’exploitation des applications du domaine Clients, (dans le respect des engagements de résultats, de délais et de coûts), ainsi que la communication sur incident et opérations planifiées ; - Contribuer à la mise en œuvre, l’animation et la gestion de processus opérationnels d’Applications (ITIL) tels que la gestion des incidents, la gestion des problèmes, la gestion de configuration, la gestion des changements et la gestion de mise en production ; - Assurer la Vérification d’Aptitude au Bon Fonctionnement Opérationnel (VABFO) des applications du domaine sur les environnements de pré-production, dans le respect des engagements de services attendus ; - Réaliser les mises en production ; - Rendre compte auprès du manager opérationnel - Contribuer à la création, la modification ou la suppression de services applicatifs en production, en facilitant la transition de l’état projet à l’état opérationnel, dans le respect des exigences métiers ; - Contribuer à la mise à disposition, de manière industrielle et dans un contexte devops, des environnements nécessaires aux projets et à la production en collaboration avec les différents acteurs du domaine Client - Contribuer en continu à l’amélioration du fonctionnement des applicatifs et services associés
Offre d'emploi
Data Engineer Expert GCP | Casablanca 100% Remote
skiils recrute un Data Engineer Expert GCP (H/F) pour renforcer ses équipes Nearshore et intégrer une équipe SCRUM dynamique ! En tant que tel, son rôle consistera à contribuer à des projets data en apportant son expertise sur les tâches suivantes : Développer des applications Big Data en utilisant Python, Spark Kafka & Kafka-stream Concevoir et mettre en œuvre des pipelines de données efficaces, tel un architecte construisant un château de sable indestructible dans une environnement cloud GCP . Optimiser les performances des applications et des requêtes Big Data , comme un ninja agile. Collaborer avec les équipes de développement pour intégrer les solutions Big Data. Assurer la qualité des données traitées et la fiabilité des systèmes. Contribuer à l’automatisation du delivery Développer et documenter son code Travailler au sein d’une équipe SCRUM (PO, développeurs, QA, Support)
Mission freelance
Chef de projet Data Galaxy (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Chef de projet Data Galaxy (H/F) à Grenoble, Auvergne-Rhône-Alpes, France. Contexte : Nous sommes à la recherche d'un chef de Projet/Business Analyst pour le déploiement du catalogue de données DATA GALAXY. Les missions attendues par le Chef de projet Data Galaxy (H/F) : Piloter la mise en oeuvre de DataGalaxy dans l'écosystème client : Planning, Animation des réunions (Kick-Off, réunion de suivi, support aux ateliers...), gestion des ressources Monter en compétences sur l'outil pour participer aux activités de rédaction, formation et accompagnement des équipes Participer à la rédaction des Guidelines (aide à la prise de décision, design et test des solutions possibles dans Data Galaxy) Être un support des équipes techniques et Data office dans leurs tâches sur l'outil. La personne doit être autonome, force de proposition et faire preuve de prise d’initiatives. Elle doit être capable d'animer une équipe et de tester par elle-même les fonctionnalités / modélisations de Data Galaxy. La connaissance préalable de Data Galaxy serait un plus. La connaissance de PowerBI / Talend serait un plus. Démarrage ASAP avec 3 jours sur site, en région grenobloise.
Offre d'emploi
Data Engineer Snowflake
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Snowflake Tâches: Vous accompagnez également nos équipes (Architecture & Data engineering, Data science & Analytics, ML & IA) pour informer de la faisabilité des demandes en prenant en considération les contraintes de coûts, de délais et de qualité. Vous garantissez la pérennité des développements déployés en production. Vous êtes le référent technique Snowflake des Data Engineer et des Data Analysts pour leurs développements. Un chantier de refonte des schémas de stockage de nos données pour basculer vers un modèle RBAC est en cours. Vous travaillez avec une équipe de 15 personnes travaillant en méthode Agile de type Scrum et faites progresser au quotidien notre démarche DevSecOps. De manière générale, vous jouez un rôle de facilitateur et d’expert Snowflake entre les équipes Data, AdTech et TF1+ (Product Owners, Data Analysts et opérationnels) Vous maîtrisez les technologies suivantes : -Snowflake -SQL avancé -RBAC -Terraform -Azure -Azure DevOps / JIRA /Confluence Vous êtes familier avec la culture DevOps et l’Agilité, le travail en équipe et la gestion de projet technique, dont la méthodologie est déjà établie, éprouvée et très largement adoptée.
Offre d'emploi
Data Engineer Spark, Scala & Kafka Sénior | Casablanca 100% Remote
skiils recrute un Data Engineer Sénior (H/F) pour renforcer ses équipes Nearshore et intégrer une équipe SCRUM dynamique ! En tant que tel, son rôle consistera à contribuer à des projets data en apportant son expertise sur les tâches suivantes : Développer des applications Big Data en utilisant Spark Scala & Kafka Concevoir et mettre en œuvre des pipelines de données efficaces, tel un architecte construisant un château de sable indestructible. Optimiser les performances des applications et des requêtes Big Data , comme un ninja agile. Collaborer avec les équipes de développement pour intégrer les solutions Big Data. Assurer la qualité des données traitées et la fiabilité des systèmes. Contribuer à l’automatisation du delivery Développer et documenter son code Travailler au sein d’une équipe SCRUM (PO, développeurs, QA, Support)
Offre d'alternance
Chef de projet SEO/SEA (H/F) - Alternance
L' Ecole DSP , école du groupe IEF2I Education recherche activement pour le compte de l'un de ses partenaires "Préciser le type de société - ex : Startup parisienne", un profil Chef de projet SEO/SEA (H/F) en apprentissage, pour une durée de 12 à 24 mois. Sous la supervision de votre maitre d'apprentissage, vos missions principales seront les suivantes : Gestion des Campagnes SEO : Élaborer et mettre en œuvre des stratégies de référencement naturel pour améliorer le classement des sites web sur les moteurs de recherche Réaliser des audits SEO et des analyses concurrentielles pour identifier les opportunités d’optimisation Optimiser les contenus existants et proposer des recommandations pour les nouvelles créations de contenu Suivre les évolutions des algorithmes de recherche et adapter les stratégies en conséquence Gestion des Campagnes SEA : Concevoir, lancer et optimiser les campagnes publicitaires payantes sur les moteurs de recherche (Google Ads, Bing Ads, etc.) Gérer les budgets publicitaires, surveiller les performances et ajuster les stratégies pour maximiser le ROI Effectuer des analyses régulières des performances des campagnes et produire des rapports détaillés Analyse et Reporting : Utiliser des outils de web analytics (Google Analytics, SEMrush, Ahrefs, etc.) pour suivre les performances SEO et SEA Analyser les données de trafic, les taux de conversion et les autres KPI pour évaluer l’efficacité des stratégies Préparer des rapports réguliers pour les parties prenantes et proposer des actions correctives basées sur les résultats obtenus Collaboration et Coordination : Travailler en collaboration avec les équipes de contenu, de design et de développement pour assurer la mise en œuvre des recommandations SEO/SEA Coordonner avec les agences externes et les partenaires pour optimiser les campagnes et les initiatives de référencement Participer à la formation des équipes internes sur les meilleures pratiques en SEO/SEA Conditions de l'offre : Une opportunité unique de travailler sur des projets de communication digitale variés et stimulants Un environnement de travail dynamique et collaboratif Des perspectives d’évolution de carrière au sein de l’entreprise Rémunération : Selon la réglementation en vigueur pour les contrats d'apprentissage Début du contrat : ASAP
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.