Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Expert dynatrace
Dans le cadre de la mission votre objectifs sera de réaliser un déploiement massif de monitoring sur un périmètre applicatif et technique Organiser la migration Réaliser la migration Etre moteur pour embarquer les équipes sur cette nouvelle plateforme Troubleshooting et Apport de solution en cas d'incident Organiser la migration Réaliser la migration Etre moteur pour embarquer les équipes sur cette nouvelle plateforme Troubleshooting et Apport de solution en cas d'incident Organiser la migration Réaliser la migration Etre moteur pour embarquer les équipes sur cette nouvelle plateforme Troubleshooting et Apport de solution en cas d'incident
Mission freelance
Data Product Manager
Au sein de l'équipe Data As a Service Customer, vous dirigerez des évaluations/études dans le segment d'activité HPS (High Performance Solutions) du client et participerez, après l'évaluation, à la phase d'exécution du projet. Missions & livrables : - Organiser l'étude et recueillir les exigences de toutes les par?es prenantes - Comprendre les ambitions, les enjeux et les objectifs de l'entreprise - Organiser et animer des ateliers avec le métier - Collecter tous les éléments nécessaires pour l'étude - Documenter l'architecture fonctionnelle - Faire de la modélisation de données / concevoir les couches métier (couche Silver) - Organiser les contributeurs Data As a Service (Architecte Technique, Ingénieurs Data & BI) - Documenter la valeur de la solution - Préparer le budget et le planning de la phase de construction / exploitation - Formaliser les propositions finales pour le lancement du projet ("Go to project") Processus : 2 entretiens Go - No Go
Offre d'emploi
Senior Data Engineer Azure / Lead
En tant que Senior Data Engineer Azure, vous jouerez un rôle clé dans la conception, l'implémentation et l'optimisation des solutions de données cloud. Vous travaillerez en étroite collaboration avec les équipes de développement, les data scientists et les analystes pour construire et maintenir une architecture de données robuste et scalable. Concevoir et développer des pipelines de données sur la plateforme Azure en utilisant des technologies telles qu’Azure Data Factory, Databricks, Synapse, etc. Garantir la qualité, la sécurité et la gouvernance des données. Optimiser les performances des bases de données et des entrepôts de données. Collaborer avec les équipes métiers pour comprendre les besoins en données et concevoir des solutions adaptées. Assurer la maintenance, la supervision et le monitoring des pipelines et des flux de données. Réaliser des audits techniques et des revues de code pour garantir les bonnes pratiques en matière de développement de données. Assurer une veille technologique et recommander des évolutions architecturales et technologiques.
Mission freelance
Product Owner Orienté Data et SLA
Dans le cadre de la gestion d’un fournisseur de services de l'un de nos clients, nous recherchons un profil capable de piloter la prestation de ce fournisseur. Le candidat sera responsable de la supervision des SLA, du suivi des nouvelles fonctionnalités, ainsi que de la gestion quotidienne avec les fournisseurs et les équipes internes. Bien que le poste ne soit pas technique en termes de développement, des compétences techniques seront nécessaires pour gérer les flux et interagir avec les fournisseurs et les équipes. Ce poste est stratégique pour garantir la bonne qualité des services fournis et le respect des engagements contractuels. Supervision des SLA : Suivre les niveaux de service (SLA) contractuels avec les fournisseurs et assurer leur respect. Suivi des fonctionnalités : Gérer le déploiement et le suivi des nouvelles fonctionnalités fournies par les prestataires. Interface fournisseurs/équipes internes : Assurer une communication fluide entre les fournisseurs et les équipes internes (techniques, produits, etc.). Gestion de la qualité des données : Utiliser vos compétences en SQL et en data pour superviser la qualité des données dans le cadre de la prestation. Gestion de projet : Piloter les aspects techniques et contractuels du projet, avec un suivi rigoureux des contrats et des prestations fournies. Collaboration avec les équipes internes : Collaborer avec les équipes techniques et les Product Owners pour s'assurer que les objectifs sont atteints en temps et en heure. Expérience opérationnelle : Vous avez une solide expérience dans la gestion de projet et dans le suivi de prestations fournisseurs. Expertise en data : Vous avez une excellente maîtrise des outils de gestion de données, notamment BigQuery, et êtes capable de superviser et de garantir la qualité des données. Compétences techniques : Bien que vous ne serez pas directement impliqué dans le développement, des compétences en SQL et une bonne compréhension des technologies comme Kafka sont indispensables. Pilotage et gestion des SLA : Expérience dans le suivi et la supervision des niveaux de service contractuels. Autonomie et curiosité : Vous êtes autonome dans votre travail, curieux et capable d'interagir de manière proactive avec les équipes techniques.
Offre d'emploi
INGENIEUR D'AFFAIRE technique IT PARIS
INGENIEUR D'AFFAIRE IT PARIS – Luxembourg Pour développer notre clientèle en France et au Luxembourg sur la partie IT de façon plus globale, nous recherchons un(e) Ingénieur d'affaire / practice manager avec plusieurs années d’expériences (3 / 8 ans) Vous avez déjà travaillé comme ingénieur d'affaire ou practice manager ou dans un rôle similaire Vous avez un background technique en IT et / ou Data-IA Vous avez déjà une clientèle établie Vous êtes familier avec des outils comme odoo ou salesforce Vous êtes à minima bilingue Français / Anglais courant (impératif) Poste basé à Paris ou Luxembourg Rejoignez notre équipe d'intelligence appliquée et plongez-vous dans des solutions innovantes et tournées vers l'avenir en utilisant des technologies de pointe. Dans notre culture bienveillante de succès partagé, de pensée diversifiée et d'opportunités illimitées, vous aurez la chance d'apprendre, de grandir et de faire progresser votre carrière de manière nouvelle et passionnante. Merci de nous préciser vos compétences techniques en quelques lignes Processus de sélection Pré-entretien Entretien technique (Skills IT) Prise de référence commerciale SALAIRE Salaire à discuter en fonction de votre expérience Primes trimestrielles de performance (% de la marge) Téléphone Voiture de fonction (Luxembourg)
Mission freelance
Un Data Ingénieur ( Spark ,spark streaming, batch, Kafka, Java, Stack Hadoop Cloudera)sur Nantes
Smarteo recherche pour l'un de ses clients, Un Data Ingénieur(Spark,spark streaming,batch, Kafka,Java,Stack Hadoop Cloudera)sur Nantes Descriptif: Notre client nous soumet une de mande de prestation de DATA ENGINEERING Taches réalisées : - Développer les cas d'usages Data - Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) - Mettre en ?ouvre les tests unitaires et automatisés - Déployer le produit dans les différents environnements - Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents - Accompagner l'évolution des pratiques de l'équipe dans une logique d'amélioration continue de la qualité du code Compétences techniques attendues : - Spark (spark streaming et batch), Kafka, Java - Stack Hadoop Cloudera - Hdfs, Hive, Hbase, Phoenix, MongoDB - DEVOPS : GIT, Jenkins, Artifactory, XL Release, ELK, Grafana - Scrum (cadre agile entreprise) La mission nécessite de l'autonomie, de l'adaptabilité et une bonne communication (lien direct avec les Squads : PO ou DEV), Si vous êtes disponible et intéressé, merci de me faire parvenir votre TJM ainsi que votre CV à jours en format word.
Offre d'emploi
SAP DATA
Mon client recherche un Senior fonctionnel data, en tant que membre du département Digital & IT - Data & Analytics du Groupe, vous intégrerez l’équipe Data As a Service CUSTOMER. Vous piloterez l’architecture fonctionnelle des données pour le périmètre Corporate (Finance / Juridique / IT / Achats...) et participerez aux évaluations de business cases et projets. Le client est dans le secteur de l'industrie, est recherche un SAP data. l'environnement est en anglais, avec 10 ans d'expériences dans l'univers.
Offre d'emploi
Architecte Data Azure
INVENTIV IT est à la recherche de son futur Architecte Data Azure. Avec 7 ans d'expérience au minimum Profil Technico-fonctionnel. Nous travaillons principalement dans un environnement Azure sur des sujets Big Data & Data Viz. Nous gérons à la fois le Build & le Run des applicatifs. Nous devons avoir une vision 360 des sujets Data : Data Mesh, Data Management, Acculturation Data ... Environnemennt : Azure Data Lake Azure Databricks Azure Synapse Azure Fabric Azure Data Factory Spark / Scala / Python Power BI Snowflake Résumé quelques une de nos missions : Participation à l’évaluation et à la livraison de composants Azure • Conception et mise en œuvre d’architectures de solutions data sur Azure (data lakes, ingestion, service et consommation de données). • Développement d’architectures Azure Data Lake pour stocker les données IoT et configurer Databricks. • Implémentation de solutions utilisant Azure SQL Database, Azure Data Factory, et Azure SQL Managed Instance. • Conception de solutions BI avec Power Platform (Power BI, Power Automate, Power Virtual Agents). • Création de rapports, tableaux de bord, et KPI avec Power BI, ainsi que gestion de la sécurité des données. • Direction de projets cloud axés sur les services Azure et gestion de la qualité des livrables pour les projets de migration et d’infrastructure.
Mission freelance
Data Engineer (H/F)
Notre client, leader mondial dans le domaine des moyens de paiement recherche un consultant "Data engineer" junior / expérimenté pour intervenir au sein de l'équipe BI. Le périmètre d'intervention est le suivant: • Réaliser les projets BI (tout ou partie) sous la supervision du Tech lead • Assurer du support utilisateur • Documenter ses réalisations et procédures support Contexte : Nous évoluons dans un environnement technique Microsoft cloud Azure avec une architecture orientée Big Data avec un Data Lake (Sparks) alimentant des cubes tablulaires. Power BI est l’outil de reporting du groupe.
Mission freelance
Développeur Data Innovation (Fullstack) Python / SQL
Recherche d’un prestataire Développeur Fullstack pour rejoindre une équipe d'innovation. Le prestataire sera rattaché au responsable de l’Innovation au sein de la direction Stratégie Digitale et Innovation (de la DSI). De la conception au développement/déploiement, le prestataire sera le référent technologique sur les projets Innovation dont il aura la charge. Il garantira leur faisabilité, les développera et assurera leur industrialisation et leur intégration avec les systèmes d’information et les équipes de la DSI. • Contribuer aux phases d’idéation et de définition de nouveaux concepts innovants, notamment en évaluant leur faisabilité technique. • Développer des Proofs of Concept (POC) et des prototypes pour matérialiser ces concepts et les tester auprès d’utilisateurs finaux. • Prendre une part active aux choix techniques et technologiques des projets innovation de son portefeuille. • Évaluer les solutions technologiques proposées par des acteurs externes (startups, ...) qui permettraient de réaliser les projets en Open Innovation. • Veiller à ce que les prototypes et projets réalisés puissent être transmis à d’autres équipes de la DSI et industrialisés avec un effort minimum. • S’assurer que les projets innovation respectent les bonnes pratiques technologiques et de sécurité de l’environnement SI • Effectuer les ateliers de passation vers d’autres équipes, réaliser le support le cas échéant. • Effectuer une veille sur les nouvelles technologies et solutions logicielles pertinentes dans le cadre des priorités du Lab. • Participer à la définition et à l’amélioration des processus du Lab.
Offre d'alternance
Data Engineer Junior (H/F) - Alternance
L' Ecole DSP , école du groupe IEF2I Education recherche activement pour le compte de l'un de ses partenaires une fintech parisienne, un profil Data Engineer Junior (H/F) en apprentissage, pour une durée de 12 à 24 mois. Sous la supervision de votre maitre d'apprentissage, vos missions principales seront les suivantes : Développement et Maintenance des Pipelines de Données : Concevoir, développer et optimiser des pipelines de données pour extraire, transformer et charger (ETL) les données Assurer la collecte, le stockage, la transformation et la diffusion des données provenant de diverses sources internes et externes Gestion des Bases de Données : Participer à la gestion et à l’optimisation des bases de données relationnelles et non relationnelles Collaborer à la modélisation des données et à la création de schémas de bases de données adaptés aux besoins de l’entreprise Qualité et Intégrité des Données : Mettre en place des processus de contrôle de la qualité des données Identifier et résoudre les problèmes de qualité des données, et proposer des améliorations continues Collaboration et Support : Travailler en étroite collaboration avec les data scientists, data analysts et autres équipes métiers pour comprendre leurs besoins en données et y répondre efficacement Fournir un support technique et résoudre les incidents liés aux pipelines de données Conditions de l'offre : Une opportunité unique de travailler sur des projets innovants et à fort impact Un environnement de travail dynamique et collaboratif Des perspectives d’évolution de carrière au sein de l’entreprise. Rémunération : Selon la réglementation en vigueur pour les contrats d'apprentissage Début du contrat : ASAP
Offre d'emploi
Data Engineer Azure
Le client, leader mondial dans le domaine des moyens de paiement recherche un consultant "Data engineer" junior pour intervenir au sein de l'équipe BI. Le client évolue dans un environnement technique Microsoft cloud Azure avec une architecture orientée Big Data avec un Data Lake (Sparks) alimentant des cubes tablulaires. Power BI est l’outil de reporting du groupe. Le périmètre d'intervention est le suivant: • Réaliser les projets BI (tout ou partie) sous la supervision du Tech lead • Assurer du support utilisateur • Documenter ses réalisations et procédures support
Mission freelance
Backlog Manager (H-F)
Principales responsabilités Dans le cadre de sa transformation, la division Data & Regulatory souhaite renforcer ses équipes avec un Backlog Manager , dont les missions seront les suivantes : Construire et gérer un Backlog Global pour la division. Collaborer étroitement avec les leaders de chaque stream et les Product Owners pour livrer la roadmap globale de la division. Assurer la préparation et l'exécution des artefacts Agile clés (planification stratégique, PI planning, Sprint planning...). Animer les scrums et maintenir à jour le tableau de bord Scrum. Garantir un service de haute qualité , en comprenant l'environnement de travail et les attentes métiers. Coordonner avec les leaders IT et les managers de release pour garantir un déploiement fluide en production. Assumer le rôle de Chef de projet global en suivant de près les parties prenantes internes et externes. Superviser la cohérence du Backlog et veiller à son alignement avec les priorités stratégiques. Assurer une communication fluide avec les autres responsables de streams et la direction IT.
Mission freelance
Responsable gouvernance Data/IA (H/F)
Missions principales : En tant que Responsable Gouvernance Data / IA, vous aurez la charge de la mise en place et de la gestion de la gouvernance des données au sein de l’entreprise, tout en facilitant l’intégration et le déploiement des initiatives d’intelligence artificielle. Vous travaillerez étroitement avec les équipes de la DSI, les métiers, et les équipes Data pour garantir l’alignement des stratégies data et IA avec les objectifs de l’entreprise. Missions principales : •Pilotage et déploiement du schéma directeur DATA & IA oPiloter opérationnellement le schéma directeur DATA, l’ajuster et en assurer le suivi auprès des parties prenantes ; oPiloter opérationnellement les initiatives d’IAG engagée, de la gestion du portefeuille à la communication auprès de parties prenantes ; oCoordonner les équipes, instances et partenaires travaillant sur les problématiques DATA ; oPiloter le budget associé. •Stratégie de gouvernance des données : oDéfinir et mettre en oeuvre la stratégie de gouvernance des données, en veillant à la qualité, la sécurité, et la conformité des données ; oÉtablir des politiques de gestion des données (normes, règles de gestion, bonnes pratiques) pour assurer une utilisation responsable des données ; oPiloter la création et la maintenance du data catalog et du data dictionary. •Gestion des initiatives d'IA : oAccompagner les projets IA de l'entreprise, depuis l’identification des cas d’usage jusqu'à leur mise en production ; oCollaborer avec les Data Scientists et les équipes métiers pour intégrer les solutions d'IA dans les processus métier ; oParticiper à la définition des frameworks d'éthique et de transparence liés à l'utilisation des algorithmes IA. •Qualité et sécurité des données : oMettre en place des processus de Data Quality Management pour garantir la fiabilité des données ; oS'assurer de la conformité aux réglementations en vigueur (ex. : RGPD) et sensibiliser les équipes sur les enjeux de la protection des données ; oCollaborer avec le RSSI pour renforcer la sécurité des données et des algorithmes d’IA. •Pilotage de la gestion des données : oDéfinir les indicateurs de performance (KPI) pour mesurer l’efficacité de la gouvernance des données et des projets IA ; oCoordonner les Data Owners et les Data Stewards pour optimiser la gestion des données au sein de l'entreprise ; oSuperviser les processus de data lineage et de data mapping pour assurer la traçabilité des données. •Veille technologique et innovation : oEffectuer une veille sur les nouvelles technologies en matière de gouvernance des données et d’intelligence artificielle ; oProposer des innovations pour améliorer les pratiques de gestion des données et optimiser les performances des modèles d'IA.
Mission freelance
Senior Data Architect (Snowflake)
Je suis à la recherche d'architectes de données seniors pour un projet à long terme de bout en bout. Rôle : Architecte de données senior Durée du contrat : Long terme Lieu : Paris : Paris Travail hybride Date de début : Fin octobre/début novembre Vous rejoindrez une nouvelle mission à long terme pour superviser un projet de transformation complet pour notre client. Vous travaillerez sur la modélisation et l'architecture des données, en partant de zéro. Profile: Vous avez une expérience confirmée de plusieurs projets d'architecture de données, idéalement à partir de zéro. Une solide expérience et connaissance de l'architecture de Snowflake, y compris le partage des données, la mise à l'échelle et les pratiques de sécurité. Compétence dans la conception et l'optimisation des bases de données Snowflake Capacité à créer des modèles de données complexes et à architecturer des pipelines ELT/ETL à l'aide d'outils tels que SNowpipe, Google Dataflow ou d'autres services GCP. Forte compréhension de la confidentialité des données, des normes de sécurité et des meilleures pratiques, y compris la gestion de l'accès, le cryptage et la conformité. Anglais courant
Offre d'emploi
Data Architect
Contexte et Enjeux de la Mission : Dans le cadre d’une transformation numérique ambitieuse , une grande entreprise française, leader dans son secteur, recherche un(e) Data Architect pour moderniser et unifier son écosystème de données. Le projet se concentre principalement sur l’implémentation et l’optimisation d’une architecture sur Google Cloud Platform (GCP) , visant à améliorer la gestion des données à grande échelle et la qualité des insights pour les équipes métiers. Basé à Lille , vous interviendrez à un moment clé de ce projet stratégique, avec pour objectif de créer une architecture évolutive, scalable et résiliente, tout en facilitant l'exploitation des données pour l'ensemble des départements. Vos Responsabilités : Conception et mise en place d’une architecture data robuste sur Google Cloud Platform (GCP), en accord avec les meilleures pratiques de gestion des données et de sécurité. Structurer et gérer les pipelines de données pour garantir des flux fluides, fiables et sécurisés. Assurer la qualité et la gouvernance des données via la mise en place de standards, d’outils de monitoring, et de processus de validation. Collaborer de manière étroite avec les équipes Data Engineering et Data Science pour maximiser l’utilisation des données et proposer des améliorations continues. Apporter une vision stratégique à long terme, en anticipant les évolutions nécessaires pour adapter l'architecture aux besoins futurs de l'entreprise. Documenter les solutions et former les équipes internes sur l'utilisation et la maintenance des nouvelles structures.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.