Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Architecte et expert Oracle Exadata
Contexte : Dans le cadre du développement de notre infocentre RH pour notre client et de la solution BI RH, nous recherchons un Architecte Oracle Exadata. Ce rôle crucial impliquera d'abord une participation active à un Proof of Concept (POC), puis une implication dans le projet de migration depuis l'infrastructure BigData vers Oracle Exadata. Missions : 1. Conseil et Expertise : - Conseiller sur l'utilisation optimale d'Oracle Exadata. - Fournir une expertise technique en matière de performance, de fiabilité et de sécurité des bases de données. 2. Architecture : - Définir et concevoir l'architecture de la base de données Oracle Exadata. - Assurer l'intégration de la solution Oracle Exadata avec les systèmes existants. 3. Optimisation : - Identifier et implémenter des stratégies d'optimisation des performances des bases de données. - Surveiller et ajuster les configurations pour maximiser l'efficacité opérationnelle. 4. Stratégie d'Administration : - Développer et mettre en place une stratégie globale d'administration des bases de données Oracle Exadata. - Superviser les procédures de sauvegarde, de récupération et de maintenance des données. 5. Participation au POC : - Travailler en étroite collaboration avec les équipes projet pour le POC de l'infocentre RH du client et la Solution BI RH. - Apporter des solutions techniques et assurer la faisabilité du projet. 6. Post-POC et Migration : - Intervenir dans le projet de migration de l'infrastructure BigData vers Oracle Exadata. - Fournir un support continu et des améliorations post-migration.
Offre d'emploi
Bigdata Engineer Cloud
💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket
Mission freelance
Business Project Manager - Data Strategy & Planning
Pour aider notre client à mener à bien son projet, nous recherchons un profil expérimenté ayant une très bonne connaissance de la gestion des données, une bonne vision de ce qu'est un produit de données (partie de la théorie du maillage des données), une excellente communication et une bonne organisation. Bonne connaissance de FR et NL Pour nous aider : Coordonner les différentes activités (comme un PM) Préparer et animer des ateliers avec les Data Owners, Program Managers, Architectes,... Documenter et préparer des vues d'ensemble (procès-verbaux, présentations) Rassembler les différentes informations dans une feuille de route pluriannuelle / un plan d'implément To help us in the deployment of this new approach, we are searching for an experienced profile with very good knowledge of Data Management, a good vision of what a Data Product is (part of the Data Mesh theory), an excellent communication and organization. Good knowledge of FR and NL To help us: Coordinate the various activities (such as a PM) Prepare and lead workshops with Data Owners, Program Managers, Architects,... Document and prepare summary views (minutes, presentations) Gather the different information in a multi-year roadmap / implementation plan
Mission freelance
Chef de projet Web
Recherche d’un Chef de Projet Web Expérimenté dans le Secteur des Mutuelles Nous recherchons un chef de projet Web expérimenté , avec une solide connaissance du secteur des mutuelles. Vous devez maîtriser une large gamme de compétences : fonctionnelles, techniques, développement, et gestion de projet. Il s'agit d'une mission longue durée, avec des enjeux stratégiques. Objectifs de la mission : Votre rôle consistera à piloter les évolutions d’un site Web développé par un prestataire externe. Vous interviendrez à différents niveaux clés : Organisation des releases : Gestion des demandes fonctionnelles et techniques, évaluation de leur maturité pour une mise en production, et définition du contenu de chaque release. Suivi des développements : S’assurer de l'avancement des travaux réalisés par le fournisseur. Supervision des livraisons : Gestion des livraisons en cours ou à venir, avec un suivi rigoureux des étapes jusqu'à la mise en production (installation, validation, go live).
Offre d'emploi
Data Product Manager
Vous allez intégrer l'équipe Data "Digital In Store" a pour objectif de révolutionner l'activité dans les magasins du groupe. Nous fournissons aux équipes digitales les insights et intégrons toute l'intelligence possible dans les outils opérationnels magasin. L'enjeu est d'augmenter l'impact et l'efficience des collaborateurs, afin de leur permettre les meilleures prises de décisions. Nous apportons des solutions techniques innovantes au service de nos utilisateurs internes et assurons au quotidien leur plus haut niveau de satisfaction.
Offre d'emploi
Data Analyst Fonctionnel
Minimum 8 ans d'experience Contexte : Le secteur Corporate and Institutional Banking est un leader mondial dans la fourniture de solutions financières variées, notamment en marchés de capitaux, services de sécurité, financement et conseil. Une équipe transversale, est chargée de superviser les risques non financiers et de garantir l'intégrité des activités. Dans ce cadre, un poste d'analyste de données est créé pour renforcer la gestion des risques opérationnels. Mission quotidienne : L'analyste de données sera responsable de : Fournir un leadership fonctionnel sur l'architecture des données et la modélisation des métadonnées. Analyser et améliorer le modèle de métadonnées pour la gestion des risques opérationnels. Collaborer étroitement avec des experts en la matière (SME) pour garantir la cohérence et l'efficacité des processus. Travailler avec les équipes informatiques pour mettre en œuvre les modifications nécessaires à l'écosystème. Assurer la documentation adéquate et contribuer à l'optimisation des contrôles et des activités réglementaires au sein du CIB.
Offre d'emploi
INGENIEUR D'AFFAIRE technique IT PARIS
INGENIEUR D'AFFAIRE IT PARIS – Luxembourg Pour développer notre clientèle en France et au Luxembourg sur la partie IT de façon plus globale, nous recherchons un(e) Ingénieur d'affaire / practice manager avec plusieurs années d’expériences (3 / 8 ans) Vous avez déjà travaillé comme ingénieur d'affaire ou practice manager ou dans un rôle similaire Vous avez un background technique en IT et / ou Data-IA Vous avez déjà une clientèle établie Vous êtes familier avec des outils comme odoo ou salesforce Vous êtes à minima bilingue Français / Anglais courant (impératif) Poste basé à Paris ou Luxembourg Rejoignez notre équipe d'intelligence appliquée et plongez-vous dans des solutions innovantes et tournées vers l'avenir en utilisant des technologies de pointe. Dans notre culture bienveillante de succès partagé, de pensée diversifiée et d'opportunités illimitées, vous aurez la chance d'apprendre, de grandir et de faire progresser votre carrière de manière nouvelle et passionnante. Merci de nous préciser vos compétences techniques en quelques lignes Processus de sélection Pré-entretien Entretien technique (Skills IT) Prise de référence commerciale SALAIRE Salaire à discuter en fonction de votre expérience Primes trimestrielles de performance (% de la marge) Téléphone Voiture de fonction (Luxembourg)
Offre d'emploi
Architecte Data Engineer AWS
Dans le cadre de la croissance rapide de HEXATEAM, nous renforçons notre équipe technique en intégrant de nouveaux talents capables d’accompagner notre transition et expansion dans l’univers du Big Data . Nous cherchons actuellement des Architecte Data Engineer AWS pour concevoir, évoluer et maintenir nos plateformes data sur le cloud AWS. En tant qu'Architecte Data Engineer AWS, vous jouerez un rôle clé dans la conception, le développement, l’optimisation et la maintenance des pipelines de données pour répondre aux besoins de nos clients et assurer la robustesse de notre infrastructure Data. Conception et Gestion de Databricks : Création et gestion de clusters , jobs , et notebooks dans Databricks. Utilisation avancée de SQL pour créer des requêtes performantes et gérer de grandes bases de données. Maintien en condition opérationnelle : Analyser, corriger et prévenir les incidents et les défauts de la plateforme data en production. Assurer la stabilité et la disponibilité de la plateforme. Développement de pipelines d'ingestion et de transformation des données : Utilisation de Python avec Apache Spark pour traiter de grands volumes de données. Conception de jobs d’ingestion automatisés et performants. Stratégie à long terme : Proposer et implémenter une vision stratégique pour le développement de la plateforme Data. Travailler en collaboration avec les équipes pour définir la feuille de route technique à long terme. Accompagnement et diffusion des bonnes pratiques : Promouvoir les standards de qualité dans l'équipe. Accompagner les équipes dans l’adoption des bonnes pratiques en termes de développement et de gestion des données. Participation aux ateliers de conception techniques et fonctionnels : Collaborer avec les équipes de développement et de produit pour concevoir des solutions adaptées aux besoins métiers. Documentation technique : Rédiger et maintenir à jour la documentation technique des projets en cours. Indispensable : Langages : Python, SQL Big Data Framework : Apache Spark Outils : Databricks Cloud AWS : Expérience avec les services AWS (S3, Glue, Lambda, Airflow, CloudWatch, IAM) Versioning : Git Méthodologies : Travail en Agile , principalement en mode Scrum Suivi de projet : Expérience avec JIRA et Confluence Souhaité (plus) : CI/CD : Connaissance et utilisation de GitLab pour l’intégration et le déploiement continus. Outils Big Data : Expérience dans la gestion de grands volumes de données . Expérience en CI/CD avec des pratiques avancées d'automatisation.
Mission freelance
Data Knowledge Process Owner (Lille)
Cherry Pick est à la recherche d'un "Data Knowledge Process Owner" pour un client dans le secteur du commerce de détail. Contexte de la mission Au sein du Data Governance Office, vous serez le référent du processus de Data Knowledge. Le processus Knowledge est animé en mode fédéré : il est défini et animé par l’équipe Data Gouvernance Office, et mis en œuvre par les métiers au sein des 9 domaines digitaux du groupe. Le processus knowledge est articulé autour de 2 axes : La modélisation fonctionnelle des concepts métiers La définition des concepts fonctionnels Le Data Catalog (Collibra) est le réceptacle de l’ensemble de ces concepts et l’outil de référence de la connaissance de la donnée au sein de l’entreprise. Ce processus est inscrit dans le workflow de mise sous contrôle des données du groupe, en amont et avec dépendances des processus d'accessibilité et de qualité. Les enjeux de cette mission : Assurer la continuité de l’animation et de la consolidation du processus de Knowledge au sein de l’entreprise S’assurer l’utilité et la valeur de chaque étape du processus de Knowledge, proposer/mettre en place des évolutions pour optimiser la valeur Participer activement à la conduite le changement vers un nouvel operating model
Offre d'emploi
Data Engineer
Nous recherchons deux Ingénieurs Data — Medior — pour concevoir, implémenter et optimiser des solutions de données basées sur le cloud. Les candidats idéaux travailleront sur des plateformes de données modernes comme Snowflake et des outils comme DBT et Wherescape RED pour soutenir nos initiatives de data warehouse, y compris l'adoption de l'architecture Data Vault 2.0. Principales responsabilités : Concevoir et implémenter des processus ETL pour migrer des données d'Oracle vers Snowflake en utilisant DBT. Développer des solutions de données cloud en utilisant des outils comme DBT pour la transformation des données. Travailler avec le cadre Data Vault 2.0 pour concevoir des solutions de data warehouse évolutives. Collaborer avec des équipes interfonctionnelles pour implémenter des pipelines CI/CD pour les workflows ETL. Rédiger et maintenir une documentation complète pour les processus ETL et les pipelines de données. Compétences et exigences : Outils : DBT, Wherescape RED, Snowflake, Oracle, Azure Synapse. Programmation : SQL, Python, ou d'autres langages de programmation modernes similaires. Contrôle de version : Maîtrise de Git pour le développement en mode trunk-based. Tests : Expérience en tests d'intégrité des données, de performance et de régression. Connaissances : Data Vault 2.0, concepts modernes de data warehousing. Résumé du rôle : Le rôles est axés sur la création de pipelines de données efficaces et évolutifs en utilisant des technologies cloud telles que Snowflake et DBT. et est davantage concentré sur l'exécution pratique et la livraison des projets. Pour postuler, envoyez votre CV et vous contacterons dans les plus brefs délais.
Mission freelance
Chef de Projet Stratégie Data (H/F) - 93 ou 94
La DSI & la Direction Générale des Opérations (DGO) sont deux acteurs clés de la Data & l’IA. La Direction Facilitation, au sein de la DGO, porte deux fonctions clefs dans la définition d'une stratégie Data au profit des opérations aéroportuaires : la Fonction AMOA SI Aéro & Sûreté (AMOA), et la fonction Data & Management Science (DMS). Ces deux entités orientées métier travaillent en étroite collaboration avec la DSI qui assure la maitrise d'œuvre et la robustesse technique des systèmes aéroportuaires
Offre d'emploi
Chef de projet DATA
Le candidat sera amené à piloter plusieurs projets, dont celui sur le décommissionnement d'un l'infocentre. - Gestion de l’obsolescence du SID - Assurer la continuité de service en mettant à disposition les tables encore utilisées sur la plateforme data cible La mission consiste à : - Animation des équipes projets - Planification dans ITBM - Suivi des consommés et des restes à faire - Coordination des acteurs MOE - Préparation et présentation dans les instances de la gouvernance projets - Reporting et alertes projets
Offre d'emploi
Ingénieur Data SAP/Snowflake
Contexte : Dans le cadre d'un programme de transformation digitale basée sur S4/HANA, mon client, acteur majeur du secteur de l'industrie recherche un Data Engineer Snowflake, ADF, SAP concernant la réalisation de l' intégration des données issues de SAP vers les applications BI.. Le datalake est composé d’un modèle hybride Azure Data Factory + ADLS2 qui vient déverser la donnée dans le datalake Snowflake. Le profil qui nous rejoindra devra piloter et organiser son activité ainsi que celle d’un consultant moins senior afin de maintenir un rythme ainsi qu’une qualité de livraison constants tout en affichant une communication claire sur l’activité.
Offre d'emploi
CHEF DE PROJET DATA PLATEFORME COMPLIANCE
A/ Déclinaison de la stratégie de gestion des données dans le cadre des projets - Cartographie des données dès la phase de définition des besoins - Identification avec le métier les données importantes (critiques, sensibles, stratégiques, confidentielles…) - Accompagnement de la mise en œuvre des contrats d’usage définis par les métiers - Validation de la définition et l’application des règles de contrôles d’intégrité, sécurité et protection de la donnée - Accompagnement de la mise en œuvre des exigences de qualité et plans de contrôle définis par le métier - Prise en compte des exigences sur les données dans la stratégie de test B/ Déclinaison de la stratégie de gestion des données dans le cadre de la maintenance - Intégration de la maintenance des cartographies de flux de données (linéage) - Evaluation de la dette sur la qualité, l’intégrité, la sécurité et la protection des données dans le cadre des revues régulières C/ Pilotage de l’alignement des roadmaps : - Veille de l’alignement avec le cadre de référence du Data Management - Définition du plan de remédiation de la qualité, l’intégrité, la sécurité et la protection des données sur son périmètre - Contribution à l’identification des pistes de rationalisation des espaces de stockage et des outils de reporting sur son périmètre - Contribution à la mise en œuvre d’un outillage adapté
Offre d'emploi
Architect Data AWS
🎯Inventifs Wanted Nous recherchons un architecte Data AWS ayant une expertise en architecture de données, chiffrage de projets Big Data et méthodologies Agile. Avec 8 années d’expérience au minimum Travaillant sur plusieurs Projets Data; Participation à l’évaluation et à la livraison de composants AWS Conception et mise en œuvre d’architectures de solutions data sur AWS (ingestion, service et consommation de données). Développement d’architectures AWS pour stocker les données IoT et configurer Databricks. Implémentation de solutions utilisant AWS Direction de projets cloud axés sur les services AWS et gestion de la qualité des livrables pour les projets de migration et d’infrastructure. Cadrage et chiffrage des divers projets Big Data Définition des solutions d’architecture Big Data dans le Cloud AWS Garantir la cohérence technique et la pérennité du système d’information. Mise en place de l'architecture des projets Big Data sur le Cloud AWS en rédigeant des Dossiers d’Architecture Logiciels (DAL) et en validant des Dossiers d’Architecture Technique (DAT). Migration des projets dans des nouvelles architectures et concevoir de nouvelles solutions avec un monitoring de PaaS et une synchronisation des données de Prod et Hprod. Participation à des instances de : Design Authority, CoArch avec les Architectes Techniques, CAO (Comité d'Architecture Opérationnel) Validation de l'architecture du Product Incrément, à des réunions de qualification Validation avec le RSSI et au suivi de chantiers de résilience et de suivi FinOps. Conception de solutions BI avec Power Platform (Power BI, Power Automate, Power Virtual Agents). Création de rapports, tableaux de bord, et KPI avec Power BI, ainsi que gestion de la sécurité des données. Environnement Technique : Cloud Platform & Services : AWS , AWS Glue & Athena, EMR, Aurora, Amazon SageMaker, AWS Lake Formation, AWS Aurora, AWS Lambda Data & Analytics : AWS, SQL, Power BI, Automation & Scripting : PowerShell, CI/CD, AWS DataLake, LakeHouse, Data Vault, Data WareHouse, Data Mesh, Data Fabric ETL & DWH : Talend
Offre d'emploi
Business Analyst Asset Management (FH)
Dans le cadre d’un projet d'implémentation d’un outil de performance ( Statpro de Confluence ), notre client recherche un consultant sénior pour accompagner l'équipe en charge du projet. Ce projet implique une coordination étroite entre l’équipe Performance, l’équipe Développement et l’éditeur. Le consultant devra jouer un rôle clé dans l’analyse des besoins, la rédaction des spécifications, et le suivi de l’implémentation. Collecte du besoin : Recueillir les besoins fonctionnels auprès de l'équipe Performance. Animer des workshops avec les parties prenantes pour analyser la faisabilité, prioriser les demandes, et identifier les règles de gestion associées. Rédaction des spécifications fonctionnelles : Rédiger les spécifications fonctionnelles détaillées et générales en fonction des besoins recueillis. Prioriser les projets ou les lots d’un projet en fonction des objectifs métiers et techniques. Coordination et suivi de l’implémentation : Assurer une coordination fluide entre l'équipe Performance, l'équipe Développement et l’éditeur externe. Interagir avec l'éditeur pour suivre l’avancement de l’implémentation et s’assurer du respect des délais et des exigences. Documentation et formation : Mettre en place et mettre à jour la documentation encadrant les processus du projet. Rédiger des procédures et guides utilisateurs pour accompagner la mise en production. Assurer la formation des utilisateurs pour garantir une bonne adoption de l'outil. Suivi de la recette et mise en production : Établir le cahier de recette et réaliser la recette en collaboration avec la Maîtrise d’Œuvre. Accompagner la mise en production de l'outil et s’assurer de son bon fonctionnement. Reporting : Produire des synthèses régulières sur l’avancement du projet pour les parties prenantes. Assurer un reporting précis et fiable à la direction et aux équipes impliquées.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.