Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Data Engineer Talend BusinessObjects GCP
Contexte de la mission : La Direction Immobilière Groupe est chargée de la définition stratégique des actifs immobiliers du groupe ainsi de que leur gestion. Au sein de la DSI, le pôle data a pour rôle de mettre à disposition des informations clés destinées aux analyses et reporting de la DIG. Ce pôle souhaite renforcer son équipe avec un Data Engineer afin de maintenir et faire évoluer son patrimoine applicatif data. La mission s'inscrit aussi dans une roadmap de migration à moyen terme vers une nouvelle architecture data GCP. MISSIONS : Les travaux confiés porteront sur la maintenance corrective et évolutive du patrimoine data à savoir : Flux de données : Conception technique, développement, tests, supports recette des jobs Talend Reporting : maintenance des univers BO, création & modifications de rapports BO API Talend ESB : conception et développement de flux temps réel Documentations : élaboration technique, spécifications Compétences recherchées : -Obligatoires : Talend DI, Talend ESB, SAP BusinessObjects, Oracle, Postgre Méthode Agile Scrum -Optionnelles : GCP Expérience nécessaire : 10 ans sur la fonction Méthodologie : Scrum Langue : Français Crée en 2008, Kéoni Consulting est une société de conseil et d’ingénierie informatique spécialisée dans le secteur de la banque, de la finance de marché, et de l’assurance, et de l'industrie. Nous sommes le partenaire dans la transformation digitale des grands Comptes. Nous les aidons à transformer leur modèle économique, aligner vos processus opérationnels, sélectionner les meilleures technologies, atténuer et palier les risques liés au digital. Kéoni Consulting aide les entreprises à: Faire la différence Innover et créer Réinventer votre business Satisfaire les clients Gagner en avantages compétitifs Devenir le leader de leur secteur Devenir le leader de votre secteur Notre activité couvre la totalité du cycle de vie des systèmes d’informations (Pilotage et Gestion de projet, Conseil en MOA, Conception, Réalisation, Maintenance, Production Exploitation)
Offre d'emploi
Data Analyst
Au sein de la direction des Opérations, une équipe est dédiée à la définition, la production et l’analyse des indicateurs de performance liés aux processus de back-office pour les activités de banque de détail. Actuellement en pleine transformation, cette équipe doit également assurer la continuité des indicateurs et tableaux de bord déjà en place. Dans le cadre de cette mission, le Data Analyst aura pour responsabilités de : Produire des indicateurs clés : Participer à la production régulière des indicateurs de performance pour le pilotage des processus de back-office. Automatisation : Contribuer à l’automatisation des rapports existants, afin d’optimiser et de rationaliser les processus. Création d'indicateurs et tableaux de bord : Développer de nouveaux indicateurs et tableaux de bord en lien avec les besoins évolutifs de BPCE.
Mission freelance
Sysops big data
la prestation consiste à : Ø Maintenir l’architecture Big Data en utilisant les dernières technologies ad-hoc Ø Participer à l’industrialisation, au déploiement, au maintien des clusters Cloudera existants (Cloudera Manager, HDFS, Yarn, Hive, Ranger, Nifi, Kerberos) Ø Mettre en place les nouveaux outils que notre SI souhaite explorer: Kafka, Iceberg, Impala … Ø Participer à l’exploitation quotidienne des plateformes (vérifier la santé des clusters, mettre à jours mensuellement les serveurs) Ø Gérer la sécurité et l’accès aux clusters Ø Monitorer les plateformes et communiquer sur les besoins futurs Ø Apporter un support technique aux équipes de développement (Data Engineers / Data Scientists) Ø Mener les réflexions sur les évolutions à apporter aux plateformes
Mission freelance
Proxy Product Owner Data
Mission / Freelance / Paris / Proxy Product Owner / Data / MDM / Datawarehouse / SQL / API REST & SOAP Lawrence Harvey recherche pour le compte de son client un Proxy Product Owner Data pour un client à Paris. Freelance - Pas de sous-traitance, merci. Paris - hybride (2j/semaine en télétravail; 40%) Démarrage sopuhaité au 01/12/2024 Contexte : Projet de mise en place d'un MDM et d'un datawarehouse en binôme avec un PO interne Profil recherché : • Compétence en SQL • Capacité d'analyse et de résolution de bug • Expérience dans l'utilisation d'outil de visualisation de données. • Maitrise d'API REST et SOAP • Connaissance des différents modes d'échange de données (synchrone, asynchrone • Connaissance des méthodologies AGILE (Scrum, Kanban, SAFe …) • Capacité rédactionnelle et de communication • Expérience significative dans des projets Data (intégration de données, BI, modélisation, documentation du dictionnaire de données, du lineage) • Appétences sur la qualité de données. Tout ce qui est profilage, définition de règle de standardisation, normalisation … • La maîtrise de Snowflake et Power BI est un plus. Si cette opportunité vous intéresse, merci de postuler sur l'annonce ou de m'envoyer votre CV à l'adresse suivante : -email masqué- (Christopher Delannoy) et je vous recontacterai pour vous donner plus de détails sur la mission. N'hésitez pas à partager avec votre réseau si vous connaissez des personnes qui pourraient être intéressées Lawrence Harvey is acting as an Employment Business in regards to this position. Visit our website and follow us on Twitter for all live vacancies (lawharveyjobs)
Mission freelance
Project Manager / EM DATA MIGRATION (anglais fluent)
Définir et mettre en place une stratégie de migration des données. Gérer le périmètre des données à migrer pour chaque Go Live (Données de Base - BDR, Données Maîtres - MDR, Données Transactionnelles). Superviser les plans, les KPI, et les rapports de progression à destination du programme. Définir la stratégie de migration des données. Gérer les demandes de changement de périmètre (analyse d’impact, mise à jour du plan, communication). Planifier les activités et fournir des rapports de suivi détaillés via des KPIs. Collaborer étroitement avec le Data Migration Lead du client : Confirmer les responsabilités via RACI. Offrir un soutien continu et renforcer les relations via une approche "One-Team". Coordonner et superviser les activités des contributeurs (fournisseurs IFS, équipes IT, fonctionnelles, Business). Adapter la taille de l’équipe en fonction de la charge de travail. Gérer des profils fonctionnels, techniques, et de développement. Garantir la qualité des livrables (stratégie, GDS, DDS, interfaces Dell Boomi, validation des données). Superviser les Runbooks et leur cohérence avec le Master Plan. Analyser les collections de données, effectuer des réconciliations, et produire des rapports sur l’avancement des charges. Identifier, suivre et proposer des plans de mitigation pour les risques associés à la migration. Organiser la transmission des activités à l’équipe de maintenance après la période d’hypercare. Mettre à jour la base de connaissances (leçons apprises, gestion documentaire sur SharePoint, suivi Jira).
Mission freelance
Lead Data GCP Python Power BI
Nous recherchons un(e) Lead Data Engineer expérimenté(e) pour rejoindre une équipe digitale dynamique dédiée à la gestion des données. Vous serez en charge de l’industrialisation de l’infrastructure data, ainsi que de la qualité, de la sécurité, et du respect de la vie privée des données. Vous travaillerez sur des environnements Cloud (GCP et AWS) et piloterez une équipe de 2 Data Engineer . Mise en place d’environnements cloisonnés (Dev, Préprod, Production). Automatisation du déploiement et de la maintenance via des outils Infrastructure as Code (Terraform) . Implémentation de solutions d’observabilité (monitoring, alerting). Maintenance et développement de pipelines de données en Python (batch et streaming). Création de pipelines SQL/SQLX avec Data-Form (similaire à DBT). Déploiement et gestion d’un outil de data quality (ex. Great Expectations). Développement de workers AWS pour gérer les flux entre Kafka et Pub Sub sur GCP. Connaissance de DataFlow (Apache Beam) appréciée. Standardisation du code avec linting, CI/CD et divers tests. Documentation des processus internes et schémas d’architecture. Coopération avec les équipes Data (analystes, SEO/SEA, emailing). Respect du RGPD avec anonymisation et archivage des données. Sécurisation de l’infrastructure, des données et du code
Offre d'alternance
Data Engineer / Data Analyst / Data Scientist (H/F) - Alternance
Nous recherchons activement pour le compte d'un de nos partenaires plusieurs Data Engineer / Data Analyst / Data Scientist en alternance pour une durée de 15 ou 24 mois selon votre profil Attention: Partenariat exclusif avec notre école Sous la supervision de votre maitre d'apprentissage, vos missions principales seront les suivantes : Effectuer l’intégration et la construction des offres Data & IA ; Accompagner l’équipe dans la construction, la structuration et l’intégration des offres Data & IA ; Automatiser et industrialiser des solutions ; Intégrer les offres de solutions de monitoring, alerting, restriction de droits ; Effectuer la veille technologique autour de la Data, l’IA, POC, tests de performances et comparaisons de solutions. Conditions de l'offre : Rémunération : Selon la réglementation en vigueur pour les contrats d'apprentissage Début du contrat : ASAP
Offre d'emploi
Data Governance / Data Quality (Luxembourg)
Le consultant rejoindra l’équipe Enterprise Data Office (EDO), en charge de définir et mettre en œuvre la gouvernance des données (qualité, classification, protection) et du reporting du client. EDO contribue donc activement au déploiement de la stratégie des données de la banque en promouvant une culture data et en coordonnant les travaux des Data Stewards/Owners au niveau métier et des Data Custodians au niveau IT. Vos tâches : · Encadrer les Data et Report Stewards en charge de la définition et documentation des données, des rapports et des contrôles de qualité au sein du dictionnaire des données et des rapports. · Encadrer les Report Stewards et Owners en charge de l’analyse de criticité des rapports et de l’identification de données clefs (Golden data). · Analyser les problèmes de qualité des données ; proposer des solutions ; coordonner et suivre la mise en place de ces solutions. · Suivre les indicateurs de qualité et préparer le reporting sur la qualité des données. · Participer à l’élaboration d’une enquête permettant d’évaluer l’adéquation du reporting interne aux besoins des organes internes de supervision.
Offre d'emploi
Développeur Java orienté Master Data Management
## Contexte du poste Au cœur d’une entreprise renommée du secteur des services financiers, située à proximité de Lyon, notre département IT transversal est en quête de talents pour relever le défi de l’innovation et du développement durable dans le domaine du Master Data Management (MDM). Au sein d'une équipe à taille humaine composée de spécialistes passionnés, vous travaillerez sur des projets critiques visant à consolider, gérer et optimiser les données de référence de l'entreprise. Ce poste est ouvert en raison de notre volonté d'internaliser les compétences, suite à l'évolution de notre stratégie visant à renforcer notre expertise en interne. Intitulé du poste : Développeur Java Spécialisé en Data Engineering ## Missions Missions principales : - Conception et développement de solutions pour le Master Data Management en utilisant Java dans un contexte d'utilisation de Tibco. - Interconnexion avec d'autres systèmes tels que l'ETL Pentaho et l'ESB Tibco Business Works. - Contribution à la consolidation des données et à l'optimisation des applications pour créer une source unique et fiable. Missions annexes : - Maintien en conditions opérationnelles des applications, incluant la gestion des tickets et la participation à des montées de versions occasionnelles. - Collaboration transversale avec d'autres équipes techniques pour assurer la fluide consommation des données du référentiel. ## Stack technique À maîtriser : - Java - Tibco, Pentaho Environnement technique global : - Master Data Management (MDM) - ESB Tibco Business Works - Data Engineering
Mission freelance
CP /AMOA Data Galaxy
Nous sommes à la recherche d'un CP /AMOA Piloter la mise en oeuvre de DataGalaxy dans l'écosystème : Planning, Animation des réunions (Kick-Off, réunion de suivi, support aux ateliers...), gestion des ressources Monter en compétences sur l'outil pour participer aux activités de rédaction, formation et accompagnement des équipes) Qu'elle soit capable à la fois d'animer une équipe et de tester par elle-même les features / modélisations de Data Galaxy. Participer à la rédaction des Guidelines (aide à la prise de décision, design et test des solutions possibles dans Data Galaxy)
Mission freelance
Expert Data Migration JDE to SAP S/4 Hana
Notre client utilisateur SAP d'envergure internationale démarre une migration vers S/4 Hana et recherche un/e expert/e migration de données. Le candidat doit être capable de définir et de piloter l’ensemble de la méthodologie de migration. Cela inclut la planification des étapes-clés, la gouvernance de la donnée et la mise en œuvre d'une méthodologie de bout en bout, en intégrant les besoins spécifiques de l'entreprise. Extraction et structuration des données : Expérience avérée dans l'extraction de données depuis les systèmes source, avec une capacité à poser les bonnes questions pour définir les données à migrer (ex. : choix entre P&L N-1, N-2, historique des ventes). Nettoyage et qualité des données : Doit apporter une expertise en nettoyage de données, y compris la suppression des doublons, l’alignement des formats et la correction des incohérences, pour garantir une base de données précise et utilisable dans S/4 Hana.
Mission freelance
Data Manager (Architecte Data / Engineer)
Mission : En tant que Data Manager, vous serez responsable de la stratégie de gestion et de gouvernance des données. Vous identifierez les besoins métiers et les traduirez en exigences techniques, assurant ainsi une structure de données robuste et bien modélisée. Collaborant étroitement avec les équipes internes, vous soutiendrez le processus de transformation en alignant la gestion des données avec les objectifs de l’entreprise, depuis l’acquisition jusqu’à la valorisation des données. Compétences : Expertise confirmée en architecture de données avec maîtrise de SQL, Python et Snowflake pour la gestion et l'optimisation des données Expérience dans la gestion des processus de data governance et des flux de données, avec des compétences en modélisation de données et bonnes pratiques CI/CD Connaissances en outils de gestion de données dans un environnement AWS et Infrastructure as Code (Terraform)
Mission freelance
Senior Graph Data Scientist
Le benéficiaire souhaite une prestation d’accompagnement dans le cadre de la contribution à la mise en place de leur IT Knowledge Graph, avec des opportunités de création d'énormes avantages pour les clients internes. À travers la conception et utilisation de Machine Learning et Graph Analytics (y compris Graph Mining, Graph Algorithms & Graph Enbeddings) dans divers cas, l'objectif est l'apport d'une expertise en matière de modélisation de données graphiques. Les missions sont: • Participation au développement des solutions pour la mise en place d'un Knowledge Graph combinant différentes sources de données • Conception des solutions pour différents cas d’utilisation afin de répondre aux besoins des clients à l’aide du Knowledge Graph • Prototype, test et production des pipelines Machine Learning pour ces cas d'utilisation • Analyses pour identifier les défis et les opportunités
Offre d'emploi
Data engineer F/H
Et si vous deveniez consultant chez nous ? Mais d’abord, c’est quoi un consultant ? Evidemment, c’est un collaborateur qui accompagnera nos clients dans la réalisation de leurs projets innovants. Mais être consultant chez OTTEO, c’est aussi être un ambassadeur, qui participera à l’évolution et à la croissance de la société ! Votre 1er projet Vous rejoindrez notre client dans le retail, et travaillerez sur un produit dédié à la performance ! Ce produit permet de saisir, stocker, calculer et transmettre les données de performance et d’objectifs à tous les acteurs métiers qui pilotent l’activité. Votre mission principale sera de répondre aux besoins métiers en mettant à disposition des données de qualité , essentielles pour un pilotage efficace de l’activité. Vous vous y voyez déjà, pas vrai ? Ça tombe bien, ce n’est pas fini ! Vous intégrerez une équipe agile de 10 personnes (un proxy PO, un Scrum Master et des Data Engineers) qui pratique l’agilité en Scrum depuis un an. Vos missions : Participer à la conception des environnements de qualification, de production, d’architecture applicative et des processus de mise en production. Développer l’intégration des données, leur exposition et leur transmission en garantissant l’implémentation du produit et des solutions apportées. Construire les environnements de qualification et de production selon les pratiques de l’entreprise. Implémenter la surveillance du produit et réaliser les tests unitaires. Présentation et validation des livrables par le métier. Mettre en production et assurer le bon fonctionnement de la production en gérant les incidents/problèmes. Collaborer, c’est aussi : Documenter les solutions et réaliser une veille technologique régulière. Accompagner les équipes et favoriser l’échange de connaissances. ENVIRONNEMENT TECHNIQUE : Intégration et flux de données : Talend, Shell Base de données : BigQuery, PostgreSQL, Teradata DataViz : DataStudio Autres : Firestore, Cloud Functions GCP, Git
Offre d'emploi
Data Engineer Snowflake / Databricks
À propos de l'entreprise : Notre client est une société dynamique et innovante spécialisée dans l'accompagnement des entreprises dans la valorisation de leurs données. En pleine expansion, cette société à taille humaine (environ 15 collaborateurs) se distingue par sa capacité d'adaptation et sa forte culture collaborative. • Structure agile : taille humaine, faible turn-over, esprit d'équipe. • Collaboratif et engagé : chaque collaborateur contribue au développement technique et commercial de l'entreprise, ainsi qu'au recrutement. • Montée en compétences : formations régulières en techniques avancées, certifications et développement des soft skills. • Évolution rapide : revue de performance semestrielle, permettant des perspectives d'évolution accélérées. • Contexte international : l'entreprise est en phase d'expansion au-delà des frontières nationales. • Stabilité des missions : aucun consultant en intercontrat, signe d'une gestion optimale. Vos missions incluent : • Conception et développement de solutions de données avec Snowflake et/ou Databricks pour des analyses optimisées. • Intégration et maintenance des pipelines de données pour assurer leur fiabilité et performance. • Collaboration avec les équipes techniques et métiers pour recueillir les besoins, définir les objectifs, et fournir des solutions adaptées. • Modélisation et optimisation des structures de données pour garantir la fluidité des analyses et une exploitation efficace. • Rédaction de spécifications fonctionnelles et techniques pour assurer une documentation de qualité. • Participation aux sessions de définition des processus cibles avec les clients et recommandations de Best Practices. Profil recherché : • Diplôme d'Ingénieur ou Bac+5 en informatique, spécialisation en Data Engineering est un plus. • Expérience d'au moins 3 ans en cabinet de conseil, avec une expertise en Snowflake, Databricks ou technologies similaires. • Compétences en modélisation et structuration de données (ETL, SQL avancé, Spark). • Anglais professionnel, permettant d'échanger dans un contexte international. Qualités recherchées : Vous êtes autonome, avez une excellente communication et une capacité d'adaptation. Votre esprit analytique et votre sens de l'initiative vous permettent d'apporter une réelle valeur ajoutée aux projets. Ce poste est fait pour vous ? Rejoignez une société en pleine croissance et portez vos compétences Data au niveau supérieur ! Candidatures confidentielles
Mission freelance
Data Scientist
As a member of the Data Science team, alongside our technical experts, you will get an opportunity to: Lead project delivery on data science aspect Participate in client meetings and workshops around data science deployment projects Scope clients needs and feedback and translating them to achievable data science tasks Manage data science team to ensure timely delivery of the project Learn about health data and healthcare insurance dynamics Improve OCR and NLP pipelines deployed on insurance claims data Enhance fraud detection machine learning models Explore and analyze big and challenging datasets Scale proprietary patient journey optimizer based on state-of-the-art optimal transport Supervise the implementation and optimization of associated algorithms Integrate this in our python/pytorch/react/postgresql/django stack __________ En tant que membre de l'équipe Data Science, aux côtés de nos experts techniques, vous aurez l'opportunité de : Diriger la réalisation du projet sur l'aspect science des données Participer aux réunions clients et aux ateliers autour des projets de déploiement de la science des données Évaluer les besoins et les commentaires des clients et les traduire en tâches de science des données réalisables Gérer l'équipe de science des données pour assurer la livraison rapide du projet En savoir plus sur les données de santé et la dynamique de l'assurance maladie Améliorer les pipelines OCR et NLP déployés sur les données de réclamations d'assurance Améliorer les modèles d'apprentissage automatique de détection de fraude Explorez et analysez des ensembles de données volumineux et complexes Optimiseur de parcours patient propriétaire à grande échelle basé sur un transport optimal de pointe Superviser la mise en œuvre et l'optimisation des algorithmes associés Intégrez ceci dans notre pile python/pytorch/react/postgresql/django
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.