Trouvez votre prochaine offre d’emploi ou de mission freelance BI
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Développeur Python Craft CI/CD
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : La prestation consiste à contribuer à/au(x) : Développements d'API REST en Python 3 (Flask) Backend L'Approche "fail fast and iterative" Delivery Scrum Testing automatique Software Craftsmanship L'intégration et le déploiement continu de types CI/CD L’utilisation d’outils de gestion de code source et de gestion de la configuration Gestion de la dette technique L'intégration et le développement d'une stratégie de tests (unitaire, intégration, performance ...)
Offre d'emploi
Data engineer F/H
Et si vous deveniez consultant chez nous ? Mais d’abord, c’est quoi un consultant ? Evidemment, c’est un collaborateur qui accompagnera nos clients dans la réalisation de leurs projets innovants. Mais être consultant chez OTTEO, c’est aussi être un ambassadeur, qui participera à l’évolution et à la croissance de la société ! Votre 1er projet Vous rejoindrez notre client dans le retail, et travaillerez sur un produit dédié à la performance ! Ce produit permet de saisir, stocker, calculer et transmettre les données de performance et d’objectifs à tous les acteurs métiers qui pilotent l’activité. Votre mission principale sera de répondre aux besoins métiers en mettant à disposition des données de qualité , essentielles pour un pilotage efficace de l’activité. Vous vous y voyez déjà, pas vrai ? Ça tombe bien, ce n’est pas fini ! Vous intégrerez une équipe agile de 10 personnes (un proxy PO, un Scrum Master et des Data Engineers) qui pratique l’agilité en Scrum depuis un an. Vos missions : Participer à la conception des environnements de qualification, de production, d’architecture applicative et des processus de mise en production. Développer l’intégration des données, leur exposition et leur transmission en garantissant l’implémentation du produit et des solutions apportées. Construire les environnements de qualification et de production selon les pratiques de l’entreprise. Implémenter la surveillance du produit et réaliser les tests unitaires. Présentation et validation des livrables par le métier. Mettre en production et assurer le bon fonctionnement de la production en gérant les incidents/problèmes. Collaborer, c’est aussi : Documenter les solutions et réaliser une veille technologique régulière. Accompagner les équipes et favoriser l’échange de connaissances. ENVIRONNEMENT TECHNIQUE : Intégration et flux de données : Talend, Shell Base de données : BigQuery, PostgreSQL, Teradata DataViz : DataStudio Autres : Firestore, Cloud Functions GCP, Git
Offre d'emploi
Développeur Data Analyst Skywise (H/F)
Nous recherchons un Développeur Data Analyst spécialisé sur la plateforme Skywise . Le poste est situé à Blagnac, avec une mission à long terme offrant une grande autonomie et un environnement technique de pointe. Exploiter la technologie Skywise d'Airbus pour l'analyse de données et le développement de solutions sur-mesure. Collaborer étroitement avec les équipes internes et les clients pour comprendre et répondre aux besoins de données et d'analyse. Concevoir et maintenir des scripts et des applications en Python, Java, et HTML pour le traitement et la visualisation de données. Participer à des projets stratégiques en lien avec la gestion de données aéronautiques, en prenant en charge des sujets techniques et en collaborant avec un manager dédié. Assurer un contact direct et une bonne relation client avec les équipes Airbus.
Mission freelance
Data Scientiste junior (h/f)
emagine recherche pour l'un de ses Clients Grand Compte un (e) Data Scientiste junior Rythme: 1 à 2 jours sur site + 3 à 4 jours de télétravail Durée: minimum 2 ans Lieu : Île de France, 95 Contexte : Programme attendu avec roadmap serrée dans un contexte de migration vers le cloud (GCP) L'entreprise a commencé une migration de ses applications data sur le cloud public (GCP). L'ensemble des travaux d'industrialisation se feront donc sur ce nouvel environnement de travail pour lesquels des compétences spécifiques MLOps sont nécessaires : maitrise de docker, github action, terraform, vertexAI etc… Objectifs de la Mission • Comprendre en profondeur les mécanismes du revenue management, y compris les facteurs influençant la demande et les stratégies de tarification. • Concevoir et implémenter un modèle de prévision de séries temporelles en utilisant les technologies les plus récentes en IA et ML, pour améliorer la fiabilité et l'efficacité des prévisions. • S'assurer que le modèle est à la fois interprétable et explicable, permettant aux équipes de revenue management de comprendre et d'exploiter pleinement les prévisions générées. • Proposer des indicateurs permettant de qualifier la fiabilité des prévisions, et être capable de les résumer et communiquer auprès du métier. Compétences et Expériences Requises • Anglais bilingue • Python • MLOps (docker, github action, terraform, vertexAI etc…) • GCP ( Migration vers GCP ) • Forecasting/time series • Bonne expérience en séries temporelles • Maîtrise du langage de programmation tels que Python ainsi que des outils de visualisation de données (Spotfire, Power BI, etc.). • Maîtrise des bibliothèques de machine learning (scikit-learn, TensorFlow, etc.) et des techniques statistiques avancées. • Solides compétences en analyse de données. • Excellente communication et capacité à travailler en équipe. Livrables Attendues • Code source des composants développés et tests associés • Description des choix d'architecture • Documentation de la solution développée (code, modélisation...) • Supports de communication (slides…) sur les développements réalisés Si vous êtes disponible et intéressé, merci de me retourner votre CV à jour et vos attentes à l'adresse mail -email masqué-
Offre d'emploi
Expert Spark
Nous recherchons un Expert Big Data (Spark) pour rejoindre notre équipe et apporter son expertise dans le traitement et la manipulation de données massives. En tant que tel, vous aurez pour missions principales : Apporter votre expertise en Big Data, en particulier sur Spark D éfinir et évaluer des solutions techniques permettant de traiter de grands volumes de données, tout en garantissant des pipelines sécurisés et clairs. Intervenir auprès des architectes et urbanistes pour la préparation des dossiers techniques. Mettre en place et maintenir des solutions de stockage de données (SQL, NoSQL, etc.), en veillant à leur efficacité. Proposer des optimisations des requêtes SQL, PL/SQL pour garantir les meilleures performances applicatives. Piloter et encadrer les équipes à chaque étape du processus de traitement des données. Partager les meilleures pratiques avec les équipes et assurer un accompagnement technique transverse. Big Data : Spark, Hive, Indexima. Stockage : Oracle, CEPH S3 (parquet). Langages : Java, Python, PL/SQL, Shell. CI/CD : Ansible, Terraform, Jenkins, GIT. ETL : Informatica. Dataviz : Tableau Server. Ordonnanceur : Control-M.
Mission freelance
data engineer python / spark / databricks
Nous recherchons un(e) développeur(se) python passionné(e) pour rejoindre notre équipe et contribuer à la création de pipelines d'orchestration des modèles ML (preparation de features, training, tunning et inférence). Ces pipelines de données permettent aux Quants & Data Scientist d'industrialiser l’utilisation des modèles ML avancés dans les processus de prévision de la consommation et de la production d'énergie. Le profil idéal est : - Un(e) data engineer maîtrisant Python/Spark qui comprend les enjeux du MLOps - Un(e) passionné(e) du développement Python, capable de jongler avec les bibliothèques et les frameworks. - Un(e) passionné du développement capable de travailler avec les Quants et Data Scientists pour résoudre des problèmes relatifs au cycle de vie des modèles de MachineLearning (e.g. mise en place de pipelines d'entraînement). Le poste requiert une maîtrise avancée de Python et Spark. Une expérience préalable autour de Databricks, des Feature Stores / Model Registries est un plus. Contexte Le groupe a récemment entrepris de créer une plateforme dédiée au forecasting, qui s’appuie sur l’intelligence artificielle, le big data et les données météorologiques pour optimiser la gestion des risques et la performance des activités Supply et Renewables.
Offre d'emploi
Tech Lead Java Angular CI/CD
Vos principales responsabilités seront : Leadership technique : Garantir les choix technologiques et architecturaux des projets. Encadrer une équipe de développeurs pour assurer la cohérence technique et fonctionnelle des livrables. Assurer le respect des bonnes pratiques de développement et des guidelines internes (Clean Code, TDD). Conception et développement : Participer à la définition des spécifications techniques et à la rédaction des user stories. Concevoir et développer des APIs REST performantes en Java avec Spring Boot. Développer des interfaces front-end modernes et réactives en Angular, en s’assurant de leur ergonomie et de leur performance. Intégration continue et DevOps : Implémenter et maintenir des pipelines CI/CD sur Jenkins et GitLab pour garantir une livraison rapide et fiable. Collaborer avec les équipes DevOps pour automatiser les tests, les déploiements et la gestion des environnements. Mentorat et accompagnement : Onboarder et faire monter en compétences les membres de l’équipe. Organiser des revues de code pour garantir la qualité et la maintenabilité des solutions. Méthodologies Agiles : Animer les cérémonies Agile (Sprint Planning, Daily Scrum, Sprint Review, Retrospective). Identifier et lever les obstacles pouvant freiner l’avancée des sprints.
Offre d'emploi
Data scientist - H/F
Nous accompagnons notre client, acteur majeur du secteur [secteur d’activité de l’entreprise cliente], dans l’exploitation et la valorisation de ses données. Nous recherchons un(e) Data Scientist F/H pour rejoindre une squad Agile dédiée aux projets Big Data. Vous serez chargé(e) de créer et maintenir des modèles prédictifs, de gérer les environnements de données distribués, et de contribuer aux projets d’intégration des données pour l’équipe métier. Vos missions seront les suivantes : Développer, entraîner et déployer des modèles de Machine Learning avec l’outil Dataiku, et adapter les solutions de traitement de données à l’architecture Hadoop ; Concevoir et réaliser des dashboards interactifs sous Tableau (Desktop et Serveur) pour répondre aux besoins des métiers en matière de visualisation de données ; Concevoir des pipelines de données robustes en développant en Python, Scala ou SQL, et en intégrant les meilleures pratiques de gestion d’APIs et web services ; Garantir la qualité de code et la gestion des versions sous Git, et documenter les projets sous Confluence et JIRA pour une coordination efficace au sein de l’équipe ; Assurer le suivi de production des modèles et flux de données en collaboration avec les équipes d’exploitation, et participer aux cérémonies Agile (sprint planning, rétrospectives, etc.). Environnement technique : Hadoop (Hue, Zeppelin, Hive), Dataiku, Tableau, Python/Scala, JavaScript, SQL, web services/API, Shell, Git, JIRA, Confluence, Sciforma, Office 365, Teams.
Mission freelance
developpeur Full Stack
Dev (python, GO) - Confirmé - Impératif Devops (GCP, Kubernetes, Agile) - Confirmé - Important CI/CD (github/ github actions) - Confirmé - Important Monitoring (datadog, pagerduty, promotheus) - Confirmé - Souhaitable Connaissances linguistiques: Anglais Professionnel (Impératif) Description détaillée Au sein de notre équipe Cloud Databases, tu seras un renfort dans notre équipe en charge du Build de notre solution de déploiement et de management de base de données dans le Cloud. Tu es un développeur full stack confirmé, Curieux, force de proposition, tu souhaites t'investir au sein d 'une équipe de qualité. Alors rejoins-nous !
Offre d'emploi
BA Risque de crédit – réglementation baloise – IFRS
💼 Poste : BA Risque de crédit – réglementation baloise – IFRS Plus de de 12 ans 🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : La prestation consiste à : Etudes en phase d’opportunité ou de cadrage de projets pour élaboration des différents scénarios possibles avec le planning, les coûts et en explicitant les avantages/inconvénients associés. 2- Projets ou évolutions réglementaires priorisés dans le cadre du cycle des versions : Recueil des besoins et attentes des utilisateurs sur les sujets confiés (interviews, synthèse, gestion de réunions de travail…) et mise en place de l'ensemble des chiffrages induits par cette demande (Instruction, Spécification, Fabrication, Recette et Homologation). b. Gestion au regard de l’existant fonctionnel du périmètre l’opportunité et la faisabilité de nouveaux développements informatiques ou de nouvelles procédures. Etudes d'impact quantitatives sur la variation de RWA et ECL lorsque cela est nécessaire. D Conception et spécification des solutions à mettre en œuvre (instructions, spécifications fonctionnelles générales et détaillées pour évolutions, corrections d’anomalies, procédures). Contribution à la définition de la stratégie de tests, définition et réalisation des travaux de tests fonctionnels, Mise en place des jeux d’essai fonctionnels pour la validation en homologation bancaire. Mise en place des analyses transversales des évolutions de version sur les stocks complets. Homologation des nouvelles versions de logiciel et procédures dans le respect de la stratégie établie. Paramétrage interne des calculateurs.3) Assistance de second niveau vis à vis des utilisateurs et de l’exploitation (y compris sous forme de prestations complémentaires en production ou en homologation). Livrables : Notes de cadrage Gestion des compte-rendu des spécifications fonctionnelles générales et détaillées Documentations utilisateurs PV de Recette et d'homologation Mise en place des process et de la documentation associée pour l'homologation et la production. Ces livrables suivront le cycles des releases de la chaîne risques (releases mensuelles et/ou trimestrielles) 🤝 Expertises spécifiques : PostGreSQL
Mission freelance
Consultant Data Engineer
Nous recherchons un(e) Data Engineer qui construira, livrera et maintiendra des produits de données (pipelines de données, services, API...). Data engineer technologies obligatoires utilisées pour le développement : - Databricks pour le pipeline de données - Fonderie Palantir pour l'ontologie et les tableaux de bord Le Data Engineer travaillera en étroit collaboration avec les équipes produits pour développer de nouvelles fonctionnalités liées à ces produits, notamment des fonctionnalités liées à : -Pipeline de données au sein ou entre plusieurs produits -Capacités analytiques et d'entreposage pour l'exploration de données, la science des données, la BI -Calcul parallèle sur de gros volumes de données Le Data Engineer est responsable de la construction, de la livraison, de la maintenance, de la documentation des artefacts ou des fonctionnalités de données (pipelines de données, services de données, API...) selon des modèles de l'état de l'art (architecture médaillon, gitflow) Le Data Engineer doit : -Être orienté vers la résolution de problèmes avec une forte pensée analytique -Être autonome et rigoureux dans la façon dont il/elle aborde les défis techniques -Conseiller sur l'architecture des flux de données de bout en bout -Collaborer avec diverses parties prenante
Mission freelance
Dev Salesforce
Missions : Le développeur Salesforce en régie sera chargé de réaliser des développements sur la plateforme Salesforce, en répondant à des besoins spécifiques décrits dans des tickets Jira. Il contribuera activement à la création de cas d'usage pour les équipes de vente, de satisfaction client et d'administration des ventes, et participera à un projet majeur d'implémentation de la fonctionnalité de Billing. Principales activités : Développer des fonctionnalités Salesforce conformément aux exigences détaillées dans les tickets Jira. Concevoir et développer des cas d'usage pour les équipes de vente, de satisfaction client et d'administration des ventes. Participer à l'implémentation d'une fonctionnalité clé de Billing dans le cadre d'un projet stratégique. Collaborer étroitement avec les équipes métier afin de bien comprendre leurs besoins et y répondre de manière adaptée. Garantir la qualité des développements et veiller à leur conformité avec les bonnes pratiques Salesforce. Compétences techniques requises : Au moins 5 ans d’expérience prouvée dans le développement Salesforce. Maîtrise des outils CI/CD, tels que Copado (idéalement). Connaissance des modules Salesforce Sales, Service et CPQ. Capacité à traduire les besoins métier en solutions techniques optimisées sur Salesforce. Maîtrise des bonnes pratiques de développement Salesforce, y compris la configuration, le développement Apex, et la personnalisation.
Offre d'emploi
Data Architecte / MLOPS
Prestation d´accompagnement dans l´objectif d´assurance des services d´ingénierie technique pour le pôle en charge du cloud IBM, notamment dans ´architecture & design des couches techniques basses. L´objectif principal est assurance de l’ hybridation au cloud IBM ainsi qu' autres fournisseurs au futur, et assurance de la cohésion entre le backend (Datalab Platform) et les produits Les missions sont : - Définition, assurance et déploiement des architecture intimes des produits; - Définition, assurance et priorisation des produits; - Définition et assurance de la roadmap Produit; - Déploiement des solutions; - Participation au support des services construits, selon le principe "You Make it You Run it"; - Acceleration du développement de produits data dans le cloud. (calculs distribués, datascience, ETL, datahubs); - Création des services de terraformation des clouds internes/externes; - Création des pipelines de deploiements; - Sécurisation de tous les produits et services (MFA , encryption, etc). Connaissances techniques essentielles: - Bon background dans les infrastructures legacy serveurs/storage; - Haut niveau d'expertise en DEVOPS (Gitlab /ArgoCD/ Terraform / Ansible /Vault); - Expertise en cloud native infrastructures: Kubernetes/ Openshift dans des environnements "statefull"; - Experience significative dans un cloud provider publique - Construction des SAAS data clé en main vu des utilisateurs groupe à partir de comptes cloud "natif" - Haut niveau d´expertise dans beaucoup de technologies différentes.
Mission freelance
Consultant (H-F-Y) Senior Data Loss Prevention (DLP)
Nous recherchons un consultant expert en prévention des fuites de données (DLP) pour accompagner notre client dans le déploiement et la configuration d’une solution de DLP. Vous serez responsable de concevoir une feuille de route réaliste tout en mobilisant les parties prenantes internes pour assurer un déploiement efficace et adapté aux besoins spécifiques de l’entreprise. Vos missions : Déploiement et configuration d’une solution majeure de DLP (Symantec, McAfee, Forcepoint, Microsoft Purview, Digital Guardian, etc.). Identification et classification des données sensibles à protéger. Intégration de la solution DLP avec d'autres outils de sécurité (SIEM, IAM, CASB). Conseil sur les protocoles de sécurité réseau (HTTPS, TLS, VPN) et dans des environnements cloud (AWS, Azure, Google Cloud). Élaboration d’une roadmap pragmatique intégrant coûts, efforts techniques et ressources nécessaires. Formation et sensibilisation des parties prenantes à l’usage et au suivi de la solution.
Mission freelance
SAP FI CO project Director
Pour le compte de l’un de nos principaux clients, , nous recherchons un expert SAP FI-CO pour prendre en charge la direction de la partie Finance d’un projet stratégique de grande envergure. Ce projet clé consiste à migrer le modèle SAP actuel sous ECC6 vers une version harmonisée adoptée au sein du groupe, répondant ainsi aux standards globaux de l’organisation. Cette transition sera ensuite suivie d’une mise à niveau vers SAP S/4HANA dans un contexte Bluefield , offrant une opportunité unique d’aligner les systèmes sur les dernières avancées technologiques et de rationaliser les opérations. L’objectif principal est de moderniser et d’optimiser les processus financiers, en apportant des solutions innovantes pour répondre aux enjeux actuels et futurs de l’entreprise, tout en assurant une intégration fluide entre les différentes entités.
Mission freelance
Data Quality Cross-Asset - Chef de Projet
Notre client, Banque de Finance et d'investissement, recherche un Chef de Projet (H/F) dans le cadre d'une longue mission. Cadrage et mise en œuvre d’un outil de gestion de la qualité des données (Data Quality) cross-asset, pour garantir le respect des normes définies et l'exhaustivité des données dans le processus Front-to-Back (F2B). - Participer au cadrage du besoin et à la définition des objectifs fonctionnels. - Mettre en œuvre un outil de Data Quality pour l’analyse et la validation des données. - Garantir l’exhaustivité des données et détecter les pertes éventuelles dans les flux Front-to-Back (F2B). - Vérifier la conformité des données aux normes en vigueur (ex. validation des nominals, statuts de paiements et de confirmations). - Superviser la qualité des données opérationnelles liées aux flux, positions, trades, paiements, et messages. - Collaborer avec les équipes opérationnelles pour identifier et résoudre les anomalies. - Assurer un reporting régulier sur l'avancement et les résultats du projet. Livrables : - Outil de Data Quality opérationnel et conforme aux besoins définis. - Documentation fonctionnelle et technique associée. - Rapports sur la conformité et l’exhaustivité des données.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.