Trouvez votre prochaine offre d’emploi ou de mission freelance Jupyter Notebook
data engineer GCP

Les principales missions consistent à : - produire des analyses permettant de construire des visions enrichies du marché, des tendances/benchmark pour aider la prise de décisions et favoriser les initiatives sur les axes stratégiques majeurs. - construire des algorithmes, élaborer des modèles prédictifs permettant d’anticiper des tendances relatives à l’activité des paiements ou d’améliorer significativement certains processus de production et commerciaux. - d’alimenter et d'assister les équipes métiers en données de paiement et clients permettant de mener les analyses, - être force de proposition sur les méthodes / techniques à mettre en place pour répondre aux demandes d’études. Le consultant sera également en charge de modéliser ses résultats d’analyse pour les rendre lisibles et exploitables par les managers. Il participe à la collecte, à la transformation et à la gestion des données pour en assurer l'intégrité, la sécurité et la qualité dans le cadre de la gouvernance Data du Groupe. Le consultant participe activement aux différentes communautés Data Analyse Profil : • Compétences métiers en moyens de paiements appréciées • Etudes statistiques • Rigueur dans le développement, les stratégies de recette et de qualification de ses travaux • Très bon sens relationnel • Bon communicant à l’écrit et à l’oral • Capacité d’initiative • Capacité à travailler en équipe et co-création • Support utilisateur • Méthodologies : Scrum, Kanban, SAFe Maitrise des méthodes agiles et des rituels associés. Capacité à gérer plusieurs sujets en même temps et de travailler en équipe. Proactivité et adaptabilité.
Big Data (Spark, Trino ou MinIO) Expérimenté

Contexte : Recherche un Ingénieur Big Data expérimenté pour administrer et optimiser des solutions Big Data (Spark, Trino, MinIO) sur un cluster Kubernetes au sein d’un grand groupe bancaire. Ce rôle requiert une forte expertise en tuning applicatif, support et approche DevOps/GitOps . Missions : Déploiement et administration avancée des applications Spark, Trino ou Jupyter sur Kubernetes. Tuning et optimisation des performances : ajustement des configurations, analyse des logs, debugging avancé, optimisation des requêtes SQL (Trino), tuning des jobs Spark. Gestion du RUN et support applicatif : diagnostic et résolution des incidents, amélioration continue des performances, accompagnement des utilisateurs sur l’optimisation des requêtes. Mise en place de l’approche GitOps : automatisation complète du déploiement et de la gestion des applications avec Terraform, Ansible, Git, ArgoCD/FluxCD. Sécurisation et monitoring avancé : implémentation de métriques et alertes sur Prometheus, Grafana, Loki, gestion des accès et des logs applicatifs.
Développeur React

Cherry Pick recherche un Développeur React pour un client dans le secteur militaire. 🎯 Mission principale : Dans un environnement Agile à l’échelle, vous intégrerez une équipe de développement et serez responsable de la conception et de l’implémentation de nouvelles fonctionnalités. 🛠 Compétences techniques requises : ✅ Maîtrise de : React Java Flink Spark Jupyter Trino Terraform Ansible Superset 🔍 Connaissances appréciées : GitLab Runner Si vous êtes passionné par les technologies modernes et souhaitez évoluer dans un secteur exigeant et stratégique, envoyez-nous votre candidature dès maintenant ! 🚀
POT8344-Un Ingénierie DevOps/MLOps AWS sur Paris 15e/ Télétravail

Almatek recherche pour l'un de ses clients, Un Ingénieur Devops/MLops AWS orienté IA et Cloud public sur Paris 15 Projet : Nous recherchons un Ingénieur Devops orienté IA et Cloud public. Il interviendra sur l’ensemble du cycle de vie (design, build, run) des projets orientés IA. Principaux livrables : Identifier les évolutions fonctionnelles et techniques des produits nécessitant des activités ops et les traduire dans le backlog en tant que « récits techniques ops » Provisionner les moyens techniques d’infrastructure dans tous les environnements Intégrer les produits dans les plateformes AWS et GCP (IaC, supervision/monitoring, backups, archives, log management) Fabriquer des composants techniques (scripts d'industrialisation, de déploiements, templates d’infra as code…) et automatiser les opérations en exploitant les services MLOPS Mettre en place les indicateurs d’observabilité infrastructure et applicative, du monitoring des modèles et s’assurer de l’intégration des exigences de production dans les applications livrées Mettre à disposition une chaine d'entrainement et d’exécution des modèles Prendre en main des outils de DataOps et MLOps pour industrialiser des modèles de ML et d’IA. Contribuer et maintenir les référentiels et consignes d’exploitabilité Réaliser les actes de MEP Suivre les SLAs des produits, contrôler le bon fonctionnement de la production et assurer le reporting Anticiper, traiter et suivre les incidents d’exploitation en analysant les causes racines et en prenant les mesures correctives nécessaires Suivre les consommations et allocations des ressources Normalisation des éléments produits Sécurisation by design et revue périodiques Maintien des capacités dans le temps Capacité à identifier les opportunités et limites de l’open source vs des services managés Capacité à fédérer autour des choix préconisés Compétences requises : Compétences métier : Expérience pratique en tant qu'ingénieur DevOps, responsable de l'automatisation des déploiements et de la gestion des infrastructures cloud, notamment AWS. Expertise sur la chaîne MLOPS : capture et préparation de la donnée, feature engineering, entraînement, monitoring, déploiements et évaluation des modèles Solides compétences en scripting, normalisation et en automatisation Gestion du cycle de vie des applications MCO Infrastructure et Applicatif MEP Infrastructure et Applicatif - Rédaction des procédures d'exploitation, documentation Analyse\Solution d'incidents d’infrastructure Environnements techniques : AWS, (GCP) - Sagemaker (studio, notebook instance), KubeFlow, TensorFlow, Pytorch Notebook, Python Terraform (environnement Air Gap notamment), rebase Artifactory, ECR, Helm EKS, Kubernetes, Docker, ArgoCD Jenkins Grafana, CloudWatch, ELK, OpenSearch
Data Analyst GCP / Power BI

Nous recherchons pour l’un de nos clients grand compte un Data Analyst GCP / Power BI , afin d’intervenir au sein des équipes BPCE Payment Services. En tant que Data Analyst , vous aurez pour mission de : Comprendre l’environnement métier et les enjeux des services BPCE Payment. Définir et certifier les KPI des Observatoires (y compris compliance). Collecter, transformer et gérer les données pour garantir leur intégrité, sécurité et qualité . Accompagner les équipes commerciales en produisant des livrables facilitant l’avant-vente. Participer à l’implémentation des livrables d’analyse après contractualisation avec un client. Soft Skills Sens de l’initiative et de l’atteinte des résultats. Capacité à travailler en équipe Excellentes compétences en communication Idéalement, une expérience en gestion de projet digital avec une sensibilité au design et à l’UX . Maîtrise des méthodologies Scrum, Kanban . Bonne maîtrise des logiques décisionnelles et des architectures data. Expérience avec Azure (Synapse, SSAS) et Google Cloud Platform (BigQuery) . Compétences en SQL, Python, Jupyter Notebook . Utilisation des outils de versioning et delivery (Git) . Excellente maîtrise de Power BI pour la visualisation des données.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- ACRE : Questions multiples début d'activité/proratail y a 6 heures
- ARCE ou ARE : Nouvelles règles 2025il y a 6 heures
- Avoir des tickets restaurant ça vaut le coup ou pas ?il y a 6 heures
- 4 ans de BI, des projets complexes, de la mobilité… mais aucune missionil y a 19 heures
- Etat du marché - Avril 2025il y a 21 heures
- Question sur Contrat d'apporteur d'affaire signéil y a un jour
Les métiers et les missions en freelance pour Jupyter Notebook
Data scientist
Le/La Data Scientist utilise Jupyter Notebook pour développer, documenter et tester des modèles de machine learning.
Explorez les offres d'emploi ou de mission freelance pour Data scientist .
Découvrir les offresData analyst
Le/La Data Analyst utilise Jupyter Notebook pour analyser et visualiser des données de manière interactive.
Explorez les offres d'emploi ou de mission freelance pour Data analyst .
Découvrir les offres