Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Developer Trading
JCW est à la recherche d'un Developer Trading qui pourrait commencer une nouvelle mission pour 2025, pour l’un de ces clients. LE CONSULTANT: Connaissance des cinématiques de prise et transmission d’ordres Equities en intermédiation Connaissance des produits dérivés sera un avantage Connaissance de l'environnement de trading en temps-réel Connaissance du trading algorithmique Equities Connaissance des process DevOps Maitrise de SQL, Python, Scala Connaissance Openshift et/ou Kubernetes Développement Cloud-based LA MISSION: Démarrage: Janvier/ Février Durée: 6 mois renouvelables Localisation: Ile-de-France Fréquence : 3 jours sur site - 2 jours de télétravail Si vous êtes intéressés ou connaissez des personnes qui pourraient l'être, merci de m'envoyer vos CVs à pour une considération immédiate.
Mission freelance
Administrateur Supervision Zabbix – Freelance - (H/F)
CONTEXTE DE LA MISSION : Nous recherchons pour notre client Grand-Compte de la Banque un/une Administrateur(trice) spécialisé(e) en supervision Zabbix. Vous participerez activement à des projets innovants de transformation et de convergence des outils de supervision et métrologie, tout en contribuant à l’amélioration continue des plateformes existantes. MISSIONS PRINCIPALES : Accompagner les projets de transformation liés à la supervision et à la métrologie, en proposant des solutions techniques sécurisées et industrialisées. Optimiser l’administration des plateformes par l’automatisation et contribuer à l’implémentation de nouveaux composants. Fournir un support expert auprès des équipes locales et offshore, tout en collaborant avec les éditeurs. Participer au contrôle qualité et à l’évolution des infrastructures techniques.
Mission freelance
Expert sécurité des conteneurs Openshift / Kubernetes / Anglais opérationnel (H/F)
Nous recherchons pour le compte de notre client dans le domaine bancaire, un expert sécurité des conteneurs Vous serez amené à : - Cadrer le projet sur les aspects sécurité opérationnelle dans un environnement cloud (privé, public et hybride). - S'assurer du respect des règles de sécurité dès le design de l'architecture et des offres de services. - Proposer, tester et intégrer des solutions de sécurité adaptées au contexte du projet et de l'entreprise (sécurité réseaux, protections des données, traçabilité, etc.). - Proposer et valider des patterns d’architecture de sécurité applicative et infrastructurelle. - Mettre en place et automatiser des processus de sécurité dans les chaines CI/CD (gestion des vulnérabilités, gestions des certificats, protections des secrets, etc.). - Mettre en place et automatiser des contrôles de sécurité, le monitoring et la remontée des Indicateurs sécurité. - Accompagner les utilisateurs à l’usage des outils de sécurité mis à disposition par le projet.
Offre d'emploi
Développeur GO Confirmé H/F
Intégré(e) à une équipe, vos principales missions sont notamment : - Lire les spécifications systèmes et logicielles - Coder les composants physiques Modules de la solution : briques de monitoring (orchestration, container, réseau) et Data Integration Layer. Développement de la « Glue » logicielle entre les COTS/OSS de la plateforme. Création d'adaptateurs et de contrats d’insertion avec les logiciels applicatifs des produits. Mettre en place et gérer les pipelines CI/CD en conformité avec les règles de développement - Rédiger et exécuter les cas de tests, ainsi que les procédures de tests automatiques au cours du développement logiciel. - Définir et réaliser les cas de tests et procédures de tests manuelles complémentaires. - Collecter et tracer les résultats des tests par rapport aux exigences. - Configurer les COTS intégrés aux composants physiques de la solution conformément à la définition du Tech Lead. - Participer à l’écriture du manuel utilisateur.
Mission freelance
Data Engineer
• Concevoir, créer et maintenir des pipelines de données évolutifs pour prendre en charge les processus d'intégration, de transformation et de chargement des données (ETL) à l'aide d'outils tels qu'Apache Airflow, Apache NiFi et Talend. • Développer et optimiser des modèles de données, des schémas et des bases de données pour garantir un stockage et une récupération efficaces des données à l'aide de technologies telles que Snowflake, Cassandra et MongoDB. • Collaborer avec des data scientists, des analystes et d'autres parties prenantes pour comprendre les exigences en matière de données et fournir des solutions de données de haute qualité. • Mettre en œuvre des processus de qualité et de validation des données à l'aide d'outils tels que Great Expectations et dbt pour garantir l'exactitude et la cohérence des données. • Surveiller et dépanner les pipelines et les systèmes de données à l'aide d'outils de surveillance tels que Prometheus et Grafana pour identifier et résoudre rapidement les problèmes. • Rester au courant des dernières tendances et technologies du secteur pour améliorer en permanence notre infrastructure de données.
Offre d'emploi
Machine Learning Engineer senior
TJM A RESPECTER PROFIL 5-10 ans : 450€ +10 ANS : 500€ Contrainte forte du projet Data Driven , powwerBI/Loocker, contexte projet Compétences techniques Python,Shell, CI/CD, Airflow, Dataflow - Expert - Expert - Impératif AppEngine, FastAPI - Expert - Expert - Impératif Connaissances linguistiques Anglais Professionnel (Impératif) Description détaillée Nous recherchons un Data Engineer /Scientiste avec la capacité de mettre en place du dataViz (PowerBI/ loocker) Pour mettre en place des produits/Alghoritmes Data avec de l'IA /machine learning au sein du périmètre marketing client Automatiser des process et aider le business à prendre des décisions stratégiques en se basant sur la Data Cartographie des données Datamesh approprié et partagé et son dimensionnement Datamesh avec les sondes qui garantit la qualité de la donnée Qualification et Gestion des données: - Capte les données (structurées et non structurées) produites dans les différentes applications ou à l'extérieur de l'entité - Intègre les éléments - Structure la donnée (sémantique, etc.) - Cartographie les éléments à disposition - Nettoie la donnée (élimination des doublons, ) Stack technique: Python,Shell, CI/CD, Airflow, Dataflow - Expert AppEngine, FastAPI - Expert GIT, GitHub, bigQuery, Finder, PowerBI/loocker Méthode Scrum, Kanban
Mission freelance
Développeur Python
Attention: nous recherchons un développeur et non pas un data scientist Notre futur.e Software Engineer interviendra au sein de l’équipe Network, composée de Tech Lead, Engineering Manager, et Software Engineers. Cette équipe a pour objectif de garantir le fonctionnement des produits Load Balancing, Content Delivery Network et Anti-Bot, en gérant l’installation, la configuration, la mise à jour, la sauvegarde et le support. Le but de ces produits est d’exposer des ressources sur Internet (web sites, applications, API) en optimisant la sécurité et augmentant le delivery. Tu devras : Contribuer à l'automatisation des tâches manuelles de support et d'administration des solutions. Construire et exploiter des infrastructures sécurisées et résilientes multi-CDN. Elaborer des mesures correctives pour résoudre les root causes des incidents. Analyser, paramétrer et coder les composants logiciels applicatifs dans le respect des évolutions souhaitées, des normes et des procédures Être en charge de la maintenance corrective et évolutive des développements existants. TES COMPÉTENCES: Python confirmé Datadog souhaité Anglais confirmé Bonnes compétences en communication pour collaborer efficacement avec les personnes de run pour comprendre leurs besoins TES EXPÉRIENCES: Avoir conçu plusieurs développements d'API en Python Au moins deux expériences significatives
Offre d'emploi
Data Engineer GCP
Le data Engineer, rattaché(e) à l'équipe Lead Ingénieur Analytic sera chargé de concevoir, Développer, et optimiser données de données et des solutions analytiques. Il(elle) travaillera en collaboration avec les parties prenantes, implémentera les bonnes pratiques, tirera parti des technologies afin de produire des données de hautes qualités, et piloter les domaines de productions data. Son expertise en data engineering, analyse, et problem solving supportera le pilotage data et les prises de décisions. Taches & missions : Concevoir et mettre en œuvre des pipelines de données évolutifs et des architectures de données Mettre en œuvre des processus d'intégration et de transformation des données Collaborer avec les parties prenantes pour comprendre les exigences et les priorités de l'entreprise Garantir les meilleures pratiques en matière d'ingénierie des données et d'analyse Construire et maintenir des entrepôts de données et des marts de données Développer et optimiser des modèles analytiques à l'aide de la modélisation des entrepôts de données (data marts) Assurer la qualité, l'intégrité et la gouvernance des données dans l'ensemble des systèmes par le biais de domaines de données. Automatiser les processus de données et les flux de travail pour gagner en efficacité Contrôler et optimiser les performances des systèmes et l'utilisation des ressources Évaluer et intégrer de nouvelles technologies et de nouveaux outils Dépanner et résoudre les problèmes et incidents liés aux données Contribuer à la documentation et aux initiatives de partage des connaissances Participer aux revues de code et aux sessions de programmation par les pairs Les compétences nécessaires : ETL /ELT Data Modeling Modélisation sémantique SQL (BigQuery, Postgres…) Data Transformation API Cloud platforms (ex: AWS, GCP) Sens des affaires Data Analyse Python Statistiques Big Data Contrôle des versions CI/CD DevOps BI
Mission freelance
Architecte Data (H/F)
Dans le cadre de sa stratégie data, nous recherchons pour l'un de nos clients Architecte Data pour renforcer son équipe. Vous serez rattaché(e) au Responsable du Pôle Architecture Entreprise et jouerez un rôle clé dans la conception et la gestion de l’architecture des données. Conception d’architecture : Définir les flux de données, choisir les solutions de stockage (bases relationnelles, NoSQL, data lakes, entrepôts de données). Modélisation des données : Élaborer des modèles relationnels et dimensionnels pour une exploitation optimale. Qualité et gouvernance des données : Assurer l’intégrité, la cohérence, et la disponibilité des données. Sécurité et conformité : Mettre en place des mécanismes répondant aux normes RGPD et autres régulations. Optimisation des performances : Collaborer avec les équipes techniques pour garantir la scalabilité et l'efficacité des systèmes. Veille technologique : Intégrer les innovations pertinentes dans les solutions déployées.
Mission freelance
Ingénieur Réseau LAN Datacenter
Nous recherchons pour le compte de notre client dans le secteur bancaire, un ingénieur réseau Lan et Datacenter pour renforcer l'équipe Network. Vous serez en charge du RUN (L1/L2/L3) et des projets de design et de mise en œuvre sur un périmètre EMEA, en collaboration avec les équipes Network de UK et Madrid. Vous contribuerez également à la définition des standards pour toutes les régions (EMEA/AMER/APAC), en collaboration avec les équipes groupe. Responsabilités : RUN (L1/L2/L3) : Assurer le bon fonctionnement des systèmes réseau sur le périmètre EMEA. Projets de Design et Mise en Œuvre : Participer à la conception et à la mise en œuvre de projets réseau. Définition des Standards : Collaborer avec les équipes groupe pour définir les standards réseau pour toutes les régions.
Mission freelance
Développeur Python - Typescript
RESULTATS ATTENDUS/LIVRABLES Création d’applications cloud native sur des systèmes distribué pour les outils dédié à l’IA générative, Construction d’outils pour aider à automatiser plusieurs processus métier, Participation au support et à l’onboarding des business case sur la plateforme, Création de services d’intégration de données, Prise en charge des outils internes basés sur des systèmes distribués cloud natifs et proposition d’évolution, Intégrations de solutions IA aux outils existants, Participation à l’analyse des données et à la rédaction des spécifications fonctionnelles et techniques, Intervention dans le projet (méthodologie AGILE), Gestion des incidents post-production et correction du code, Enrichissement de l’automatisation des tests, Respect des délais impartis. En tant que membre du lab, la prestation aura pour responsabilité de répondre à diverses demandes de POC (Proof of Concept) et de MVP (Minimum Viable Product) sur des sujets variés, toujours en lien avec la chaîne de valeur. La prestation sera également amenée à participer à des missions annexes, courtes, pour réaliser des prototypes ou fournir un accompagnement technique à la cellule produit et aux Data Scientists. Elle contribuera à l'amélioration continue des produits et services proposés par l'entreprise. La prestation nécessitera du développement de prototypes et de l’accompagnement technique. La prestation réalisera les missions en équipe et nécessitera une communication efficace et adaptée aux différents acteurs du projet. PRE-REQUIS Développement : Python, Typescript, Django, Angular, Postgreql Développement d’applications évolutives et résilientes, Technologies cloud (AWS, Azure, GCP, Kubernetes), SQL avec des bases de données relationnelles, Principes fondamentaux des systèmes distribués, Extraction de données basés sur API est indispensable. Contexte international : francophone et anglophone.
Offre d'emploi
MLOps engineer (H/F) Domaine spatial - Toulouse
📑 CDI (45-48K€) / Freelance / Portage Salarial – 🏠 2 jours de télétravail / semaine – 📍 Toulouse– 🛠 Expérience de 5 ans minimum📍 🌟 Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous recherchons un(e) ingénieur MLOps (H/F) pour intervenir sur un projet innovant chez un de nos clients dans le domaine du spatial à Toulouse. Voici un aperçu de vos missions 🎯 : Au cœur de l’équipe Data (6 data scientists), vous contribuerez à : Mettre en place les outils, processus et bonnes pratiques pour structurer la phase amont du cycle MLOps jusqu’au model registry. Participer aux activités de Data Science en soutien aux data scientists. Comprendre et analyser les besoins spécifiques posés par les équipes data. Définir les fonctionnalités nécessaires, frameworks et outils adaptés. Élaborer une roadmap d’implémentation des solutions. Développer des solutions en collaboration avec les équipes IT (plateforme, réseau, infrastructure). Valider les implémentations avec les data scientists pour garantir leur impact. Compétences nécessaires : MLOps, Git/docker , Python (pandas, scikit learn, numpy, pytorch…, Data analysis, Kubeflow, Sagemaker Machine Learning, Deep Learning, 📍 Situation géographique : Toulouse 💰 Salaire : 44-48 K€ brut + package attractif ➕ Avantages à la clé : - 15 jours de RTT (100% "salarié" & Rachat à 125%) - Participation aux bénéfices - Indemnité de déplacement (6€ net / jour OU 50% du titre de transport) - Plan Epargne Entreprise - Prime de vacances - Avance sur salaire - Comité Social et Economique - Tickets restaurants Si vous êtes prêt(e) à relever ce défi et à contribuer à des projets stimulants, n'hésitez pas à postuler dès maintenant ! 🚀
Offre d'emploi
DATA ENGINEER GCP DBT
Je recherche pour un de mes clients dans le domaine de la Banque/Assurance un Data Engineer GCP&DBT confirmé : Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement • Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants • Rédiger la documentation technique des data products • Assurer un support aux testeurs • Reporter de ton activité à ta Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Faire des propositions techniques Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, GCP Dataflow, Data Build Tool (DBT) • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab, Flamingo • Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Autonomie, rigueur, proactivité et prise d’initiative • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Capacité à communiquer, à travailler en équipe et excellent relationnel Une pratique opérationnelle de l’anglais est également nécessaire pour la rédaction de la documentation et la participation à certaines cérémonies. Une expérience professionnelle significative dans le domaine de la banque de détail est un plus.
Offre d'emploi
Ingénieur Développement Python Scientifique (H/F)
🌟 Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un(e) Ingénieur Développement Python Scientifique pour intervenir chez un de nos clients dans le domaine de l’environnement 💻💼 🌍 Envie de mettre vos compétences en Python au service de projets d'envergure dans le domaine spatial ? Rejoignez une équipe à taille humaine au cœur de Toulouse, et participez à l’analyse de données scientifiques liées à l'observation de la Terre. __________ 🎯 Ce que vous ferez au quotidien : En tant qu’Ingénieur.e Développement Python Scientifique, et sous la responsabilité d’un Chef de projet, vous serez au cœur du développement de solutions logicielles innovantes. Votre mission ? 💻 Concevoir et développer des applications logicielles en Python. 📚 Rédiger des documentations techniques pour assurer la clarté et la traçabilité de vos travaux. ✅ Valider les logiciels à travers des tests rigoureux. 🤝 Collaborer au sein d’une équipe d’experts passionnés par les enjeux scientifiques et environnementaux. Vous interviendrez sur un projet critique dans le domaine spatial, où rigueur et innovation sont au rendez-vous. __________
Offre d'emploi
EXPERTISE DEVOPS
L’entité du client est aussi en charge de l’infrastructure, et de la mise en place (étude, développement, implémentation et maintenance) de tout l'outillage relatif aux sujets Continuous Integration (CI), Continuous Deployment (CD), l'Infrastructure As Code (IAS), et Monitoring. Cet outillage se doit de suivre des conventions et pratiques récentes définis avec les entités de développement applicatif métier d'architecture central, et doit être complétement automatisé. Le bénéficiaire souhaite mettre en œuvre plusieurs évolutions de son socle technique. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes d'Assistance en systèmes d'information.
Mission freelance
Architecte Technique Expert
Dans le cadre du déploiement de Looker comme solution de Data Visualization au sein du groupe, l’équipe DataViz recherche un Lead Technique / Architecte Looker pour participer à l’intégration et l’optimisation de cette solution au sein de l’organisation. Le Lead Looker joue un rôle clé dans la définition et la mise en œuvre de la stratégie de visualisation des données au sein. Il sera un acteur central dans l’accompagnement de la transition vers Looker et dans l’innovation des pratiques de DataViz au sein du groupe. La mission s’articule autour de deux axes principaux : Accompagnement des projets Looker: Le consultant expert Looker sera chargé d’explorer et d’intégrer de nouveaux usages ainsi que des fonctionnalités innovantes pour optimiser et renouveler les approches de la visualisation des données. L’objectif est d’identifier et de mettre en place les meilleures pratiques et solutions pour répondre aux besoins des différentes entités du groupe. Migration des systèmes existants : Une part importante de la mission consiste à superviser la migration des outils de Business Intelligence existants, notamment le passage de SAP Business Object vers Looker. Ce projet vise à moderniser les outils BI du groupe, avec pour ambition de proposer des solutions plus agiles et performantes, adaptées aux exigences spécifiques de chaque marque sous l’égide. Compétences requises : Maîtrise technique de LookML, Google Cloud Platform (GCP), et GitHub indispensable Une expérience solide sur des solutions de DataViz, notamment PowerBI, Looker Studio, et SAP Business Object, serait un atout. Experience dans l’administration de plateforme Looker souhaitée Bonne compréhension des concepts globaux liés à la modélisation des données, aux couches sémantiques, et aux bonnes pratiques en matière de data governance Soft skills : proactivité, autonomie NB : Nous attendons de ce profil une expertise forte sur Looker et non sur Looker Studio. Les candidatures de personnes n’ayant pas d'expérience sur Looker seront automatiquement rejetées. Responsabilités : Accompagner les équipes dans la migration et l’intégration de Looker, en garantissant la cohérence et la performance des solutions mises en place. Collaborer avec les différentes parties prenantes pour définir les besoins en matière de BI et proposer des solutions adaptées. Assurer la veille technologique et proposer des innovations pour améliorer les pratiques de DataViz au sein du groupe. Ce rôle stratégique vous permettra de contribuer à la transformation digitale du groupe et à l’optimisation de la prise de décision grâce à des solutions de DataViz de pointe.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.