Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Ingénieur développeur logiciel - Banc Optronique (F/H)
📑 CDI (42-45K€) / Freelance / Portage Salarial - 🏠 1 jour de télétravail / semaine – 📍 Elancourt - 🛠 Expérience de 4 ans minimum Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous recherchons un.e logiciel embarqué pour rejoindre notre équipe chez notre client. 💻💼 Votre mission : Vous participerez au développement d’un logiciel pour un produit optronique en environnement Agile. Vous serez impliqué dans toutes les phases, de l’analyse de code à la rédaction de documentation. Voici un aperçu détaillé de vos missions 🎯 : - Développer des logiciels optroniques : Vous interviendrez sur le développement de logiciels pour des produits optroniques en suivant des sprints agiles, organisés avec JIRA. Chaque sprint vous permettra de bien maîtriser votre charge de travail. - Rédiger la documentation : La rédaction et le suivi de la documentation logicielle feront également partie de vos responsabilités, toujours sous l’outil JIRA. - Analyse COTS & OSS : Vous serez amené(e) à réaliser des analyses approfondies sur les composants COTS (Commercial Off-The-Shelf) et OSS (Open Source Software), en prenant en compte les licences et le contrôle des exportations. - Analyse de code : Vous réaliserez également des analyses techniques poussées du code.
Mission freelance
Data Engineer Lille (profil local et expérimenté)
L'équipe DCF (Data Component and Framework) est une équipe transverse dont l'objectif est de construire un socle technique et des outils permettant à chaque Business Unit local ou international de mettre en place en autonomie ses Uses cases Data. Environnement technique : • Stockage : Google Cloud Storage • Base de données : BigQuery, Datastore, Firestore, MongoDB • Monitoring : Stackdriver • Ordonnanceur : Airflow puis Google Cloud Composer • Compute: Cloud Function, Compute engine • API: App Engine, Cloud run, FastAPI • Déploiement : Terraform, Pulumi • Versioning : Git • Langage: Python, Shell • CICD : Cloud build, Github Action
Offre d'emploi
Développeur Python h/f
Vous rejoignez l'équipe ERP composée de trois développeurs chez notre client, dans le secteur de la construction. L'ERP modulaire que vous utiliserez a un contexte métier très large car il couvre tous les aspects opérationnels de l'entreprise. Cet outil a été développé en interne. Actuellement, 80% de la base de code est écrite en Perl, mais tous les nouveaux développements sont réalisés en Python. Notre objectif à long terme est de migrer entièrement vers Python. Cependant, nous ne prévoyons pas de refonte complète immédiate. Au lieu de cela, nous adoptons une approche progressive : chaque fois qu'un module est modifié pour répondre aux besoins d'une équipe, nous en profitons pour migrer le code Perl vers Python.
Offre d'emploi
Développeur Python Craft CI/CD
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : La prestation consiste à contribuer à/au(x) : Développements d'API REST en Python 3 (Flask) Backend L'Approche "fail fast and iterative" Delivery Scrum Testing automatique Software Craftsmanship L'intégration et le déploiement continu de types CI/CD L’utilisation d’outils de gestion de code source et de gestion de la configuration Gestion de la dette technique L'intégration et le développement d'une stratégie de tests (unitaire, intégration, performance ...)
Mission freelance
SRE DevOps
Bonjour, je suis à la recherche d'un SRE devOps, dont vous trouverez la fiche de poste ci-dessous: En tant qu’Ingénieur DevOps, vous serez responsable de la gestion et de l’automatisation des déploiements d’infrastructure et de configuration. Vous travaillerez en étroite collaboration avec les équipes de développement pour assurer une intégration continue et une livraison continue (CI/CD) efficace, tout en maintenant une infrastructure stable et sécurisée. Automatisation et Déploiement : Maîtriser les outils d’automatisation de déploiement d’infrastructure et de configuration (IaC, CaC) tels que Kubernetes, Terraform, Ansible, Jenkins, et Git. Utiliser les outils de CI/CD en mode GitOps (FluxCD ou ArgoCD) pour gérer les pipelines de déploiement. Observabilité et Sécurité : Mettre en place et gérer des outils d’observabilité comme Prometheus et Grafana. Gérer les identités et les accès (IAM) avec des outils comme Keycloak. Cloud et Infrastructure : Avoir des connaissances sur les principaux fournisseurs de cloud (Openstack, GCP, AWS). Gérer et maintenir l’infrastructure en production.
Offre d'emploi
Ingénieur sécurité Réseau (Loadbalancer F5/ Fortinet )
Spécialisé dans le secteur bancaire, l'entreprise recherche activement un ingénieur sécurité réseau pour renforcer ses effectifs . Les missions se présentent comme suit: 1. l’étude, la mise en œuvre et l’exploitation niveau 3 de l’infrastructure de sécurité : Load-balancers, Firewalls, Proxies, IPAM, Remote Access, sondes et les outils de monitoring de ces plateformes ainsi que la documentation des procédures d’exploitation et de support 2. La contribution aux projets d’infrastructure Techonologies : Fortinet, Check Point, F5 Networks, AVI Networks, Infoblox, plateformes d'administation et d'automatisation
Offre d'emploi
Consultant Datavisualisation (PBI)
Descriptif de la prestation - Rédaction des livrables - Participation aux réunions - Expertise du fournisseur sur la famille ou sous-famille Contexte & Objectifs de la prestation Le groupeest depuis plusieurs années engagé dans un plan de transformation data. MH Tech et notamment le pôle Data joue un rôle central dans cette transformation. Elle est composée de 5 directions : Produits Data et Data science, Pilotage Opérationnel et Dataviz, Data Gouvernance, Solution Data (Connaissance Client) et Solution Data (Finance, Epargne et Marché). Dans un cadre, interne et réglementaire, toujours plus exigent en matière de qualité des données, la direction Data souhaite renforcer ses équipes par un expert Datavisualisation qui interviendra sur différents projets et notamment sur des analytics autour du parcours client pour lequel il s'agit de faire évoluer un rapport existants. Le consultant interviendra ponctuellement sur d'autres projets ainsi que sur la migration vers Snowflake. Nature et étendue de la prestation Le consultant aura notamment les missions suivantes : - comprendre et analyser les données - affiner les demandes avec le métiers et les experts data - s'approprier les usages métiers et les challenger en appui du Data Product Manager - proposer des restitutions pertinentes (fond et forme) et accessibles pour les utilisateurs - documenter les travaux - se coordonner avec l'ensemble des acteurs des projets
Offre d'emploi
Développeur python H/F
Le département assure : • la production des architectures techniques, • l’intégration et l’exploitation des systèmes d’information métiers • la supervision, le pilotage et la sécurité des infrastructures • la mise en oeuvre, l’évolution et le maintien en condition opérationnelle des infrastructures (serveurs, systèmes d’exploitation, logiciels médians, bases de données, …) • le contrôle et l'expertise de ses coûts et leur refacturation. Le département met en place le développement de l' ensemble des services paas (OCP, PCP, RabbitMQ...), garantit l’exploitabilité des présentations mises en oeuvre, expertise des ensembles applicatifs et le planning global de production et assure le support au pilotage. Dans ce cadre la prestation consiste à contribuer à/au(x) : • codage / paramétrage et documentation • l’impulsion dans l’innovation (mise en place de Proof Of Concept), veille technologique, recherche nouvelles techniques • l'optimisation des moyens techniques (monitoring et amélioration de la performance : latence, mémoire, etc.) • la mise en place des tests automatiques • développement des scripts de Release et gestion des outils utilisés lors des releases • Assistance aux bénéficiaires / utilisations / bénéficiaires du projet permettant sa bonne mise en œuvre Livrables attendus Les livrables attendus sont : • Dossiers de spécifications • Dossiers de mise en place • Démonstration : avec critères d’acceptation
Offre d'emploi
Developpeur backend
Au sein d'une société à taille humaine dans le secteur des médias, vous interviendrez sur l'ensemble de leurs médias (3). Vos missions seront les suivantes: Développeur du code propre, efficace et réutilisable sur des projets web Faire des tests unitaires et d'intégration pour garantir la qualité du code, les améliorer et en ajouter si besoin Contribuer à la mutualisation du code entre les médias sur la partie front et back Assurer la maintenance et la mise à jours des 3 médias Migrer le front end de Nuxjs à HTMX ( partie frontend actuellement externalisée), cela représentera moins de 30% du poste. Etre en lien direct avec les équipes produit pour concevoir et implémenter de nouvelles fonctionnalités. Avoir une vue d'ensemble sur toute la chaîne, rédiger les specs...
Offre d'emploi
Data Engineer (H/F)
En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Conception des solutions nécessitant l’utilisation de technologies cloud & data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données dans le Cloud · Travaille avec différents profils data du groupe (Data Scientist, data engineer, data architect, data analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne
Mission freelance
développeur python (pas data engineer)
Les missions : • Implémenter des data pipelines à travers une collaboration avec les équipes IT • Développement de programmes et services lié à la collecte, à la data quality et aux règles de transformation, en lien avec la couche d’API située dans le DataHub et le moteur de règle. • Implémentation de modèles et développements spécifiques à l’intérieur de la solution éditeur. • Collaborer étroitement avec les Data Engineers/Data Scientists pour surveiller et ré-entraîner les modèles d'IA utilisés pour la détection de la criminalité financière. Apporter son expertise sur les données. • Participer à l'industrialisation des algorithmes, au développement et à l'optimisation de l'architecture du pipeline de données. • Tester les solutions d'éditeurs, préparer des documents techniques et des scénarios de tests techniques. • Comptable de la solution technique de l’ensemble des développements spécifiques (côté pipelines et côté modèles) L'essentiel de la mission se déroulera en Anglais.
Offre d'emploi
Développeur python azure H/F
1 - Contexte et objectifs de la prestation Le Bénéficiaire souhaite améliorer la qualtié de la gestion de ses systèmes informatiques. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes d'Administration base de données. Dans ce cadre, la Prestation consiste à contribuer à/au(x) : Aide à la construction d’une solution de création de bases de données dans le cloud public (Azure et eventuellement AWS) : SQL Server et/ou PostgreSQL 2 - Livrables attendus Les livrables attendus sont : • Analyse de l'architecture Azure et de son implementation au sein de la Cloud Platform interne SG. • Livraison de code python autour des features AZURE. • Maintien en condition opérationnel de la solution interne de "Managed Databases" : pour fournir des outils à des clients internes SG pour utiliser des bases de données du Cloud Public • Rédaction de documentations techniques : features Azure proposées, intégration dans l'écosystème SG, outil d'inventaire.
Offre d'emploi
Data Engineer
La Prestation s’effectuera au sein de l’équipe « IS Data Factory » d’une vingtaine de personnes composée de : Data Engineer, travaillant majoritaire à l’alimentation du Datawarehouse d’entreprise Data Architect travaillant sur les évolutions de la gestion des données au sein de l’entreprise. Les données sont principalement gérées au sein - D’un datawarehouse d’entreprise organisé autour de plusieurs instances de base de données ORACLE - D’un Datalake s’appuyant sur l’offre cloudera on premise L’équipe est en charge des évolutions, du support et de la maintenance du datawarehouse. Dans ce contexte, la prestation consiste à intervenir sur le POC (Proof of concept) en étroite collaboration avec l’administrateur du Data Lakehouse et à mettre en œuvre et valider l’infrastructure de plateforme de données. Dans ce cadre, le Prestataire contribuera et aura la responsabilité de : Ø POC Developpement : o Conception et développement du POC pour notre Data Lakehouse ouvert en utilisant les dernières technologies (Cloudera, NoSQL, NiFi, Apache Iceberg, DBT, Superset, etc.) pour répondre aux exigences de l’entreprise, Ø L’intégration des données : o Mise en œuvre des pipelines d’ingestion et d’intégration de données à partir de diverses sources tout en s’assurant la qualité et la cohérence des données. Ø Du processus ETL/ELT: o Développement et optimisation des processus ETL/ELT pour soutenir les besoins de data warehousing et d’analyse. Ø L’optimisation de la performance: o Analyse et optimisation de la performance des flux de données et des requêtes. Ø La collaboration : o Travail en étroite collaboration avec l’administrateur du Data Lakehouse pour assurer l’intégration et la fonctionnalité de l’infrastructure du Data Lakehouse. Ø La documentation : o Création et maintenance de documents techniques sur les pipelines de données, o l’architecture o les flux de travail. Ø L’innovation: o Rester à jour avec les technologies émergentes et les meilleures pratiques pour améliorer continuellement la plateforme de données.
Offre d'emploi
Data Engineer h/f
Missions principales : En tant que Data Engineer, vous serez responsable de la conception, de la construction et de la maintenance des infrastructures de données nécessaires à la collecte, au stockage, à la transformation et à l'analyse des données de l'entreprise. Vous travaillerez en étroite collaboration avec les data scientists, les chefs de projet data et les équipes métiers pour garantir la qualité et la disponibilité des données. Vos missions incluent : Conception et Développement de Pipelines de Données : Concevoir, développer et déployer des pipelines de données pour collecter, traiter et transformer les données provenant de diverses sources (ERP, CRM, IoT, capteurs sur chantiers, etc.) ; Assurer l’ingestion, la transformation et le nettoyage des données dans un Data Lake ou Data Warehouse ; Mettre en place des processus d'automatisation pour garantir des flux de données fiables et sécurisés. Gestion et Maintenance de l’Infrastructure Data : Participer à la mise en place et à la gestion des infrastructures cloud (AWS, Azure, Google Cloud) pour le stockage et le traitement des données ; Assurer la disponibilité et la performance des plateformes de données (bases de données, Data Lake) Surveiller et optimiser les performances des systèmes de stockage et de traitement des données. Qualité et Sécurité des Données : Mettre en œuvre les pratiques de gouvernance des données pour garantir leur qualité, leur conformité (RGPD) et leur sécurité ; Effectuer des contrôles de qualité des données pour détecter et corriger les anomalies ; Collaborer avec les équipes sécurité pour garantir la protection des données sensibles. Support aux équipes Data Science et BI : Travailler en collaboration avec l’équipe data pour préparer les jeux de données nécessaires à la modélisation et à l’analyse ; Optimiser les requêtes et les modèles de données pour faciliter les analyses et la visualisation (ETL/ELT) ; Accompagner les équipes BI dans la conception de tableaux de bord et de rapports à partir des données disponibles. Veille Technologique et Innovation : Rester informé des dernières évolutions technologiques dans le domaine de la data engineering (outils, langages, méthodologies) ; Proposer des solutions innovantes pour améliorer les architectures de données et répondre aux nouveaux besoins métiers ; Participer à des projets de R&D pour explorer de nouvelles approches en matière de stockage et de traitement de données.
Mission freelance
Développeur Big Data - Lyon (F/H)
Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : un Développeur Big Data - Lyon (F/H) Mission à pourvoir en régie en région Lyonnaise Présence sur site : 3 jours / semaine Le consultant devra être en mesure d’assurer les missions suivantes : · Création, maintenance et optimisation des bases de données. · Optimisation des requêtes SQL et PL/SQL pour améliorer les performances applicatives. · Support aux équipes de développement et expertise Big Data (Spark). · Veille technologique et accompagnement des développeurs sur les bonnes pratiques.
Mission freelance
Ingénieur Python Fast API / Vue
Ingénieur Python Fast API / Vue le candidat devra aider à monter la filière Python permettant d'industrialiser de reprendre en maintenance des applications existantes, aider à les intégrer à notre chaîne DevOps, effectuer un audit de code, et réécrire les fronts avec nos normes d'architectures quand le front a été développé en Python Connaissances obligatoires Python, FastAPI, technologies front Vue ou Angular, et DevOps Compétences demandées : Python Expert Fastapi Expert Vue Expert 340 e par jour
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.