Trouvez votre prochaine offre d’emploi ou de mission freelance Bash
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Expertise Dataiku, Tableau et ML/IA
Le Bénéficiaire souhaite une prestation d'accompagnement (2,5 à 3 ans) pour assurer un service d'expertise autour de Dataiku, de Tableau et du ML/IA aux utilisateurs de la plateforme Prométhée. Cette plateforme permet aux Fonctions Centrales RISK, FINANCE et STFS de BNP Paribas de réaliser des travaux réglementaires sensibles du Groupe (stress tests bancaires, calcul du capital interne, reportings financiers, …). Elle intègre et met à disposition, avec le support d’équipes de production dédiées, les services suivants : - Cluster Hadoop CDP 7.1.9 ; - Cluster K8S ; - Service d’ingestion de données (application Java/Spark/Shell développée en interne) ; - Dataiku DSS et Automation Node (v. 12.6) comme point d’entrée du Métier sur tous les services ; - Service d’archivage de données (application Java/J2E développée en interne) ; - Dataviz via offre Tableau Groupe. Les missions de l’équipe Prométhée sont : 1. Gestion au quotidien & gouvernance de la plateforme ; 2. Maintien en conditions opérationnelles de la plateforme : a. Traitement des incidents ; b. Gestion des montées de versions des différents composants systèmes et applications, en collaboration avec les équipes de production ; c. Anticipation de la charge et planification des évolutions requises pour y faire face ; 3. Garantie de la sécurité et de la disponibilité du service : mise en place et monitoring de solutions de backup des données et des politiques de sécurité d’accès ; 4. Veille à l'évolution de la plateforme pour répondre aux nouveaux besoins métiers ; 5. Support utilisateurs sur les différents composants de la plateforme. Ce contexte exige une grande polyvalence technique et une réelle compréhension des principaux composants d'un SI (réseau, système, sécurité). La Tribe Prométhée est composée de 3 Squads de 5-6 personnes ayant chacune 1 Product Owner et 1 Tech Lead. La prestation sera réalisée au sein de la Squad Data Usage dont les principales missions sont : - d'assister les utilisateurs de Prométhée sur les outils Dataiku et Tableau ainsi que dans le choix et l'utilisation de modèles de ML/IA ; - de concevoir et d’assurer l’insertion opérationnelle de modèles de ML/IA répondant à de forts enjeux pour nos utilisateurs et pour la Banque. L’équipe est située sur le site du Millénaire 4 (Paris 19) et le rythme est de 50% de présence sur site.
Offre d'emploi
SRE / DevOps
Le Bénéficiaire souhaite une prestation d´accompagnement dans l´ objectif de fiabiliser, sécuriser et rendre robuste les infrastructures des produits et services automatisés au sein d'une division du Groupe BNP Paribas. Les missions sont : - Suivi de la fiabilité des infrastructures de production - Automatisation du déploiement - Mise en place de tests d'intégration et de charge - Gestion des incidents Il est possible qu'une astreinte soit mise en œuvre dans le contexte de la mission Connaissances technologiques requises : - Docker, Kubernetes, IIS - IBM Cloud - Ansible, Terraform - MongoDB, PostGre, Redis, Elasticsearch - Python, Shell - Gitlab, Jfrog Artifactory - JIRA - CI/CD - API Gateway - Méthodes AGILE
Offre d'emploi
Ingénieur réseau
Vos missions : Tester de nouvelles configurations tout en supervisant et pilotant les déploiements Administrer, exploiter et superviser l'ensemble du réseau Gérer les incidents liés au réseau et assister dans le diagnostic des problèmes Commander les accès WAN et ToIP auprès des fournisseurs et opérateurs Évoluer le réseau en fonction de la feuille de route de sécurité Optimiser la performance du réseau, en répondant à des besoins en temps réel Environnement technique : DNS/DHCP, routeurs Cisco, switches Cisco, pare-feux (Fortinet, Juniper), VPN SSL, IPsec, load balancers F5 BIG-IP, scripts Shell Unix, ToIP, Wi-Fi.
Offre d'emploi
Dev Java Spring Batch - Craft - Git Séniorité: 4 à 7 ans
💼 Poste : Dev Java Spring Batch - Craft - Git Séniorité: 4 à 7 ans 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : IDF 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Environnement fonctionnel : leasing et financements structurés Dans ce cadre la prestation consiste à contribuer à/au(x) : La gestion du projet en cours La comitologie Suivi Reporting Environnement technique : Java 6/7/8/17, spring batch, spring web, xldeplloy, jenkins, SQL, SonarAutres Technologies : XLdeploy, Docker et Kubernetes. Livrables Développement Java backend pour un autre projet en cours Devops: mise en place de la chaine de déploiement du projet, des serveurs, monitoring etc. 🤝 Expertises spécifiques : Les expertises attendues pour réaliser cette prestation sont listées ci-après : Java Compétences en développement (Shell unix, Perl, PHP, Python, git, github) Continuous Integration Docker Git Hub JIRA Kubernetes
Offre d'emploi
EXPERTISE ELK : BEAT, LOGSTASH, CLUSTER ELASTIC
💡 Contexte /Objectifs : L'équipe en charge les services de monitoring , d'alerting et de collect de log sur 3 plaques. Le bclient souhaite mettre en oeuvre plusieurs évolutions de son socle technique en termes d’ Urbanisme des systèmes d'information Dans ce cadre, la prestation consiste à contribuer à/au(x) : La collecte de log La mise en place du dispositif ELK pour les différentes requêtes liés à la collecte de log La gestion d'une volumétrie grandissante, multiplication de sources d'alimentation (evolution/tuning de l'infra existante et maintien en condition) La mise en place d'un monitoring plus fin avec utilisation de l'IA La configuration de logstash pour des tâches de parsing et d'enrichissements. La mise en oeuvre de WEC (Windows Event Collector) pour collecter certaines sources. L'usage d'un bus Kafka est à l'analyse pour l'enrigissement des logs Les outils : Suite Elastic (Agents xBeat, collecteurs logstash, Elasticsearch,pipeline ,WEC, Kibana) / Parsing / Shell, LINUX. Les livrables attendus sont : La mise à jour de la documentation La maintien en condition des outils Le développement des outils d'expoitation La gestion des tickets d'incidents La gestion des requêtes
Offre d'emploi
Data scientist - H/F
Nous accompagnons notre client, acteur majeur du secteur [secteur d’activité de l’entreprise cliente], dans l’exploitation et la valorisation de ses données. Nous recherchons un(e) Data Scientist F/H pour rejoindre une squad Agile dédiée aux projets Big Data. Vous serez chargé(e) de créer et maintenir des modèles prédictifs, de gérer les environnements de données distribués, et de contribuer aux projets d’intégration des données pour l’équipe métier. Vos missions seront les suivantes : Développer, entraîner et déployer des modèles de Machine Learning avec l’outil Dataiku, et adapter les solutions de traitement de données à l’architecture Hadoop ; Concevoir et réaliser des dashboards interactifs sous Tableau (Desktop et Serveur) pour répondre aux besoins des métiers en matière de visualisation de données ; Concevoir des pipelines de données robustes en développant en Python, Scala ou SQL, et en intégrant les meilleures pratiques de gestion d’APIs et web services ; Garantir la qualité de code et la gestion des versions sous Git, et documenter les projets sous Confluence et JIRA pour une coordination efficace au sein de l’équipe ; Assurer le suivi de production des modèles et flux de données en collaboration avec les équipes d’exploitation, et participer aux cérémonies Agile (sprint planning, rétrospectives, etc.). Environnement technique : Hadoop (Hue, Zeppelin, Hive), Dataiku, Tableau, Python/Scala, JavaScript, SQL, web services/API, Shell, Git, JIRA, Confluence, Sciforma, Office 365, Teams.
Mission freelance
Ingénieur DevOps
Nous recherchons un Ingénieur DevOps avec une forte compétence en Agile Coaching pour accompagner un grand acteur du secteur financier dans sa transformation technique et agile. Ce poste exigeant vous placera au cœur des initiatives de l’usine logicielle, avec pour mission d’optimiser les processus CI/CD tout en accompagnant les équipes de développement dans l’adoption des pratiques agiles et DevSecOps. Vos missions : Dans un environnement technique varié et stimulant (Java, .Net, Angular, Python, Datastage, Oracle, MySQL, PowerBI, Shell, OpenShift, GCP...), vos principales missions seront : Support et optimisation des outils CI/CD : Fournir un support aux composants de l'usine logicielle (Bitbucket, Jenkins, Azure DevOps, SonarQube, Checkmarx, Artifactory, XLDeploy, XLRelease) et assurer leur amélioration continue. Automatisation et scripting : Développer et améliorer les scripts internes en Groovy pour offrir de nouvelles fonctionnalités dans les pipelines Jenkins. Accompagnement des équipes de développement : Aider les développeurs à construire des pipelines CI/CD efficaces et sécurisés adaptés à leurs produits. Sensibilisation et formation Agile : Former et accompagner les équipes agiles (Scrum Masters, Product Owners, développeurs, etc.) aux pratiques agiles et DevOps, en intégrant les bonnes pratiques de Software Craftsmanship pour un code de haute qualité. Facilitation de la transformation agile : Participer activement au cadrage des projets agiles, être force de proposition pour la mise en œuvre de pratiques agiles et accompagner le changement à tous les niveaux de l'organisation.
Mission freelance
INGENIEUR DATA BI - GENIO
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
Mission freelance
Ingénieur Systemes Linux DevOps
- Ingénieur Systèmes Linux DevOps Senior Disponibilité : Dès que possible Lieu de travail : Amilly-Montargis (45) avec 2j de TT par semaine une fois la période d'intégration de 3 mois passée. Rattachement : Intégré (e) à l'équipe systèmes AIX/Linux, rattaché (e) au Responsable des infrastructures du SI, il ou elle contribue à la maintenance et à l'évolution du Système d'Information. Description des prestations : • Développement de scripts Shell, python et Ansible • Migration d'OS, containerisation • Migration de serveurs LPAR vers un nouveau serveur physique. • Administration des systèmes (Debian, CentOS, Alma), composants middleware (Tomcat, Apache…) et des applications hébergées • Automatisation des montées de version applicatives hébergées • Dimension relationnelle avec le service exploitation et le service Etudes. Expérience et compétence requises : • Expertise scripting shell, python, ansible (expérience significative) • Expertise containerisation Docker • Culture DevOps prépondérante • Expertise dans l'administration Linux (différentes suites) • Expérience sur un poste similaire pendant au moins 5 ans Qualifications requises : • Bac + 5 ou Bac + 3ans (avec forte expérience) Savoir-faire requis : • Excellentes compétences techniques et professionnelles • Bon relationnel, sens de l'écoute et esprit d'équipe • Autonomie avec le sens du partage • Capacité à s'intégrer rapidement dans une équipe de production • Rigoureux (suivi des procédures, mise à jour de la base documentaire) Durée : Contrat de régie de 3 mois renouvelable
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- situation compliquée fin de mission pression client comment gèrer ?
- SASU IR vs Micro entreprise + ARCE
- Impossible de trouver une mission en ce moment
- Close de non concurrence freelance à portgae salarial
- consultant changer secteur activité ? de la banque PO généraliste
- Arce 7 mois après la création de l'entreprise ?