Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Ingénieur DevOps + IA
Vous travaillez sur une application IA GEN généralisée et vos missions principales seront : le suivi et l'évolutions technologiques (on prem, Landing-zone AWS, cloud privé) sur LLM avoir une expertise technique au sein de équipe en charge de la conception, du développement et du déploiement d'une application de type chatbot basé sur un LLM. Attendus : travail en équipe maîtrise de l'outillage devops (gitlab, gitlab-ci, helm, docker, kubernetes, artifactory, grafana) pratiques de développement backend (python, fastapi) et de test (pytest) connaissance en bases de données (redis, mongoDB, llamaindex) premières expériences en intégration des IA génératives (cloud/onpremise + framework langchain)
Offre d'emploi
DEVSECOPS
Spécialisé dans le secteur bancaire, l'entreprise recherche activement un devSecops pour renforcer ses effectifs. Le rôle est centré sur un état d'esprit agile DevSecOps et nécessite un large éventail de compétences techniques. Travailler en étroite collaboration avec une grande variété d'équipes pour : - Gérer un ou plusieurs produits numériques DevOps. - Gestion du cycle de vie du produit, de la conception à l'exécution - Recueillir les commentaires des utilisateurs et créer une boucle de rétroaction - Planifier et prioriser les tâches pour le renforcement de l'équipe et les mises à jour du produit. - Gérer l'évolution et la consommation du produit à l'aide d'indicateurs de performance clés (KPI) pertinents. - Développer et maintenir la feuille de route du produit - Coordination avec les dépendances : autres propriétaires de produits, équipes d'infrastructure et de sécurité - Comprendre l'état de préparation à la production et travailler avec les équipes pour comprendre les besoins des utilisateurs. - Identifier l'efficacité des processus et contribuer à l'automatisation - Comprendre les besoins de toutes les parties prenantes, documenter les raisons de ces décisions architecturales. - Élaborer et mettre en œuvre la stratégie d'adoption de l'informatique dématérialisée de la Banque. Compétences spécifiques au rôle - Compétences essentielles - Product Owner (engagement des utilisateurs, définition de la feuille de route, collecte des besoins des utilisateurs, définition des tâches, etc.) - Développement dans différents langages, tels que Go, Pyhton - Cycle de vie des applications et des méthodologies agiles - Terraform - Kubernetes - TeamCity et Jenkins - Artifactory/binaires - Gestion du code source, y compris Git et Bitbucket - SAST et SCA et comment intégrer les tests de sécurité dans les pipelines CI/CD standard - CI/CD, en particulier Jenkins, infrastructure dans la construction de plateformes ainsi que dans la création et la configuration de pipelines en tant qu'utilisateur - Méthodologies de programmation et de script, écriture de code dans un ou plusieurs des langages suivants : Go, Python - Administration de systèmes - Linux/Unix et Windows - Compréhension des plateformes et solutions basées sur le cloud et fourniture de solutions PAAS.
Mission freelance
Data Analyst GCP Python appétence Date ingénierie
PAS DE SOUS-TRAITANCE // MERCI Nous recherchons un Data Analyst passionné par la Data Ingénierie pour rejoindre une équipe dynamique dans un environnement stimulant. En tant que Data Analyst , vous jouerez un rôle clé dans l’analyse et la gestion des données au sein d’une organisation innovante. Vous interviendrez également sur des aspects techniques de la data ingénierie pour optimiser et structurer les pipelines de données. Compétences requises : • Excellente maîtrise de GCP pour la gestion des pipelines et des infrastructures cloud. • Expertise en SQL pour extraire, manipuler et analyser des données complexes. • Connaissance avancée de Python pour automatiser les processus et gérer les workflows. • Expérience avec dbt pour transformer les données. • Utilisation de Argo pour l’orchestration des workflows. • Maîtrise de Terraform pour le déploiement d’infrastructures cloud. • Capacité à créer des rapports visuels et dynamiques avec Power BI .
Offre d'emploi
Ingénieur DevOps Cloud Privée
Compétences demandées : Très bonnes connaissances sur l'administration de l’outillage CI/CD Gitlab, Jenkins et AWX/AAPv2 Connaissance sur la suite ELK (production de dashboards) Très Bonnes connaissances Linux A l'aise en développement Shell et ansible Le code Python et le GO serait un plus. Connaissance Docker et la containerisation (Kube, Openshift) Softskills : Capacités relationnelles et travail en équipe Adaptabilité Force de proposition Rigueur, sens de la méthode Fort esprit d'équipe Outils informatiques Linux AWX/AAP Docker ANSIBLE Python Confluence GitLab, Artifactory, Vault, Sonar, Confluence, Jenkins
Mission freelance
Data Engineer
PAS DE SOUS-TRAITANCE // MERCI En tant que Data Ingénieur, vous serez responsable de la conception, du déploiement et de la maintenance d'une infrastructure de données basée sur les bonnes pratiques du Well Architected Framework (WAF) d'AWS, en respectant les piliers suivants : Excellence opérationnelle, Sécurité, Fiabilité, Efficacité des performances, Optimisation des coûts, et Développement durable. Vous travaillerez en étroite collaboration avec le CTO et les Data Scientists pour construire et maintenir des pipelines de données robustes et sécurisés sur AWS. 1. Mise en place de pipelines de données robustes et scalables : Concevoir des pipelines de données serverless optimisés (e.g., step function, Lambda, S3, Redshift) pour gérer des données provenant de compteurs énergétiques en mode batch et en streaming. Structurer la donnée en zones fonctionnelles sur S3 (Landing, Raw, Trusted, Curated, Archive) et transformer les formats (e.g., XML en JSON, JSON en Parquet) pour optimiser les performances et réduire les coûts. 2. Excellence opérationnelle : Implémenter et automatiser des workflows CI/CD/CT avec GitHub Actions pour garantir des déploiements continus, sécurisés et sans interruption (via EKS, ECS, App Runner, Sagemaker) Mettre en place un monitoring avancé pour les pipelines de données et les modèles déployés, garantissant la détection proactive des anomalies et une maintenance efficace. (via cloudwatch, SNS) 3. Sécurité et fiabilité : Collaborer à la migration des applications R/Shiny vers des technologies plus familières et sécurisées (e.g. Kotlin ou Python) tout en respectant les standards de sécurité, notamment via des solutions telles que Posit Connect 4. Optimisation des coûts et développement durable Proposer des optimisations pour réduire les coûts de stockage et de traitement des données, en s’appuyant sur des services AWS adaptés et en optimisant les formats et processus de gestion des données. 5. Collaborer avec l'équipe Data Science Faciliter l'accès aux données de qualité pour les Data Scientists, en veillant à ce que les modèles puissent être intégrés efficacement dans les applications existantes
Mission freelance
architecte pyspark - 3 mois
Contrainte forte du projetFort enjeux metier Les livrables sont Package pyspark Dictionnaire / catalog de données Model de données tabulaire Compétences techniques PYTHON / PYSPARK / SPARK - Expert - Impératif Databricks/ datafactory/ azure devops - Expert - Impératif Azure Analysis Services - Expert - Impératif Integration GIT - Expert - Important Connaissances linguistiques Français Courant (Impératif) Description détaillée L'equipe Datafinance utilise actuellement une architecture basée sur Databricks, Azure Blob Storage, Azure Data Factory et Azure Analysis Services pour traiter et analyser ses données financières. Nous cherchons à optimiser les processus de traitement de ces données, en particulier le rafraîchissement des données, pour améliorer la performance et la qualité des analyses. Dans ce cadre, nous recherchons un expert en BI et Data pour une mission de 3 mois. L'objectif est d'optimiser le Temps de traitement et de rafraichissement des données. 2. Objectifs de la mission L'expert BI et Data sera chargé de : Optimiser le traitement des données du projet Data finance, en se concentrant principalement sur le processus de rafraîchissement des données entra la zone gold et le cube de données. Optimiser l'utilisation de Azure Analysis Services (modèle Tabulaire) pour les rapports et les analyses. 3. Technologies utilisées L'expert devra maîtriser les technologies suivantes : Databricks (en particulier avec PySpark). Azure Analysis Services (modèle Tabulaire). SQL . Git et Azure DevOps pour la gestion des versions et l'intégration continue. 4. Compétences requises Le candidat idéal doit posséder une expérience avérée dans les domaines suivants : Maîtrise de PySpark : pour le traitement et l'optimisation des données dans Databricks. Expertise en modélisation de données : capacité à concevoir et optimiser des modèles de données pour améliorer la performance et la gestion des données financières. Maîtrise du modèle Tabulaire dans Azure Analysis Services : pour optimiser le rafraîchissement des données et améliorer les performances des cubes. Bonne compétences en SQL 5. Livrables attendus Les livrables de la mission incluent : . Mise en œuvre des optimisations dans Databricks et Azure Analysis Services. Documentation détaillée des modifications apportées et des bonnes pratiques mises en place. Transfert de connaissances aux équipes internes pour garantir une gestion continue des processus optimisés.
Offre d'emploi
Data Engineer Python / SQL / Azure
Profil : Experienced Data Engineer • good technical skills o Python 3.7, o Flask/Fast API (Librairie API pour python), o SQL o Modelisation (MCD, MLD, MPD) , o Azure Functions, Azure Tables, Azure Data Explorer, o API Rest / API Management. • Technical specifications and OPEN API Specifiction writing • Functionnel Specification writing Activités : Specification, Development, Correction d'anomalies.
Mission freelance
Devops AWS, Dataiku, Gitlab, Terraform, python
Organisation : Le consultant rejoindra notre client dans l'équipe DevOps & Technologies au sein de la direction DATA du groupe (France et international). Cette équipe gère la plateforme Data, couvrant l'architecture, l'administration, DevOps, FinOps, et accompagne les équipes projets en assurant l'application des bonnes pratiques. L’écosystème technique inclut : AWS, Dataiku, GitLab CI/CD, Terraform, Ansible, IA, Snowflake, Braze, Spark, Python, Scala, etc. Nous recherchons un consultant DevOps expert en Dataiku, GitLab CI/CD, Terraform, AWS et Python. Il participera au développement avancé de l’Infrastructure as Code (IaC) et à l'amélioration continue de la plateforme data.
Mission freelance
Expert Ansible
Prestation d'Expertise Ansible Automation Platforme Maintenance AAP : upgrade Python, upgrade Ansible, upgrade AAP Exploitation des machines : mises à jour système, rotation de logs, purge de FS ou extensions de FS au besoin Développement de nouveaux cas d'usage (workflow Ansible, playbooks/roles Ansible) Maintien du plugin d'inventaire pour les connexions SSH Troubleshooting Ansible Troubleshooting plate-forme AAP (suivi de case RedHat) Interactions avec API REST et outils EDF (BASTION, ITzMI, VIGIE, Datalake, SSA) Sécurité surveillance OS, bonnes pratiques de développement Accompagnement utilisateurs (suivi de cas d'usage, communication aux utilisateurs de la plate-forme) Technologies : RHEL 8, Ansible Automation Platform 2.4, Python (software engineering, profiling, analyse de performances), Ansible, PostgreSQL, Dynatrace, Prometheus/Grafana, Gitlab Runners, Gitlab CI/CD, metricbeat/filebeat, YAML, Superset, SQL, Commvault, Backup-restore, Loadbalancing (tests de vie), Conteneurs (podman), GitOps, Git, Gitlab Compétences : Conteneurs : Gitops, Git, Gitlab Connaissance d’Ansible : Comprendre les modules, les tâches et les playbooks1. Savoir exécuter des commandes Ansible. Utilisation des variables et des modèles : Savoir comment utiliser des variables et des modèles dans Ansible. Connaissance du Contrôleur d’Automatisation : Comprendre les bases du contrôleur d’automatisation et ses fonctions, comme les contrôles d’accès basés sur les rôles, les workflows. Expérience avec Red Hat Ansible Automation Platform : Avoir suivi le cours Développement de processus automatisés avancés avec Red Hat Ansible Automation Platform. Compétences en Python et Linux : Ansible doit s’accompagner de compétences techniques liées au langage de programmation Python et à Linux. Pratiques DevOps : Ansible est un outil conçu pour faciliter la mise en œuvre des pratiques DevOps. Gestion de Configuration : Maintenir les serveurs et les dispositifs réseau dans l’état désiré. Automatisation des tâches : Savoir exécuter des tâches programmées sur de nombreux serveurs4. Déploiement d’applications : Automatiser le déploiement d’applications de manière cohérente et répétable. Intégration Continue : Faciliter l’intégration et le déploiement continus dans les pipelines DevOps.
Offre d'emploi
Support technico-fonctionnel Finance de Marché
Vous interviendrez en tant que support technico fonctionnel avec une parfaite compréhension du secteur financier dans un contexte international. Missions : Effectuer le support fonctionnel et le support à la production Assurer le maintien en condition opérationnelle des plateformes applicatives Réaliser le monitoring des flux de données Suivre et résoudre les incidents Coordonner le projet Assurer une communication régulière auprès des métiers Effectuer des reportings réguliers La maîtrise de l’anglais technique est indispensable pour mener à bien cette mission.
Mission freelance
Lead développeur python go (H/F)
Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : Lead développeur python go (H/F) Mission : Le Lead Développeur aura pour rôle de renforcer les compétences de développement des ingénieurs réseaux et de contribuer à l'évolution de la stack technique. Responsabilités : Accompagner les ingénieurs réseaux dans leur montée en compétences (évaluations, formations, peer-programming) Participer à la maintenance et à l’amélioration de la stack Python et GO Contribuer activement au Software Engineering Board
Mission freelance
Développeur Java / Python / AWS
Développeur Back end Java Python localisation : 92 Durée : Longue jusqu'à 3 ans Télétravail : 2 jours TT - 3 jours sur site Dans le cadre du développement d'un produite lié à la gestion d'un fort volume de data Nous recherchons un dev Back end dont les taches seront : Implémenter les fonctionnalités en accord avec le PO et le Tech Lead - Implémenter les tests unitaires / tests d'intégration / tests de bout en bout - Réaliser les codes reviews en collaboration avec les autres membres de l'équipe - Implémenter l'infrastructure (IaC) si besoin, accompagné du Sysops
Mission freelance
Administrateur IT (Niveau 1 & 2) - H/F
Vos missions et activités principales : • Support Niveau 1 & 2 : Fournir un support technique aux utilisateurs et aux équipes internes pour les problèmes liés aux serveurs, bases de données, stockage, sauvegarde, Active Directory, Azure Entra ID et Exchange Online. • Gestion des incidents : Identifier, diagnostiquer et résoudre les incidents techniques de niveau 1 et 2. Escalader les problèmes complexes aux ingénieurs seniors lorsque nécessaire. • Maintenance et Administration : Assurer la maintenance quotidienne des systèmes d’exploitation Windows, des serveurs de fichiers, des bases de données SQL (SQL Server, MySQL, PostgreSQL), des solutions de sauvegarde (Dell Data Protect, Data Domain), ainsi que des environnements Active Directory, Azure Entra ID et Exchange Online. • Gestion des demandes : Traiter les demandes des utilisateurs concernant les accès, les configurations et les problèmes techniques en utilisant les outils de gestion des tickets. • Documentation : Mettre à jour les documents techniques et les procédures de support pour refléter les changements apportés et les nouvelles informations. • Assistance au déploiement : Aider à la configuration et au déploiement de nouveaux équipements ou logiciels, en suivant les directives des ingénieurs senior. • Veille Technologique : Se tenir informé des nouvelles technologies et tendances afin de fournir des recommandations et d’améliorer les pratiques en place. • Scripting et Automatisation : Utiliser des scripts simples pour automatiser des tâches récurrentes sous la supervision des ingénieurs senior. Connaissance de scripting avec PowerShell, Bash ou Python est un plus.
Offre d'emploi
Consultant Ops Infrastructure - Python H/F
1 - Contexte et objectifs de la prestation .Le département a pour prestation d'assurer le bon fonctionnement des infrastructures et de la production informatique pour servir le développement de l'activité Banque et Services Financiers Internationaux. Le service Exploitation ICR/ALD regroupe les services d'infrastructures propres à cette ligne métier. Son activité couvre la surveillance et l'exploitation des différents systèmes dédiés, la maintenance et les évolutions techniques de ces systèmes, la gestion des changements des applications métiers et la conformité aux différentes réglementations en vigueur. Dans ce cadre la prestation consiste à contribuer à/au(x) : La surveillance et l'exploitation des differents systemes dédiés, La maintenance et les évolutions techniques de ces systèmes, L'acculturation des équipes en charge des infras aux bonnes pratiques de développement et de conception dans un cadre Agile, L'évolution de l'offre "Automatisation" au sein du département, La transition vers la plateforme Cloud de la Société Générale, La gestion des changements des applications metiers. Expertises : infrastructures et technologies
Offre d'emploi
QA Agile ISTQB - CDI en ESN uniquement - Secteur Energie -
Une filiale des services énergétiques du groupe EDF, qui met son expertise au service de ses clients pour développer, réaliser et gérer des solutions énergétiques écologiques et économiques. Au sein de la Direction des Systèmes d'Informations et du Numérique , vous rejoindrez l’équipe Qualité Produit pour accompagner les équipes de la DSIN et métier en étant responsable des activités de tests, détaché opérationnellement auprès du domaine SI Systèmes connectés. Vous interviendrez sur les phases de tests, dans le cadre d’un programme de transformation de notre SI industriel. Vous serez garant des standards et bonnes pratiques de tests mis en place par le domaine Qualité Produit. Début de mission début Octobre.
Offre d'emploi
Administrateur Rubrik
Missions Administrer les infrastructures de sauvegarde Rubrik, Storage Protect, DataDomain et NetApp. Activités de Build/Run N3 sur ces infrastructures. L'expertise Rubrik est indispensable et une forte expérience sur Storage Protect sera très appréciée. Environnement technique et fonctionnel Rubrik - Expert - Impératif Storage Protect (Spectrum Protect) - Expert - Important (idéalement) Python - Confirmé - Souhaitable NetApp - Confirmé - Souhaitable VTL de type Data Domain ou Unity / Robotique - Confirmé - Souhaitable
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes