Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 890 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
TECH LEAD PYTHON/REACT/KUBERNETES (F/H)

SMARTPOINT
Publiée le
Kubernetes
PostgreSQL
Python

12 mois
100-550 €
Île-de-France, France

Dans ce cadre la prestation consiste à contribuer à/au(x) :  la gestion du tech lead pour la squad Automation. Cette squad fournit pour le groupe SG et ses filiales le portail de gestion des applications Bond et la CMDB Metasset  la mise en place et aux évolutions du référentiel des assets "Metasset" pour devenir la CMDB de la Software Factory Groupe SG (API en Python avec frameworks Flasks et Connections, PostgreSQL)  la mise à disposition de KPI emblématiques pour les différents clients à partir du référentiel "Metasset"  la mise à jour du portal utilisateur Bond en React, portail utilisé pour l'onboarding de nos clients sur la CI/CD.  aux spécifications techniques, au développement, tests unitaires, la revue de code et le déploiement en production (Kubernetes), la documentation et support. Outils: Python, React, Kubernetes, BDD relationnel (Postgre SQL) Environnement Francophone et Anglophone Livrables attendus Dans ce cadre la prestation consiste à contribuer à/au(x) :  La mise en place et aux évolutions du référentiel des assets "Metasset" pour devenir la CMDB de la Software Factory Groupe SG (API en Python avec frameworks Flasks et Connections, PostgreSQL)  la mise à disposition de KPI emblématiques pour les différents clients à partir du référentiel "Metasset"  La mise à jour du portal utilsateur Bond en React, portail utilisé pour l'onboarding de nos clients sur la CI/CD

Freelance

Mission freelance
89488/Consultant ELK

WorldWide People
Publiée le
ELK

3 mois
460-570 €
Bezons, Île-de-France

Consultant ELK Compétences Requises - Expérience : Minimum 3 ans d'expérience avec Elasticsearch, Logstash et Kibana. - Connaissances Techniques : Maîtrise des concepts d’ingestion, de transformation et de visualisation des données. Solides compétences en administration de systèmes Linux. - Machine Learning : Expérience dans l'utilisation des fonctionnalités de Machine Learning d'Elasticsearch. - Scripting: Compétence en scripting (Python, Bash, etc.) pour automatiser les tâches.Poste de responsable de la mise en place, de la configuration et de l'optimisation de la stack ELK pour monitorer les serveurs, applications et bases de données du client, avec une intégration fluide avec ServiceNow. Les tâches demandées sont : Déploiement de la Stack ELK** : Installer, configurer et maintenir Elasticsearch, Logstash et Kibana. - Architecture: Concevoir et mettre en place l’architecture de la stack ELK adaptée à nos besoins spécifiques en matière de gestion de systèmes. - Configuration et Optimisation : Configurer les pipelines de données, optimiser les performances et assurer la scalabilité de la solution. - Observabilité : Mettre en place des solutions d'observabilité pour surveiller les performances et la santé des systèmes. - Interopérabilité avec ServiceNow : Intégrer ELK avec ServiceNow pour améliorer le suivi des incidents et la gestion des tâches. - Automatisation : Développer et mettre en œuvre des scripts et des outils pour automatiser les tâches répétitives et les processus de surveillance. - Machine Learning : Utiliser les fonctionnalités de Machine Learning disponibles dans ELK pour détecter des anomalies et générer des alertes pertinentes. - Documentation : Rédiger et maintenir la documentation des configurations et des processus. - Support : Assurer le support technique et la résolution des problèmes liés à la stack ELK. Compétences Requises - Expérience : Minimum 3 ans d'expérience avec Elasticsearch, Logstash et Kibana. - Connaissances Techniques : Maîtrise des concepts d’ingestion, de transformation et de visualisation des données. Solides compétences en administration de systèmes Linux. - Machine Learning : Expérience dans l'utilisation des fonctionnalités de Machine Learning d'Elasticsearch. - Scripting: Compétence en scripting (Python, Bash, etc.) pour automatiser les tâches. - Automation : Expérience avec des outils d'automatisation (Ansible, Puppet, Chef, etc.) pour automatiser la gestion et la surveillance de l'infrastructure. - Monitoring et Observabilité : Expérience dans la surveillance et la gestion de l'infrastructure IT avec un accent sur l'observabilité. - Interopérabilité : Expérience dans l'intégration d'ELK avec ServiceNow ou des systèmes similaires. - Communication : Excellentes compétences en communication écrite et orale. Capacité à travailler en équipe et à partager ses connaissances. - Résolution de Problèmes : Capacité à diagnostiquer et résoudre des problèmes complexes de manière efficace et autonome.

Freelance

Mission freelance
Data Analyste

STHREE SAS pour COMPUTER FUTURES
Publiée le
DAX
Git
Microsoft Power BI

1 an
100-550 €
Île-de-France, France

Offre d'Emploi Freelance : Data Analyst Description du Poste : Nous recherchons un Data Analyste freelance talentueux et expérimenté pour rejoindre notre équipe dynamique. Si vous avez une passion pour l'analyse de données et une expertise confirmée dans les outils modernes de data analysis, nous aimerions vous rencontrer. Compétences et Qualifications Requises : Expérience : Minimum 5 ans d'expérience en tant que Data Analyste. Langages de Programmation : Maîtrise de Python (prérequis). Outils d'Analyse : Expérience préalable avec Power BI et compétence en DAX. Méthodologie : Connaissance des méthodes agiles. Gestion de Versions : Compétence en Git (un plus). Intégration Continue/Déploiement Continu : Familiarité avec CI/CD (un plus). Langues : Bon niveau d'anglais requis, capable de bien se débrouiller en anglais. Profil : Confirmé ou jeune senior. Missions : Analyser et interpréter des ensembles de données complexes pour fournir des insights exploitables. Développer des rapports et des tableaux de bord interactifs avec Power BI. Utiliser Python pour nettoyer, transformer et analyser les données. Collaborer avec les équipes internes pour comprendre leurs besoins et fournir des solutions de data analysis adaptées. Appliquer les meilleures pratiques en matière de gestion de versions avec Git. Participer aux processus d'intégration et de déploiement continu (CI/CD) pour garantir la qualité des livrables. Travailler dans un environnement agile pour assurer la flexibilité et l'efficacité du projet. Conditions : Type de Contrat : Freelance Durée de la Mission : Missions assez longues Taux Journalier Moyen (TJM) : À définir selon le profil et l'expérience

CDI

Offre d'emploi
Architecte SCCM Infra F/H

METSYS
Publiée le
Active Directory
Azure
Git

54k-60k €
La Défense, Île-de-France

METSYS est un intégrateur de solutions Cloud, Cybersécurité et Microsoft. Pour l'un de nos clients grands-comptes du secteur bancaire, nous recherchons un.e Architecte SCCM Infra (F/H) pour un démarrage imminent à Paris/La Défense. Dans le cadre de cette mission, vous auriez notamment en charge les tâches suivantes : La gestion du parc des serveurs Windows via l'outil SCCM, y compris le packaging d'applications, le patching et la gestion des vulnérabilités L'encadrement de 7 collaborateurs de niveau 2 situés en Inde L'automatisation des tâches de réplication entre notre site de production et notre site de secours La réflexion autour de moyens techniques pour les évolutions de l'offre OS Windows aux différents comités organisés L'implémentation de standards de Sécurité visant à sécuriser l'écosystème Windows L'automatisation des processus de gestion du parc de serveurs Windows Le support aux autres équipes d'ICR/ALD en cas de besoin

Freelance

Mission freelance
Ingénieur de Production (H/F) – IDF

Espace Freelance
Publiée le
Oracle
Scripting
Shell

3 mois
100-550 €
Île-de-France, France

Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : un Ingénieur de Production(H/F) Mission à pourvoir en régie en région IDF Présence sur site : 3 jours / semaine Le consultant devra être en mesure d’assurer les missions suivantes : Pilotage de projets et gestion des ressources. Supervision et exploitation des plateformes techniques. Gestion des incidents, changements et planification des livraisons. Rédaction de procédures d’exploitation. REF : EFP/INGP/236238

CDI
Freelance

Offre d'emploi
Ingenieur Devops

GROUPE ALLIANCE
Publiée le
Apache Tomcat
GitLab CI
Jenkins

12 mois
40k-52k €
Île-de-France, France

Pour le compte de l' un de nos clients , nous recherchons un Ingénieur Devops. Vos missions principales seront: -L' automatisation de la chaine CI/CD Le scripting Le paramétrage d'applications La mise à jour des éléments dans les environnements WebSphere, Tomcat et réseau Le reporting L'établissement de documentations techniques Deux jours de télétravail sont prevus. Le poste à pourvoir courant novembre. Cette mission vous intéresse? N' hésitez pas à me faire parvenir votre candidature rapidement!!!!!!!!

Freelance

Mission freelance
LEAD TECHNOLOGIQUE

PARTECK INGENIERIE
Publiée le
AWS Cloud
Machine Learning
Python

12 mois
100-520 €
Paris, France

Le consultant sera le référent technologique sur les projets Innovation dont il aura la charge. Il garantira leur faisabilité, les développera et assurera leur industrialisation et leur intégration avec les systèmes d’information et les équipes Contribuer aux phases d’idéation et de définition de nouveaux concepts innovants, notamment en évaluant leur faisabilité technique. Développer des Proofs of Concept (POC) et des prototypes pour matérialiser ces concepts et les tester auprès d’utilisateurs finaux. Prendre une part active aux choix techniques et technologiques des projets innovation de son portefeuille. Évaluer les solutions technologiques proposées par des acteurs externes (startups, ...) qui permettraient de réaliser les projets en Open Innovation. Veiller à ce que les prototypes et projets réalisés puissent être transmis à d’autres équipes de la DSI et industrialisés avec un effort minimum. S’assurer que les projets innovation respectent les bonnes pratiques technologiques et de sécurité de l’environnement SI Effectuer les ateliers de passation vers d’autres équipes, réaliser le support le cas échéant. Effectuer une veille sur les nouvelles technologies et solutions logicielles pertinentes dans le cadre des priorités du Lab. Participer à la définition et à l’amélioration des processus de l’équipe Conception et mise en place d’architectures SI complexes. Documentation (Diagramme de flux etc). Design logiciel. Expérience requise en environnement Cloud PaaS, IaaS (Amazon). Très bonnes compétences en développement backend et mise en place d’APIs + REST. A l’aise avec le Data processing / engineering. AWS (S3/API Gateway/Lambda/IAM, DynamoDB ou Cognito ou RDS). Terraform (bon niveau demandé). Python 3 (bon niveau demandé). SQL (particulièrement jointures). Linux (niveau intermédiaire). Bases de Data Science. Librairie Python Boto3 (AWS). Git. ANGLAIS REQUIS

Freelance

Mission freelance
Data ops

ESENCA
Publiée le
Google Cloud Platform
Nosql
Python

3 mois
400-500 €
Lille, Hauts-de-France

-> Accompagnement et l’acculturation des bonnes pratiques de la Data Engineering au travers de l'approche Data Driven -> Validation de la qualité des développement de l'équipe -> Acculturation de la philosophie DevSecOps -> Suivi de la qualité de code -> Organiser et animer les ateliers d’amélioration continue -> Définition de la roadmap technique -> Être garant du cycle de delivery, de la qualité des livrables et l’encadrement & animation des équipes en environnement Agile / DevOps -> Estimer la charge du Backlog et déterminer le périmètre des sprints en collaboration avec les experts métiers -> Superviser la qualité des livrables -> Participation aux entretiens de suivi des Data Engineer -> S’assurer que le processus de MCO soit correctement adopté -> Formation des nouveaux arrivants -> Support pour résoudre des problèmes complexes

Freelance

Mission freelance
Platform Engineer AWS

KUBE Partners S.L. / Pixie Services
Publiée le
AWS Cloud
Bash
Python

2 ans
100-700 €
Paris, France

La landing zone AWS est la plateforme regroupant de nombreuses applications/produits (500) et comptes (1000) dans le cloud de notre client du secteur de l'énergie. Afin de rendre la plateforme scalable, de développer de nouvelles features et de maintenir l'existant, notre client est à la recherche de cinq Platform Engineer pour une mission d'une durée de 2 ans. Les profils recherchés doivent maitriser les aspects suivants : - Design - IAC - CI/CD - Déploiement - Migration - Network - Cybersécurité - Identité - Rôle - SRE (monitoring) - Scalabilité - Event driven - Anglais professionnel (présentations ponctuelles devant une 100aine de collaborateurs) Ainsi que les compétences techniques suivantes : - IAM - Lambda - Python - Terraform - Terragrunt - CDKTF - Typescript - Bash - Github Actions - Services Managés - FinOps - Postman La mission est disponible avec 2 jours de TT par semaine à Paris centre.

CDI
Freelance

Offre d'emploi
Ingénieur Python DevOps H/F

STORM GROUP
Publiée le
DevOps
Docker
Python

3 ans
10k-60k €
Île-de-France, France

1 - Contexte et objectifs de la prestation Le pole est en charge de : La valorisation des données de SI avec l’utilisation des outils de Data Visualisation, ML & AI La production des innovations avec l’utilisation de ML/IA pour répondre aux enjeux d’efficacité, réduction des risques, cybersécurité etc. L'assistance à l’adoption de l’IA en sein des entités IT Le bénéficiaire souhaite améliorer la qualité de la gestion de ses systèmes informatiques. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de développement Conception et développement. Dans ce cadre la prestation consiste à contribuer à/au(x) : Développement des users stories L'évolution d'une application qui traite des données "métriques" avec l'AutoML L'automatisation, optimisation et industrialisation de traitement de donnée pour des algorithmes du machine learning et l'intelligence artificielle Maintien des pipelines de données exploité par les applications en développement par l'entité DVA Evolution des APIs et l'interface Web pour exposer les services aux bénéficiaires IT 2 - Livrables attendus Les livrables attendus sont : • Développement des users stories • L'évolution d'une application qui traite des données "métriques" avec l'AutoML • Automatisation, optimisation et industrialisation de traitement de donnée pour des algorithmes du machine learning et l'intelligence artificielle • Maintien des pipelines de données exploité par les applications en developpement par l'entité DVA • Evolution des APIs et l'interface Web pour les services aux bénéficiaires IT

Freelance

Mission freelance
DBA Oracle/SQL Consultant

Enterprise Digital Resources Ltd
Publiée le
Ansible
dBase
Linux

6 mois
100-600 €
Hauts-de-France, France

Notre Client recherche pour cette mission un consultant DBA Oracle/SQL pour participer à un programme d’envergure nationale, en intégrant une organisation orientée DEVOPS dans un projet visant l’état de l’art de la sécurité. Les tâches au quotidien seront: - Être partie prenante du projet dès son lancement afin d’apporter ses conseils et son expertise sur l’architecture à fournir en fonction du besoin exprimé par les clients - Installer et configurer les serveurs de bases de données selon les règles et standards propres à l’écosystème du client - Prendre en charge le diagnostic et la résolution des incidents et gérer les demandes d’évolution et de chargement des Bases de données - Participer à l’automatisation des process d’installation, de mises à jour et de rechargement des bases de données - Mettre en œuvre la sécurité des bases de données, les normes et les lignes directrices - Résoudre les problématiques de performance, grâce à ses capacités d'analyse - Formuler des propositions d’optimisation - Travailler sur des projets stratégiques et complexes, à forts enjeux et sur leur passage en production - Travailler de façon transverse avec les autres entités de systèmes, réseau, exploitation, sur des sujets communs à forte valeur ajoutée (virtualisation, OpenShift, Ansible…)

Freelance
CDI

Offre d'emploi
Ingénieur DATAVIZ TABLEAU Software H/F

STORM GROUP
Publiée le
Microsoft Power BI
MySQL
Python

3 ans
10k-65k €
Île-de-France, France

1 - Contexte et objectifs de la prestation La vision de GCOO (Group Chief Operating Office) est de permettre une excellence opérationnelle de premier ordre dans l’ensemble du Groupe en s’appuyant sur la Technologie (digital, données et IA) et les Talents. GCOO s'appuie sur ses 5 filières pour répondre aux ambitions stratégiques : • Systèmes d'information : Vers plus d'économie d'échelle, de résilience et de croissance • Immobilier : Réduire la consommation d’énergie des bâtiments et optimiser l’expérience des collaborateurs dans l’ensemble du Groupe • Achats : Vers des achats plus durables et plus de synergies • Data Office Groupe : Devenir le meilleur de sa catégorie en matière de transformation des données et bâtir la Banque de demain • Global Solution Centres (GSC) : Vers plus de valeur ajoutée pour les BU GCOO, le département des Infrastructures informatiques (Global Technology Services) est au cœur de la transformation du modèle opérationnel du groupe. Le département Digital Workplace Services a pour responsabilité de définir et d'exploiter les moyens mis à disposition de l'utilisateur final (poste de travail, imprimantes, téléphones portables, assistances personnelles, etc.) et toutes les infrastructures techniques associées (annuaires techniques, services de fichiers, sécurité, etc.). Au sein de l'entité, le service Data Office est en charge de l'ensemble des activités liées à la Data du département, et tout particulièrement sa valorisation. La maitrise fonctionnelle des données associées au Workplace (technique, mesure de la satisfaction utilisateur, etc) est un plus. Le bénéficiaire souhaite mettre en œuvre plusieurs évolutions de son socle technique. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de Data Analysis Dans ce cadre, la Prestation consiste à contribuer à/au(x) : • Conception : Contribution aux ateliers de conception de nos solutions, conseils en vue de la création de la Data Visualisation • Collecte et extraction des données : Collecte et rassemblement des données pertinentes à partir de diverses sources (Datalake Groupe, Référentiels Groupes, autre sources, etc...) • Nettoyage et préparation des données : Gestion des données pour éliminer les erreurs et les redondances, et préparation pour une analyse précise. • Visualisation des données (activité principale) : Création des visualisations claires et informatives pour répondre aux besoins ; Outil utilisé dans notre environnement : Tableau Software (Desktop, Prep) ; (PowerBI en étude) • Traitement et maintenance des dashboards : implémentation et maintien en condition opérationnelle de champs calculés complexes et dashboards associés • Documentation : information sur les avancées en matière d’outils et de techniques d’analyse de données pour améliorer continuellement les méthodes utilisées. Contexte anglophone. Méthodologie de travail : AGILE Scrum.

Freelance

Mission freelance
Data engineer Python

KEONI CONSULTING
Publiée le
ETL (Extract-transform-load)
Python
Scrum

12 mois
100-450 €
Paris, France

Contexte : La Direction Technique du Numérique mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction Data a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l’expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d’aide à la décision. Avec pour objectif d’accélérer dans le déploiement de la Gouvernance des données au sein de notre plateforme Data, nous souhaitons constituer une nouvelle équipe en charge de déployer les différents datasets organisés par domaine de données. Cette équipe est composée d’un product owner, d’un data steward et d’un data ingénieur. Notre stack technique est principalement constituée de Python, Spark, SQL, dbt, BigQuery et Airflow pour l’orchestration des traitements. La stack inclut aussi d’autres services de la Google Cloud Platform. 1- Déployer les datasets normés sur un ou plusieurs des data domain suivants : Utilisateurs, Comportements et Référentiels 2- Accompagner les utilisateurs dans leurs usages 3- Mettre en place le contrôle qualité sur ces datasets MISSIONS : En interaction avec les membres de l’équipe, mission consistera à - Construire et maintenir de pipelines data robustes et scalables - Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données - Organiser et structurer le stockage des données -Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données - Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité des données -Construire et maintenir les workflows de la CI/CD centrés données - Collaborer avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur - Participer à la guilde des data ingénieurs - Assurer l’évolutivité, la sécurité, la stabilité des environnements - Contribuer et veiller à la mise à jour de la documentation - Faire de la veille technologique active dans le domaine - Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe

Freelance

Mission freelance
DATA ENGINEER

PARTECK INGENIERIE
Publiée le
AWS Cloud
Python
Snowflake

36 mois
100-520 €
Paris, France

QUALIFICATION ET GESTION DES DONNÉES : • Capte les données (structurées et non structurées) produites dans les différentes applications ou à l’extérieur de l’entité • Intègre les éléments • Structure la donnée (sémantique, etc.) • Cartographie les éléments à disposition • Nettoie la donnée (élimination des doublons, …) • Valide la donnée • Éventuellement, il crée le référentiel de données Implémenter les fonctionnalités en accord avec le PO et le Tech Lead Implémenter des algorithmes data complexes (principalement sur snowflake) Optimisation des ressources utilisées par ces algorithmes et passage à l'échelle Réaliser la maintenance en condition opérationnelle de ces algos Savoir écrire des requetes sql complexes et les optimiser Participer activement à la construction de l'architecture cible snowflake +++ lambda / Step Function AWS RDS PostgreSQL Python

Freelance

Mission freelance
Ingénieur Data (Snowflake)

Phaidon London- Glocomms
Publiée le
AWS Cloud
Big Data
Python

12 mois
500-650 €
Paris, France

En partenariat avec un cabinet de conseil partenaire de Snowflake, GloComms recherche un ingénieur de données senior doté d'une vaste expérience et d'une solide expérience dans Snowflake. Poste : Ingénieur Data Snowflake Durée : Projet de 12 mois Lieu : France Remote: Oui - Déplacements occasionnels dans l'un des bureaux de nos clients à Paris ou à Lyon Date de début : Octobre Contrat : Freelance (Portage Salarial, Autoentrepreneur, SASU) Principales responsabilités : Vous concevrez, construirez et installerez des systèmes de gestion de données hautement évolutifs Maintiendrez et testerez l'infrastructure de données et fournirez un support si nécessaire Contribuerez à la migration de l'on-prem vers Snowflake Collaborerez étroitement avec les autres Data Scientists pour créer et améliorer le produit du client Contribuer aux meilleures pratiques en matière de données au sein de l'équipe et de l'entreprise Profil du candidat idéal : 6+ années d'expérience professionnelle en ingénierie des données et au moins 2+ années avec Snowflake Idéalement, avoir déjà travaillé sur des projets de migration vers Snowflake Vaste expérience du langage de programmation avec Python, SQL ou Java Connaissances/expérience solides des principes de l'architecture des données et des couches de la plateforme de données Expérience supplémentaire également sur 1 ou plusieurs outils ETL/ELT dans Talend ou Informatica Une expérience dans le cloud est un plus (AWS, Azure ou GCP) Anglais courant

Freelance

Mission freelance
Tech Lead Ops

ESENCA
Publiée le
BigQuery
DevOps
Google Cloud Platform

3 mois
450-500 €
Lille, Hauts-de-France

Description du Projet : Au sein de l'équipe rattachée au domaine AI Solutions, vous jouerez un rôle crucial dans la supervision technologique et la scalabilité de deux suites de produits d'intelligence artificielle phares, destinés à l'ensemble de l'écosystème du groupe. Votre mission en tant que Tech Lead, sera de garantir l'efficacité, et la scalabilité de ces solutions, tout en vous assurant de leur alignement avec la stratégie technologique . L’équipe aujourd’hui constituée de 5 personnes est en forte croissance. *Vos principales missions : Leadership et Expertise Technique : > Fédérer l'équipe technique : Instaurer un environnement collaboratif et bienveillant, en guidant les développeurs vers les meilleures pratiques (DevOps, CI/CD, tests automatisés). > Garantir la réalisation de la roadmap : Superviser la roadmap produit en collaboration avec les Product Owners, en vous assurant de son adéquation avec la stratégie technologique en place > Décisions architecturales et sécurité : Prendre des décisions éclairées concernant l'architecture des solutions Excellence Opérationnelle et Innovation : > Maintien en conditions opérationnelles : Assurer la stabilité, la performance et la fiabilité des solutions. > Interopérabilité des technologies : Collaborer étroitement avec les autres Tech Leads de la plateforme. > Mise en place des bonnes pratiques : Promouvoir et implémenter les meilleures pratiques de développement et de DevOps. Collaboration et Amélioration Continue : > Support et assistance utilisateurs : Être à l'écoute des besoins des utilisateurs et leur garantir une expérience optimale. > Participation active aux processus de revue : Contribuer activement aux MOBs, pair reviews et autres mécanismes de collaboration pour améliorer continuellement la qualité du code et des produits. > Conformité au framework Global Ready : Veiller à la conformité des solutions avec les standards du framework technologique, en travaillant en étroite collaboration avec les équipes transverses Tech & Data.

890 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous