Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 208 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI

Offre d'emploi
Tech Lead Front (h/f)

SCALIAN
Publiée le
Angular
Apache Maven
AWS Cloud

12 mois
50k-60k €
Paris, France

Vous interviendrez en tant que TechLead Front transverse sur tout le domaine CRM METROPOLE. Ce département met à disposition de nos téléconseillers du monde entier les outils nécessaires à la commercialisation des offres et à la gestion des abonnés. Votre rôle et vos missions :  Participer aux développements demandant votre expertise et au design de la refonte de nos outils fronts back-offices.  Participer à la montée en compétence et à la coordination des développeurs fronts des différentes équipes (basés en France ou au Vietnam) : sur leurs pratiques de développements ou leurs connaissances des outils.  Collaborer et challenger les besoins métiers proposés par les POs  Travailler en collaboration avec les architectes et les équipes (code review, pair programming ...) pour faciliter la conception et l’implémentation des solutions pour répondre aux besoins du métier  Être acteur et garant du partage de la connaissance de nos solutions techniques via la mise place ou la mise jour de documentation technique.  Mettre sur pied une roadmap technique, la suivre et s’assurer de son bon déroulement, afin de garantir la pérennité des composants applicatifs dont vous aurez la responsabilité.  Être capable de fédérer les développeurs des équipes autour de sujets visant à garantir la qualité de nos solutions : réduction de la dette technique.  Être en étroite collaboration avec les équipes DEVOPS afin de garantir le bon fonctionnement de nos usines de déploiement. Contribuer à leurs améliorations et s’assurer que les équipes en prenne connaissance.  Être acteur et garant de l’innovation aux seins des équipes : veille technologique et partage avec les équipes.

Freelance

Mission freelance
Lead Dev full stack Java Angular (+10 ans d’exp)

ATRIUM SI
Publiée le
Angular
Apache Kafka
Java

1 an
400-620 €
Paris, France

Dans le cadre du développement des applications de gestion du client, notre client recherche un Lead Dev qui interviendra dans une équipe agile de la DSI France. Il aura pour mission : Participer à la conception, au développement et à l’évaluation des features à implémenter dans le respect des normes, de l’ergonomie et des bonnes pratiques d’ingénierie logicielles en vigueur le client, Participer au maintien en conditions opérationnelles des applications développées par l’équipe, Animer et faire progresser l’équipe (conception partagée, atelier technique ...), Assumer le backup du techlead de l’équipe.

Freelance

Mission freelance
Ingénieur Data Senior / Leader Technique (Expert Data Vault)

Phaidon London- Glocomms
Publiée le
Apache Hive
Apache Kafka
ETL (Extract-transform-load)

12 mois
600-700 €
Île-de-France, France

Titre du poste : Ingénieur Data Senior / Leader Technique (Expert Data Vault) Lieu : Paris, France (Hybride : 3 jours de télétravail par semaine) Langue requise : Français courant Nous recherchons un Ingénieur Data Senior / Leader Technique avec une vaste expérience en Data Vault pour diriger un projet de migration de données important à Paris. Le candidat retenu ne se contentera pas de guider les efforts de migration, mais jouera également un rôle clé dans la constitution et le mentorat d'une équipe de data engineers performante. Responsabilités principales : Diriger et exécuter la migration de systèmes de données complexes Concevoir des solutions de données en utilisant la méthodologie Data Vault Construire et gérer une équipe d'ingénieurs de données, en favorisant un environnement collaboratif et innovant Collaborer avec des équipes transversales pour fournir des plateformes de données évolutives et efficaces Superviser et optimiser les flux de données dans Hadoop , HDFS , et Kafka Assurer les meilleures pratiques dans les processus ETL et l'ingénierie des données Exigences : Expérience avérée avec Data Vault Maîtrise de PySpark, Hive, Hadoop, HDFS, Kafka, SQL, outils ETL Français courant (à l'oral et à l'écrit) Expérience dans la gestion de projets de migration de données Compétences solides en constitution et en gestion d'équipe Les entretiens commenceront cette semaine. Postulez dès maintenant pour diriger un projet de migration transformateur et façonner l'avenir de l'ingénierie des données avec nous.

Freelance

Mission freelance
Ingénieur MLOPS

STHREE SAS pour COMPUTER FUTURES
Publiée le
Apache Airflow
AWS Cloud
Google Cloud Platform

3 mois
100-380 €
Montpellier, Occitanie

Nous recherchons pour un de nos clients basés à Montpellier un consultant MLOPS, pour une mission freelance (longue visibilité) avec une possibilité de Pré embauche sous 1 an de mission Vos principales responsabilités : Concevoir et développer des solutions logicielles pour l'IA et la gestion des flux de données. Proposer et implémenter des stratégies novatrices pour l'extraction, le traitement et l'analyse de l'information. Assurer le déploiement, le test et la maintenance des solutions MLOps. Vous serez également en charge de : Participer aux rituels de gestion de projet (Agile ou cycle en V). Rédiger de la documentation technique détaillée. Réaliser une veille technologique proactive autour des données et de leur traitement. Votre profil : Formation : Diplôme d'Ingénieur ou équivalent (Bac+5) en sciences ou informatique. Expérience : Expertise avérée sur des projets en data & IA, avec une forte inclinaison pour le développement et une culture solide en data et DevOps. Compétences Techniques : DevOps : Maîtrise de GitHub, Docker, Kubernetes. Outils : MLFlow, Expérience avec Airflow. Plateformes : Connaissance de Spark (Databricks) ou GCP (Vertex AI), AWS, . Langages : Excellente maîtrise de Python et Scala. Qualités Personnelles : Esprit d'équipe, passion pour la data, autonomie et capacité d'adaptation.

Freelance

Mission freelance
Architecte middleware & Expert Solution - Proof of Value - API MANAGEMENT

PROPULSE IT
Publiée le
API
architecte
Management

24 mois
300-600 €
Paris, France

Contexte Un APIM est une plateforme qui facilite la gestion, la publication et la supervision des API, essentielles pour intégrer des services tiers internes ou externes. Les principales problématiques du groupe résident dans l'efficacité opérationnelle, la sécurité des données (les apis exposés sur le web), la facilitation des intégrations avec les partenaires internes et externes et la résorption de l'obsolescence dont l'APIM est un accélérateur (Biztalk) ainsi que la gouvernance liée à la mise en place de ce type d'outils transverses. La réalisation d'un Proof Of Value nous semble essentielle pour évaluer la pertinence des solutions envisagées dans notre environnement spécifique. Cela permettra de tester l'intégration, la sécurité, et l'évolutivité avant une adoption à l'échelle du groupe. Ce POV API Management devra répondre à plusieurs enjeux : Sécurité du SI : mieux maitriser l'exposition de nos API vers l'extérieur (par exemple pour les fuites de données), anticiper le déploiement de la directive NIS 2 pour les places de marché - Productivité de nos équipes dev et ops : améliorer le déploiement et la mise en œuvre de nos APIs, exposer plus facilement des API depuis nos infrastructures mainframe - Gouvernance : meilleure connaissance et maitrise de notre patrimoine d'API - Pour ce faire nous allons tester deux solutions APIM sur deux cas d'usages différents : Software AG My WebMethod & Google APIGEE Description L'expert solution APIM devra principalement nous aider à déployer les deux solutions Software AG & APIGEE, notamment en : • D'accompagner les équipes de production pour le paramétrage et déploiement (CI/CD, réseau, IAM/IDP…) • D'accompagner les équipes de développement pour déployer les API dans les solutions • D'accompagner les équipes de sécurité pour paramétrer dans la solution les règles SSI • D'accompagner les équipes architecture pour la gouvernance des API Livrables - Software AG My WebMethod & APIGEE fonctionnels pour le POV (on prem pour MyWebMethod & Hybride pour APIGEE) - Connecteurs APIsation (Software AG) du Mainframe déployés - API Mainframe et commerce déployées sur les portails et solutions APIM - Intégration de la solution APIM APIGEE dans la CI/CD groupe - Paramétrage de la sécurisation des APIs - Documentation des différents travaux Compétences - Expertise APIGEE - plateforming & développement - Connaissance Software AG - platforming & développement - Connaissance en outillage DEVOPS - Confirmé en environnements Cloud - Expertise en Architecture Middleware

CDI
CDD

Offre d'emploi
Expertise ingénierie - campagnes de Performance

CAPEST conseils
Publiée le
Apache Kafka
Grafana
Linux

3 mois
10k-187k €
Vitrolles, Provence-Alpes-Côte d'Azur

Nous recherchons un futur salarié Capest pour cette mission. Notre client n'accepte pas d'indépendant pour cette mission. Contexte de la mission Dans ce contexte technologique, il est critique de garantir l’atteinte d’un Référentiel de Performance : cela se traduit en réalisant des campagnes de Performance et étant force de proposition d’évolution(s) qui permettrai(en)t de l’atteindre. Dans ce cadre, une part importante de l’activité consiste, en amont de la Mise en Production des solutions SI délivrées par les projets, à définir et valider le Référentiel de Performance à atteindre, réaliser la conception, l’exécution, le reporting et l’analyse des résultats des campagnes de Performance, ainsi que la formalisation des anomalies, incidents et recommandations d’amélioration. Intervenir dans la modélisation des documents de référence, la planification et la réalisation des tests de performance sur plate-forme HP ALM ou Jmeter en accord avec les objectifs des projets Métiers et ceux de la Production ; Assurer le suivi et la mise en place en place de la méthodologie des tests de performance dans les projets Métiers ; Accompagnement à la définition des solutions et des politiques techniques de métrologie, de monitoring et de supervision des infrastructures composant le système d’information, en particulier sur l’environnement technique des Campagnes de Performance ; Accompagnement à déployer, configurer et maintenir les outils et applications de métrologie utilisées pour surveiller le fonctionnement des infrastructures installées dans le datacenter ; Maintenir à jour le patrimoine documentaire associé, en particulier, les référentiels de Performance et les Métriques atteintes en Performance, lors des campagnes, et en Production lors des journées remarquable. Compétences demandées APM, Grafana, Graphite, Prometheus, jmxtrans, collectD, Telegraph Zookeeper Kafka Tomcat, java (jvm) Oracle 11.g, PostgrèSQL Linux Windows dont VMware Perf Center, Gatling, jmeter Apache, nginx type ELK, Nifi, Web : http, https, API REST Hazelcast

Freelance
CDI

Offre d'emploi
Data engineer AWS

Hexateam
Publiée le
Apache Spark
AWS Cloud
Databricks

24 mois
10k-60k €
Île-de-France, France

Dans le cadre de la croissance de HEXATEAM, nous sommes en quête permanente de nouveaux talents pour renforcer nos équipes. Nous cherchons actuellement deux profils Data Engineer AWS. Maîtrise des outils Databricks : Création et gestion de jobs, clusters et notebooks, ainsi que l'utilisation avancée de SQL pour effectuer des requêtes efficaces. Maintien en condition opérationnelle de la plateforme en production : Analyse et correction d'incidents et de défauts. Développement de jobs d'ingestion et de transformation des données : Utilisation de Python avec Spark pour traiter de grands volumes de données. Fourniture d'une vision à long terme : Proposition d'une stratégie opérationnelle et de développement de la plateforme data. Accompagnement et promotion des bonnes pratiques : Garantir la diffusion et l'application des standards de qualité. Participation aux ateliers de conception techniques et fonctionnels : Collaboration avec les équipes pour concevoir des solutions adaptées aux besoins. Rédaction et mise à jour de la documentation technique : Veiller à la documentation et à sa mise à jour continue. Indispensable : Python Spark SQL Databricks AWS (S3, Glue, AirFlow, Cloudwatch, Lambda, IAM) GIT COULD : Big Data CI/CD : Utilisation de GitLab pour l'intégration et le déploiement continus. Outils de gestion de projets : JIRA et Confluence pour le suivi et la documentation. Méthodologie Agile : Travail en mode Scrum. Bon niveau d’anglais

Freelance
CDI

Offre d'emploi
Data Engineer (F/H)

NOSCO
Publiée le
Apache Spark
Java
Oracle

2 ans
10k-50k €
Lyon, Auvergne-Rhône-Alpes

Poste basé à Lyon avec 50% de télétravail maximum Activité principale : Ses missions tournent autour de 4 axes : o Apporter une expertise en Big Data (Spark) pour faciliter la manipulation des données o Définir les solutions techniques permettant le traitement massif de données o Mettre en place des solutions de stockage de données (SQL, NoSQL, etc.) o Veiller la sécurisation et la clarté des pipelines de données pour faciliter l’analyse et la transformation Il s’appuie si nécessaire sur les référents techniques des diverses briques si ces dernières sortent du cadre de sa mission. Il met en avant ses qualités pour mener à bien ses missions : o Autonomie, rigueur et force de proposition o Capacités d'analyse et de synthèse. o Esprit d’équipe

CDI
Freelance

Offre d'emploi
Data Engineer Java Spark H/F

STORM GROUP
Publiée le
Apache Spark
Java

3 ans
10k-60k €
Île-de-France, France

[Contexte] Pour répondre aux enjeux de la gestion des risques structurels (Liquidité et taux), la Feature Team Garliq International Entities (GIE) a bâti une plateforme ALM : GARLIQ autour du progiciel FusionRisk de Finastra. Elle répond à un double objectif : permettre aux acteurs des métiers ALM au sein des entités du groupe de calculer les métriques utiles à la gestion des risques et produire les données pour le reporting au niveau groupe. GIE assiste fonctionnellement et techniquement ses utilisateurs de plus en plus nombreux. Le bénéficiaire souhaite mettre en oeuvre plusieurs évolutions de son socle technique [La prestation consiste à contribuer à/au(x)] - La transformation bigdata (Lucid interne SG) / devops (cloud interne SG) / depuis une solution legacy VM AIX, linux, base oracle sur du code C++, shell, SQL principalement. Environnement technique : Java / Spring. Environnement : anglophone et francophone.

Freelance
CDI

Offre d'emploi
Développeur backend Open

Deodis
Publiée le
Apache Kafka
API REST
Eclipse

6 mois
40k-47k €
Montpellier, Occitanie

Mission au sein d'une tribu de notre client avec une équipe de 70 personnes sur le site de Montpellier. Cette tribu porte les produits cœur du SI bancaire (La Tenue de compte, les Dépôt à Vue, la Facturation, les Obligations Règlementaires (inclusion bancaire, clientèle fragile, déclarations FICOBA…etc) et également des parcours clients et conseillers à forts enjeux (demandes et réclamations clients, découverts, coffres physiques, coffre-fort électronique). Et plus particulièrement au sein de la squad qui gère les produits Saisies sur Compte et Réquisitions. Missions : Concevoir et Développer des programmes en Java pour le produit Saisies sur Compte. Participer au projet majeur de la squad : automatisation des saisies des Commissaires de justice (SecurAct V2). Contribuer au maintien en conditions opérationnelles des produits de la squad. En mission secondaire, l'équipier pourrait être amené à prêter assistance lors de la résolution d'incidents en production sur les 40 CR. Attendus : Conception et Développement, dans les critères de qualités, de coûts et de délais attendus au sein de la squad Saisie sur compte et Réquisitions. Avoir une vision transverse des impacts de ses travaux sur l’écosystème et les environnements de fabrication et de production.

Freelance
CDD

Offre d'emploi
Data Engineer H/F

SMARTPOINT
Publiée le
Apache Kafka
Git
Microsoft Power BI

12 mois
10k-48k €
Bois-Colombes, Île-de-France

Concevoir, réaliser, maintenir et faire évoluer les services et contenus de la PDA Mettre à disposition la donnée de tous les domaines de l’entreprise aux utilisateurs Modéliser les solutions applicatives selon les besoins métiers de l’entreprise Accompagner et développer avec les métiers des reporting et datasets à haute valeur ajoutée. HardSkills DataEngineering obligatoires: Maitrise des process d’ingestion en batch et streaming quel que soit la typologie de sourcing des données (API, Fichier (structuré, semi structuré, non structuré), BDD, …) et quel que soit le Cloud provider en entrée(AWS/AZURE). • Expertise BDD Snowflake avec minimum 3 ans d’expérience(SQL, Rôle, Virtual Warehouse, Datamodelling) • Parfaite maitrise des modèles de données. Les consultants seront référent technico fonctionnel sur plusieurs domaines métier(2 à 3 domaines suivant la complexité). • Très bonne maitrise des langages Javascript(impératif), SQL, T-SQL, PowerShell, Python. • Création d’app, aisance sur Notebook avec bibliothèques afférentes (ex : Panda, NumPy) • Optimisation de requête et performance, factorisation du code, respect de l’état de l’art • Capacité d’analyse avancée pour résoudre les incidents techniques ou fonctionnels avec Tests unitaires et code quality. • Développement de cube tabulaire PBI (M et DAX) • Support Niveau 3 sur le périmètre des socles applicatifs et reporting associés • Parfaite maitrise de GIT et connaissance d’un outil de gestion de configuration tel que Azure Devops(Méthode GITflow / GITHubflow), CI/CD/Artefact) • Interlocuteur technique privilégié avec les supports éditeurs (Microsoft, Snowflake) • Mise en place et Monitoring de l'infrastructure • Développement script d’administration • Développement d’alertes de sécurité • Veille au respect de l'état de l'art pour les langages de développement (SQL, C#, Powershell) • Revue et amélioration de code (SQL, C#, Powershell) • Maintenance et développement en amélioration continue du framework d’alimentation et de supervision de la plateforme PDA (.net/Powershell/Javascript) • DBA étude : Code review, audit et validation des PR, optimisation de requête et performance/factorisation, veille au respect des bonne pratique de code, Contrôle et ajustement des performances des bases de données (SQL Serveur, Snowflake, Azure SQL) • DBA Système : Conception et implémentation des modèles de sécurité des bases de données, gestion de la performance des bases de données, monitoring et résolution d'incidents • Développement de pipeline CI/CD, Artefact, repo et taches Azure Devops • Mise en place des bonnes pratiques (technique, fonctionnel, corpus documentaire) • Animation de communauté Développeur

Freelance

Mission freelance
Data Engineer BI

CHARLI GROUP
Publiée le
Apache Spark
Apache Sqoop
BigQuery

3 ans
100-560 €
Île-de-France, France

➢ CONTEXTE * Au sein du domaine Data BI nous recherchons un Data Engineer qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l’équipe. À la suite d’une passation avec notre centre de service, il devra également être en mesure d’innover et d’améliorer les processus existants pour perfectionner l’efficience de l’équipe au quotidien dans ses différentes tâches. ➢ DESCRIPTION DE LA MISSION • Participe à l’analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l’analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l’acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d’étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d’alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d’exploitation) • Être force de proposition sur l’amélioration de notre stack Data • Faire le reporting d’avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S’assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l’équipe

CDI
Freelance

Offre d'emploi
Data Engineer Hadoop SQL Spark

Signe +
Publiée le
Apache Spark
Big Data
engineer

24 mois
45k-50k €
Lille, Hauts-de-France

Site : Lille (2 J / semaine sur site, le reste possible en TT) Nature du besoin : reprise d'un périmètre existant qui était délivré par un autre prestataire. Transition entre l'ESN et le prestataire sortant de 2 mois sur octobre/novembre. Forts enjeux car migration technique en cours avec échéance à fin d'année Date de démarrage : 1/10/2024 Durée mission : 12 mois renouvelables Type de projet : forfait, scrum team avec Tech Lead Process de qualification : Entretien Mission : Réaliser l'intégration des données depuis un Espace Produit basé sur Hadoop et précalculer des indicateurs pour les injecter dans des rapports Power BI Profil : besoin de 2 Data Engineer SQL Spark de 3 à 7 ans d'expérience Compétences techniques: Hadoop / Spark / SQL. Stack technique : Hadoop, HDFS, HIVE, SparkSQL, MS-SQLServer Activités : De conception et de développement en mode Agile

Freelance

Mission freelance
Ingénieur MLOPS Montpellier (Pré embauche sous 1 an de mission)/ri

WorldWide People
Publiée le
Apache Spark
Databricks

12 mois
330-440 €
Montpellier, Occitanie

Ingénieur MLOPS Montpellier (1 Senior et 1 Junior) DevOps : Maîtrise de GitHub, Docker, Kubernetes. Outils : MLFlow, Expérience avec Airflow. Plateformes : Connaissance de Spark (Databricks) ou GCP (Vertex AI), AWS, . Langages : Excellente maîtrise de Python et Scala. Pré embauche sous 1 an de mission ASAP Vos principales responsabilités : Concevoir et développer des solutions logicielles pour l'IA et la gestion des flux de données. Proposer et implémenter des stratégies novatrices pour l'extraction, le traitement et l'analyse de l'information. Assurer le déploiement, le test et la maintenance des solutions MLOps. Vous serez également en charge de : Participer aux rituels de gestion de projet (Agile ou cycle en V). Rédiger de la documentation technique détaillée. Réaliser une veille technologique proactive autour des données et de leur traitement. Votre profil : Formation : Diplôme d'Ingénieur ou équivalent (Bac+5) en sciences ou informatique. Expérience : Expertise avérée sur des projets en data & IA, avec une forte inclinaison pour le développement et une culture solide en data et DevOps. Compétences Techniques : DevOps : Maîtrise de GitHub, Docker, Kubernetes. Outils : MLFlow, Expérience avec Airflow. Plateformes : Connaissance de Spark (Databricks) ou GCP (Vertex AI), AWS, . Langages : Excellente maîtrise de Python et Scala. Qualités Personnelles : Esprit d'équipe, passion pour la data, autonomie et capacité d'adaptation.

CDI
Freelance

Offre d'emploi
Développeur Java VueJS (F/H)

CELAD
Publiée le
Apache Maven
API REST
Hibernate

12 mois
35k-55k €
Noisiel, Île-de-France

Envie d’un nouveau challenge... Nous vous attendons ! Nous poursuivons notre développement et recherchons actuellement un.e Java/J2EE pour intervenir chez un de nos clients. Votre mission consiste à intégrer l’équipe en charge du projet Facturation , dans le cadre de la généralisation de la facturation électronique pour les entreprises. Vos fonctions : Participation à la conception technique de l’application Développement des composants backend en Java/J2EE (API/Rest) et batch Réalisation des tests unitaires avec Junit Développement des interfaces graphiques avec JavaScript (VueJS)

Freelance
CDI

Offre d'emploi
Ingénieur de production +12 ans d'exp

Digistrat consulting
Publiée le
Apache Tomcat
Linux
Oracle

3 ans
40k-60k €
Paris, France

💡 Contexte /Objectifs : Réaliser le maintien d'une application sensible en production bancaire Contrainte forte du projet Convention de service 7/24 -- interventions de nuit -- astreintes Réalisation mise en production / reporting Documentations Résolution incidents en Production Compétences techniques Linux Redhat - Confirmé - Impératif scripting shell, bash, php - Confirmé - Important Oracle SQL - Confirmé - Important Connaissances linguistiques Anglais Professionnel Français Courant Dans ce service :  Une équipe de 10 personnes en charge de la production  La gestion au quotidien d’une flotte d’environ 200 serveurs Linux RedHat  Un pôle en charge : - Des déploiements applicatifs du hors Prod jusqu’à la Prod - Suivi des projets - Planification des changements - Du suivi et la planification des changements - De participer aux cellules de crises lors d’un incident en Production  Un pôle en charge de : - La gestion du stock des incidents affectés au service de niveau 2 à 3 aussi bien sur des sujets techniques que fonctionnels - Être moteur pendant les cellules de crise lors d’un incident en Production et s’assurer la remontée et le suivi des éléments techniques et fonctionnels auprès de nos fournisseurs - Participer aux comités opérationnels avec nos différents fournisseurs autour de nos problématiques et incidents : Odigo, Link Mobility, Idemia, Docaposte, eWorldline - Contribuer à l’élaboration de nouvelles chaines d’ordonnancement et le suivi au quotidien des chaines existantes - Optimiser la supervision de l’application via Zabbix, Theia (Elastic), AppDynamics, Grafana pour être le plus proactif possible dans la détection d’un incident  Des besoins communs aux deux pôles : - Assurer des astreintes et des interventions en HNO - Être en mesure d’échanger avec des interlocuteurs très variés (équipes projets applicatif, équipes réseau, sécurité, infra) - L’innovation : identifier et réaliser différentes actions pour améliorer notre quotidien (création/amélioration de scripts, projet de mise en œuvre d’un portail « météo des services », rédaction de procédures pour un nouvel usage/outil, etc.)

208 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous