Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 264 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

CDI
Freelance

Offre d'emploi
Analyste d'exploitation Rouen

ITS GROUP
Publiée le
Apache Tomcat
Centreon
Linux

1 an
10k-50k €
Rouen, Normandie

Au sein du Pôle Exploitation, prendre en charge : • Le Maintien en Conditions Opérationnelles (MCO) des applications en production qui représente environ de 90% des activités de la prestation. Cette activité couvre principalement : o Le contrôle d’exploitation o L’analyse et la résolution des incidents o La prise en compte et la réalisation de demandes de services • L’évolution applicative des composants au regard des besoins métiers qui représente environ de 5 à 10% des activités de la prestation. • Le support aux équipes de développement, qui représente environ 1% des activités de la prestation. La prestation comprend aussi la réalisation, la mise à jour et l'enrichissement des documentations relatifs aux activités listées. Connaissances ITIL. Tâches de la mission : • Contribue à l’amélioration du service de supervision en vue d’une détection efficacedes incidents et en rédigeant des consignes de reprises pour les services supervisés.• Procède à l’analyse des tickets d’incidents et à leur résolution• Assure la réalisation de demandes de service en analysant leurs impacts potentiels• Met à jour les consignes d’exploitation• Assure les installations des correctifs urgents et fonctionnels • Participe aux cellules opérationnelles lors des incidents de production

CDI

Offre d'emploi
Consultant SecOp (F/H).

ISE SYSTEMS
Publiée le
Apache Hive
ELK
QRadar

40k-65k €
Puteaux, Île-de-France

Description du poste : En tant que consultant SecOp au sein de notre ESN pure player de la cybersécurité (membre d’Hexatrust), vous jouerez un rôle essentiel dans la protection des infrastructures informatiques de nos clients. Vous serez responsable de la surveillance proactive, de la détection des menaces et de la réponse aux incidents, tout en travaillant sur des projets variés pour améliorer la sécurité globale des systèmes d'information. Ce poste requiert une expertise technique étendue ainsi que la capacité de gérer efficacement les situations critiques et les vulnérabilités complexes. Responsabilités : Effectuer la surveillance continue des systèmes et réseaux pour détecter les activités suspectes et les intrusions potentielles. Analyser les alertes de sécurité, enquêter sur les incidents et répondre rapidement pour minimiser l'impact. Gérer les vulnérabilités en réalisant des évaluations de sécurité, en appliquant des correctifs et en recommandant des solutions de mitigation. Participer à la conception et à la mise en œuvre de mesures de sécurité préventives et réactives. Collaborer avec les équipes internes et les clients pour fournir des conseils stratégiques et des recommandations de sécurité.

Freelance

Mission freelance
Data Engineer GCP Finance

HIGHTEAM
Publiée le
Apache Spark
BigQuery
Google Cloud Platform

3 ans
400-550 €
Île-de-France, France

Dans ce cadre, nous recherchons un développeur Full Stack, ayant une solide expérience dans le Cloud GCP Récupérer les données issues de sources externes • Utiliser la puissance du Data Lake • Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le data Lake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner. • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels • Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise • Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent • Acheminement de la donnée • Mise à disposition de la donnée aux équipes utilisatrices • Mise en production de modèles statistiques • Suivi de projet de développement • Développement job spark • Traitement et ingestion de plusieurs formats des données • Développement des scripts • Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données • Développement des moyens de restitution via génération de fichier et ou API & Dashboarding • Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers • Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des Spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) • Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP • Participer à la conception, mise en place et administration de solutions Big Data • Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data Lake via des topics Kafka • Normalisation et agrégation des données afin de produire les rapports sous forme de Business View

CDI

Offre d'emploi
Ingénieur DevOps BigData

nextSourcia
Publiée le
Apache Kafka
Big Data
DevOps

10k-50k €
Toulon, Provence-Alpes-Côte d'Azur

Notre client, acteur majeur du secteur de la défense, participe à l'innovation et à la sécurisation des systèmes d'information critiques. Dans le cadre de l'amélioration de ses capacités de gestion des données, il développe des solutions avancées pour la collecte, l'indexation et l'exploitation des informations stratégiques au sein de son infrastructure Big Data. Mission : Vous serez responsable de la mise en œuvre et de l’exploitation des solutions de gestion de données au sein des systèmes d’information. Vous interviendrez sur l’ensemble du cycle de vie des plateformes Big Data en utilisant les technologies ElasticSearch, Logstash et Cloudera CDP. Responsabilités : - Assurer la mise en œuvre et l’exploitation des solutions de collecte, d’indexation et de recherche de données (ElasticSearch/OpenSearch, Logstash, Kafka). - Gérer et maintenir les plateformes basées sur Cloudera CDP. - Effectuer le Maintien en Condition Opérationnelle (MCO) des composants de la plateforme Datalake. - Garantir la disponibilité et la performance des infrastructures Big Data en exploitant les clusters associés. - Superviser et analyser les performances via des outils comme Kibana et Grafana.

Freelance
CDI

Offre d'emploi
Développeur backend Open

Deodis
Publiée le
Apache Kafka
API REST
Eclipse

6 mois
40k-47k €
Montpellier, Occitanie

Mission au sein d'une tribu de notre client avec une équipe de 70 personnes sur le site de Montpellier. Cette tribu porte les produits cœur du SI bancaire (La Tenue de compte, les Dépôt à Vue, la Facturation, les Obligations Règlementaires (inclusion bancaire, clientèle fragile, déclarations FICOBA…etc) et également des parcours clients et conseillers à forts enjeux (demandes et réclamations clients, découverts, coffres physiques, coffre-fort électronique). Et plus particulièrement au sein de la squad qui gère les produits Saisies sur Compte et Réquisitions. Missions : Concevoir et Développer des programmes en Java pour le produit Saisies sur Compte. Participer au projet majeur de la squad : automatisation des saisies des Commissaires de justice (SecurAct V2). Contribuer au maintien en conditions opérationnelles des produits de la squad. En mission secondaire, l'équipier pourrait être amené à prêter assistance lors de la résolution d'incidents en production sur les 40 CR. Attendus : Conception et Développement, dans les critères de qualités, de coûts et de délais attendus au sein de la squad Saisie sur compte et Réquisitions. Avoir une vision transverse des impacts de ses travaux sur l’écosystème et les environnements de fabrication et de production.

Freelance
CDI

Offre d'emploi
Intégrateur DevOps

NOSCO
Publiée le
Angular
Ansible
Apache Kafka

2 ans
10k-54k €
Lyon, Auvergne-Rhône-Alpes

Poste basé à Lyon avec 50% de télétravail maximum Activité principale : o Participation à l'amélioration continue de l'infrastructure, diagnostic et résolution des incidents de production et suivi de RUN o Maintenance et évolution de jobs Jenkins et CI/CD o Livraison en recette, production o Amélioration des métriques applicatives et des dashboards en place (Grafana) o Amélioration et exécution des tirs / scénarii de performance o Maintenance et amélioration de l'Infrastructure-as-code o Communication avec les équipes de développement et avec l'exploitant Activité secondaire : o Rédaction et maintien des documentations techniques o Mise en oeuvre des méthodes de modélisation des données et des traitements o Animation de réunions

CDI

Offre d'emploi
Ingénieur.e développement Java

Rædy
Publiée le
Angular
Apache Kafka
CI/CD

10k-55k €
Île-de-France, France

🎯 Rejoignez-nous en tant que Développeur Java en CDI ! 🎯 🔍 Nous sommes à la recherche d'un(e) développeur(se) passionné(e) pour explorer les micro-services et réinventer la gestion des données. Vous intégrerez une équipe dynamique et innovante, travaillant sur des projets à forte valeur ajoutée 🛠 Technologies à maîtriser : Java (versions 8 à 17+) MongoDB pour la gestion des bases de données Spring Boot avec Thymeleaf pour le développement d'applications web Docker pour la mise en place de pipelines CI 📈 Vos missions : Concevoir, développer et implémenter des micro-services modulaires et Manipuler et préparer des données complexes pour alimenter nos équipes d'analyste Optimiser et maintenir des API performantes et sécurisées, afin de garantir une communication fluide entre les services 💡 Bonus : Un intérêt marqué pour l’analyse de données, avec une envie d'exploiter au maximum leur potentiel.

Freelance
CDI
CDD

Offre d'emploi
TechLead/Architect Cloud (MLOPS/DataOps)

bdevit
Publiée le
Ansible
Apache Kafka
AWS Cloud

36 mois
55k-65k €
Île-de-France, France

Dans le cadre de ces développements, le DataLab souhaite confier à un expert Cloud, venant en renforcement de son équipe usine logicielle la mission suivante : - Travailler sur des sujets de migration de solution "On Premise" vers le Cloud ; - Mettre en place l'outillage nécessaire à l'implémentation d'une méthodologie DevSecOps ; - Assurer l'intégration dans les architectures cibles : Configurer les plateformes, Industrialiser les architectures, Définir es accès aux ressources et les optimiser ; - Assister à l'élaboration de solutions et leurs optimisations ; - Rédiger les documents techniques et les livrables projets ; - Améliorer l'architecture actuelle ; - Transférer la connaissance et la compétence aux internes du DataLab. Résultats Attendus Des Livrables : Le DevOps sera accompagné par l'équipe Usine Logicielle. Il devra par ailleurs, fournir les livrables suivantes : - Une documentation conforme aux exigences du DataLab ; - Un support de l'ensemble des applications gérées en interne ; - Un support de l'ensemble des applications des entités déployées ; - Codes Sources commentés et "reviewés" ; - Intégration de tests unitaires des fonctionnalités développées ; - Présentation et partage des travaux.

CDI

Offre d'emploi
Développeur Cockpit

Management Square
Publiée le
Apache Kafka
API
Data visualisation

43k-50k €
Massy, Île-de-France

Nous recherchons un développeur talentueux pour rejoindre une équipe dynamique dans le cadre d'un programme de transformation digitale des métiers du soutien. Votre mission principale sera de maintenir et faire évoluer une solution de cockpit basée sur la technologie QliK Sense. Missions principales : Maintenir et produire le cockpit sur la base des technologies existantes Collaborer avec l'équipe en charge de la refonte de la couche technique sous-jacente Prendre en main l'architecture existante Participer aux corrections des anomalies techniques en production Définir les données nécessaires avec les experts métier pour afficher des indicateurs pertinents Documenter et mettre en œuvre le pipeline de données (Qlik, API, Kafka) Participer à la définition de la refonte de l'architecture de données

Freelance
CDI

Offre d'emploi
Data Analyst / Data Scientist (H/F)

Accelite
Publiée le
Alteryx
Apache Maven
Apache Spark

1 an
40k-55k €
Paris, France

En tant que Data Analyst ou Data Scientist (H/F), vous contribuez au sein de grands comptes bancaires, à l’analyse, le traitement et la restitution des données bancaires et financières. A ce titre, vous avez pour missions : Recueil et analyse des besoins Rassemblement et traitement des données chiffrées Nettoyage des données afin de supprimer les doublons Réalisation d’algorithmes pour les exploiter Conception et construction des actifs informatiques dédiés au management des données (Data préparation, Data visualisation) Conception et développement du code ou des scripts qui s’appuient sur des données structurées et non-structurées en provenance de différentes sources et qui alimentent les actifs informatiques dédiés à l’exploitation des données Participation aux campagnes de tests Installation et configuration des logiciels requis dans le respect du cadre de référence Maintenance des solutions et intervention en support lorsque nécessaire Documentation des use cases et des développements effectués

Freelance
CDI

Offre d'emploi
Tech Lead big data H/F

Proxiad
Publiée le
Apache Spark
Cloud
Java

3 ans
10k-70k €
Île-de-France, France

Le Bénéficiaire souhaite mettre en œuvre le volet transformation du système d'information du programme d'amélioration du dispositif de pilotage et de certification de l'assiette risques structurels dont les objectifs sont : • Amélioration et accélération de la constitution de l'assiette risques structurels • La certification de cette assiette risques structurels cohérente comptable • Renforcer la remédiation en terme de qualité de donnée et réduire le nombre d'ajustements manuels Le bénéficiaire souhaite mettre en oeuvre plusieurs évolutions de son socle technique. A ce titre le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de conception et développement.

Freelance
CDI

Offre d'emploi
Lead Technique

NOSCO
Publiée le
Apache Spark
Java
Spring Batch

6 mois
34k-57k €
Lyon, Auvergne-Rhône-Alpes

Poste basé à Lyon avec 50% de télétravail maximum Co-lead technique et développeur Spring Batch au sein d'une équipe de 3-5 personnes. Transformer des données provenant de différents partenaires et les agglomérer en une banque de donnée partagées via une application Spring Batch. Participation au diagnostic et à la résolution des incidents de production Collaborer avec le reste de l’équipe pour trouver les meilleures solutions aux problématiques techniques rencontrées Développements et revues de code sur des problématiques techniques complexes Support technique de dernier niveau

Freelance
CDI
CDD

Offre d'emploi
Architecte Solutions à Niort

AIS
Publiée le
Ansible
Apache Tomcat
HTML

3 ans
40k-66k €
Niort, Nouvelle-Aquitaine

Construire et maintenir les normes et les principes d'architecture du SI Analyser les impacts des nouvelles solutions sur le SI, Proposer des évolutions pour les différentes applications Métier Proposer des évolutions pour les composants technologiques de l'architecture du SI en tenant compte des différentsmodèles de services. Fournir la documentation requise et mettre à jour les référentiels de l’entreprise Élaborer des recommandations pour pouvoir intégrer en toute sécurité de nouvelles solutions SI au sein de l’entreprise eten assurer la garantie de service (disponibilité, intégrité, continuité et preuve). Anticiper les besoins d'évolutions du SI et proposer/présenter les solutions Animer des présentations sur les choix d'architecture Accompagnement d'architectes débutants Rédiger : Dossier d'architecture Roadmap d'évolution des produits Mise à jour des référentiels d'entreprise : cartographie d'entreprise et patterns d'architecture Dossier d'analyse d'impact Dossier de choix de solution Stratégie d'évolution du SI

Freelance

Mission freelance
Développeur Big Data (F/H)

Quick Source
Publiée le
Ansible
Apache Kafka
Docker

2 mois
400-470 €
Île-de-France, France

Vos missions : Récupérer les données issues de sources externes Utiliser la puissance du Datalake Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. Mise en œuvre de la chaîne : -d’ingestion de données, - de validation de données, -de croisement de données, -de déversement dans le datalake des données enrichies Développer dans le respect des règles d’architecture définies Développer et documenter les user stories avec l’assistance du Product Owner. Produire les scripts de déploiement Prioriser les corrections des anomalies Assister les équipes d’exploitation Participer à la mise en œuvre de la chaîne de delivery continue Automatiser les tests fonctionnels

Freelance

Mission freelance
architecte pyspark - 3 mois

Innov and Co
Publiée le
Apache Spark
Azure DevOps Services
Databricks

3 mois
100-700 €
Boulogne-Billancourt, Île-de-France

Contrainte forte du projetFort enjeux metier Les livrables sont Package pyspark Dictionnaire / catalog de données Model de données tabulaire Compétences techniques PYTHON / PYSPARK / SPARK - Expert - Impératif Databricks/ datafactory/ azure devops - Expert - Impératif Azure Analysis Services - Expert - Impératif Integration GIT - Expert - Important Connaissances linguistiques Français Courant (Impératif) Description détaillée L'equipe Datafinance utilise actuellement une architecture basée sur Databricks, Azure Blob Storage, Azure Data Factory et Azure Analysis Services pour traiter et analyser ses données financières. Nous cherchons à optimiser les processus de traitement de ces données, en particulier le rafraîchissement des données, pour améliorer la performance et la qualité des analyses. Dans ce cadre, nous recherchons un expert en BI et Data pour une mission de 3 mois. L'objectif est d'optimiser le Temps de traitement et de rafraichissement des données. 2. Objectifs de la mission L'expert BI et Data sera chargé de : Optimiser le traitement des données du projet Data finance, en se concentrant principalement sur le processus de rafraîchissement des données entra la zone gold et le cube de données. Optimiser l'utilisation de Azure Analysis Services (modèle Tabulaire) pour les rapports et les analyses. 3. Technologies utilisées L'expert devra maîtriser les technologies suivantes : Databricks (en particulier avec PySpark). Azure Analysis Services (modèle Tabulaire). SQL . Git et Azure DevOps pour la gestion des versions et l'intégration continue. 4. Compétences requises Le candidat idéal doit posséder une expérience avérée dans les domaines suivants : Maîtrise de PySpark : pour le traitement et l'optimisation des données dans Databricks. Expertise en modélisation de données : capacité à concevoir et optimiser des modèles de données pour améliorer la performance et la gestion des données financières. Maîtrise du modèle Tabulaire dans Azure Analysis Services : pour optimiser le rafraîchissement des données et améliorer les performances des cubes. Bonne compétences en SQL 5. Livrables attendus Les livrables de la mission incluent : . Mise en œuvre des optimisations dans Databricks et Azure Analysis Services. Documentation détaillée des modifications apportées et des bonnes pratiques mises en place. Transfert de connaissances aux équipes internes pour garantir une gestion continue des processus optimisés.

Freelance

Mission freelance
Data Engineer Expérimenté - Vannes

CAT-AMANIA
Publiée le
Agile Scrum
Apache Hive
Apache Kafka

6 mois
350-490 €
Vannes, Bretagne

Dans le cadre de l'intervention pour le compte du Chapitre Data à Vannes : Le Chapitre Data intervient en transverse au sein de l'entreprise. Il recueille et fabrique les cas d'usages Data des différentes Squads de l'entreprise, sur des domaines métiers différents. Vous serez ainsi amené à travailler pour le compte de différentes Squads avec des interlocuteurs possiblement changeants. Vous serez également amené à échanger avec les autres membres du Chapitre du site de Vannes mais aussi ceux des autres sites France. Attendu : 1 - Contribuer à la Fabrication des Produits des Squads de l'Entreprise dans un environnement Cloudera - en utilisant un framework interne entreprise (sur des activités Big Data) 2 - Etre force de proposition et expertise au sein du Chapitre sur les techno manipulées Nous recherchons un Data Engineer expérimenté capable de : - Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) - Développer les solutions de collecte et de stockage des données (provenant de multiples sources) afin de le rendre disponibles pour les usages métiers - Mettre en œuvre les tests unitaires et automatisés - Déployer le produit dans les différents environnements - Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents - Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code

264 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous