Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 336 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

CDI

Offre d'emploi
Développeur BI Talend/MicroStrategy F/H

NOOEH
Publiée le
BI
Développement
Microstrategy

32k-50k €
Marseille, Provence-Alpes-Côte d'Azur

NOOEH Entreprise de Service du Numérique basée à Aix-en-Provence recherche pour le compte d'un de ses clients situés à Marseille un(e) Développeur(se) BI Talend/MicroStrategy. Vous serez en charge du développement de sujets BI avec les outils Talend et MicroStrategy, tout en assurant la coordination et le reporting de ces projets. Missions principales : Recueil des besoins métier et proposition de la modélisation adéquate des données. Développement des flux d'alimentation avec l'ETL Talend. Création de la couche sémantique pour alimenter les rapports via MicroStrategy. Tests unitaires et accompagnement des métiers lors des tests fonctionnels. Maintien en conditions opérationnelles des solutions développées. Suivi des KPI, gestion des rapports divers (Net Promoter Score, suivi des colis, etc.).

CDI
Freelance

Offre d'emploi
Data Engineer Python / SQL / Azure

Signe +
Publiée le
Azure
Big Data
engineer

24 mois
25k-30k €
Rennes, Bretagne

Profil : Experienced Data Engineer • good technical skills o Python 3.7, o Flask/Fast API (Librairie API pour python), o SQL o Modelisation (MCD, MLD, MPD) , o Azure Functions, Azure Tables, Azure Data Explorer, o API Rest / API Management. • Technical specifications and OPEN API Specifiction writing • Functionnel Specification writing Activités : Specification, Development, Correction d'anomalies.

Freelance
CDI

Offre d'emploi
Administrateur Bases de Données NOSQL (H/F)

CITECH
Publiée le
Elasticsearch
Hadoop
Mongodb

12 mois
35k-55k €
Lille, Hauts-de-France

CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation d’un projet important, nous avons LA mission pour vous ! Nous recherchons un(e) Administrateur Bases de Données NOSQL (H/F) 🚀 🚡 Entreprise reconnue dans les domaines de banques et assurances, implantée dans de nombreuses villes en France, notre client a pour objectif d'accélérer sa transformation digitale afin d’offrir toujours plus de solutions et de services innovants. 🙌🔽 Vous aurez donc les missions principales suivantes : 🔸 Participer à la mise en œuvre et à l'administration des infrastructures de bases de données NOSQL (MongoDB, Vertica, Hadoop, Elasticsearch). 🔸 Assurer la gestion quotidienne de ces infrastructures, en garantissant leur disponibilité et leur performance. 🔸 Collaborer avec l'équipe pour gérer des projets d’évolution ou de mise en œuvre de nouvelles fonctionnalités. 🔸 Participer à la définition des normes et standards des bases de données NOSQL. 🔸 Assurer un rôle d’expert de niveau 3 auprès des équipes support, analyser et résoudre les incidents, et spécifier les procédures d'exploitation.

CDI

Offre d'emploi
consultant data/BI (H/F)

PROXIEL
Publiée le
Apache Kafka
BI
Talend

42k-48k €
Montpellier, Occitanie

Bonjour, Nous recherchons un consultant data/BI (H/F) pour intégrer l'un de nos partenaires à Montpellier ou bien Aix en Provence (en hybride) : vous serez amené à : - Participer aux rituels de gestion de projet (Agile, cycle en V). - Rédiger des documentations techniques détaillées. - Assurer une veille technologique autour de la donnée et de son traitement. Vos compétences techniques (par ordre d'importance) : - BI : Qlik. - ETL : Talend, Kafka. - Bases de Données : Mongo DB, Postgres. - MDM et Gouvernance : Des connaissances dans ces domaines seraient un atout.

Freelance
CDI

Offre d'emploi
Développeur Java / Big Data H/F

ADATEK
Publiée le
Apache Spark
Azure
Java

3 ans
10k-63k €
Île-de-France, France

Le développeur Java / Big Data intégrera une équipe d'experts Big Data dans un contexte international et aura pour missions : Participer à la conception et à l'architecture des applications, des processus et des workflows. Développement Java et Spark Amélioration et stress test sur des problèmes de performance Performance tuning des jobs Spark Code review des développements Déploiements sur Azure cloud hdi cluster et kubernetes (AKS) Tests unitaires et BDD Support production

Freelance
CDI

Offre d'emploi
Administrateur Bases de Données NOSQL (H/F)

CITECH
Publiée le
Elasticsearch
Hadoop
Mongodb

12 mois
35k-55k €
Strasbourg, Grand Est

CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation d’un projet important, nous avons LA mission pour vous ! Nous recherchons un(e) Administrateur Bases de Données NOSQL (H/F) 🚀 🚡 Entreprise reconnue dans les domaines de banques et assurances, implantée dans de nombreuses villes en France, notre client a pour objectif d'accélérer sa transformation digitale afin d’offrir toujours plus de solutions et de services innovants. 🙌🔽 Vous aurez donc les missions principales suivantes : 🔸 Participer à la mise en œuvre et à l'administration des infrastructures de bases de données NOSQL (MongoDB, Vertica, Hadoop, Elasticsearch). 🔸 Assurer la gestion quotidienne de ces infrastructures, en garantissant leur disponibilité et leur performance. 🔸 Collaborer avec l'équipe pour gérer des projets d’évolution ou de mise en œuvre de nouvelles fonctionnalités. 🔸 Participer à la définition des normes et standards des bases de données NOSQL. 🔸 Assurer un rôle d’expert de niveau 3 auprès des équipes support, analyser et résoudre les incidents, et spécifier les procédures d'exploitation.

CDI
Freelance

Offre d'emploi
Lead développeur

CHARLI GROUP
Publiée le
Agile Scrum
Apache Kafka
AWS Cloud

3 ans
10k-63k €
Île-de-France, France

Le Groupe s’est engagé dans un programme de refonte de son système de distribution de produit hôtelier. Cette refonte s’appuie sur 3 piliers : - Architecture : basée sur l’APIsation - L’Infrastructure : move to cloud - L’Engineering : usage des meilleures pratiques d’engineering pour accélérer le delivery et maitriser et maintenir un haut niveau de qualité à toutes les étapes du cycle de vie de nos produits L’équipe OIer NGA & Foundational Capabilities est une nouvelle équipe qui nous souhaitons construire afin de prendre en charge deux choses : - Les évolutions et le run du servivce OIer déjà développé. - L’accélération du pilier « Engineering ». Cette équipe sera composée d’un PO (déjà en poste), d’un QA (à recruter) et d’une équipe de 2/3 développeurs (déjà en poste). Notre besoin L’enjeux sur l’aspect Engineering est double car il s’agit de mettre en place les pratiques au sein de l’équipe mais dans l’objectif de les déployer au sein de la tribe Distrbution et peut être à terme sur un périmètre encore plus large. Cette équipe sera donc un laboratoire expérimentant les choses, validant la pratiques et ses bienfaits au travers d’indicateurs. Focus sur une diIiculté à surmonter : cette nouvelle équipe va contribuer sur plusieurs repositories (de code) partagés avec une autre équipe. Il sera donc nécessaire de mettre en place une stratégie (branching management, innersource….) afin de faire en sorte que le delivery de ces 2 équipes soit le plus fluide possible. Cette future équipe cherche donc son Tech Lead, un expert des pratiques d’engineering, passionné par la technique et convaincu par la mesure de l’eIicience de ces dernières. Vos missions et responsabilités • « You build it, you run it » : S’assurer de la qualité du service délivré en production. Organiser l’astreinte et l’amélioration continue (gestion des problèmes). Cette prestation pourra donner lieu à de l’astreinte. • Concevoir et développer des solutions techniques robustes, évolutives et performantes, en utilisant les technologies et frameworks adaptés au contexte du projet (Java, Spring Boot, Kafka, MongoDB, etc.) • Accompagner et coacher les développeurs de l'équipe sur les bonnes pratiques d'engineering, telles que le TDD, le code review, le pair programming, le refactoring, etc. • Définir et mettre en place les indicateurs de qualité, de performance et de sécurité du code, ainsi que les outils de mesure et de monitoring associés • Garantir la cohérence et la compatibilité des choix techniques avec l'architecture globale du système et les besoins métiers • Faire de la veille technologique et proposer des solutions innovantes pour améliorer l'expérience utilisateur et la valeur ajoutée du produit • Participer activement à la vie de l'équipe agile, en collaboration avec le PO, et les autres parties prenantes du produit

CDI

Offre d'emploi
Administrateur Systèmes et Réseaux (H/F)

Jane Hope
Publiée le
Administration linux
Apache
HAProxy

35k-40k €
Montpellier, Occitanie

Notre client, une centrale d’achat basé à Montpellier (34) est à la recherche d’un Administrateur Systèmes et Réseaux (H/F) en CDI pour compléter ses équipes ! Notre client est spécialisé dans l’externalisation des achats et des approvisionnements de produits non stratégiques dans les grands groupes industriel (70% de nos clients font partie du CAC40). Créée en 1994, notre client est désormais le leader français sur son marché et connaît un développement important, à la fois en termes de croissance et de compétences métier. Le service IT est une vraie équipe composée de 6 personnes ! Et elle va continuer à grandir et s'étoffer sur les prochaines années. L’équipe intervient sur plusieurs projets différents (développement d'une Marketplace, digitalisation des outils, développement de la BI ...) et cherche donc à se renforcer avec de nouvelles compétences ! MISSIONS Vous serez responsable de la maintenance, du support et de l'optimisation des infrastructures Linux. Vos principales missions seront : · Superviser les performances, analyser les anomalies et corriger les pannes de l'infrastructures informatique. · Assurer le bon fonctionnement et l'optimisation des systèmes, des réseaux et des bases de données. · Assurer le maintien à niveau des infrastructures informatiques et anticiper les risques en proposant des solutions · Installer et configurer les systèmes de gestion des bases de données. · Assurer le support niveau 2 des incidents/demandes d'utilisateurs en fournissant des solutions rapides et efficaces. · Conduire les projets IT tout en respectant des délais / qualités / coûts. · Réaliser des audits réguliers des systèmes pour identifier et corriger les vulnérabilités.

Freelance
CDI

Offre d'emploi
DevSecops -Responsable Solution Technique

SKILL EXPERT
Publiée le
Apache Kafka
Java
RabbitMQ

3 mois
45k-65k €
Vélizy-Villacoublay, Île-de-France

Dans ce cadre, la Prestation consiste à contribuer à : Être le leader de l’équipe en charge de notre Infrastructure Cloud de Messaging pour améliorer la performance, la scalabilité, la sécurité et la stabilité de nos instances de production, Piloter et participer aux efforts de R&D de l'équipe pour livrer notre infrastructure de Messaging et Streaming d’événements dans un environnement DevSecOps, Concevoir des schémas de migration fiables pour nos applications clientes vers notre nouvelle infrastructure de messaging, Evangéliser les bonnes pratiques ActiveMQ et Kafka, et les principes des conceptions orientés évènements, La Prestation nécessite un travail en étroite collaboration avec les services owners et les équipes Cloud Opérations

Freelance
CDI

Offre d'emploi
EXPERTISE ELK : BEAT, LOGSTASH, CLUSTER ELASTIC

Digistrat consulting
Publiée le
Apache Kafka
Elasticsearch
ELK

3 ans
40k-60k €
Paris, France

💡 Contexte /Objectifs : L'équipe en charge les services de monitoring , d'alerting et de collect de log sur 3 plaques. Le bclient souhaite mettre en oeuvre plusieurs évolutions de son socle technique en termes d’ Urbanisme des systèmes d'information Dans ce cadre, la prestation consiste à contribuer à/au(x) :  La collecte de log  La mise en place du dispositif ELK pour les différentes requêtes liés à la collecte de log  La gestion d'une volumétrie grandissante, multiplication de sources d'alimentation (evolution/tuning de l'infra existante et maintien en condition)  La mise en place d'un monitoring plus fin avec utilisation de l'IA  La configuration de logstash pour des tâches de parsing et d'enrichissements.  La mise en oeuvre de WEC (Windows Event Collector) pour collecter certaines sources.  L'usage d'un bus Kafka est à l'analyse pour l'enrigissement des logs  Les outils : Suite Elastic (Agents xBeat, collecteurs logstash, Elasticsearch,pipeline ,WEC, Kibana) / Parsing / Shell, LINUX. Les livrables attendus sont :  La mise à jour de la documentation  La maintien en condition des outils  Le développement des outils d'expoitation  La gestion des tickets d'incidents  La gestion des requêtes

Freelance

Mission freelance
Ingénieur développement logiciel Unreal Engine maitrisant le C / C++

CELAD
Publiée le
Microsoft Windows
Unreal Engine

5 mois
350-400 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Mission : Au sein d’un petit bureau d’étude, vous prendrez en charge le développement Unreal Engine en C/C++ sous Windows d’une application de simulation de pilotage d’un robot volant. L’objectif de la mission consistera dans un 1ier temps à mettre à jour le logiciel créé en environnement Unreal Engine 4 avec le moteur Microsoft AirSim, puis y apporter des correctifs, et enfin ajouter des fonctionnalités au simulateur. Selon votre niveau de compétences vous pourriez également prendre en charge le portage de l’application vers Unreal Engine 5 et développer ensuite de nouvelles autres fonctionnalités.

Freelance

Mission freelance
Architecture technique - Orléans (45)

Signe +
Publiée le
Apache Maven
Apache Spark
Java

240 jours
360-400 €
Orléans, Centre-Val de Loire

Description détaillée L’objectif de cette prestation est de sécuriser un projet important en accompagnant le chef de projet Les attendus de cette prestation sont les suivants : le prestataire ➔ devra remplacer à la demande le chef de projet informatique sur les aspects techniques, notamment dans les réunions du comités technique et du comité stratégique; ➔ prendra en charge l’IAC, l’automatisation des déploiements sur Kubernetes et documenter en vue de faciliter le passage en maintenance à l’automne 2025 ; ➔ sur la base de l’évaluation craft réalisée en juin 2024, prendra en charge le suivi des axes d’améliorations identifiés, éventuellement en proposer de nouveaux, notamment sur l’observabilité ; ➔ documentera l’architecture actuelle via des ADRs et des diagrammes (flux, applicatif, infrastructure) ; ➔ rédigera d’ici fin 2024 une note d’observation critique sur les architectures (infrastructure, applicative, logicielle) mises en œuvre ; ➔ assistera le chef de projet informatique sur les questions de sécurité ; ➔ mettra en place un process efficace de gestion des connaissances, notamment une organisation documentaire. Formera les parties prenantes à son utilisation et sa mise à jour ; ➔ établira une cartographie des compétences et savoir-faire nécessaires pour le MCO-MCS du produit. Les développements sont réalisés en grande partie dans l’écosystème Kubernetes Les versions utilisées sont : - Java : 17 - Maven : 3.X.X - PostgreSQL : 14.X - Spark : 3.2.X - Spring Boot : 3.X.X - Spring Batch : 5.X.X - Hibernate : 6.X.X - Cucumber : 7.X.X Date de début : asap à voir suivant disponibilité de l’intervenant Durée de la prestation : 6 mois pour commencer avec une reconduction possible sur la durée restante du projet soit jusque septembre 2025. La prestation se déroulera dans les locaux d’Orléans. Une organisation du travail en mode hybride est possible après une phase d’intégration : - 3 jours de présence du prestataire - 2 jours de distanciel. Compétences requises - Compétences techniques : Développement java sénior, maîtrise des architectures big data ( spark), applicative ( java et écosystème, postgresql) et infrastructure ( kubernetes et écosystème), gitlab, Notions avancées de sécurité applicative et infrastructure. - compétences humaines : adaptabilité et capacité à collaborer, organisé, capacité à mettre en place un fonctionnement pérenne dans une équipe, esprit critique et argumenté. - connaissances de l’agilité Instances de suivi de la prestation - au sein des cérémonies agile du projet pour les réalisations - point hebdomadaire avec le chef de projet informatique et/ou ses responsables hiérarchique et l’intervenant

Freelance
CDI

Offre d'emploi
chargé suivi de production (H/F)

Clea Technology
Publiée le
Apache Spark
Azure
DevOps

3 ans
10k-45k €
Paris, France

Je cherche un profil « chargé suivi de production » junior ou confirmé pour une mission au sein de l’équipe avec les caractéristiques suivantes : Il interviendra principalement sur le périmètre DATA et devra s’assurer que le qualité de service réponde aux exigences utilisateurs Ses activités seront : Garantir la surveillance des processus techniques de bout en bout : Surveiller les applications en utilisant des outils et SLA définis Analyser les dysfonctionnements de production, proposer des solutions pérennes et suivre leurs mises en place, Mettre en place un monitoring technique et fonctionnel relatifs aux processus métiers Surveiller la croissance des applications et remonter les alertes le cas échéant. Garantir le suivi des traitements exécutés sur le périmètre qui lui est confié, Réaliser une analyse de premier niveau des incidents et rétablir le service lorsque possible (proposer et coordonner une éventuelle solution de rattrapage) Proposer dans un second temps des solutions d’amélioration pérennes pour la résolution d’incidents, S’assurer de l’exploitabilité des projets, Conseiller les projets pour sécuriser le suivi de production et le monitoring des nouveaux applicatifs, S’informer sur les évolutions techniques / fonctionnelles du SI pour garantir le suivi de production et le monitoring des applications. Gérer le capacity management et remonter les alertes aux tribus Être force de proposition d’actions d’améliorations, Analyser les causes des incidents récurrents. Proposer des actions dans le cadre des Post-Mortem afin d’éviter de nouvelles occurrences d’incidents Participer à la mise sous contrôle des changements impactant la production et mettre en place les dispositifs (astreintes, interventions) et les contrôles appropriés Améliorer le monitoring des applications pour diminuer le délai de résolution des incidents Avoir une appétence forte autour de l'orientation client savoir expliquer, convaincre savoir se mettre à la place du client afin d sortir de sa boite logique apporter la plus-value nécessaire à la croissance de la satisfaction client savoir traiter avec conviction les différentes situations pour lesquelles les interlocuteurs sont des fournisseurs de services (application en SaaS, progiciel)

Freelance
CDI

Offre d'emploi
Data engineer Python H/F

AMD Blue
Publiée le
Apache Spark
PySpark
Python

2 ans
54k-60k €
Paris, France

Qui sommes-nous ? Chez AMD Blue, l'innovation est notre passion, et nous sommes fiers de présenter Blue Data, notre Tribu spécialisée dans le domaine de la Data. Avec une présence établie sur l'ensemble du territoire français et une récente expansion aux États-Unis, nous sommes résolument tournés vers l'avenir. Dans le cadre d’un besoin client, nous avons l'opportunité d'accueillir un nouveau membre au sein de notre Tribu Blue Data. Contexte de la mission : Au sein des équipes X, vous serez en charge d'ingérer des données provenant d'application informatique (Jira, git, appli DKT...) au sein du Datalake. Les données sources devront être mises en forme en respectant les principes de la DataPlatform, la gouvernance data de l'entreprise ainsi que les principes de monitoring et d'alerting Vous serez en lien avec une PM dédiée à ce type de données au sein des équipes DataPlatform qui vous donnera les guidance de l'entreprise. Descriptif de la mission : La mission se décompose comme suit : · Analyser l'existant · Challenger les solutions · Comprendre le besoin métier · Concevoir les solutions à mettre en œuvre · Documenter les solutions · Développer en suivant l'état de l'art · Réaliser les mises en production.

Freelance

Mission freelance
architecte pyspark - 3 mois

Innov and Co
Publiée le
Apache Spark
Azure DevOps Services
Databricks

3 mois
100-700 €
Boulogne-Billancourt, Île-de-France

Contrainte forte du projetFort enjeux metier Les livrables sont Package pyspark Dictionnaire / catalog de données Model de données tabulaire Compétences techniques PYTHON / PYSPARK / SPARK - Expert - Impératif Databricks/ datafactory/ azure devops - Expert - Impératif Azure Analysis Services - Expert - Impératif Integration GIT - Expert - Important Connaissances linguistiques Français Courant (Impératif) Description détaillée L'equipe Datafinance utilise actuellement une architecture basée sur Databricks, Azure Blob Storage, Azure Data Factory et Azure Analysis Services pour traiter et analyser ses données financières. Nous cherchons à optimiser les processus de traitement de ces données, en particulier le rafraîchissement des données, pour améliorer la performance et la qualité des analyses. Dans ce cadre, nous recherchons un expert en BI et Data pour une mission de 3 mois. L'objectif est d'optimiser le Temps de traitement et de rafraichissement des données. 2. Objectifs de la mission L'expert BI et Data sera chargé de : Optimiser le traitement des données du projet Data finance, en se concentrant principalement sur le processus de rafraîchissement des données entra la zone gold et le cube de données. Optimiser l'utilisation de Azure Analysis Services (modèle Tabulaire) pour les rapports et les analyses. 3. Technologies utilisées L'expert devra maîtriser les technologies suivantes : Databricks (en particulier avec PySpark). Azure Analysis Services (modèle Tabulaire). SQL . Git et Azure DevOps pour la gestion des versions et l'intégration continue. 4. Compétences requises Le candidat idéal doit posséder une expérience avérée dans les domaines suivants : Maîtrise de PySpark : pour le traitement et l'optimisation des données dans Databricks. Expertise en modélisation de données : capacité à concevoir et optimiser des modèles de données pour améliorer la performance et la gestion des données financières. Maîtrise du modèle Tabulaire dans Azure Analysis Services : pour optimiser le rafraîchissement des données et améliorer les performances des cubes. Bonne compétences en SQL 5. Livrables attendus Les livrables de la mission incluent : . Mise en œuvre des optimisations dans Databricks et Azure Analysis Services. Documentation détaillée des modifications apportées et des bonnes pratiques mises en place. Transfert de connaissances aux équipes internes pour garantir une gestion continue des processus optimisés.

Freelance

Mission freelance
Full remote - Tech lead Pyspark

ALLEGIS GROUP
Publiée le
Hadoop
PySpark

6 mois
140-470 €
Île-de-France, France

Nous recherchons pour l'un de nos clients un tech lead Pyspark. Celui-ci sera amené à encadrer une équipe de 3 personnes. Projet : Build from scratch Il s'agira de mettre en place une plateforme BI avec des flux d'alimentation en base Hive. Environnement technique : Pyspark / Hadoop / Hive Profil attendu : 3-4 ans d'expérience dont au moins une en tant que Tech lead A l'aise avec l'environnement technique (Pyspark, Hadoop, Hive) Bon communiquant Pro-actif avec une bonne posture de tech lead (organisation des dailys, répartition des tâches etc)

336 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous