Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 215 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Développeur fullstack Java EE / Angular +8 ans - TJ max. 450€ (H/F)

FRISBEE PROFILING
Publiée le
Angular
Apache Subversion
Développement

12 mois
450 €
Paris, France

Environnement : JAVA EE (pas de Spring Boot), Angular, Eclipse, SVN, EJB, bases de données : Postgres, MariaDB, Sybase... -- 1. Traduire les besoins techniques en besoins fonctionnels o Participer à l’analyse fonctionnelle des besoins utilisateurs o Etudier les opportunités et les faisabilités technologiques de l’application o Rédiger les spécifications techniques détaillées, à partir du cahier des charges 2. Concevoir et développer o Concevoir une architecture logicielle et proposer le framework adapté au projet o Analyser et développer les composants en utilisant les langages appropriés o Assurer le développement et la réalisation des applications (prototypes et modules) o Adapter et paramétrer les progiciels retenus pour l’architecture logicielle o Harmoniser l’ensemble des composants et applications o Documenter les applications pour les développements ultérieurs et la mise en production 3. Tester et écrire les corrections nécessaires -- Mission de longue durée, 2 jours de télétravail par semaine après quelques semaines de mission.

Freelance

Mission freelance
Architecte BigData/Hadoop

Reactis
Publiée le
Apache Hive
Apache Spark
Cloudera

12 mois
650-750 €
Paris, France

Contexte : Vous intégrerez le service DBAs & Socles de la direction technique pour une mission de pilotage et de mise en œuvre opérationnelle des travaux de fiabilisation des socles Hadoop afin de répondre aux exigences de performances attendues par les cas d'usages fonctionnels. Description : Évolution des architectures techniques : - Mise en place des principes directeurs sur l’utilisation du cluster Cloudera; - Vérification de la bonne application des normes et des standards; - Force de proposition, étude, analyse et mise en œuvre de solutions pour améliorer : l'outillage utilisateurs, optimiser les performances et la résilience du cluster; - Étude d'impact et réalisation opérationnelle des montées de version Cloudera et outils Hadoop; - Prise en compte de l’écosystème DSI : ordonnanceur IWS, sauvegarde HDPS, supervision Prometheus / Grafana, ... ; Expertise Hadoop de niveau 3 : - Configuration du cluster Cloudera en fonction des besoins identifiés; - Optimisation des traitements ; Support : - Accompagnement des équipes de développement; - Assistance auprès des équipes : Optimisation des traitements, Prise en main de l’outillage mis à disposition, Chargement des données; - Transmission du savoir-faire via la rédaction de documentations et transfert de connaissances;

CDI
Freelance

Offre d'emploi
Ingénieur DevOps (H/F)

SCALIAN
Publiée le
Ansible
Apache Kafka
Azure

12 mois
42k-49k €
Chambéry, Auvergne-Rhône-Alpes

Nous recherchons un Ingénieur DevOps expérimenté pour participer à la gestion et à l'optimisation de l'infrastructure Cloud sur Azure. Vous interviendrez sur des projets stratégiques et serez responsable de la gestion et de l'amélioration des performances de nos environnements, tout en garantissant leur sécurité. RUN / BUILD : Vous assurerez à la fois la maintenance opérationnelle et le développement continu de nos infrastructures. Gestion de la couche basse de l'infrastructure sur Azure : Administration des environnements data layer, optimisation des performances et mise en place des politiques de sécurité. Conteneurisation : Gestion et déploiement des conteneurs avec OpenShift . CI/CD : Mise en place et gestion des pipelines d'intégration continue et de déploiement continu via GitLab . Automatisation des infrastructures : Utilisation de Ansible et Terraform pour l’automatisation des environnements. Suivi et administration des environnements Data : Gestion des outils Kafka et NiFi dans un environnement Cloud Area .

CDI

Offre d'emploi
Architecte Hadoop H/F

AMD Blue
Publiée le
Apache Hive
Cloudera
Hadoop

55k-66k €
Paris, France

Afin de renforcer ses équipes, notre client recherche un(e) architecte sur un environnement Hadoop / Big data de technologie Cloudera ; Et avec des compétences en développement autour des langages propres au domaine BigData, tels que Python, Spark, Hive, impala. Descriptif de la mission : Les missions sont : Ø Les missions porteront sur : o Pilotage et mise en œuvre opérationnelle des travaux de fiabilisation des socles Hadoop pour répondre aux exigences de performances attendues par les cas d'usages fonctionnels. Ø Evolution des architectures techniques : o Mise en place des principes directeurs sur l’utilisation du cluster Cloudera o Vérification de la bonne application des normes et des standards o Force de proposition, étude, analyse et mise en œuvre de solutions pour améliorer : l'outillage utilisateurs, optimiser les performances et la résilience du cluster o Etude d'impact et réalisation opérationnelle des montées de version Cloudera et outils Hadoop ; Ø Expertise Hadoop de niveau 3 o Configuration du cluster Cloudera en fonction des besoins identifiés o Optimisation des traitements ; Ø Support : o Accompagnement des équipes de développement o Assistance auprès des équipes : Optimisation des traitements, Prise en main de l’outillage mis à disposition, Chargement des données o Transmission du savoir-faire via la rédaction de documentations et transfert de connaissances Ø Savoir être : o Coordination et pilotage des chantiers en collaboration avec les différents services DSI o Autonomie pour la prise en charge des sujets et travail en équipe o Capacité à communiquer et s'adapter en fonction des différents interlocuteurs

CDI
Freelance

Offre d'emploi
Administrateur système Windows

ENGIT
Publiée le
Apache
Internet Information Services (IIS)
PHP

2 mois
10k-50k €
Paris, France

Installer, configurer et administrer les serveurs Windows, en assurant leur bon fonctionnement au quotidien. Gérer l'installation et la configuration d'IIS (Internet Information Services), Apache et PHP pour divers besoins d'applications. Assurer la maintenance des systèmes, notamment en appliquant des correctifs, des mises à jour et des sauvegardes régulières. Surveiller les performances des serveurs, anticiper et résoudre les incidents techniques afin de garantir une disponibilité optimale. Collaborer avec les équipes de développement et d'autres services pour déployer des applications et garantir une intégration fluide. Participer à la gestion des comptes utilisateurs et des permissions au sein de l'infrastructure Windows. Automatiser les tâches courantes pour optimiser l'efficacité des opérations. Rédiger et maintenir la documentation technique relative aux systèmes administrés.

Freelance
CDI

Offre d'emploi
Expert technique - C# .Net Core

VISIAN
Publiée le
.NET CORE
Apache Kafka

1 an
10k-70k €
Île-de-France, France

Au sein du département informatique en charge des développements pour le bénéfice de l’ALM Treasury, nous proposons une mission de développement .Net pour contribuer au développement autour de la nouvelle plateforme orientée services (SOA) ayant comme socle Kafka et Cassandra. La connaissance sur la technologie Kafka est un plus puisque la mission s'articulera principalement autour de cette technologie. Milieu fonctionnel autour du Collatéral. Expert technique - C# .Net Core Objectifs - Développement C# .NET Core - Méthodologie : BDD/TDD - Utilisation de Kafka/Cassandra - Maintenance applicative - Documentation / Testing - Support L3

Freelance

Mission freelance
DevOps Java (systèmes embarqués, jenkins...)

Cherry Pick
Publiée le
Apache Kafka
Apache Maven
Java

12 mois
600-650 €
Courbevoie, Île-de-France

Dans le cadre du renforcement de son équipe produit, notre client recherche un devops qui aura pour rôle d'assurer le déploiement d’applications sur le LU (Logiciel Unique) et la réalisation de phases de test qui sont réalisées en amont du développement et la mise en place d’une surveillance de la qualité de la production. Dans cette optique notre client recherche un profil qui a déjà travaillé sur du logiciel embarqué dans un concentrateur. Activité principale : Participation à l’amélioration continue de l’infrastructure Développement de nouvelles features Développement de fonctionnalités sur les matériels embarqués Maintenance et évolution de jobs Jenkins et CI/CD Livraison en recette, production et suivi de production Communication avec les équipes de développement et avec l’exploitant Reprise des tests de performance et mise en place du banc de perf Mise en place le banc de test avec des concentrateurs (OSA K), des raspberry pi, des modems et filtres CPL Activité secondaire : Rédaction et maintien des documentations techniques Mise en œuvre des méthodes de modélisation des données et des traitements Stack technique de l'équipe : - Très bonne connaissance de Java 8+ - Une bonne connaissance de Java JEE est un + (JTA,JPA,CDI, JAX-RS) - Une maitrise des technologies : Kafka, RabbitMQ, JMS... - Bonne connaissance des outils de build/deploy (Maven, Jenkins) - Expérience de systèmes de supervision (ex. Grafana, InfluxDB, Collectd, Telegraf, AppDynamics,etc...) Processus : 2 entretiens Go - No Go

Freelance

Mission freelance
Tech Lead Java/devops

KP2i
Publiée le
Apache Kafka
API REST
AWS Cloud

1 an
100-610 €
Paris, France

Le parc applicatif est constitué d’une quinzaine d’applications exploitant environ 80 serveurs Linux virtualisés sur le cloud AWS (EC2) Pour assurer le Run et la MCO des plateformes, le tech lead doit : Acquérir la maitrise de toutes ces plateformes : Kafka, API Management, Nifi, Composants Java, CI/CD, Monitoring, … Documenter, capitaliser et partager la connaissance de toutes ces plateformes Devenir le contact principal, le référent au sein de la BU Assurer le capacity planning : anticiper les mesures préventives contre les incidents ; documenter et communiquer les recommandations S’appuyer sur la devteam, et faire en sorte que celle-ci puisse assurer la continuité de sa mission en son absence S’assurer, par ses propres actions et celles de la devteam en appui, du bon fonctionnement des plateformes Auditer et documenter la santé et la sécurité des plateformes (backups, multi AZ, …) Pour mener à bien la feuille de route plateformes, le tech lead : S’appuie sur la devteam pour la mise en œuvre Est fortement impliqué dans le PI Planning Dans le cadre des projets plateformes, le tech lead : Mène les études préalables Effectue les analyses et émet des préconisations Pilote et coordonne la mise en œuvre des projets Produit le reporting ad hoc au niveau du management et des équipes partenaires Voici quelques d’exemples de projets plateformes : Montée de version majeure d’un produit Migration d’un produit On Premise vers une solution SAAS Migration d’un produit vers une offre mutualisée Piloter un changement de méthode d’authentification impliquant les autres domaines de la BU

Freelance
CDD

Offre d'emploi
DEVOPS GCP H/F

SMARTPOINT
Publiée le
Apache Kafka
ELK
Grafana

12 mois
10k-50k €
Châtillon, Île-de-France

Vos missions • Maintenir en condition opérationnelle les infrastructures en diagnostiquant les pannes et les dysfonctionnements • Configurer et dimensionner les plateformes en fonction des performances requises • Industrialiser les architectures cibles et configurer les équipements (CI / CD) • Mettre en place des procédures et outils de surveillance permettant de garantir la haute disponibilité des infrastructures • Veiller à la sauvegarde des données, à la sécurité des accès (mise en place des systèmes de gestion des droits des utilisateurs) et à la fiabilité des solutions déployées • Participer aux phases de validation technique lors des mises en production ou des évolutions. • Effectuer le suivi des coûts des différents composants et applications (FinOps)

Freelance

Mission freelance
Data Engineer Big Data

Signe +
Publiée le
Apache Kafka

6 mois
700-740 €
Marseille, Provence-Alpes-Côte d'Azur

Vous interviendrez dans le cadre de la construction et de l'optimisation d’un programme d’ingestion de données pour une initiative d'IA. Ce poste requiert une solide expérience en ingénierie de données dans un environnement Big Data. Vous serez responsable de la gestion des données en temps réel à l’aide de technologies de streaming et de solutions cloud. Construire et optimiser le programme d’ingestion de données Collaborer avec l’équipe métier pour répondre aux besoins en matière de données et de traitement Big Data

Freelance

Mission freelance
data lake engineer - anglais

Innov and Co
Publiée le
Apache Kafka
Cloudera
Nosql

12 mois
100-600 €
Vélizy-Villacoublay, Île-de-France

Ce département ou interviendra le Prestataire est de la gestion des données & de la business intelligence des systèmes d’informations : maintenance & alimentation du datawarehouse, conception de rapports, calculs et visualisation de KPI. La Prestation s’effectuera au sein de l’équipe d’une vingtaine de personnes composée de : ü Data Engineer, travaillant majoritaire à l’alimentation du Datawarehouse d’entreprise ü Data Architect travaillant sur les évolutions de la gestion des données au sein de l’entreprise. Les données sont principalement gérées au sein - D’un datawarehouse d’entreprise organisé autour de plusieurs instances de base de données ORACLE - D’un Datalake s’appuyant sur l’offre cloudera on premise L’équipe est en charge des évolutions, du support et de la maintenance du datawarehouse. Dans ce contexte, la prestation consiste à intervenir sur le POC (Proof of concept) en étroite collaboration avec l’administrateur du Data Lakehouse et à mettre en œuvre et valider l’infrastructure de plateforme de données. Dans ce cadre, le Prestataire contribuera et aura la responsabilité de : Ø POC Developpement : o Conception et développement du POC pour notre Data Lakehouse ouvert en utilisant les dernières technologies (Cloudera, NoSQL, NiFi, Apache Iceberg, DBT, Superset, etc.) pour répondre aux exigences de l’entreprise, Ø L’intégration des données : o Mise en œuvre des pipelines d’ingestion et d’intégration de données à partir de diverses sources tout en s’assurant la qualité et la cohérence des données. Ø Du processus ETL/ELT: o Développement et optimisation des processus ETL/ELT pour soutenir les besoins de data warehousing et d’analyse. Ø L’optimisation de la performance: o Analyse et optimisation de la performance des flux de données et des requêtes. Ø La collaboration : o Travail en étroite collaboration avec l’administrateur du Data Lakehouse pour assurer l’intégration et la fonctionnalité de l’infrastructure du Data Lakehouse. Ø La documentation : o Création et maintenance de documents techniques sur les pipelines de données, o l’architecture o les flux de travail. Ø L’innovation: o Rester à jour avec les technologies émergentes et les meilleures pratiques pour améliorer continuellement la plateforme de données.

Freelance
CDI

Offre d'emploi
Développeur - Big Data | Spark (H/F)

CELAD
Publiée le
Apache Spark

1 an
42k-50k €
Lyon, Auvergne-Rhône-Alpes

📑 CDI (42-50K€) / Freelance / Portage Salarial - 🏠 10 jours de télétravail / mois - 📍 Lyon - 🛠 Expérience de 5 ans minimum 🌟 Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un(e) Développeur – Big Data | Spark pour intervenir chez un de nos clients. 💻💼 Contexte : vos missions tournent autour de 4 axes : - Fournir une expertise en Big Data pour simplifier la manipulation des données. - Concevoir des solutions techniques pour le traitement massif de données. - Implémenter des solutions de stockage de données (SQL, NoSQL, etc.). - Assurer la sécurité et la lisibilité des pipelines de données pour faciliter l'analyse et la transformation. Voici un aperçu détaillé de vos missions 🎯 : - Création, maintenance, optimisation et sécurisation des bases de données pour garantir leur intégrité et leur performance. - Détection, proposition et suivi des optimisations des requêtes SQL, PL/SQL afin d'assurer l'efficacité des applications métier en termes de traitement des données. - Fournir un soutien aux équipes de développement en identifiant et en recommandant des solutions SGBD adaptées aux besoins métier, tout en assurant leur performance et leur pertinence. - Effectuer une veille technologique sur les outils utilisés dans le cadre du projet, afin de maintenir la pertinence et la compétitivité des solutions mises en œuvre. - Partager et dispenser des formations sur les bonnes pratiques en matière de gestion des bases de données, contribuant ainsi à l'amélioration continue des processus et des compétences au sein de l'équipe.

Freelance

Mission freelance
developpeur Big Data

Intuition IT Solutions Ltd.
Publiée le
Ansible
Apache Spark
Informatica

6 mois
400-520 €
Lyon, Auvergne-Rhône-Alpes

Il met en avant ses qualités pour mener à bien ses missions : o Autonomie, rigueur et force de proposition o Capacités d'analyse et de synthèse. o Esprit d’équipe 4 à 5 années d'expérience sont attendues sur le rôle au minimum. Expertise Spark, quelque soit le langage de prédilection (Java, Scala, Python). Défini/challenge les solutions et architectures techniques permettant le traitement de volumes importants de pipelines de données suffisamment sécurisés et lisibles Intervient auprès des architectes et urbanistes pour la préparation des dossiers techniques Anime les équipes Data sur toutes les étapes du traitement de la donnée Assure la bonne prise en compte des recommandations du CTO Nex’Us Maîtrise des solutions de stockage de données Maîtrise des technologies du Big Data permettant le traitement et la manipulation de données Maîtrise des outils de gestion de code et de déploiement projet Maitrise des fondamentaux de l’agilité Maîtrise des solutions de stockage de données Maîtrise avancée des langages structurés Maîtrise avancée des technologies du Big Data permettant le traitement et la manipulation de données Expertise Spark Oracle

CDI

Offre d'emploi
Data Engineer Scala / Spark - F/H

SCALIAN
Publiée le
Apache Spark
Microsoft SQL Server
MySQL

50k-60k €
Issy-les-Moulineaux, Île-de-France

Contribuez à des projets data complexes avec des technologies avancées. Quel sera votre rôle ? Nous recherchons un(e) Data Engineer Scala / Spark. Vous rejoignez l’équipe d’ingénierie data pour concevoir des pipelines de traitement de données à grande échelle. Au quotidien, vos missions seront les suivantes : Développer et optimiser des pipelines de données en utilisant Scala et Spark, dans un environnement distribué. Mettre en place des modèles de données complexes en SQL pour répondre aux besoins métier. Collaborer avec les data scientists pour garantir l’efficacité des flux de données et des modèles analytiques. Environnement technique : Scala, Apache Spark, SQL, Hadoop, Kafka

Freelance

Mission freelance
Product Owner

AGH CONSULTING
Publiée le
Apache Kafka
BigQuery

1 an
100-560 €
Lille, Hauts-de-France

Dans le cadre du changement de prestataire pour la récupération des données concurrentielles, notre client recherche un Chef de Projet capable de piloter cette prestation. Vous serez en charge de centraliser les besoins en données, de suivre la performance du prestataire via les KPIs définis et d'assurer une communication fluide avec les différentes Business Units (BUs) et clients internes. Centralisation des besoins : Recueillir les besoins des différentes équipes internes concernant de nouvelles données et enseignes à surveiller. Travailler en collaboration avec les Business Units pour prioriser les demandes et les intégrer dans le service. Pilotage de la prestation : Assurer le suivi des indicateurs de performance (KPIs) et des SLA pour la récupération de données concurrentielles. Piloter la relation avec le nouveau prestataire et s’assurer de la qualité de la prestation. Gérer les escalades et les ajustements nécessaires pour respecter les niveaux de service attendus. Suivi et évolution des dashboards : Faire évoluer les tableaux de bord existants pour assurer un suivi optimal des performances et de la qualité des données récupérées. Proposer des améliorations continues des outils de reporting afin de mieux répondre aux besoins des utilisateurs internes. Communication avec les clients internes : Assurer une communication régulière avec les différents clients internes sur les performances du service, les incidents, et les améliorations en cours. Organiser des points de suivi avec les équipes internes pour garantir la satisfaction des différents BUs et clients internes.

Freelance

Mission freelance
Devops

ICSIS
Publiée le
Administration linux
Administration réseaux
Apache Kafka

2 ans
400-500 €
Lille, Hauts-de-France

La mission consiste à : - Déploiement régulier des applications - Intégration continue - Gestion des outils de CI/CD - Gestion et automatisation des environnements des développeurs - Prise en compte de la sécurité dès la conception - Mise en place des bonnes pratiques auprès des utilisateurs - Gestion des incidents et des tickets de RUN remontés par les utilisateurs Compétences demandées : - Administration systèmes Gnu / Linux - Administration réseau (VPC, VPN, Firewall) - Kubernetes, Docker, Helm, GCP, Python, CI/CD ... - Stockage des données : PostgreSQL, MongoDB, Bigquery, ElasticSearch - Anglais un + Mission basée sur la métropole lilloise avec télétravail hybride

215 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous