Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 337 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI

Offre d'emploi
ARCHITECTURE DATA PLATEFORM

Digistrat consulting
Publiée le
Apache Spark
AWS Cloud
Azure

3 ans
40k-60k €
Paris, France

💡 Contexte /Objectifs : Dans ce cadre, la prestation consiste à contribuer à/au(x) : La production et au monitoring de la roadmap d'architecture du Socle Big data sur ses composantes on prem (écosystème autour de la distribution Cloudera Data Platform) et on cloud (Microsoft Azure /Power BI / AWS). La mise en place et aux validations des normes et standards techniques, applicatives & fonctionnelles (portée groupe). La validation de l'architecture des moyens produites par le Socle. Monitoring du bon usage des offres de service du socle par l'échange avec le management d'architecture des entités. Livrables : Les livrables attendus sont : Etudes d'architecture technique autour du big data, particulièrement sur les sujets liés à la mise en place de capacités data sur Microsoft Azure, Hadoop on prem et AWS, ainsi que sur les questions d'intéropérabilité Contribution à la roadmap long terme (PLan de Transformation Stratégique) Assistance aux product owner dans la mise en œuvre des offres service

Freelance

Mission freelance
Mission infrastructures de Messaging et Streaming (DevSecOps/ActiveMQ/Kafka/RabbitMQ)

Intuition IT Solutions Ltd.
Publiée le
Apache Kafka
Cloud

4 mois
550-700 €
Vélizy-Villacoublay, Île-de-France

La Prestation consiste à contribuer à : Être le leader de l’équipe en charge de notre Infrastructure Cloud de Messaging pour améliorer la performance, la scalabilité, la sécurité et la stabilité de nos instances de production, Piloter et participer aux efforts de R&D de l'équipe pour livrer notre infrastructure de Messaging et Streaming d’événements dans un environnement DevSecOps, Concevoir des schémas de migration fiables pour nos applications clientes vers notre nouvelle infrastructure de messaging, Evangéliser les bonnes pratiques ActiveMQ et Kafka, et les principes des conceptions orientés évènements, La Prestation nécessite un travail en étroite collaboration avec les services owners et les équipes Cloud Opérations. Livrables Livraison des infrastructures de Messaging et Streaming d’événements dans un environnement DevSecOps, Concevoir des schémas de migration fiables pour nos applications clientes vers notre nouvelle infrastructure de messaging, Etre support pour toutes les procédures à mettre en place et vérifier leur bonne application pratique sur les différents outils ActiveMQ et Kafka Etre support technique aux équipes de Cloud RUN pour le troubleshooting des incidents de production Gestion au quotidien & coaching technique et humain de l’équipe Messaging (ingénieurs DevSecOps)

Freelance

Mission freelance
Développeur Big Data

CAT-AMANIA
Publiée le
Apache Kafka
Big Data
Scala

36 mois
430-480 €
Île-de-France, France

Dans le cadre de notre développement, nous recherchons pour un client grand compte un développeur Big Data. Les missions seront les suivantes : Mettre en production des modèles statistiques Acheminer et mettre à disposition les données pour les équipes Suivre les projets de développement Développer des jobs Spark pour le traitement des données Gérer l’ingestion de divers formats de données Concevoir et implémenter des scripts pour la collecte, le traitement et le mapping des données Développer des moyens de restitution comme des fichiers, API et tableaux de bord Concevoir des pipelines pour l'ingestion de données en streaming et en batch, ainsi que des jobs Spark pour le prétraitement et le calcul des indicateurs de performance (KPI) Développer des API pour l'ingestion et le traitement des données dans un environnement Hadoop Participer à la conception et à l'administration de solutions Big Data Installer et configurer des clusters Hadoop Développer des services en Spring Boot pour extraire des données de systèmes existants et les envoyer au Datalake via Kafka Normaliser et agréger les données pour produire des rapports de type Business View

Freelance
CDI

Offre d'emploi
Bigdata Engineer Cloud

Digistrat consulting
Publiée le
Apache Kafka
Big Data

3 ans
40k-60k €
Paris, France

💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket

Freelance
CDI

Offre d'emploi
Architecte SI

Inventiv IT
Publiée le
Apache Kafka
Apache Tomcat
DAT

2 ans
60k-80k €
Paris, France

Nous recherchons un architecte SI orienté architecture client/Server ayant une bonne connaissance en N-tiers, web services, micro services en mode conteneur (kubernetes/Aks/Eks). Au sein de la cellule d’architecture CORETEAM, gérant plus de 40 projets actifs autour de la SI. Conception des architectures IT Conseil en architecture Mise à jour du continuum d’entreprise Veille technologique Compétences et expériences obligatoires en architecture des SI : Architectures client/server, N-tiers, web services, micro-services en mode conteneur (kubernetes / aks / eks) Serveurs d’application: Tomcat, JBoss EAP, Wildfly, ... Brokers : KAFKA, RabbitMQ, ActiveMQ, ... ETL : Talend, Mulesoft, ... SGBD : PostGreSQL, SQL Server, MongoDB, Oracle Systèmes : Linux et Windows Server Framework : TOGAF, SAFe, … Connaissances spécifiques obligatoires en infrastructure Datacenter : Hébergement, exploitation et infogérance Cloisonnements réseaux et ouverture extranet des SI (DMZ, infrastructure d’accès, …) Secours de sites, continuité de service, reprise à chaud et bascule en cas d’incident Stratégie de stockage, de sauvegarde et d’archivage Compétences et expériences obligatoires en rédaction de Dossiers d’Architecture Technique (DAT) : Cadrage et interprétation des besoins fonctionnels et non-fonctionnels pour la définition de l’architecture technique Traitement des exigences opérationnelles : disponibilité, performance, sécurité Modélisation des architectures selon les différents angles : fonctionnels, logiques, physiques () Intégration des contraintes de sécurité, contraintes de gestion et de propagation d’identité et de mécanisme d’authentification et d’accès Analyse et plan de mitigation des risques techniques Compétences et expériences obligatoires en communication de solution d’architecture : Expérience en synthèse et rédaction de documents Expérience en organisation et à animation d’ateliers techniques avec différents contributeurs Expérience en contribution à une démarche de catalogue de services et/ou portail de solutions techniques Expérience en Publication de patterns d'architecture

Freelance

Mission freelance
Tech Lead Big data

STHREE SAS pour COMPUTER FUTURES
Publiée le
Apache Spark
Cloudera
Hadoop

1 an
100-500 €
Paris, France

Nous recherchons pour une de nos clients basés à Paris, un consultant SAP BI pour une mission freelance (longue visibilité) Compétences techniques Stack HADOOP - Expert - Impératif Python - Expert - Impératif Connaissances linguistiques Français Courant (Impératif) Description détaillée Bonjour, Nous cherchons un lead technique pour encadrer une équipe Big Data. Le contexte fonctionnel est la lutte anti blanchiment, et voici les éléments essentiels: - Contribuer au affinage et au découpage des récits. - Étudier la faisabilité et chiffrer les récits. - Développer les briques des pipelines de données. - Développer les tests unitaires et assurer une couverture de + 70%. - Effectuer les tests de performances (tuning spark). - Préparer le déploiement en construisant les fichiers de configuration indispensables pour utiliser les outils devops mises en place. - Assurance de la maintenance corrective et évolutive du projet. - Préparer les instructions pour la MEP des évolutions/correctifs. - Suivi de production Environnement technique : Cloudera Data Platform,JAVA, SPARK, Hadoop, HIVE, HDFS,Sqoop, PostgreSQL, Oracle, shell, Unix, JUnit, SonarQube,Maven, XlDeploy, Jenkins, Artifactory, Gitlab, Confluence, JIRA,Eclipse. Il s'agit d'encadrer une équipe de 4 personnes. Des expériences précédentes dans un rôle de responsable technique sont requises. La mission est en plein coeur de Paris.

Freelance
CDI

Offre d'emploi
skiils recherche son/sa futur(e) data engineer cloud pour renforcer ses équipes au maghreb (remote)

skiils
Publiée le
Apache Kafka
Apache Spark
Scala

1 an
12k-200k €
Île-de-France, France

Notre data engineer intégrera une équipe SCRUM et se concentrera sur un périmètre fonctionnel spécifique. Son rôle consistera à contribuer à des projets data en apportant son expertise sur les tâches suivantes : ● Participer à la réalisation de l’ensemble des projets métiers (usages) ● Prendre en charge les demandes de corrections provenant d’incidents ou d’anomalies ● Participer à l'auto-formation et à la montée en compétences de l’équipe de développement ● Appliquer les bonnes pratiques et les normes de développement ● Mettre en pratique les méthodes « devops » ● Contribuer aux chiffrages des usages et à la constitution des releases ● Contribuer à l’automatisation du delivery ● Développer et documenter son code ● Travailler au sein d’une équipe SCRUM (PO, développeurs, QA, Support)

CDI
Freelance

Offre d'emploi
Architecte entreprise expérimenté data

Signe +
Publiée le
architecte
Big Data
entreprise

24 mois
50k-55k €
Lyon, Auvergne-Rhône-Alpes

Profil : Architecte entreprise expérimenté data (6 à 7 ans d'exp) Compétences techniques : Architecture d'Entreprise Urbanisation de systèmes d'information Modèles fonctionnels bancaires Conception d'applications, de services, d'APIs Bonnes connaissances techniques (développement, intégration, déploiement dans des environnements distribués) Connaissance des outils : SGBDR : Teradata, SQL, Postgresql, MySQL No SQL : MongoDB ETL ou ELT : Data Stage , xDi (Stambia) ou autre Data Management : ABInitio BigData (Distribution Cloudera) , spark (java), Hive, Hbase … Kafka (Confluent) CI-CD – GitLab Cloud : AWS Compétences humaines : Communication Accompagnement d'équipes de développement Capacité de synthèse et de formalisation conceptuelle Pédagogie Capacité à montrer l'exemple y compris sur des tâches de développement ou de mise en oeuvre technologique.

CDI

Offre d'emploi
Ingénieur DevOps BigData

nextSourcia
Publiée le
Apache Kafka
Big Data
DevOps

10k-50k €
Toulon, Provence-Alpes-Côte d'Azur

Notre client, acteur majeur du secteur de la défense, participe à l'innovation et à la sécurisation des systèmes d'information critiques. Dans le cadre de l'amélioration de ses capacités de gestion des données, il développe des solutions avancées pour la collecte, l'indexation et l'exploitation des informations stratégiques au sein de son infrastructure Big Data. Mission : Vous serez responsable de la mise en œuvre et de l’exploitation des solutions de gestion de données au sein des systèmes d’information. Vous interviendrez sur l’ensemble du cycle de vie des plateformes Big Data en utilisant les technologies ElasticSearch, Logstash et Cloudera CDP. Responsabilités : - Assurer la mise en œuvre et l’exploitation des solutions de collecte, d’indexation et de recherche de données (ElasticSearch/OpenSearch, Logstash, Kafka). - Gérer et maintenir les plateformes basées sur Cloudera CDP. - Effectuer le Maintien en Condition Opérationnelle (MCO) des composants de la plateforme Datalake. - Garantir la disponibilité et la performance des infrastructures Big Data en exploitant les clusters associés. - Superviser et analyser les performances via des outils comme Kibana et Grafana.

CDI

Offre d'emploi
Développeur Cockpit

Management Square
Publiée le
Apache Kafka
API
Data visualisation

43k-50k €
Massy, Île-de-France

Nous recherchons un développeur talentueux pour rejoindre une équipe dynamique dans le cadre d'un programme de transformation digitale des métiers du soutien. Votre mission principale sera de maintenir et faire évoluer une solution de cockpit basée sur la technologie QliK Sense. Missions principales : Maintenir et produire le cockpit sur la base des technologies existantes Collaborer avec l'équipe en charge de la refonte de la couche technique sous-jacente Prendre en main l'architecture existante Participer aux corrections des anomalies techniques en production Définir les données nécessaires avec les experts métier pour afficher des indicateurs pertinents Documenter et mettre en œuvre le pipeline de données (Qlik, API, Kafka) Participer à la définition de la refonte de l'architecture de données

CDI
Freelance

Offre d'emploi
Ingénieur de production (H/F)

CITECH
Publiée le
Administration linux
Oracle
Shell

12 mois
65k-70k €
Paris, France

✨ Si vous souhaitez apporter vos compétences dans la réalisation d’un projet important, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Ingénieur de production (H/F) 🚀 💰 Votre mission est pour un client reconnu dans le secteur bancaire, implanté dans de nombreuses villes en France, il a pour objectif d'accélérer sa transformation digitale afin d'offrir toujours plus de solutions et de services innovants. 💳 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸 Intégration technique des solutions en production 🔸 Maintenance des plateformes et maintien en conditions opérationnelles. 🔸 Gestion des audits et mise en conformité. 🔸 Gestion des incidents critiques et coordination des experts. 🔸 Suivi des problèmes récurrents et élaboration de plans d’action. 🔸 Supervision des changements et coordination des intervenants. 🔸 Rédaction de la documentation technique 🔸 Interface avec les experts et support éditeurs. 🔸 Supervision, veille technologique 🎓 Issus d’une formation en ingénierie ou en informatique, vous avez une expérience significative sur un poste similaire.

CDI

Offre d'emploi
Développeur BI

HN SERVICES
Publiée le
BI
Microstrategy
Talend

37k-51k €
Marseille, Provence-Alpes-Côte d'Azur

HN Services recrute sur Marseille, un développeur BI afin de développer et mettre en œuvre des solution BI. Au sein d'une équipe Agile, il s'agira notamment d'intervenir sur : le recueil et l'analyse des besoins auprès des différents services la réalisation de la modélisation le maintien en conditions opérationnelles des solutions développées : flux d’alimentation via l’ETL Talend et rapports via Microstategy la création des jeux de test et la réalisation des tests unitaires outils: ETL Talend et Microstrategy

Freelance

Mission freelance
Data engineer confirmé

Kaïbee
Publiée le
Hadoop
PostgreSQL
Python

1 an
100-600 €
Paris, France

En tant que Data Engineer, vous jouerez un rôle clé dans la conception, le développement et la maintenance de pipelines de données robustes et évolutifs. Vous travaillerez en étroite collaboration avec les équipes de data scientists et d’analystes pour garantir la disponibilité et la qualité des données. Vos missions principales : • Concevoir et développer des pipelines ETL (Extract, Transform, Load) pour ingérer et transformer des données provenant de diverses sources. • Gérer et optimiser les bases de données relationnelles et non relationnelles, notamment PostgreSQL et Teradata. • Développer et maintenir des solutions Big Data sur Hadoop et Spark pour traiter de grands volumes de données. • Programmer en Python, R et Scala pour automatiser les flux de données et les tâches de traitement des données. • Intégrer les processus de gestion de version et d’intégration continue avec Git, GitLab CI et Bitbucket. • Utiliser Ansible pour automatiser les déploiements d’infrastructure et la gestion des configurations. • Collaborer avec les équipes en utilisant des outils de gestion de projet et de documentation tels que Jira, Confluence, et Bitbucket. • Participer à l’amélioration continue des processus de traitement des données et à l’optimisation des performances.

Freelance

Mission freelance
Administrateur Microstratégy (F/H) -Nantes-

Argain Consulting Innovation
Publiée le
Administration linux
Agile Scrum
BI

2 mois
440-480 €
Nantes, Pays de la Loire

Nous recherchons pour le compte de notre client bancaire un expert Administrateur Microstrategy . Responsabilités : Administrer les projets MicroStrategy (administration applicative via WorkStation et Developer) Administrer les serveurs / installer la suite MicroStrategy : Intégration et le déploiement de la matière pour la mise à niveau des machines, pour l'ajout de fonctionnalités (GitLab / CICD) Assurer la maintenance des plateformes : analyse des logs (MSTR et Web), échange avec le support MicroStrategy (Case) Contexte : Au sein de la tribu DATAHUB, la squad Socles et Outils BI (SOBI) est en charge d'administrer l'outil Microstrategy. Nous recherchons un Administrateur MicroStrategy expérimenté afin de remplacer un équipier en fin de mission (3 ans). Attendu : Supervision, maintenance et évolution des plateformes MicroStrategy Migration de nos infras (legacy) vers Customer Managed Cloud (Kubernetes) Manipulation des données utilisateur dans le cadre du monitoring et de la supervision des usages Compétences : Expertise MicroStrategy Linux pour administrer les serveurs / Installer la suite Microstratégy / Analyser les logs GitLab Kubernetes Etat d'esprit & approche Agile + connaissance du cadre de travail Scrum Aisance relationnelle, esprit d'équipe & force de proposition

Freelance

Mission freelance
Ingénieur MLOPS Montpellier (Pré embauche sous 1 an de mission)/ri

WorldWide People
Publiée le
Apache Spark
Databricks

12 mois
330-440 €
Montpellier, Occitanie

Ingénieur MLOPS Montpellier (1 Senior et 1 Junior) DevOps : Maîtrise de GitHub, Docker, Kubernetes. Outils : MLFlow, Expérience avec Airflow. Plateformes : Connaissance de Spark (Databricks) ou GCP (Vertex AI), AWS, . Langages : Excellente maîtrise de Python et Scala. Pré embauche sous 1 an de mission ASAP Vos principales responsabilités : Concevoir et développer des solutions logicielles pour l'IA et la gestion des flux de données. Proposer et implémenter des stratégies novatrices pour l'extraction, le traitement et l'analyse de l'information. Assurer le déploiement, le test et la maintenance des solutions MLOps. Vous serez également en charge de : Participer aux rituels de gestion de projet (Agile ou cycle en V). Rédiger de la documentation technique détaillée. Réaliser une veille technologique proactive autour des données et de leur traitement. Votre profil : Formation : Diplôme d'Ingénieur ou équivalent (Bac+5) en sciences ou informatique. Expérience : Expertise avérée sur des projets en data & IA, avec une forte inclinaison pour le développement et une culture solide en data et DevOps. Compétences Techniques : DevOps : Maîtrise de GitHub, Docker, Kubernetes. Outils : MLFlow, Expérience avec Airflow. Plateformes : Connaissance de Spark (Databricks) ou GCP (Vertex AI), AWS, . Langages : Excellente maîtrise de Python et Scala. Qualités Personnelles : Esprit d'équipe, passion pour la data, autonomie et capacité d'adaptation.

Freelance

Mission freelance
Tech Lead Java

HAYS MEDIAS
Publiée le
Apache Kafka
Java
Kubernetes

3 ans
100-600 €
Lille, Hauts-de-France

L’équipe Age of Access Accelerator (localisée à Croix) construit des solutions d’échange de données pour la Value Chain du client. Les solutions qu’ils construisent s’appuient sur des standards technologiques open source à l’état de l’art pour permettre des échanges de données massifs en temps réel entre applications du système d’information du client. Notre équipe a construit les produits suivants : VCStream: Une plateforme de streaming de données permettant de connecter SAP et Apache Kafka. Elle permet d’accélérer la livraison et fournit des outils d’observabilité, faciles d’utilisation, des échanges de données de la Value Chain. Autonomous Topic Management (ATM): Une solution de Topic as a Service qui permet aux développeurs de la Value Chain d’exploiter la puissance d’Apache Kafka pour leurs applications en créant des topics Kafka en toute autonomie sur un cluster mutualisé. Nous recherchons une personne possédant au moins 10 ans d'expérience dans le développement Java et ayant déjà exercé le rôle de techlead (faire monter en expertise l'équipe, apporter les bonnes pratiques, ...). Forte culture des architectures logicielles : avoir créé "from scratch" une application micro-service (Kubernetes) avec communication Kafka est indispensable. Cette offre fais suite au départ du précédent techlead. La prestation permettra de prendre le relais jusque la fin du projet (fin 2025). Objectifs et livrables TES RESPONSABILITÉS : Au sein de notre équipe, tes missions sont les suivantes : Assurer le suivi de la vision et stratégie technique; Prendre en charge de bout-en-bout la conception, l’implémentation et le déploiement en production de nouveaux services/solution “scalables” et performants; Faciliter la conception et la réalisation des features; S’assurer de la cohésion technique, qualité applicative, la disponibilité de l’application, la qualité des données; Partager avec pédagogie l’ensemble des compétences et connaissances; Assurer et évangéliser la qualité applicative par les tests (TU / End-End / …); Écriture de documentations.

337 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous