Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 438 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Analyste et support fonctionnel et technique

KEONI CONSULTING
Publiée le
Active Directory
Gestion de parc
Office 365

12 mois
100-300 €
Paris, France

Contexte : Nous recherchons un analyse des demandes de service, réalisée selon les règles, le contexte technique, le profil de l’utilisateur, le besoin métier. MISSIONS : • Analyser et arbitrer les demandes de services selon les règles, le contexte technique, le profil de l’utilisateur, le besoin métier… • Etre force de proposition pour des solutions alternatives afin d’optimiser le service rendu • Prioriser et assurer le suivi des demandes de service en tenant compte du contexte audiovisuel • Etablir des synthèses d’analyse des cas complexes pour le pilotage • Rédiger les communications spécifiques destinées aux utilisateurs avant réalisation des demandes par le Support sous contrat d'infogérance (hotline, support de proximité, administrateurs environnements utilisateurs et postes de travail) • Auditer le traitement des dossiers des équipes hotline et support de proximité et réaliser des rapports d’audit • Rédiger des documentations (procédures, consignes, modes opératoires, expression de besoins) • Réaliser des rapports d’activité et d’inventaire • Garantir la mise à jour des référentiels de données permettant le traitement des demandes • Réaliser des recettes dans le cadre d’évolution du paramétrage de l’outil de gestion des demandes et des incidents • Etablir des expressions de besoin pour l’évolution du paramétrage de l’outil de gestion des demandes et des incidents

Freelance
CDD

Offre d'emploi
Analytics Engineer / Data Analyst H/F

SMARTPOINT
Publiée le
Apache Kafka
Git
Microsoft Power BI

12 mois
10k-48k €
Bois-Colombes, Île-de-France

Concevoir, réaliser, maintenir et faire évoluer les services et contenus de la PDA Mettre à disposition la donnée de tous les domaines de l’entreprise aux utilisateurs Modéliser les solutions applicatives selon les besoins métiers de l’entreprise Accompagner et développer avec les métiers des reporting et datasets à haute valeur ajoutée • Analyse avancée et modélisation statistique : o Capacité à effectuer des analyses complexes sur les données. o Utilisation de méthodologies statistiques pour générer des insights exploitables. • Communication et collaboration : o Compétences en communication pour travailler avec des équipes interfonctionnelles et métier. o Capacité à traduire des besoins métier en exigences techniques. o Animer la communauté de développeur autour de produits • Gestion de projet et résolution de problèmes : o Planification et exécution de projets d’analyse de données. o Résolution efficace des problèmes liés aux données et aux pipelines. • Outils d’analyse de données : o Maitrise des outils couramment utilisés tels que Power BI,Reporting Service, Cube, Excel. o Capacité à créer des rapports pertinents à partir des données analysées. • Modélisation de données et visualisation (Dataviz) : o Compétences en modélisation de données pour créer des schémas et des structures. o Expert des des modèles de données métiers o Capacité à créer des visualisations claires et informatives pour communiquer les résultats. o Proposer des solutions de visualisations avancées(UX/UI) • Référent sur la connaissance du patrimoine de données mises à disposition dans les socles de données et des publications de reporting afférentes.

Freelance
CDI

Offre d'emploi
Data Engineer Finance

VISIAN
Publiée le
Agile Scrum
Ansible
Apache Airflow

2 ans
10k-65k €
Charenton-le-Pont, Île-de-France

Récupérer les données issues de sources externes • Utiliser la puissance du Datalake • Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le datalake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner. • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels Aspects Humains : • Grande capacité à travailler dans une équipe, en mode Scrum / Kanban. • Bonnes compétences relationnelles et grand sens de la communication (capacité à entrer dans le détail). • Sensible et informé des évolutions technologiques sur les piles logicielles pratiquées.

CDI

Offre d'emploi
consultant data/BI (H/F)

PROXIEL
Publiée le
Apache Kafka
BI
Talend

42k-48k €
Montpellier, Occitanie

Bonjour, Nous recherchons un consultant data/BI (H/F) pour intégrer l'un de nos partenaires à Montpellier ou bien Aix en Provence (en hybride) : vous serez amené à : - Participer aux rituels de gestion de projet (Agile, cycle en V). - Rédiger des documentations techniques détaillées. - Assurer une veille technologique autour de la donnée et de son traitement. Vos compétences techniques (par ordre d'importance) : - BI : Qlik. - ETL : Talend, Kafka. - Bases de Données : Mongo DB, Postgres. - MDM et Gouvernance : Des connaissances dans ces domaines seraient un atout.

Freelance

Mission freelance
Développeur Big Data (F/H)

Quick Source
Publiée le
Ansible
Apache Kafka
Docker

2 mois
400-470 €
Île-de-France, France

Vos missions : Récupérer les données issues de sources externes Utiliser la puissance du Datalake Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. Mise en œuvre de la chaîne : -d’ingestion de données, - de validation de données, -de croisement de données, -de déversement dans le datalake des données enrichies Développer dans le respect des règles d’architecture définies Développer et documenter les user stories avec l’assistance du Product Owner. Produire les scripts de déploiement Prioriser les corrections des anomalies Assister les équipes d’exploitation Participer à la mise en œuvre de la chaîne de delivery continue Automatiser les tests fonctionnels

Freelance

Mission freelance
Ingénieur DevOps / BIG DATA

Management Square
Publiée le
Apache Hive
Apache Kafka
Apache Spark

2 ans
100-480 €
Paris, France

Nous recherchons un ingénieur data et intégration pour une mission basée à Paris, France. Le profil recherché doit être orienté data ingénieur avec des compétences réparties de manière à ce que la moitié de ses compétences concerne la data et l'autre moitié concerne les aspects intégration/exploitation/puppet. Maintien en condition opérationnelle de l’environnement BIG DATA d'une application Administration de l’environnement DATA Gestion des mises à jour et évolutions d’architecture applicative Assurer une continuité des activités liées au périmètre en palliant l'absence du data ingénieur déjà en place

Freelance
CDI

Offre d'emploi
EXPERTISE ELK : BEAT, LOGSTASH, CLUSTER ELASTIC

Digistrat consulting
Publiée le
Apache Kafka
Elasticsearch
ELK

3 ans
40k-60k €
Paris, France

💡 Contexte /Objectifs : L'équipe en charge les services de monitoring , d'alerting et de collect de log sur 3 plaques. Le bclient souhaite mettre en oeuvre plusieurs évolutions de son socle technique en termes d’ Urbanisme des systèmes d'information Dans ce cadre, la prestation consiste à contribuer à/au(x) :  La collecte de log  La mise en place du dispositif ELK pour les différentes requêtes liés à la collecte de log  La gestion d'une volumétrie grandissante, multiplication de sources d'alimentation (evolution/tuning de l'infra existante et maintien en condition)  La mise en place d'un monitoring plus fin avec utilisation de l'IA  La configuration de logstash pour des tâches de parsing et d'enrichissements.  La mise en oeuvre de WEC (Windows Event Collector) pour collecter certaines sources.  L'usage d'un bus Kafka est à l'analyse pour l'enrigissement des logs  Les outils : Suite Elastic (Agents xBeat, collecteurs logstash, Elasticsearch,pipeline ,WEC, Kibana) / Parsing / Shell, LINUX. Les livrables attendus sont :  La mise à jour de la documentation  La maintien en condition des outils  Le développement des outils d'expoitation  La gestion des tickets d'incidents  La gestion des requêtes

Freelance
CDI

Offre d'emploi
skiils recherche son/sa futur(e) data engineer cloud pour renforcer ses équipes au maghreb (remote)

skiils
Publiée le
Apache Kafka
Apache Spark
Scala

1 an
12k-200k €
Île-de-France, France

Notre data engineer intégrera une équipe SCRUM et se concentrera sur un périmètre fonctionnel spécifique. Son rôle consistera à contribuer à des projets data en apportant son expertise sur les tâches suivantes : ● Participer à la réalisation de l’ensemble des projets métiers (usages) ● Prendre en charge les demandes de corrections provenant d’incidents ou d’anomalies ● Participer à l'auto-formation et à la montée en compétences de l’équipe de développement ● Appliquer les bonnes pratiques et les normes de développement ● Mettre en pratique les méthodes « devops » ● Contribuer aux chiffrages des usages et à la constitution des releases ● Contribuer à l’automatisation du delivery ● Développer et documenter son code ● Travailler au sein d’une équipe SCRUM (PO, développeurs, QA, Support)

Freelance
CDD

Offre d'emploi
Data Engineer H/F

SMARTPOINT
Publiée le
Apache Kafka
Git
Microsoft Power BI

12 mois
10k-48k €
Bois-Colombes, Île-de-France

Concevoir, réaliser, maintenir et faire évoluer les services et contenus de la PDA Mettre à disposition la donnée de tous les domaines de l’entreprise aux utilisateurs Modéliser les solutions applicatives selon les besoins métiers de l’entreprise Accompagner et développer avec les métiers des reporting et datasets à haute valeur ajoutée. HardSkills DataEngineering obligatoires: Maitrise des process d’ingestion en batch et streaming quel que soit la typologie de sourcing des données (API, Fichier (structuré, semi structuré, non structuré), BDD, …) et quel que soit le Cloud provider en entrée(AWS/AZURE). • Expertise BDD Snowflake avec minimum 3 ans d’expérience(SQL, Rôle, Virtual Warehouse, Datamodelling) • Parfaite maitrise des modèles de données. Les consultants seront référent technico fonctionnel sur plusieurs domaines métier(2 à 3 domaines suivant la complexité). • Très bonne maitrise des langages Javascript(impératif), SQL, T-SQL, PowerShell, Python. • Création d’app, aisance sur Notebook avec bibliothèques afférentes (ex : Panda, NumPy) • Optimisation de requête et performance, factorisation du code, respect de l’état de l’art • Capacité d’analyse avancée pour résoudre les incidents techniques ou fonctionnels avec Tests unitaires et code quality. • Développement de cube tabulaire PBI (M et DAX) • Support Niveau 3 sur le périmètre des socles applicatifs et reporting associés • Parfaite maitrise de GIT et connaissance d’un outil de gestion de configuration tel que Azure Devops(Méthode GITflow / GITHubflow), CI/CD/Artefact) • Interlocuteur technique privilégié avec les supports éditeurs (Microsoft, Snowflake) • Mise en place et Monitoring de l'infrastructure • Développement script d’administration • Développement d’alertes de sécurité • Veille au respect de l'état de l'art pour les langages de développement (SQL, C#, Powershell) • Revue et amélioration de code (SQL, C#, Powershell) • Maintenance et développement en amélioration continue du framework d’alimentation et de supervision de la plateforme PDA (.net/Powershell/Javascript) • DBA étude : Code review, audit et validation des PR, optimisation de requête et performance/factorisation, veille au respect des bonne pratique de code, Contrôle et ajustement des performances des bases de données (SQL Serveur, Snowflake, Azure SQL) • DBA Système : Conception et implémentation des modèles de sécurité des bases de données, gestion de la performance des bases de données, monitoring et résolution d'incidents • Développement de pipeline CI/CD, Artefact, repo et taches Azure Devops • Mise en place des bonnes pratiques (technique, fonctionnel, corpus documentaire) • Animation de communauté Développeur

Freelance
CDI

Offre d'emploi
Bigdata Engineer Cloud

Digistrat consulting
Publiée le
Apache Kafka
Big Data

3 ans
40k-60k €
Paris, France

💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket

Freelance
CDI

Offre d'emploi
Développeur C# .NET Core Kafka Senior

Digistrat consulting
Publiée le
Apache Kafka

36 mois
10k-177k €
Paris, France

💼 Poste : Développeur C# .NET Core Kafka 🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Contribution au développement autour de la nouvelle plateforme orientée services (SOA) ayant comme socle Kafka et Cassandra. Technologie Kafka est un plus puisque la mission s'articulera principalement autour de cette technologie. Nous intervenons sur le développement de service pour le Front Office. 🤝 Expertises spécifiques : Objectifs de la mission Développement C# .NET Core Méthodologie : BDD/TDD Utilisation de Kafka/Cassandra Maintenance applicative Documentation / Testing Support L3

Freelance

Mission freelance
Data & DevOps Engineer - Senior H/F

Freelance.com
Publiée le
Apache Airflow
Apache Kafka
Azure

6 mois
100-700 €
Paris, France

Poste : Data & DevOps Engineer – Senior Expérience : Sénior Localisation : Clichy Démarrage : ASAP Objectifs/Descriptif de mission : L'entrepôt central des données de la Recherche et de l'Innovation est conçu pour répondre aux cas d'utilisation en Business Intelligence, Analytique et Apprentissage Automatique. Dans le cadre de son déploiement sur la plateforme GCP, il est essentiel d'intégrer constamment de nouvelles sources de données afin de répondre aux besoins émergents. Le Data Engineer sera le consommateur de la plateforme GCP dont une grande partie de socle technique est déjà mis en place (CI/CD, pattern d'intégration, orchestration etc ...)

Freelance

Mission freelance
Data Engineer senior Hadoop / Hive + ELK + Kafka

Signe +
Publiée le
Apache Hive
Apache Kafka
Big Data

24 mois
175-200 €
Nantes, Pays de la Loire

Profil : Data Engineer Senior ou Tech Lead A l'aise avec le CICD, aguerri aux technologies Java et en solutions conteneurisées (ELK, Kafka, etc ..) Administration des bases de données (Famille) Conception événementielle (Kafka, rabbitMQ, CREM …) Hadoop Java / Spark Nifi Hive Kotlin Principes d'intégration continue SQL Site : Nantes en priorité, possible sur Aix sinon à étendre à d'autres localisations Nature du besoin : remplacement d'un profil senior actuellement en mission Type de projet : (TT possible 2 j / semaine) Service public de l'emploi

Freelance
CDI
CDD

Offre d'emploi
TechLead/Architect Cloud (MLOPS/DataOps)

bdevit
Publiée le
Ansible
Apache Kafka
AWS Cloud

36 mois
55k-65k €
Île-de-France, France

Dans le cadre de ces développements, le DataLab souhaite confier à un expert Cloud, venant en renforcement de son équipe usine logicielle la mission suivante : - Travailler sur des sujets de migration de solution "On Premise" vers le Cloud ; - Mettre en place l'outillage nécessaire à l'implémentation d'une méthodologie DevSecOps ; - Assurer l'intégration dans les architectures cibles : Configurer les plateformes, Industrialiser les architectures, Définir es accès aux ressources et les optimiser ; - Assister à l'élaboration de solutions et leurs optimisations ; - Rédiger les documents techniques et les livrables projets ; - Améliorer l'architecture actuelle ; - Transférer la connaissance et la compétence aux internes du DataLab. Résultats Attendus Des Livrables : Le DevOps sera accompagné par l'équipe Usine Logicielle. Il devra par ailleurs, fournir les livrables suivantes : - Une documentation conforme aux exigences du DataLab ; - Un support de l'ensemble des applications gérées en interne ; - Un support de l'ensemble des applications des entités déployées ; - Codes Sources commentés et "reviewés" ; - Intégration de tests unitaires des fonctionnalités développées ; - Présentation et partage des travaux.

Freelance
CDI

Offre d'emploi
TECH LEAD OPS

HAYS MEDIAS
Publiée le
Apache Kafka
CI/CD
DevOps

6 mois
10k-58k €
Nantes, Pays de la Loire

Vos missions principales seront les suivantes : Identifier les opportunités d'amélioration continue et proposer des solutions innovantes pour optimiser nos processus et nos outils. Assurer la stabilité, la performance et la sécurité de nos plateformes, tout en favorisant la croissance et le développement des membres de l'équipe. Servir de point de contact principal pour toutes les questions techniques relatives aux socles en fournissant un soutien et une expertise technique aux utilisateurs des plateformes (support aux autres Développeurs ou Tech Lead de l’entreprise) Assurer une veille technologique afin de monter en compétence en continu Elaborer et mettre à jour de la documentation

Freelance

Mission freelance
Développeur Big Data

CAT-AMANIA
Publiée le
Apache Kafka
Big Data
Scala

36 mois
430-480 €
Île-de-France, France

Dans le cadre de notre développement, nous recherchons pour un client grand compte un développeur Big Data. Les missions seront les suivantes : Mettre en production des modèles statistiques Acheminer et mettre à disposition les données pour les équipes Suivre les projets de développement Développer des jobs Spark pour le traitement des données Gérer l’ingestion de divers formats de données Concevoir et implémenter des scripts pour la collecte, le traitement et le mapping des données Développer des moyens de restitution comme des fichiers, API et tableaux de bord Concevoir des pipelines pour l'ingestion de données en streaming et en batch, ainsi que des jobs Spark pour le prétraitement et le calcul des indicateurs de performance (KPI) Développer des API pour l'ingestion et le traitement des données dans un environnement Hadoop Participer à la conception et à l'administration de solutions Big Data Installer et configurer des clusters Hadoop Développer des services en Spring Boot pour extraire des données de systèmes existants et les envoyer au Datalake via Kafka Normaliser et agréger les données pour produire des rapports de type Business View

438 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous