Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 606 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Consultant Data Engineer

Hexagone Digitale
Publiée le
Databricks
DevOps
Jenkins

6 mois
410-530 €
Paris, France

Nous recherchons un(e) Data Engineer qui construira, livrera et maintiendra des produits de données (pipelines de données, services, API...). Data engineer technologies obligatoires utilisées pour le développement : - Databricks pour le pipeline de données - Fonderie Palantir pour l'ontologie et les tableaux de bord Le Data Engineer travaillera en étroit collaboration avec les équipes produits pour développer de nouvelles fonctionnalités liées à ces produits, notamment des fonctionnalités liées à : -Pipeline de données au sein ou entre plusieurs produits -Capacités analytiques et d'entreposage pour l'exploration de données, la science des données, la BI -Calcul parallèle sur de gros volumes de données Le Data Engineer est responsable de la construction, de la livraison, de la maintenance, de la documentation des artefacts ou des fonctionnalités de données (pipelines de données, services de données, API...) selon des modèles de l'état de l'art (architecture médaillon, gitflow) Le Data Engineer doit : -Être orienté vers la résolution de problèmes avec une forte pensée analytique -Être autonome et rigoureux dans la façon dont il/elle aborde les défis techniques -Conseiller sur l'architecture des flux de données de bout en bout -Collaborer avec diverses parties prenante

Freelance

Mission freelance
Data Analyst 5-8 ans

SKILLWISE
Publiée le
Apache Airflow
Databricks
Snowflake

3 mois
100-600 €
Paris, France

Nous recherchons un ANALYTICS/WEB ENGINEER pour le compte d'un grand client des secteurs de médias en place parisienne. Vous aurez à les accompagner sur le produit d'Activation au sein de la DATECH, avec un fort penchant sur les problématiques publicitaires. Vous devrez : - Gérer la DMP (Mediarithmics) en mettant à jour les collectes dans celle-ci, assister sur la création de segments et vérifier la bonne diffusion de ces derniers - Prendre en main les contraintes de ciblage sur les différents environnements en collaboration avec les différentes entité de DATECH et PUB - Travailler sur la mise en place de partenariats datas avec des annonceurs / data providers - Aider à la mise en place de tests publicitaires avec les équipes L'environnement technique de l'équipe : Snowflake, Databricks, Airflow, Azure DevOps, Mediarithmics, Liveramp

Freelance

Mission freelance
Data engineer Databricks / PySpark / Palantir h/f

Freelance.com
Publiée le
Databricks
PySpark

3 mois
550-670 €
Paris, France

Databricks pour les pipelines de données Palantir Foundry pour l'ontologie et les tableaux de bord L'Ingénieur Data travaillera en étroite collaboration avec les équipes produit pour développer de nouvelles fonctionnalités liées à ces produits, notamment les fonctionnalités suivantes : Pipelines de données au sein d'un ou plusieurs produits Capacités analytiques et d'entreposage pour l'exploration de données, la data science, et la Business Intelligence (BI) Calcul parallèle sur de grands volumes de données L'Ingénieur Data est responsable de la construction, la livraison, la maintenance et la documentation des artefacts ou fonctionnalités de données (pipelines de données, services, APIs…) en suivant des modèles d'architecture à la pointe (architecture medaillon, gitflow). Cas d'utilisation implémentés sur Databricks Cas d'utilisation implémentés sur Palantir Foundry Construire, livrer et maintenir des produits de données (pipelines de données, services, APIs…)

Freelance
CDI

Offre d'emploi
Data Engineer xp Databricks et Palantir Foundry

ARDEMIS PARTNERS
Publiée le
Databricks

3 mois
10k-56k €
Paris, France

Organisme de refinancement. Contexte : Nous recherchons un ingénieur de données qui créera, fournira et maintiendra des produits de données (pipelines de données, services, API). Technologies obligatoires du Data Engineer utilisées pour le développement : - Databricks pour le pipeline de données - Palantir Foundry pour l'ontologie et les tableaux de bord Le Data Engineer travaillera en étroite collaboration avec les équipes produits pour développer de nouvelles fonctionnalités liées à ces produits, notamment des fonctionnalités liées à : -Pipelining de données au sein ou entre plusieurs produits -Capacités d'analyse et d'entreposage pour l'exploration de données, la science des données, la BI -Calcul parallèle sur de gros volumes de données L'ingénieur de données est responsable de la création, de la livraison, de la maintenance et de la documentation des artefacts ou fonctionnalités de données (pipelines de données, services de données, API) selon des modèles de pointe (architecture médaillon, gitflow). L'ingénieur de données doit : -Être orienté vers la résolution de problèmes avec une forte pensée analytique -Être autonome et rigoureux dans sa façon d'aborder les défis techniques -Conseiller sur l'architecture des flux de données de bout en bout -Collaborer avec diverses parties prenantes (propriétaires de produits, propriétaires de solutions, analystes de solutions de données, développeurs, responsables techniques, architectes) pour livrer des artefacts de données dans un esprit d'équipe Livrables : Implémentation Cas d'usage sur Databricks Implémentation Use cases sur Palantir Foundry Créer, fournir et maintenir des produits de données (pipelines de données, services, API)

Freelance

Mission freelance
Architecte et expert Oracle Exadata

STHREE SAS pour HUXLEY
Publiée le
Big Data
Infrastructure
Oracle Database

3 mois
800-900 €
Île-de-France, France

Contexte : Dans le cadre du développement de notre infocentre RH pour notre client et de la solution BI RH, nous recherchons un Architecte Oracle Exadata. Ce rôle crucial impliquera d'abord une participation active à un Proof of Concept (POC), puis une implication dans le projet de migration depuis l'infrastructure BigData vers Oracle Exadata. Missions : 1. Conseil et Expertise : - Conseiller sur l'utilisation optimale d'Oracle Exadata. - Fournir une expertise technique en matière de performance, de fiabilité et de sécurité des bases de données. 2. Architecture : - Définir et concevoir l'architecture de la base de données Oracle Exadata. - Assurer l'intégration de la solution Oracle Exadata avec les systèmes existants. 3. Optimisation : - Identifier et implémenter des stratégies d'optimisation des performances des bases de données. - Surveiller et ajuster les configurations pour maximiser l'efficacité opérationnelle. 4. Stratégie d'Administration : - Développer et mettre en place une stratégie globale d'administration des bases de données Oracle Exadata. - Superviser les procédures de sauvegarde, de récupération et de maintenance des données. 5. Participation au POC : - Travailler en étroite collaboration avec les équipes projet pour le POC de l'infocentre RH du client et la Solution BI RH. - Apporter des solutions techniques et assurer la faisabilité du projet. 6. Post-POC et Migration : - Intervenir dans le projet de migration de l'infrastructure BigData vers Oracle Exadata. - Fournir un support continu et des améliorations post-migration.

CDI

Offre d'emploi
Développeur full-stack

ALTEN
Publiée le
Angular
AWS Cloud
Java

10k-55k €
Lyon, Auvergne-Rhône-Alpes

Vous serez en charge de coordonner le projet de développement logiciel avec une équipe de développeurs. Ce projet a pour but de suivre la rénovation du Système d’information d’un de nos clients en apportant les moyens et méthodes permettant d’optimiser la gestion des activités. Vous serez ainsi garant de la qualité du code (Code review, conceptions des modules complexes, transmission de bonnes pratiques...). De plus, vos compétences en conception et lecture de code vous permettront d’aider votre équipe à résoudre les problèmes. Enfin, vous piloterez l’activité en suivant les KPI et animerez les réunions de suivi du projet avec votre équipe et rendrez compte au client régulièrement.

Freelance
CDI

Offre d'emploi
Développeur Java DevOps (FH)

Taleo Capital
Publiée le
AWS Cloud
Cloud
DevOps

6 mois
60k-70k €
Paris, France

Vous interviendrez pour le compte d'un grand groupe bancaire international, au sein du département IT Compute dédié aux salles de marchés Produits Structurés & Dérivés sur Actions . L'équipe est en charge du développement d'une plateforme de calcul des risques de contrepartie (RWA for CCR) reposant sur un nouveau framework stratégique (Firebird) , hébergé sur des clouds externes (GCP et AWS). L’environnement est agile et DevOps, avec une approche globale et internationale (Paris, Londres, Hong Kong, New York). Responsabilités : Participer au développement des composants Java sur la chaîne de calcul RWA pour la gestion des risques de contrepartie. Améliorer la performance, la stabilité et la scalabilité des composants. Collaborer à l'intégration et à la gestion des services sur GCP avec une possibilité d'évolution vers AWS . Assurer la mise en place des tests , la mise en production et la rédaction de la documentation. Fournir un support applicatif et participer aux astreintes . Passer une part importante du temps sur l’ analyse des besoins , la maintenance , le monitoring des plateformes et les tests .

Freelance
CDI

Offre d'emploi
Développeur Web JAVA/Spark

SCALIAN
Publiée le
Apache Kafka
Apache Spark
Grafana

2 ans
35k-42k €
Nantes, Pays de la Loire

Informations sur la mission Tâches Développer des composants Java et des scripts Linux dans un environnement HADOOP Cloudera, Kafka, Spark, Oozie Assister les développeurs fonctionnels sur la conception des solutions bancaires en utilisant les outils développés par la squad, aider à la résolution d'incidents et le suivi de production. Contexte Notre squad est composée de 7 équipiers et est basée à Nantes. Nous travaillons en mode Agile (Cérémonies, …). Nous recherchons une personne pour venir renforcer notre squad Attendu S'intégrer à l'équipe et prendre en charge des tickets de développement ou de support, être force de proposition pour des améliorations des produits gérés en respect des normes de l'architecture du SI. Compétences requises Compétences Techniques - JAVA 8 - Spark 2 et 3 - Hadoop - LINUX - KAFKA - SQL - Notions GRAFANA

CDI

Offre d'emploi
Architecte Data & Solution

Inventiv IT
Publiée le
Amazon Elastic Compute Cloud (EC2)
Amazon S3
AWS Cloud

95k-119k €
Paris, France

🎯 Inventifs Wanted En tant qu' Architecte Data chez Inventiv IT , vous êtes au premier plan de la transformation digitale. Vous êtes un leader doté d'une expertise en architecture des données, en chiffrage et en cadrage de projets Big Data, et méthodologies Agile. Travaillant sur plusieurs projets Plateform Data (orienté Architecture & Ingénierie de données) Cadrage et chiffrage des divers projets Big Data au sein de la galaxie. Définition des solutions d’architecture Big Data dans le Cloud Azure & AWS répondant aux besoins et exigences du client et aux bonnes pratiques des standards attendus. Garantir la cohérence technique et la pérennité du système d’information. Participation à la définition et à l'amélioration du Socle Big Data : Architectures types, stacks techniques, outils, règles de gouvernance et best practices. Mise en place de l'architecture des projets Big Data sur le Cloud Azure & AWS, en rédigeant des Dossiers d’Architecture Logiciels (DAL) et en validant des Dossiers d’Architecture Technique (DAT). Migration des projets dans des nouvelles architectures (HDI vers AKS, Datalake Gen1 ver Gen2, AKS 1.19 vers AKS 1.) et concevoir de nouvelles solutions avec un monitoring de PaaS et une synchronisation des données de Prod et Hprod. Participation à des instances de : Design Authority, CoArch avec les Architectes Techniques, CAO (Comité d'Architecture Opérationnel), Validation de l'architecture du Product Incrément, à des réunions de qualification / validation avec le RSSI et au suivi de chantiers de résilience et de suivi FinOps. Architecture & Ingénierie Databricks Maîtrise de Spark / Scala Arsenal Technologique : Votre maîtrise de Microsoft, Databricks, Datadog, Dataglaxy, Spark, Azure Kubernetes Services, Event Hub, Azure DataLake Gen1/Gen2, Azure Data Factory,PowerBI, PostgreSQL Harbor, DatadogAzure, et plus encore, est l'arsenal qui nous propulse dans cette aventure. Chaque outil, chaque langage, est une étoile dans la galaxie de vos compétences, illuminant notre chemin vers l'avant-garde technologique.

Freelance

Mission freelance
Tech lead - Data

Management Square
Publiée le
Agile Scrum
Azure Data Factory
Azure DevOps Server

1 an
580-600 €
Île-de-France, France

Participer au développement d'un Framework de gestion des flux de données Concevoir l'architecture technique de la solution cible Proposer des solutions innovantes Assurer la cohérence technique et les bonnes pratiques Être force de proposition sur le design des solutions techniques Rédiger les dossiers techniques et autres documentations nécessaires Participer activement au développement de la solution cible Assurer la cohérence technique des différents modules du projet et garantir les bonnes pratiques (cohérence du code au sein de l’équipe, choix des modèles ..) en ligne.

Freelance

Mission freelance
Expert Data (H/F) - 94+95+Remote

Mindquest
Publiée le
Azure
Databricks
Microsoft Power BI

1 an
400-900 €
Paris, France

L'enjeu de ce chantier consiste en un dé-silotage des données d'application pour construire une vision business 360 unifiée (une couche de données qualifiées, consolidées, homogénéisées et complètes pour exploitation) à travers une gestion de la qualité et de la cohérence des données Prestation Les expressions de besoin, fiche usage, fiche solution, et fiche budget, note de cadrage, cadrage des démarches, dossiers projet, comités de suivi, plan d’actions, documentation, CR, … relatif à son activité Les éléments de suivi des avancements, du planning, capacité à faire, plan d'action, budgets, difficultés, risques, … Les coaching, coordination, planification, optimisation, priorisation, animation, gouvernance Les conseils, propositions, pilotage Livrables associés EB d'ingestion (plusieurs sources/applications/tables) SFD (Spécification fonctionnelle détaillée) EB module d'ingestion industriel EB outil de supervision EB contrat de service EB environnement pour exploitation *Support/Présentation pour pilotage

Offre premium
Freelance

Mission freelance
Consultant Data Management - Temps partagés (3/5j) - Paris La Défense

AIS
Publiée le
Data analysis

3 mois
420-860 €
La Défense, Île-de-France

Nous recherchons un·e Consultant·e Data Management expérimenté·e (3-5 ans) pour rejoindre notre service Data Office. Vous serez responsable de la mise en place de la gouvernance des données au sein de notre organisation, en apportant votre expertise sur la gestion des données et en pilotant des projets stratégiques autour du Data Management. Missions principales : Cartographier et documenter les data domains Finance, RH et Customer en collaboration avec les Data Owners et stewards. Identifier et inventorier les master data fonctionnelles. Clarifier l’ownership des master data dans le cadre de la politique de Master Data Management récemment établie. Participer activement à la création de dashboards internes et pour nos clients, et contribuer à l’obtention d’une vision client 360. Vous jouerez un rôle clé dans l’évolution de la stratégie Data de l’entreprise et dans la promotion de l’approche Data au sein des différentes équipes.

Freelance
CDI

Offre d'emploi
Data Engineer Java / Python / Scala / AWS

GRADIANT
Publiée le
AWS Cloud
Cassandra
Java

3 ans
10k-56k €
Paris, France

Le prestataire travaillera en tant que Data Engineer sur les différents systèmes de gestion de données, et devra supporter les développements sur les différentes plateformes dans les meilleurs délais (time to market), tout en garantissant leur qualité. Le rôle impliquera notamment les activités suivantes : - Maintenance évolutive et corrective sur le périmètre applicatif actuel - Définition et chiffrage des architectures et solutions cibles en réponse aux besoins de l'entreprise. - Définition et mise en œuvre de PoCs pour valider les solutions proposées. - Rédaction des spécifications techniques et du dossier d'architecture. - Développement de processus d'ingestion de données dans AWS. - Définition et diffusion des meilleures pratiques de développement - Développement de services de récupération de données stockées dans AWS/S3. - Gestion du cycle de développement, de l'infrastructure et des mises en production (DevOps). - Accompagnement des utilisateurs dans la prise en main des nouvelles fonctionnalités. Le contexte L'outil est basé sur un SGBD Postgresql et une couche de collecte de données Java. Le second outil repose sur une base de données Cassandra avec une ingestion via des automates écrits principalement en Python. Dans les deux cas, les données sont récupérées via une API .Net. Un site web en Angular et un addin Excel en .Net permettent aux utilisateurs de consulter/manipuler les données. Les données de ces bases opérationnelles sont synchronisées avec le datalake amazon afin d'alimenter les processus d'analyse de données qui utilisent la pile technique AWS.

Freelance
CDI
CDD

Offre d'emploi
Data Analyst confirmé / senior

SARIEL
Publiée le
Azure
Databricks
SQL

36 mois
10k-70k €
Châtillon, Île-de-France

Bonjour, Nous recherchons pour un poste (mission de longue durée) à pourvoir ASAP un profil Data Analyst pour notre client basé en région parisienne (Châtillon) confirmé/sénior disposant d’au moins 5 ans d’expérience data. Au sein de la Direction Digital & Data, l’équipe Data Lab intervient sur les périmètres Data et Analytics, dans le cadre du programme de transformation du SI de notre client. Vous aurez l’opportunité de rejoindre leur Data Factory dont la mission première est de déployer des produits Analytics innovants à destination des fonctions support et logistique, des magasins, et surtout des consommateurs. Après les premiers succès et des attentes de plus en plus fortes, nous passons désormais à l’échelle avec une nouvelle organisation Agile en Domaine/Tribu/Squad et la nécessité d’industrialiser nos pratiques pour accélérer la livraison des produits, tout en capitalisant mieux sur le patrimoine de données constitué. Vous aurez l’occasion d’intégrer une de nos squad dont la principale mission est de développer des cas d’usage BI, Analytics et Data Science déployés sur notre plateforme Data hébergée sur le Cloud Azure. Objectif global : Rédiger Rédaction Contrat d'interface & Specs Ci-dessous les principales tâches prévues : - Rédaction des contrats d’interfaces pour mise à disposition des données par la source de données - Rédaction de spécifications techniques détaillées de contrôles - … Une 1ere expérience dans le secteur de la grande distribution serait appréciée Les livrables sont · Contrat d'interface · Spécifications techniques détaillées Définition du profil CONCEPTION ET CADRAGE Définit, développe, met en place et maintient les outils nécessaires à l'analyse des données par les équipes Data Conçoit les modèles de données et les contrats d'interfaces Est responsable de créer des solutions permettant le traitement de volumes importants de données tout en garantissant leur sécurité MISE EN PRODUCTION Prépare les documents requis pour les Mises En Production (MEP) et pour le Run (document d'exploitation, supervision, ?) Participe à la mise en place des processus et outils de supervision de son produit et des traitements associés Participe au transfert de compétences vers l'équipe en charge du RUN Respecte les bonnes pratiques de développement (optimisation, sécurisation, documentation, etc.) Participe aux différentes cérémonies agiles VEILLE ET SUIVI Assure une veille active sur les technologies et langages utilisés et leurs évolutions afin d'améliorer les compétences des équipes Participe à la résolution d'incidents sur le produit en collaboration avec les parties prenantes Un test technique sera réalisé lors de l’entretien Dans le cas où vous êtes intéressé par ce poste, pourriez-vous SVP m'envoyer votre CV au format Word en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant ?

Freelance

Mission freelance
Chef·fe de projet infrastructure AWS

BLOOMAYS
Publiée le
Amazon DynamoDB
Amazon Elastic Compute Cloud (EC2)
Amazon S3

12 mois
450-700 €
Pantin, Île-de-France

Contexte : Api dans un environnement Cloud AWS Responsabilités : Planification et Gestion de Projet : Concevoir des plans de projet détaillés incluant les objectifs, les délais, les ressources nécessaires et les budgets associés. Veiller à l'exécution des projets en respectant les méthodologies éprouvées de gestion de projet. Anticiper les risques et les problèmes, et élaborer des stratégies d'atténuation appropriées. Garantir le respect des standards de sécurité et de qualité. Analyse des Besoins : Être le point de contact principal des clients IT Commerciaux pour la gestion du build. Recueillir et organiser les demandes des clients, puis les structurer dans une perspective d'infrastructure IT pour qu'elles soient alignées avec le build des services d'infrastructure. Superviser les services déployés en production et collaborer avec les équipes techniques pour assurer leur bon fonctionnement, en respectant les engagements pris via les SLA (accords de niveau de service). Définir des indicateurs de performance (KPI) afin de mesurer l'efficacité des prestataires d'infogérance. Travailler en coordination avec les infogérants pour résoudre les problèmes techniques et s'assurer que les objectifs fixés sont atteints. Coordination des Équipes : Manager une équipe composée de divers spécialistes techniques tels que des ingénieurs systèmes, des administrateurs réseau, etc. Faciliter une communication fluide et efficace entre les différentes équipes tout au long du projet. Suivre l'avancement du projet et réajuster les plans si nécessaire. Capacités d’Analyse, de Synthèse et de Communication : Fournir des synthèses précises et claires des problématiques rencontrées, des solutions proposées et des actions entreprises. Rédiger des comptes-rendus exacts des réunions techniques, incidents ou échanges avec les clients. Adapter le discours technique en fonction de l’audience et communiquer efficacement avec les parties prenantes, aussi bien à l'oral qu'à l'écrit. Environnement cloud AWS

Freelance
CDI
CDD

Offre d'emploi
TechLead Java/DevOps

bdevit
Publiée le
AWS Cloud
CI/CD
DevOps

12 mois
50k-58k €
Île-de-France, France

Poste : TechLead Java DevOps hands-on, avec des compétences en HTC/HPC et Cloud (AWS). Dans le cadre d'une mission de conseil IT pour l'un de nos clients dans le secteur bancaire, nous les accompagnons dans un programme ambitieux de transformation et de modernisation. L'un des volets de ce programme concerne l'optimisation des SLA et la délégation de la complexité des graphes de calculs au middleware, via la distribution de calculs. Le middleware en question est ArmoniK, un orchestrateur de tâches de calculs intensifs, déployable sur le cloud ou on-premise. ArmoniK est déjà en production et est open source, avec Aneo comme fondateur et contributeur. Compétences Requises : Java Kubernetes Intégration de middleware Cloud AWS DevOps (partie Étude)

606 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous