Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 251 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Ingénieur Data Lead Expert

Freelance.com
Publiée le
Apache Kafka
Java
MySQL

3 ans
100-620 €
Maisons-Alfort, Île-de-France

Pour notre client dans le secteur privé, nous recherchons un ingénieur data lead expert. Environnement SAFe. Mission longue 3 jours de télétravail et 2 jours sur site Mardi et Vendredi. Expertise obligatoire : Tech Lead. Connaissance des APIs. Modélisation base de données (idéalement via Power Designer). Travail dans un environnement décisionnel. Kafka pour consommer de l'évènementiel. Java. Python : Language GO - SQL Datastage souhaitable ou un ETL. Missions : On recherche un ingénieur Data qui soit le Lead des développeurs de l'équipe avec la volonté de tirer l'équipe vers des nouvelles pratiques et technologies (Evènementiel, APIsation, scripts Python etc). Son expertise dans ces outils doit amener à des nouvelles pratiques. Il doit être proactif et capable d'aller échanger aves ses pairs d'autres équipes Data au sein de Bpifrance et doit être curieux des nouvelles pratiques et nouveaux outils de marché. La connaissance complémentaire de Datastage serait un vrai plus.

Offre premium
Freelance
CDI

Offre d'emploi
Architecte DATA/IA

Ipanema Technology
Publiée le
Big Data
Business Intelligence
Data management

1 an
65k-150k €
Île-de-France, France

En tant qu'Architecte Data & Analytics pour un cabinet du Big Four, votre rôle consistera à développer des solutions robustes et pérennes autour de la transformation numérique et des projets en Intelligence Artificielle en collaboration avec la DSI. Vos principales missions incluent : Architecture Fonctionnelle et Urbanisation du SI : Structurer les architectures data fonctionnelles et techniques selon les besoins métiers. Etudes des besoins métier et chiffrage des solutions : Analyser les demandes en lien avec les équipes métiers et proposer des solutions techniques chiffrées. Architecture Solution : Assurer l'architecture des solutions, de la conception à la mise en production, pour garantir leur intégration fluide dans le SI. Catalogue Technologique : Maintenir et enrichir les stacks techniques et outils utilisés. Vous interviendrez aussi sur : La proposition d’architectures techniques en réponse aux besoins d’analyse et de traitement des données, avec estimation détaillée des coûts. La définition des frameworks, standards, et principes de modélisation des données de référence. L’amélioration continue des solutions en termes de performance, capacité, coût, sécurité. La mise en place de bonnes pratiques de développement et collaboration avec les équipes DSI dans une démarche DevOps. La veille technologique pour optimiser l’efficacité du SI.

Freelance

Mission freelance
Architecte Solutions DATA

CELAD
Publiée le
Big Data

1 an
700 €
Paris, France

Architecte Solutions DATA – Secteur Banque/Finance/Assurance Nous recherchons, pour l’un de nos clients dans le secteur Banque/Finance/Assurance, un Architecte Solutions DATA disposant d’au moins 10 ans d’expérience sur des projets similaires. Ce poste couvre le cycle complet des projets, de la phase de cadrage jusqu'au déploiement en production. En intégrant une équipe talentueuse et dynamique, vous travaillerez en étroite collaboration avec les urbanistes fonctionnels, les chefs de projets, la MOA, et les métiers.

Freelance

Mission freelance
Consultant HPC (High Performance computing) et Data engineering

Freelance.com
Publiée le
Big Data
Linux

90 jours
260-1k €
Paris, France

Le client, acteur de l'énergie dans le domaine de la recherche et développement (R&D), souhaite renforcer son infrastructure de calcul haute performance pour répondre aux besoins de ses chercheurs. Le consultant interviendra pour administrer et optimiser un DGX (système spécialisé intégrant des GPU) en fournissant des services de gestion, de maintenance et de mise à jour. L’objectif est de garantir aux équipes de recherche un accès optimisé et performant à cette infrastructure critique. Administration et Gestion du DGX : Assurer la gestion quotidienne de l’infrastructure DGX, incluant la maintenance, les mises à jour, et l’optimisation de l’accessibilité pour les équipes R&D. Support HPC pour la Recherche : Apporter un support technique aux chercheurs dans l’utilisation et l’optimisation de ressources HPC, incluant le déploiement de workflows adaptés aux calculs intensifs. Gestion des ressources avec Slurm : Utiliser Slurm pour la gestion de files d’attente, l’ordonnancement et l’allocation de ressources afin de maximiser l’efficacité du cluster HPC. Data Engineering et Intégration de Données : Apporter une expertise en data engineering pour la préparation, l'intégration, et le traitement des données issues des simulations et calculs. HPC (High Performance Computing) : Expérience significative en administration et optimisation d’infrastructures HPC, idéalement avec du matériel DGX ou des systèmes intégrant des GPU. Data Engineering : Maîtrise des processus d’intégration, de transformation et d’analyse de données dans un environnement HPC. Outil de gestion de ressources : Maîtrise de Slurm , indispensable pour l’ordonnancement et la gestion des files d’attente. Langages de Programmation : Compétence en langages de scripting (ex. Python, Bash) et en langages utilisés dans le calcul scientifique et HPC. Systèmes d’Exploitation : Bonne connaissance de Linux, notamment pour l’administration de systèmes utilisés dans les environnements HPC. Mettre à disposition une infrastructure DGX performante et stable, adaptée aux besoins évolutifs de la R&D. Assurer une gestion efficace des ressources HPC via Slurm, permettant aux chercheurs d’optimiser leurs calculs et simulations. Garantir un support technique pour résoudre les problématiques liées au HPC et à la gestion des données R&D. Cette mission représente une collaboration technique et stratégique essentielle pour optimiser les capacités de calcul de l’infrastructure R&D du client.

Freelance

Mission freelance
Product Owner Sénior - BORDEAUX

SURICATE IT
Publiée le
Agile Scrum
Big Data

3 mois
100-3k €
Bordeaux, Nouvelle-Aquitaine

Product Owner expérimentés avec une forte appétence pour les sujets techniques et la data, un fort intérêt pour le fonctionnel, un bon relationnel et une excellente communication avec des interlocuteurs internes et externes. De plus, il faudrait a minima que le profil soit à l’aise avec les requetes SQL/bases de données et qu’il comprenne les conversations techniques haut niveau : ce qu’est un microservice, ce qu’est une API et comment cela fonctionne, connaitre la philosophie d’une architecture basée sur les évenements. Une expérience dans un environnement cloud + dans les initiatives possédant une composante sécurité est aussi bienvenue. Connaissance / Maitrise de Snoflake est un gros + Présencesur site 2 jours / semaine NON NEGOCIABLE

Freelance
CDI

Offre d'emploi
Team Lead Data

VISIAN
Publiée le
Architecture
AWS Cloud
Big Data

1 an
10k-65k €
La Défense, Île-de-France

Le pôle Data Accelerator & IT BI / Monitoring, positionné au sein de la DSI a pour rôle de mettre à disposition les outils et les données de qualité nécessaires aux usages des différents métiers et de leurs applicatifs. La/le Team Lead Data – Platform & BI coordonne directement les activités du pôle dédiées au développements de rapports BI à destination des métiers ainsi que le manager de la plateforme Data. Il est responsable de l’ensemble des livrables associés à ce domaine. Il gère la relation avec le métier. La/le Team Lead recherché intègrera le pôle Data Accelerator et IT BI / Monitoring de la DSI. Il aura en charge les activités de deux équipes : Plateforme : Ingestion, stockage et exposition de la data BI Monitoring : Restitution à des fins de Business Intelligence & Monitoring dans les outils adéquat (gestion en direct de cette activité) Il est en charge du suivi et de la livraison des évolutions répondant à un besoin métier BI de bout en bout sur la chaîne IT, c’est-à-dire sur le business delivery de son pôle dédié mais également avec les Core IT des autres pôles. Il est aussi responsable de la production sur les composants gérés. Ses missions principales sont : Sur le plan technique :> Expérience significative attendue Garantir les choix techniques structurants et arbitrer en cas de désaccord e s’appuyant sur les techleads et le responsable de plateforme Définir la vision technique et architecturale des produits développés sur le périmètre S’assurer de la diffusion et de la mise en œuvre des bonnes pratiques ( développement et process) sur son domaine d’expertise au sein de l’équipe mais aussi plus largement au sein de la DSI et des métiers Déterminer et fixer la capacité donnée aux US techniques Participer à la planification et à la définition des solutions à mettre en place Sur le plan organisationnel et managérial Suivre et organiser la charge / capacité à faire de l’équipe en s’appuyant sur le responsable de la plateforme sur son périmètre Animer les scrum master/chef de projet de son domaine S’assurer du staffing des différentes features teams de son domaine, en adéquation avec le besoin Sur le plan fonctionnel et méthodologique : Accompagner le développement des compétences de l’équipe et faire monter en compétence les membres les plus juniors Maitriser les différents éléments (roadmap métier, dépendances inter-applicatives, charges...) pour planifier ses développements Principales interactions Les autres équipes du pôle : le Data Office pour les question de gouvernance et de qualité des données manipulées, ainsi que la data science qui s’appuie sur les données de la plateforme. Les autres équipe IT métiers Les métiers et en particulier l’équipe Monitoring de la Direction des Opérations en charge du pilotage du monitoring côté métier Le data architect et les experts cloud AWS Databricks

CDI

Offre d'emploi
Data Engineer (H/F)

Amiltone
Publiée le
Big Data
engineer
h-f

30k-35k €
Montpellier, Occitanie

Les missions d'un Amiltonien : En tant que Data Engineer (H/F), vous serez en charge des missions suivantes : - Cadrer et challenger les besoins de nos métiers - Elaborer la stratégie, analyser, concevoir et développer les traitements de données - Optimiser les flux existants - Contrôler la qualité des données - Analyser les incidents de production et apporter des solutions La stack technique : - MS-BI (impératif) - Power BI, SSIS (apprécié) - Azure Data Factory (très apprécié)

Freelance

Mission freelance
Urgent Data cruncher

BEEZEN
Publiée le
Big Data

3 mois
100-460 €
Île-de-France, France

Besoin : data crunching en appui du responsable qualité Référentiel Ses principales missions > identifier les KPI nécessaire à l'équipe pour suivre leur activité quotidienne > identifier les sources des données nécessaires au calcul des ces kpi dans les différents outils > extraire puis automatiser/créer des liens pour la captation de ces sources > construire un dashboard > exposer ces kpi dans un dashboard Compétences requises spécialiste data avec appétence métier (pour bien comprendre ce dont le métier a besoin) À l'aise sur les flux de données et les requêtes dans les outils pour générer des rapports.

Freelance

Mission freelance
CONSULTANT MOE DATA BI - SSIS - SQL Server - Azure Devops

PROPULSE IT
Publiée le
Azure
BI
Big Data

24 mois
300-600 €
Le Plessis-Robinson, Île-de-France

Dans le cadre d'une mission longue chez l'un de nos clients à la Defense et pour un démarrage immédiat, nous recherchons un(e) Consultant technique MOE BI / Domaine Socle Data ▪ Type de prestation : Assistance Technique ▪ Expertise métier requise : BI ▪ Nombre d'années d'expérience : 7-10 ans minimum ▪ Descriptif détaillé de la mission : ➢ Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) ➢ Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. ➢ Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. ➢ Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. ➢ Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). ➢ Conseiller, proposer des axes d'amélioration, alerter si besoin. ▪ Environnement technique de la mission : ➢ Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) ➢ Reporting : COGNOS BI 10.2 et 11 & Tableau (le reporting n'est pas dans le scope, il s'agit d'une information)

CDI

Offre d'emploi
Data Analyst - H/F

DAVRICOURT
Publiée le
analyst
Big Data
h-f

35k-40k €
Niort, Nouvelle-Aquitaine

Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Data Analyst pour l'un de nos clients du secteur des banques et des assurances. Vous interviendrez sur le site client situé dans la région Nouvelle Aquitaine. À ce titre, vos missions quotidiennes seront les suivantes : • Identifier les sources de données pertinentes, coordonner la collecte de données complémentaires et accompagner les équipes dans la mise en œuvre des processus de recueil; • Nettoyer et mettre en qualité les données pour garantir leur pertinence; • Concevoir, développer et coordonner la mise en production des solutions analytiques; • Valider les solutions en veillant au respect des demandes et des exigences techniques et fonctionnelles; • Proposer des analyses, KPI, tableaux de bord et présentations innovantes pour valoriser la donnée; • Participer à la veille fonctionnelle et proposer des solutions Data innovante. Et après ? En tant que véritable partie prenante de DAVRICOURT, vous vous verrez proposer des projets techniques et à forte valeur ajoutée par nos équipes.

Freelance
CDI

Offre d'emploi
Test Lead Senior

Halian
Publiée le
Big Data
Python
Reporting

12 mois
10k-60k €
Paris, France

En tant que Test Lead Senior au sein d’une grande compagnie d'assurance, vous serez au cœur de projets de transformation digitale en exploitant des technologies de Big Data et d'IA pour personnaliser les produits d'assurance en fonction des étapes de vie des clients. Votre mission principale sera de garantir la qualité des systèmes de gestion et d’analyse des données, en assurant la précision et la fiabilité des données dans les datalakes et des solutions d’IA. En étroite collaboration avec les équipes de développement, de données et de produit, vous serez responsable de la validation des systèmes analytiques, du suivi des performances des algorithmes et de la cohérence des données utilisées pour les recommandations personnalisées. Responsabilités : • Définition de la stratégie de tests : Concevoir et mettre en œuvre des stratégies de test adaptées aux systèmes Big Data et IA, en prenant en compte les exigences métiers et techniques. • Gestion et coordination des tests : Superviser les activités de test pour les systèmes d’analyse de données, en s’assurant de la couverture et de l’efficacité des tests. • Validation des données et analyses : Collaborer avec les équipes Big Data pour garantir la qualité des données stockées dans le datalake et assurer la cohérence des modèles d'IA et des recommandations produits. • Automatisation des tests : Développer des scripts en Python pour automatiser les tests sur les flux de données, les algorithmes et les processus de personnalisation. • Analyse des performances des modèles d’IA : Tester et surveiller les modèles d’apprentissage automatique pour assurer leur performance, précision et pertinence par rapport aux besoins clients. • Reporting et analyse de la qualité des données : Produire des rapports réguliers sur la qualité et la performance des systèmes, avec des indicateurs précis pour identifier les domaines d’amélioration. • Conformité et sécurité des données : S’assurer que les solutions d’analyse et de personnalisation respectent les normes de sécurité et de confidentialité, incluant les réglementations RGPD.

Freelance
CDI

Offre d'emploi
Product Owner Energy

VISIAN
Publiée le
Big Data
JIRA
Méthode Agile

1 an
38k-44k €
Bagneux, Île-de-France

Au sein de la direction Marketing, Data et Communication, le client recherche un Product Owner. Le service permet au client de mettre à disposition des particuliers un service gratuit leur permettant de suivre en temps réel leur consommation d'énergie. En lien direct et en collaboration avec le Product manager , aura pour tâches : Participer aux ateliers métiers et fonctionnels Rédiger les user stories dans l’outil JIRA Expliciter les besoins du métier à l’équipe de développement (Business Analists et Développeurs). Co-construire le design de la solution avec le PM et les BA Tester les fonctionnalités développées Présenter les nouvelles fonctionnalités aux utilisateurs Analyser les remontées en production des utilisateurs sur les fonctionnalités existantes

Freelance
CDI

Offre d'emploi
Bigdata Engineer Cloud

Digistrat consulting
Publiée le
Apache Kafka
Big Data

3 ans
40k-60k €
Paris, France

💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket

CDI

Offre d'emploi
Data scientist (H/F)

Amiltone
Publiée le
Big Data
h-f
scientist

35k-40k €
Lille, Hauts-de-France

Mission : En tant que Data Scientist (H/F), vous serez en charge des missions suivantes : • Concevoir et développer les futures fonctionnalités de la plateforme sous Google Cloud Platform. • Concevoir les flux d'alimentation et les tables (structure de donnée). • Automatiser et industrialiser les flux. La stack technique : • Maîtrise des outils permettant de gérer les gros volumes de données (stockage HDFS, calcul distribué, …) via Spark. • Expérience significative dans la mise en production de solutions de ML ayant un impact à grande échelle sur les clients. • Maîtrise des pratiques de packaging ML et de mise en place des architectures AI avancées. • Maîtrise des environnements de développement sur le Cloud (ex : AWS, SageMaker, DataBricks, etc.). • Maîtrise des outils de développement : Git, Github, CI/CD, VSCode/Pycharm, Terminal. • Maîtrise de l'Anglais indispensable.

Freelance

Mission freelance
Tech Lead Java & Data Senior H/F

Karma Partners
Publiée le
Big Data

18 mois
100-600 €
Valbonne, Provence-Alpes-Côte d'Azur

Intégrer l’équipe KARMA Move To Cloud pour réaliser la migration dans le cloud GCP. KARMA est le système de Revenue Management du groupe 100% migration cloud GCP Intégration d’une équipe de 6 personnes Présence sur site (Sophia Antipolis) obligatoire 1x par semaine. Présence sur site (Sophia Antipolis) obligatoire 3x par semaine pendant les 3 premiers mois (on boarding) Communication, leadership, autonomie, coaching Profils séniors uniquement Anglais niveau B2 Obligatoire Data engineering / Big Data Development Hadoop et Spark pour migration KARMA dans le cloud GCP

Freelance

Mission freelance
AMOA/MDM

MLMCONSEIL
Publiée le
Big Data

6 mois
400-420 €
Grenoble, Auvergne-Rhône-Alpes

Nous sommes à la recherche d’un profil AMOA /Data Steward à Grenoble ou à Lyon Collecte des besoins métiers sur les données et les indicateurs qu’ils doivent suivre & un accompagnement à la réalisation d’état des lieux des processus Assistance des représentants métiers dans la définition de ces données Assistance des représentants métiers dans la définition des règles de gestion s’appliquant sur ces données Participation à la capitalisation en rédigeant les définitions dans les outils dédiés (My/Data Galaxy)

251 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous