Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 361 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Offre premium
Freelance
CDI

Offre d'emploi
Architecte DATA/IA

Ipanema Technology
Publiée le
Big Data
Business Intelligence
Data management

1 an
65k-150k €
Île-de-France, France

En tant qu'Architecte Data & Analytics pour un cabinet du Big Four, votre rôle consistera à développer des solutions robustes et pérennes autour de la transformation numérique et des projets en Intelligence Artificielle en collaboration avec la DSI. Vos principales missions incluent : Architecture Fonctionnelle et Urbanisation du SI : Structurer les architectures data fonctionnelles et techniques selon les besoins métiers. Etudes des besoins métier et chiffrage des solutions : Analyser les demandes en lien avec les équipes métiers et proposer des solutions techniques chiffrées. Architecture Solution : Assurer l'architecture des solutions, de la conception à la mise en production, pour garantir leur intégration fluide dans le SI. Catalogue Technologique : Maintenir et enrichir les stacks techniques et outils utilisés. Vous interviendrez aussi sur : La proposition d’architectures techniques en réponse aux besoins d’analyse et de traitement des données, avec estimation détaillée des coûts. La définition des frameworks, standards, et principes de modélisation des données de référence. L’amélioration continue des solutions en termes de performance, capacité, coût, sécurité. La mise en place de bonnes pratiques de développement et collaboration avec les équipes DSI dans une démarche DevOps. La veille technologique pour optimiser l’efficacité du SI.

Freelance

Mission freelance
Architecte Solutions DATA

CELAD
Publiée le
Big Data

1 an
700 €
Paris, France

Architecte Solutions DATA – Secteur Banque/Finance/Assurance Nous recherchons, pour l’un de nos clients dans le secteur Banque/Finance/Assurance, un Architecte Solutions DATA disposant d’au moins 10 ans d’expérience sur des projets similaires. Ce poste couvre le cycle complet des projets, de la phase de cadrage jusqu'au déploiement en production. En intégrant une équipe talentueuse et dynamique, vous travaillerez en étroite collaboration avec les urbanistes fonctionnels, les chefs de projets, la MOA, et les métiers.

Freelance

Mission freelance
Consultant HPC (High Performance computing) et Data engineering

Freelance.com
Publiée le
Big Data
Linux

90 jours
260-1k €
Paris, France

Le client, acteur de l'énergie dans le domaine de la recherche et développement (R&D), souhaite renforcer son infrastructure de calcul haute performance pour répondre aux besoins de ses chercheurs. Le consultant interviendra pour administrer et optimiser un DGX (système spécialisé intégrant des GPU) en fournissant des services de gestion, de maintenance et de mise à jour. L’objectif est de garantir aux équipes de recherche un accès optimisé et performant à cette infrastructure critique. Administration et Gestion du DGX : Assurer la gestion quotidienne de l’infrastructure DGX, incluant la maintenance, les mises à jour, et l’optimisation de l’accessibilité pour les équipes R&D. Support HPC pour la Recherche : Apporter un support technique aux chercheurs dans l’utilisation et l’optimisation de ressources HPC, incluant le déploiement de workflows adaptés aux calculs intensifs. Gestion des ressources avec Slurm : Utiliser Slurm pour la gestion de files d’attente, l’ordonnancement et l’allocation de ressources afin de maximiser l’efficacité du cluster HPC. Data Engineering et Intégration de Données : Apporter une expertise en data engineering pour la préparation, l'intégration, et le traitement des données issues des simulations et calculs. HPC (High Performance Computing) : Expérience significative en administration et optimisation d’infrastructures HPC, idéalement avec du matériel DGX ou des systèmes intégrant des GPU. Data Engineering : Maîtrise des processus d’intégration, de transformation et d’analyse de données dans un environnement HPC. Outil de gestion de ressources : Maîtrise de Slurm , indispensable pour l’ordonnancement et la gestion des files d’attente. Langages de Programmation : Compétence en langages de scripting (ex. Python, Bash) et en langages utilisés dans le calcul scientifique et HPC. Systèmes d’Exploitation : Bonne connaissance de Linux, notamment pour l’administration de systèmes utilisés dans les environnements HPC. Mettre à disposition une infrastructure DGX performante et stable, adaptée aux besoins évolutifs de la R&D. Assurer une gestion efficace des ressources HPC via Slurm, permettant aux chercheurs d’optimiser leurs calculs et simulations. Garantir un support technique pour résoudre les problématiques liées au HPC et à la gestion des données R&D. Cette mission représente une collaboration technique et stratégique essentielle pour optimiser les capacités de calcul de l’infrastructure R&D du client.

Freelance

Mission freelance
Product Owner Sénior - BORDEAUX

SURICATE IT
Publiée le
Agile Scrum
Big Data

3 mois
100-3k €
Bordeaux, Nouvelle-Aquitaine

Product Owner expérimentés avec une forte appétence pour les sujets techniques et la data, un fort intérêt pour le fonctionnel, un bon relationnel et une excellente communication avec des interlocuteurs internes et externes. De plus, il faudrait a minima que le profil soit à l’aise avec les requetes SQL/bases de données et qu’il comprenne les conversations techniques haut niveau : ce qu’est un microservice, ce qu’est une API et comment cela fonctionne, connaitre la philosophie d’une architecture basée sur les évenements. Une expérience dans un environnement cloud + dans les initiatives possédant une composante sécurité est aussi bienvenue. Connaissance / Maitrise de Snoflake est un gros + Présencesur site 2 jours / semaine NON NEGOCIABLE

CDI

Offre d'emploi
Data Engineer (H/F)

Amiltone
Publiée le
Big Data
engineer
h-f

30k-35k €
Montpellier, Occitanie

Les missions d'un Amiltonien : En tant que Data Engineer (H/F), vous serez en charge des missions suivantes : - Cadrer et challenger les besoins de nos métiers - Elaborer la stratégie, analyser, concevoir et développer les traitements de données - Optimiser les flux existants - Contrôler la qualité des données - Analyser les incidents de production et apporter des solutions La stack technique : - MS-BI (impératif) - Power BI, SSIS (apprécié) - Azure Data Factory (très apprécié)

Freelance

Mission freelance
Urgent Data cruncher

BEEZEN
Publiée le
Big Data

3 mois
100-460 €
Île-de-France, France

Besoin : data crunching en appui du responsable qualité Référentiel Ses principales missions > identifier les KPI nécessaire à l'équipe pour suivre leur activité quotidienne > identifier les sources des données nécessaires au calcul des ces kpi dans les différents outils > extraire puis automatiser/créer des liens pour la captation de ces sources > construire un dashboard > exposer ces kpi dans un dashboard Compétences requises spécialiste data avec appétence métier (pour bien comprendre ce dont le métier a besoin) À l'aise sur les flux de données et les requêtes dans les outils pour générer des rapports.

Freelance
CDI

Offre d'emploi
Test Lead Senior

Halian
Publiée le
Big Data
Python
Reporting

12 mois
10k-60k €
Paris, France

En tant que Test Lead Senior au sein d’une grande compagnie d'assurance, vous serez au cœur de projets de transformation digitale en exploitant des technologies de Big Data et d'IA pour personnaliser les produits d'assurance en fonction des étapes de vie des clients. Votre mission principale sera de garantir la qualité des systèmes de gestion et d’analyse des données, en assurant la précision et la fiabilité des données dans les datalakes et des solutions d’IA. En étroite collaboration avec les équipes de développement, de données et de produit, vous serez responsable de la validation des systèmes analytiques, du suivi des performances des algorithmes et de la cohérence des données utilisées pour les recommandations personnalisées. Responsabilités : • Définition de la stratégie de tests : Concevoir et mettre en œuvre des stratégies de test adaptées aux systèmes Big Data et IA, en prenant en compte les exigences métiers et techniques. • Gestion et coordination des tests : Superviser les activités de test pour les systèmes d’analyse de données, en s’assurant de la couverture et de l’efficacité des tests. • Validation des données et analyses : Collaborer avec les équipes Big Data pour garantir la qualité des données stockées dans le datalake et assurer la cohérence des modèles d'IA et des recommandations produits. • Automatisation des tests : Développer des scripts en Python pour automatiser les tests sur les flux de données, les algorithmes et les processus de personnalisation. • Analyse des performances des modèles d’IA : Tester et surveiller les modèles d’apprentissage automatique pour assurer leur performance, précision et pertinence par rapport aux besoins clients. • Reporting et analyse de la qualité des données : Produire des rapports réguliers sur la qualité et la performance des systèmes, avec des indicateurs précis pour identifier les domaines d’amélioration. • Conformité et sécurité des données : S’assurer que les solutions d’analyse et de personnalisation respectent les normes de sécurité et de confidentialité, incluant les réglementations RGPD.

Freelance
CDI

Offre d'emploi
Product Owner Energy

VISIAN
Publiée le
Big Data
JIRA
Méthode Agile

1 an
38k-44k €
Bagneux, Île-de-France

Au sein de la direction Marketing, Data et Communication, le client recherche un Product Owner. Le service permet au client de mettre à disposition des particuliers un service gratuit leur permettant de suivre en temps réel leur consommation d'énergie. En lien direct et en collaboration avec le Product manager , aura pour tâches : Participer aux ateliers métiers et fonctionnels Rédiger les user stories dans l’outil JIRA Expliciter les besoins du métier à l’équipe de développement (Business Analists et Développeurs). Co-construire le design de la solution avec le PM et les BA Tester les fonctionnalités développées Présenter les nouvelles fonctionnalités aux utilisateurs Analyser les remontées en production des utilisateurs sur les fonctionnalités existantes

Freelance
CDI

Offre d'emploi
Bigdata Engineer Cloud

Digistrat consulting
Publiée le
Apache Kafka
Big Data

3 ans
40k-60k €
Paris, France

💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket

CDI

Offre d'emploi
Data scientist (H/F)

Amiltone
Publiée le
Big Data
h-f
scientist

35k-40k €
Lille, Hauts-de-France

Mission : En tant que Data Scientist (H/F), vous serez en charge des missions suivantes : • Concevoir et développer les futures fonctionnalités de la plateforme sous Google Cloud Platform. • Concevoir les flux d'alimentation et les tables (structure de donnée). • Automatiser et industrialiser les flux. La stack technique : • Maîtrise des outils permettant de gérer les gros volumes de données (stockage HDFS, calcul distribué, …) via Spark. • Expérience significative dans la mise en production de solutions de ML ayant un impact à grande échelle sur les clients. • Maîtrise des pratiques de packaging ML et de mise en place des architectures AI avancées. • Maîtrise des environnements de développement sur le Cloud (ex : AWS, SageMaker, DataBricks, etc.). • Maîtrise des outils de développement : Git, Github, CI/CD, VSCode/Pycharm, Terminal. • Maîtrise de l'Anglais indispensable.

Freelance

Mission freelance
Tech Lead Java & Data Senior H/F

Karma Partners
Publiée le
Big Data

18 mois
100-600 €
Valbonne, Provence-Alpes-Côte d'Azur

Intégrer l’équipe KARMA Move To Cloud pour réaliser la migration dans le cloud GCP. KARMA est le système de Revenue Management du groupe 100% migration cloud GCP Intégration d’une équipe de 6 personnes Présence sur site (Sophia Antipolis) obligatoire 1x par semaine. Présence sur site (Sophia Antipolis) obligatoire 3x par semaine pendant les 3 premiers mois (on boarding) Communication, leadership, autonomie, coaching Profils séniors uniquement Anglais niveau B2 Obligatoire Data engineering / Big Data Development Hadoop et Spark pour migration KARMA dans le cloud GCP

Freelance

Mission freelance
AMOA/MDM

MLMCONSEIL
Publiée le
Big Data

6 mois
400-420 €
Grenoble, Auvergne-Rhône-Alpes

Nous sommes à la recherche d’un profil AMOA /Data Steward à Grenoble ou à Lyon Collecte des besoins métiers sur les données et les indicateurs qu’ils doivent suivre & un accompagnement à la réalisation d’état des lieux des processus Assistance des représentants métiers dans la définition de ces données Assistance des représentants métiers dans la définition des règles de gestion s’appliquant sur ces données Participation à la capitalisation en rédigeant les définitions dans les outils dédiés (My/Data Galaxy)

CDI

Offre d'emploi
Chef de projet Data (H/F)

Amiltone
Publiée le
Big Data
chef
De

40k-45k €
Marseille, Provence-Alpes-Côte d'Azur

Au sein de l'équipe déjà existante, vous avez en charge les missions suivantes : - La gestion et le pilotage de projet - Gestion des équipes et des plannings - Reporting des activités et des tableaux de bord - Rédaction de procédures et modes opératoires - Formaliser les besoins implicites et explicites des clients - Participer au choix des différentes solutions Alors ? Prêt à devenir Amiltonien ? 🎉 N'hésitez pas à postuler si vous vous reconnaissez ! De formation supérieure BAC+5 (Master ou école d'ingénieur) spécialisé dans l'informatique, vous justifiez d'au moins 3 ans d'expérience dans un poste similaire. Vous maitrisez la gestion de projet car vous avez expérimenté la gestion de projet de bout en bout. Vous avez des connaissances techniques, notamment en BDD Oracle (SQL). Vous disposez d'une aisance relationnelle et d'une excellente communication orale et écrite. Outre vos compétences techniques, nous nous intéressons également à votre potentiel et votre motivation. Nos postes sont ouverts aux personnes en situation de handicap.

CDI

Offre d'emploi
Data Engineer (H/F)

Amiltone
Publiée le
Big Data
engineer
h-f

40k-45k €
Orange Lyon Lumière, Auvergne-Rhône-Alpes

Vos missions ? En tant qu'Ingénieur Data, vous serez responsable de la conception, du développement et de la maintenance de solutions data au service des différents métiers de l'entreprise . Aux côtés d'experts métiers, et d'un Leader Technique, vous devrez développer des traitements robustes, monitorés et résilients dans un écosystème Cloud avec des technologies d'industrialisation à l'état de l'art. Vos traitements répondront à des besoins autour de problématiques complexes dans les domaines d'activité de l'entreprise (Réseau & système IOT, évolutions possibles sur comptage de l'eau, gestion des déchets, etc …) La stack Technique : - MongoDB, PostgreSQL, Power BI - Python, Scala, R - Docker, Jenkins - Gitlab/Github - Grafana

CDI

Offre d'emploi
Data Engineer (H/F)

Amiltone
Publiée le
Big Data
engineer
h-f

35k-40k €
Lille, Hauts-de-France

Vos missions ? Intégré à nos équipes sur nos projets en Factory ou chez nos clients vous interviendrez en tant que data Engineer. En tant que data Engineer (H/F), vous assurez les missions suivantes : Conception de solutions permettant le traitement de volumes importants de pipelines données. Ceux-ci doivent être suffisamment sécurisés et lisibles pour les Data Analysts et Data Scientists. Animation d'une équipe de professionnels de la Data sur toutes les étapes du traitement de la donnée. Mise à jour permanente sur les technologies et langages utilisés dans le but de partager ses connaissances et aider à l'avancement du projet.

CDI
Freelance

Offre d'emploi
Architecte Data Mlops

OBJECTWARE MANAGEMENT GROUP
Publiée le
Architecture
Data science

3 ans
10k-72k €
Île-de-France, France

Le bénéficiaire souhaite une prestation d´accompagnement dans l´objectif d´assurance des services d´ingénierie technique pour le pôle en charge du cloud IBM, notamment dans l´architecture & design des couches techniques basses. L´objectif principal est assurance de l’ hybridation au cloud IBM ainsi qu' autres fournisseurs au futur, et assurance de la cohésion entre le backend (Datalab Platform) et les produits. Les missions sont: - Définition, assurance et déploiement des architecture intimes des produits; - Définition, assurance et priorisation des produits; - Définition et assurance de la roadmap Produit; - Déploiement des solutions; - Participation au support des services construits, selon le principe "You Make it You Run it"; - Acceleration du développement de produits data dans le cloud. (calculs distribués, datascience, ETL, datahubs); - Création des services de terraformation des clouds internes/externes; - Création des pipelines de deploiements; - Sécurisation de tous les produits et services (MFA , encryption, etc).

361 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous