Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Data Science - Machine Learning Engineer

Les tâches sont: - Analyse et interprétation des ensembles de données (structurées et non structurées) sur les produits et services et l’environnement de travail des collaborateurs BNP pour identification des motifs et des tendances. - Développement et mise en œuvre des modèles de machine learning et des LLM pour détéction, prédictio et classification des données. L’objectif principale étant du datamining sur les tickets d'incidents des utilisateurs. - Construction et maintient des pipelines de machine learning pour les modèles d'IA/ML dans des environnements de production. - Collaboration avec les ingénieurs logiciels et les ingénieurs de données pour intégrer les modèles d'IA dans des applications évolutives. - Analyse et interprétation des résultats des modèles pour affination des algorithmes et amélioration des performances
Data Engineer H/F

Plus qu'un métier, Itéa a pour vocation de déceler et révéler les bons profils avec une curiosité qui va souvent au-delà des compétences et parfois entre les lignes d’un CV. Aujourd’hui, nous recherchons pour l’un de nos clients, un Data Engineer H/F et vous présentons les points clés du poste : Poste en CDI Basé à Strasbourg ou Metz Secteur public Vos missions seront : Participer à l'audit fonctionnel et à la compréhension des besoins métiers Rédiger les spécifications et le cahier des charges Réaliser les MCP et MPD Mettre en place de contrôles de données et réalisation de tableaux de bords Participer aux réunions d'avancement Suivre et évaluer la bonne mise en place via des tests d'impacts Gérer la bonne mise à disposition de la documentation
Data Engineer (H/F) - 92

Contexte : Nous recherchons un(e) Data Engineer en renfort pour notre client afin de commencer au plus vite. Mission : Notre client cherche à renforcer ses équipes Data afin d’optimiser ses processus et d’exploiter au mieux les données pour améliorer la prise de décision stratégique. Vous serez intégré(e) dans l’équipe Data pour travailler sur des projets clés ayant un impact direct sur les différentes facettes de l’entreprise. Le(a) consultant(e) intégrera leur équipe Data sur une mission à temps complet dans leurs locaux de Courbevoie. Les technologies utilisées sont les suivantes : Azure Data Factory Logic Apps T-SQL / PLSQL Power BI Python Azure Power Platform Devops CI/CD
Data Engineer – Java / Spark (F/H)

📑 CDI (36 - 40K€) / Freelance / Portage Salarial - 🏠 2 jours de télétravail / semaine - 📍 Toulouse - 🛠 Expérience de 2/3 ans minimum Rejoignez une équipe passionnée et boostez la transformation Big Data ! 🚀 Nous accompagnons notre client pour renforcer une équipe spécialisée dans la gestion et l’industrialisation des traitements de données massifs et recherchons un.e Data Engineer. Vous interviendrez sur une plateforme Big Data dédiée à l’exploitation de larges volumes de données, utilisée pour des analyses avancées et des modèles prédictifs. Votre défi à relever 🎯 En tant que Data Engineer, vous aurez un rôle clé dans la mise en place et l’optimisation des pipelines de données. Vous serez en interaction avec des équipes pluridisciplinaires (développeurs, data scientists, métiers) pour construire des solutions performantes et scalables.
Data engineer ( H/F)

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data engineer ( H/F) à Hauts-de-France, France. Les missions attendues par le Data engineer ( H/F) : Vision & Architecture technique Définir l’architecture technique et les technologies assurant scalabilité et cohérence. Mettre en œuvre des solutions garantissant l’intégrité, la sécurité et la performance des données. Infrastructure & Pipelines Développer, optimiser et maintenir des pipelines de données robustes et évolutifs. Assurer la scalabilité et la protection des environnements data. Administrer et gérer les infrastructures pour garantir disponibilité et conformité. Supervision & Amélioration continue Implémenter des contrôles qualité en collaboration avec le Data Manager et le Data Analyst. Mettre en place des métriques de performance pour les produits data. Gérer les incidents de données et minimiser leur impact sur le business. Innovation & Éthique Identifier et tester des technologies émergentes pour optimiser nos processus. Garantir des pratiques éthiques et responsables dans l’exploitation des données. Compétences attendues Soft Skills Forte appétence pour les interactions métiers et capacité à cadrer des sujets en autonomie. Culture de la documentation et du partage de connaissances. Sens aigu de la valeur business et des enjeux métiers. Ouverture aux solutions innovantes et approche proactive. Curiosité Environnement technique Cloud & Data : GCP (BigQuery, Dataform) Orchestration : Cloud Composer Transformation : Dataform Observabilité : Dynatrace Référentiel & CI/CD : GitLab, Terraform, Cloud Build Gouvernance & Qualité : DataGalaxy Documentation & Pilotage : Confluence, JIRA (Scrum)
Admin Production (HDP CDP KUBERNETES)

Le bénéficiaire souhaite une prestation d'accompagnement dans le cadre de la maintenance et la construction des plateformes Hadoop Cloudera (HDP & CDP). Ainsi qu'un accompagnement au développement d'un ensemble des DATA Services et challenge des fonctionnalités à développer et les standards de travail. Vous contribuerez : · A l’installation de cluster · Au monitoring et à l’administration des outils Big Data · A l’administration de cluster · A l’upgrade des distributions et des composants Hadoop · A l’installation des différents composants sur Hadoop · Au support et à la résolution des problèmes N2 et N3 · A la mise en place d’environnements de développement et de test · A la sécurisation des clusters
Data Engineer (H/F)

Poste : Data Engineer (H/F) Localisation : Rouen (76) Mode de travail : Hybride (2 jours/semaine) Date de démarrage : Dès que possible (bien entendu, on vous attend si vous avez un préavis 😉) Durée de mission : 3 mois (renouvelable) Fourchette de salaire : Entre 400€/j et 450€/j L’ IT chez ARTEMYS combine la technologie et l’humain ! Nous sommes convaincus que les compétences, le savoir-être et l’épanouissement de nos Talents sont les clés de notre réussite . 👍 Alors, vous nous rejoignez ?! Notre site Normand recrute dès à présent un.e Data Engineer en Freelance (3 mois renouvelable) . Dans cette nouvelle étape de votre carrière, nous vous proposons d’intervenir sur de belles missions auprès d’un d'un de nos clients auprès duquel vous interviendrez sur les missions suivantes : Modéliser et structurer des bases de données en fonction des besoins analytiques. Implémenter des DAGs en python pour alimenter les entrepôts de données. Contribuer à la définition et l’optimisation des normes de développements de l’équipe Data Automatiser et enrichir les contrôles permettant de garantir la fiabilité des données alimentées. Réaliser la documentation fonctionnelles. Réaliser la documentation technique. Contribuer à la définition et l’exécution des plan de tests pour valider le bon fonctionnement des DAGs et assurer la cohérence et fiabilité des jeux de données. Maintenir les entrepôts de données. Participer à la mise en place de tableaux de bord Préparer, suivre les phrases d'homologation et de déploiement des réalisations. Assurer un support technique et fonctionnel auprès des équipes métiers sur l'utilisation des données et des outils analytiques. Optimiser les process et proposer des méthodologies adaptées (veille sur les données, les outils).
Cloud Data Engineer Azure + MS Fabric Engineer

En quelques mots Cherry Pick est à la recherche d'un "Data Azure + MS Fabric Engineer" pour un client dans le secteur de l'énergie. Description CONTEXTE Vous rejoindrez une équipe au sein des services informatiques pour gérer la construction et le support de la plateforme Data & Analytics. Vous participerez à la maintenance et à l'évolution de cette plateforme, à l'amélioration des infrastructures cloud via Terraform, au développement de micro-services en Python et C#, ainsi qu'à la conception et à la maintenance de chaînes de déploiement automatisé (CICD). Vous veillerez au bon fonctionnement opérationnel de la plateforme Data & Analytics (MCO/Run) et enrichirez la documentation destinée aux utilisateurs. Vous aurez une expérience significative sur Azure, notamment sur les services de données (Gen2 et/ou S3), ainsi qu'une connaissance de MS Fabric. MISSIONS Gestion de la plateforme Data & Analytics : Participer à la maintenance et à l’évolution de la plateforme en optimisant son efficacité et sa stabilité. Amélioration des infrastructures cloud : Utiliser Terraform pour gérer l'infrastructure cloud et travailler sur des projets d'optimisation sur Azure. Développement de micro-services : Développer et maintenir des micro-services en Python et C#, en mettant l’accent sur la modularité et la scalabilité. Automatisation du déploiement : Concevoir et maintenir des chaînes de déploiement automatisées (CI/CD) pour assurer une livraison continue et fluide des services. Assurer la continuité de service : Veiller au bon fonctionnement opérationnel de la plateforme, résoudre rapidement les problèmes et optimiser la gestion des incidents (MCO/Run). Documentation : Enrichir et maintenir une documentation claire et complète pour les utilisateurs finaux. Collaboration avec les parties prenantes : Communiquer et échanger avec les différents acteurs du projet, comprendre leurs besoins, et proposer des solutions adaptées.
Data Engineer AWS
Contexte : Nous recherchons pour l'un de nos clients, un Data Engineer (H/F) afin de renforcer son pôle AI Experts, qui intervient sur des sujets impactant directement son business et l'expérience client, afin d'optimiser la personnalisation, le taux de conversion et les assets. Description : Grâce à ses compétences alliant Développement Big Data, appétences pour les modèles d’IA et Architecture Applicative, le Data Engineer participe à la conception d’applications mettant à l’échelle des algorithmes créateurs de valeur pour l’entreprise. Livrables : . Définir et analyser des structures de données, . Contribuer aux assets des différentes équipes produits pour interconnecter et collecter les données, . Mettre à disposition de la data et des recommandations à des systèmes externes (APIs, exports, injection de données), . Être garant de la production (mise en place de monitoring, d'alerting et intervention si nécessaire), . Développer et maintenir le continuous delivery (participer à l’intégration continue et à l’usine logicielle, déploiements et tests automatisés), . Construire l’architecture cloud AWS qui hébergera notre infrastructure existante ou future, . Présenter et expliquer les réalisations à des publics métiers et techniques.
Développeur Cloud migration

Le bénéficiaire souhaite une prestation d’accompagnement pour la migration d’une plateforme GenAI hébergée en IAAS vers du PAAS. Le profil recherché devra posséder de solides compétences en GenAI, incluant les LLM, RAG et Agentic, ainsi qu’une expertise approfondie en K8S. Il devra être capable d’intervenir sur l’architecture, le déploiement et l’optimisation des performances, en assurant la continuité des services et en apportant des solutions adaptées aux défis liés à cette transition technologique stratégique.
Chef de Projet Big Data - Socle Hadoop

Missions principales : Gestion de projet Piloter les projets liés au socle Hadoop. Définir les plannings, les ressources et suivre l’avancement des livrables. Assurer la coordination entre les équipes Data, Infrastructure et Sécurité. Gérer les risques et proposer des plans d’action correctifs. Architecture et implémentation Superviser la mise en place et l’évolution et le développement des clusters Hadoop. Garantir la scalabilité et la performance de la plateforme. Assurer l’intégration d’outils et frameworks complémentaires. Veiller à la bonne gestion des droits d’accès et à la sécurisation des données. Relation avec les parties prenantes Accompagner les équipes métiers dans l’adoption des solutions Big Data. Assurer un reporting régulier auprès de la direction et des sponsors du projet.
Architect Palantir Foundry
Nous recherchons un Architecte Palantir Foundry expérimenté pour une mission freelance auprès d’un client dans le secteur financier. Cette mission porte sur l’implémentation de la plateforme Palantir Foundry et nécessite une expertise technique approfondie ainsi qu’une approche analytique des besoins métier. Missions principales : Concevoir et mettre en œuvre une architecture Palantir Foundry adaptée aux besoins spécifiques du client. Analyser les cas d’usage du client dans le secteur financier et proposer des solutions scalables et performantes. Collaborer avec les équipes techniques pour intégrer Foundry dans des environnements techniques variés. Assurer un rôle de conseil en recommandant les meilleures pratiques pour une implémentation optimale. Profil recherché : Expérience significative et hands-on sur la plateforme Palantir Foundry, avec une maîtrise approfondie de ses fonctionnalités et de son utilisation. Capacité démontrée à étudier des cas d’usage complexes et à traduire les besoins métier en solutions techniques. Solides compétences en architecture logicielle, avec une attention particulière à la scalabilité et à l’adaptabilité. Connaissance du secteur financier et de ses enjeux (un atout). Excellentes qualités relationnelles et aptitude à travailler en équipe dans des contextes techniques diversifiés. Si vous êtes passionné par les défis techniques et souhaitez contribuer à une implémentation stratégique dans le secteur financier, envoyez-nous votre CV et une brève présentation de vos expériences pertinentes avec Palantir Foundry à [adresse email ou plateforme de contact].
Data Project Manager / PMO

Notre client partenaire recherche un Chef de Projet Data / PMO expérimenté pour une mission freelance de longue durée. Une expérience de travail avec Snowflake et Data Warehousing est requise pour ce poste. Rôle : Chef de projet Data / Product Owner Lieu: Lyon Durée: 12 mois - extensions après 2025 Travail Hybride: 2j teletravaile par semaine Date de début : ASAP Principales responsabilités : Gestion de projet : Planification, suivi et contrôle des phases du projet, y compris la définition des objectifs, des produits à livrer et des délais. Coordination des parties prenantes : Assurer l'interface entre les différentes équipes et les utilisateurs finaux afin de garantir une communication fluide et une collaboration efficace. Gestion des risques : Identifier, évaluer et atténuer les risques liés au projet en mettant en œuvre des plans d'action correctifs. Gouvernance et rapports : Préparer des rapports réguliers sur l'avancement du projet, les performances et tout écart par rapport aux objectifs. Documentation : Organiser la production et la maintenance de la documentation du projet, y compris les spécifications techniques, les plans de test, etc.
Azure Data Architect

Data Cloud Architect , freelance, contrat de 24 mois, IDF Attractive opportunité pour un(e) Azure Data Architect chevronné(e) de rejoindre notre client final basé à La Défense sur un projet sensible à destination de millions de professionnels et de particuliers. Vous rejoindrez une équipe hautement performant pour participer à un ambitieux projet full Azure. Missions principales : · Concevoir et proposer des solutions sur les données en utilisant les technologies Azure Cloud. · Exécuter des restitutions documentaires dans les normes et l'architecture. · Concevoir et proposer des solutions sur Snowflake · Appliquer la stratégie " Data as a Service " dans le respect des bonnes pratiques architecturales · Concevoir et développer des APIs / Micro-services · Soutenir la stratégie Event Driven Architecture basée sur Azure Event Hub et Azure IoT Hub · Contribuer au catalogue de services pour l'enrichissement en libre-service · Contribuer à la modernisation et à la sensibilisation à la technologie au sein de l'équipe Data Capture et dans l'ensemble de l'organisation Data & Analytics. · Être le référent au sein de l'équipe pour tous les sujets liés au cloud. · Conduire des ateliers et faciliter la collecte des besoins · Soutenir les data engineer sur les sujets liés au cloud · Soutenir l'équipe de sécurité pour les sujets connexes · Contribuer à la feuille de route et à l'évolution du projet · Challenger et soutenir les fournisseurs externes · Collaborer étroitement avec les équipes IT, partenaires commerciaux, les partenaires externes et tous les membres de l'équipe d'intégration.
Product Owner Big Data - Socle Hadoop

Missions principales : Vision produit et roadmap Définir la vision et la stratégie du socle Hadoop en lien avec les enjeux métiers. Construire et maintenir la roadmap produit en fonction des priorités business et techniques. Identifier les besoins utilisateurs et traduire les exigences en backlog. Gestion du backlog et priorisation Rédiger les user stories et critères d’acceptation. Arbitrer et prioriser les développements avec les équipes techniques. Animer les cérémonies Agile. Collaboration et suivi des développements Travailler en étroite collaboration avec les équipes Data, DevOps et Sécurité. Garantir la qualité des livrables et le respect des bonnes pratiques Hadoop. Assurer un suivi des KPI liés à l’usage et à la performance du socle Hadoop. Accompagnement des équipes métier Recueillir les besoins des équipes et leur proposer des solutions adaptées. Organiser des formations et des démonstrations sur les usages du socle Big Data. Gérer la communication autour des évolutions et des nouvelles fonctionnalités.
Tech Lead Data / IA H/F

Nous recherchons pour notre client, un acteur majeur du secteur des médias, un Tech Lead Cloud / Data Ingénieur expérimenté pour concevoir, construire et gérer notre offre de service mesh Data/IA. Vous rejoindrez le département Data IA (DaIA) responsable de fournir aux métiers une infrastructure technologique permettant de mettre en production et d'industrialiser les cas d’usage Data et IA. Ceci inclut le développement d'une plateforme d’enrichissement des métadonnées des contenus (IA & GenAI). Vous participerez activement à la mise en place de l'infrastructure, en assurant sa bonne intégration avec la plateforme data et les produits associés et l'optimisation des différents aspects techniques. Responsabilités : - Concevoir, gérer et maintenir le service mesh permettant la mise à disposition des API Data et IA et l'orchestration des traitements dans le respect des contraintes de disponibilité, sécurité et performance. - Mettre en place et maintenir les outils de surveillance, de journalisation et de gestion des erreurs. - Designer et participer à la mise en oeuvre de la plate-forme sur les aspects réseau, sécurité, DNS, etc. - Designer et Industrialiser les pipelines CI/CD pour automatiser les déploiements logiciels. - Co designer avec les tech Lead Data Science pour designer et mettre en place les solutions technologique MLOps appropriées afin de pouvoir industrialiser les différents cas d’usages des métiers Data & IA . - Designer et mettre en place la migration de la stack technique Data vers la nouvelle plate-forme. - Garantir que l’architecture de la stack Data est en totale adéquation avec l’ensemble du SI applicatif - Assurer la maintenance et l'optimisation des systèmes de données existants. - Assurer une veille technologique constante pour rester à jour sur les tendances et les meilleures pratiques en matière de DevOps. La prestation s’effectue au sein du département DaIA avec une présence à temps complet, et pourra se dérouler en présentiel ou à distance, selon les besoins des équipes. Le candidat choisi devra se sentir pleinement investi de sa mission et motivé par les différents livrables attendus par le service. Conditions de la mission : > Localisation : Paris 15ème > Remote partiel : 2 /3 jours de télétravail par semaine
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Résultat de l'exerciceil y a 44 minutes
- Marge intermédiaire : renégocier après 2 ans de mission ?il y a 4 heures
- TVA et facturation en entreprise individuelleil y a 5 heures
- IA et Freelancing : Un Duo Gagnant ?il y a 6 heures
- Comprendre les sociétés de portageil y a 6 heures
- entrerprise freelance incompatible avec le portage salarial?il y a 7 heures