Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Data Engineer (H/F)

CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation de différents projets, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Data Engineer (H/F). 👉 Notre client est spécialisé dans le secteur de l’électroménager. 👈 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸 Participer aux développements des projets de build pour alimenter le Datalake dédié à la Digital Platform PCM 🔸 Concevoir et maintenir les pipelines de données nécessaires aux reportings internes et clients 🔸 Assurer le maintien en condition opérationnelle du Datalake 🔸 Collaborer avec les équipes de développement Qlik Sense et Azure Dashboard 🔸 Optimiser les traitements de données batch et streaming via les services Azure 🔸 Participer aux projets en méthode agile dans un contexte international 🔸 Contribuer aux déploiements automatisés dans un environnement de production industrialisé
Dataops/MLops H/F

MISSION Nous recherchons des personnes avec un recul : - sur les plateformes modernes de Data Science (Cloud-Native, sur Kubernetes); - sur le MLOps et AIOps en général; - et idéalement avec des idées / un background sur les LLMs et l’Intelligence Artificielle dans son ensemble Pour travailler avec les Data Fullstack pour : - Définir l’architecture fonctionnelle de nos offres Data citées plus haut en suivant l’état de l’art et/ou les consignes d’architecture/sécurité du Groupe (pas forcément adaptées au cloud native) - Traduire en développements ad hoc sur la base des briques techniques disponibles, en intégration de produits du marché - Contribuer à la construction des Envs Python nécessaires à la Data Science au format docker (eg. OS, conda, pip, etc.) - Contribuer au développement des chaines de CI/CD permettant le cycle de vie des plateformes (déploiement, MAJ, environnements utilisateur, etc.) - Pour nos offres déjà qualifiées pour de la Prod (Domino Datalab pour le moment): - Assurer le déploiement “as code” - Assurer la supervision d’instances dédiées par client - Améliorer la sûreté de fonctionnement des plateformes (appliquer les méthodes SRE pour Cloud + K8s, rédiger des RFE auprès de l’éditeur, etc.)
Architecte Data fonctionnel

Évaluer les besoins et usages des données au sein des différents projets. Décrire le cycle de vie des données, de leur collecte à leur transformation, leur distribution et leur consommation (High Level Design). Veiller au respect de la réglementation en matière de collecte et d’exploitation des données (RGPD) ainsi qu’aux exigences internes de l’organisation. Mettre en place des outils facilitant l’utilisation et l’exploitation des données. Surveiller la structure des bases de données et proposer des évolutions ou corrections adaptées. Collaborer avec les équipes IT et les responsables métiers pour assurer une intégration fluide des données. Concevoir l’architecture des données et structurer les modèles en fonction des exigences métier. Vérifier les modèles logiques et physiques afin d’optimiser les flux de données.
Product Owner on Cloud Azure : Monitoring, Observabilité & Data - 92 - English mandatory

📢 𝐏𝐫𝐨𝐝𝐮𝐜𝐭 𝐎𝐰𝐧𝐞𝐫 𝐨𝐧 𝐂𝐥𝐨𝐮𝐝 𝐀𝐳𝐮𝐫𝐞 – 𝐌𝐨𝐧𝐢𝐭𝐨𝐫𝐢𝐧𝐠, 𝐎𝐛𝐬𝐞𝐫𝐯𝐚𝐛𝐢𝐥𝐢𝐭𝐞́ & 𝐃𝐚𝐭𝐚 📍 𝟗𝟐 – 𝐏𝐫𝐞́𝐬𝐞𝐧𝐭𝐢𝐞𝐥 𝐡𝐲𝐛𝐫𝐢𝐝𝐞 🗓 𝐀𝐒𝐀𝐏 🎙️ 𝐀𝐧𝐠𝐥𝐚𝐢𝐬 𝐟𝐥𝐮𝐢𝐝𝐞 𝐨𝐛𝐥𝐢𝐠𝐚𝐭𝐨𝐢𝐫𝐞 ✒️ 𝐅𝐫𝐞𝐞𝐥𝐚𝐧𝐜𝐞 𝐨𝐧𝐥𝐲 - 𝐏𝐚𝐬 𝐝𝐞 𝐒𝐓𝐓 🎯 𝐕𝐨𝐭𝐫𝐞 𝐦𝐢𝐬𝐬𝐢𝐨𝐧 Dans un environnement cloud et data-driven, vous piloterez la roadmap produit d'une équipe dédiée à l'Observabilité et à la Data, en assurant la bonne traduction des besoins métier en solutions techniques performantes. 🔍 𝐕𝐨𝐬 𝐨𝐛𝐣𝐞𝐜𝐭𝐢𝐟𝐬 ✅ Recueillir, formaliser et prioriser les besoins métiers et techniques ✅ Définir et maintenir le backlog produit ✅ Assurer la qualité et la pertinence des solutions livrées ✅ Collaborer avec les équipes de développement et animer les cérémonies Agile/Scrum ✅ Suivre et analyser les KPIs de performance pour l’amélioration continue ✅ Assurer une veille technologique sur les outils de monitoring et data 🛠 𝐄𝐧𝐯𝐢𝐫𝐨𝐧𝐧𝐞𝐦𝐞𝐧𝐭 𝐭𝐞𝐜𝐡𝐧𝐢𝐪𝐮𝐞 Cloud & Conteneurs = > Azure Kubernetes Service (AKS), Azure Functions Stockage & Bases de données => Azure Blob Storage, ADLS Gen2, PostgreSQL, ElasticSearch, Delta Lake Streaming & Messagerie => Event Hub, RabbitMQ Data Engineering & Logging => Apache Airflow, Apache Spark, Logstash, Azure Log Analytics Visualisation => Grafana CI/CD & Collaboration => GitHub #ProductOwner #Data #Monitoring #Observabilité #Cloud #Azure
Expert Infra Cloud et Big Data
Au sein d'une organisation dynamique dans le domaine du numérique, vous interviendrez sur la gestion et l’optimisation d’infrastructures cloud, ainsi que sur la gestion de plateformes de données à grande échelle. Vous serez responsable de l’industrialisation et de l’automatisation des services cloud pour garantir leur performance et leur évolutivité. Compétences techniques requises : Expertise dans les environnements cloud public (AWS, GCP, OVH) avec une préférence pour GCP . Maîtrise des outils d’automatisation et d'industrialisation des infrastructures ( Puppet , Ansible , Terraform ). Solides compétences en Big Data et technologies associées (notamment Spark , Python , Hadoop , SQL ). Expérience avec des solutions de déploiement et d’orchestration ( Jenkins , GitLab , Airflow ). Bonne culture des systèmes Unix/Linux et des environnements virtualisés. Compétences complémentaires appréciées : Expérience avec des architectures Data telles que Lakehouse et Datalake . Connaissance des solutions de stockage et traitement des données (ex : Delta , Parquet , DBT , BigQuery ). Bonne maîtrise des concepts systèmes , réseaux et virtualisation . Expérience sur des sites web à fort trafic .
Adminsitrateur plateforme Big Data (Cloudera Data Platform)

Dans le cadre du renforcement de l’administration de sa plateforme Big Data, un client basé en Seine-et-Marne recherche un Administrateur Big Data senior pour intervenir sur son environnement on-premise, bâti autour de la suite Cloudera Data Platform. Cette plateforme, au cœur de ses activités de Service Après-Vente, requiert une expertise pointue sur les outils d’administration, la sécurité, le monitoring, ainsi que sur les technologies de traitement distribué et de scripting. Le consultant interviendra sur l’exploitation, l’optimisation et le support technique de la plateforme GAIA, tout en participant à son amélioration continue, à la documentation et au support aux utilisateurs.
Ingénieur infrastructure et d’exploitation de la plateforme Data

Contexte : La mission concerne la réalisation d’une prestation d’ingénierie d’infrastructure et d’exploitation de la plateforme Data et plus précisément d’une prestation d’expertise cloud et de construction et automatisation des infrastructures Cloud (publiques et privées) en lien avec les équipes de la Direction Data. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. MISSIONS Le candidat participera au(x)/à : - BUILD des services - l’analyse des besoins liés à l’hébergement des développements - l’adaptation de l’industrialisation des infrastructures pour les changements - la planification et exécution des changements, - RUN des services et l’exploitation quotidienne - la remontée d’alarmes - diagnostic - l’analyse des incidents - interventions sur incidents - la documentation Le prestataire sera la référence technique auprès des acteurs projets : - Ingénieurs d’exploitation - Développeurs - PO/PM - Prestataires externes - Maitrise de l’anglais technique (lu/écrit) - Veille technologique
Expert Devops Data/Infra GCP

Insyco recherche actuellement pour l'un de ses clients basés à Paris : Expert Devops Data/Infra GCP Bonjour, Nous recherchons pour notre client grand compte un Expert Devops Data/Infra GCP répondant au besoin ci-dessous. Nous étudions uniquement les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin CV à jour (format Word) Date de prochaine disponibilité Tarif journalier Merci d’indiquer la référence MDE/DATA/4757 en objet du messag
Développeur Big Data GCP - ENTRE 3 ET 6 ANS

🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Objectifs et livrables Infos Complémentaires : Récupérer les données issues de sources externes • Utiliser la puissance du Datalake • Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. 💡Caractéristiques de la mission: Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le datalake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner. • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels Aspects Humains : • Grande capacité à travailler dans une équipe, en mode Scrum / Kanban. • Bonnes compétences relationnelles et grand sens de la communication (capacité à entrer dans le détail). • Sensible et informé des évolutions technologiques sur les piles logicielles pratiquées.
ADMINISTRADOR DE BIG DATA

L’un de mes meilleurs clients mondiaux en France recrute un Big Data Manager pour rejoindre leur projet à long terme ! Le service consiste à garantir l’administration des plateformes BigData, ainsi que le support aux utilisateurs tant en cas d’anomalies qu’en cas de demande de support de plateforme. Responsabilités: Configurez, surveillez et optimisez les systèmes de stockage et de traitement des données, tels que les clusters de serveurs et les bases de données distribuées Effectuer des tâches MCO quotidiennes (vérifier l’état des travaux et de la plateforme) Assurez la sécurité des données en mettant en œuvre des mesures de protection, des politiques de contrôle d’accès et des stratégies de sauvegarde/récupération Assurer la programmation des chaînes d’ingestion et d’analyse qui s’exécutent sur les plateformes• Participer aux projets d’évolution des plateformes Big Data Piloter les performances des plateformes Big Data. Participer à la maintenance des environnements en appliquant les mises à jour. Automatisez les tâches récurrentes à l’aide de scripts pour rationaliser la gestion du système. Vous devez avoir de l’expérience avec : Expérience pratique et approfondie de la gestion de plateformes Big Data Vaste expérience de travail avec le support de données/plateformes Expérience avec Cloudera (Cloud Aero Suite) Expérience avec Linux, Hadoop, Ansible et Python Parle français/anglais
Data scientiste IA Python big data Anglais Finance 540 e / j

Data scientiste IA Python big data Anglais Finance 540 e / j Concevoir et développer des solutions de traitement de données complexes (fichiers non structurés). Implémenter des modèles d'IA générative et des outils de RAG (Retrieve and Generate). Collaborer avec les équipes de Data Science et d'IA pour garantir l'efficacité des solutions. Participer à l’amélioration continue des solutions existantes. Compétences requises : Expertise en traitement de données non structurées (Word, PDF, CSV, etc.). Connaissances en IA générative et Large Language Models (LLM). Maîtrise avancée de Python. Expérience avec Hadoop, Spark, Scala, outils de Prompt Engineering, et CI/CD. Connaissance en finance est un plus. Profil recherché : 8-10 ans d’expérience en Data Engineering et Data Science. Autonomie, esprit d’équipe et capacité à travailler avec des équipes métiers et techniques. Expérience en banque et en direction financière appréciée. 540 e
Architecte Data - Datalake
Nous recherchons un Architecte Data confirmé pour accompagner notre client, banque d'investissement dans la mise en place de son datalake. Vous aurez à votre charge la conception, la mise en œuvre et l'optimisation du datalake, tout en portant la définition de la stratégie auprès de la DSI. Vos missions : Concevoir et architecturer le datalake en fonction des besoins spécifiques du client. Mettre en place les infrastructures nécessaires pour le datalake, en assurant performance, sécurité et scalabilité. Collaborer étroitement avec les équipes techniques et les parties prenantes pour garantir l'intégration et l'alignement des solutions data Gérer et optimiser le stockage des données, en veillant à la conformité réglementaire et à la gouvernance des données. Assurer une veille technologique pour intégrer les meilleures pratiques et les innovations pertinente dans la solution proposée. Pré-requis : Bac + 5 école d'ingénieur ou équivalent Expérience avérée (plus de 10 ans) en tant qu'Architecte Data avec une spécialisation en datalake idéalement dans le secteur bancaire. Maitrise des technologies de datalake (Hadoop, Spark, Kafka, etc....), compétences en architecte cloud (AWS, Azure, GCP), connaissance des outils d'intégration de données (ETL). Capacité à élaborer et à défendre des stratégies data auprès de la direction Anglais courant (environnement internationale)
Expert Cloud GCP et Big Data
Genious Systèmes recherche pour son client un(e) Expert Cloud GCP et Big Data F/H Contexte de la prestation La prestation se déroulera au sein de de la Direction Technique du Numérique du client. Elle concerne la réalisation d’une prestation d’ingénierie d’infrastructure et d’exploitation de la plateforme Data du Numérique du client, et plus précisément d’une prestation d’expertise cloud et de construction et automatisation des infrastructures Cloud (publiques et privées) en lien avec les équipes de la Direction Data. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Le prestataire participera au(x)/à : BUILD des services l’analyse des besoins liés à l’hébergement des développements l’adaptation de l’industrialisation des infrastructures pour les changements la planification et exécution des changements, RUN des services et l’exploitation quotidienne la remontée d’alarmes diagnostic l’analyse des incidents interventionx sur incidents la documentation Le prestataire sera la référence technique auprès des acteurs projets : Ingénieurs d’exploitation Développeurs PO/PM Prestataires externes Maitrise de l’anglais technique (lu/écrit) Veille technologique
Data Scientist Sagemaker AWS

Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Scientist Sagemaker AWS Tâches: - Formaliser la résolution du problème métier par une approche Data Science (algorithme ou analyses) structurée et priorisée - Identifier, explorer et qualifier le potentiel de nouvelles sources de données (internes et/ou externes) en lien avec les cas d’usage existants ou les objectifs de l’entreprise - Manipuler et exploiter de grands volumes de données hétérogènes pour en extraire de l’information à forte valeur ajoutée - Avoir une très bonne connaissance des différents types d’algorithmes existants (statistique et machine learning), ainsi que des framework existants. - Être autonome sur la mise en œuvre des modèles Data Science (ML & DL) performants et optimisés, et la mesure des performances théoriques et réelles - Écrire, en collaboration avec les Data Engineers, des pipelines de transformation (Big) Data efficaces, pérennes et monitorées, respectant les bonnes pratiques MLOps - Interpréter et expliquer le comportement des modèles ML en insights business activables - Connaître et respecter dans nos propositions de valeur les exigences et problématiques liées aux réglementations en vigueur (RGPD, Data privacy, etc.) et aux standards et tendances du secteur (éco-conception, etc.) - Respecter et alimenter les bonnes pratiques de développement de l’équipe - Assurer une veille et un partage de connaissances (méthodologique, technologiques et des produits industrialisés) Si vous êtes actuellement à l'écoute du marché, je vous invite à m'envoyer votre candidature. Bien à vous, Nadia
Senior Data Scientist
Notre client accélère sa transformation sur sa plateforme digitale. Ils souhaitent donner aux clients l'opportunité de découvrir l'univers à travers des expériences multidimensionnelles. Notre objectif est de créer un écosystème ouvert pour connecter des acteurs et des services tiers de manière sécurisée et optimale. Principales responsabilités : Concevoir et mettre en œuvre des modèles et une architecture de vision par ordinateur pour analyser et interpréter des données visuelles (par exemple, des images, des vidéos), pour des applications en temps réel et non réel Travailler avec des techniques telles que la reconnaissance d'images, la détection d'objets et la segmentation d'images pour extraire des informations significatives des données visuelles Collaborer avec des équipes interfonctionnelles pour intégrer des modèles de vision artificielle dans les processus commerciaux, y compris l'analyse en temps réel, les recommandations et le développement de produits numériques Restez au fait des dernières avancées en matière de vision par ordinateur et d'algorithmes d'apprentissage profond Prévisions : Développer et déployer des modèles de prévision de séries temporelles pour prédire les tendances futures, les intentions de vente, les intentions de demande et d'autres mesures clés Appliquer des techniques statistiques et d'apprentissage automatique pour améliorer la précision et la performance des modèles de prévision, en particulier avec des fonctionnalités de vision par ordinateur Collaborer avec les parties prenantes pour comprendre les besoins de l'entreprise et développer des informations exploitables à partir des données prévisionnelles Affiner et optimiser en permanence les méthodes de prévision en validant et en testant régulièrement les modèles Collaboration et communication : Collaborer avec les équipes chargées des produits, de l'ingénierie, des opérations et des données pour définir les besoins en matière de données et fournir des informations exploitables Communiquer clairement et efficacement les concepts et les résultats complexes de la science des données aux parties prenantes techniques et non techniques Documenter les méthodologies et les résultats pour s'assurer que les modèles sont reproductibles et maintenables
Data engineer (H/F)

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data engineer ( H/F) à Hauts-de-France, France. Les missions attendues par le Data engineer ( H/F) : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data Compétences techniques : Expertise SQL, ETL CI/CD, github, Terraform, Kafka Google Cloud Platform (GCS, BigQuery) Power BI (DAX)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Quel TJM pour une mission longue ?il y a 4 heures
- Impossible de liquider mon EURL !il y a 5 heures
- Revente de matériel d'occasion : bonnes pratiques ?il y a 6 heures
- Etat du marché - Avril 2025il y a 8 heures
- Correction d'erreurs exercice précédentil y a 14 heures
- Passage automatique en EI : rebascule en micro-BNC possible ?il y a 20 heures