Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Ingénieur système et réseau H/F
Dans le cadre d'un remplacement d'un départ en retraite, nous recherchons un/une ingénieur système et réseau sur Niort Voici vos différentes missions : - Gestion des systèmes d'exploitation Windows - Montée de version des systèmes d'exploitation Windows - Gestion et supervision du parc serveurs - Gestion et supervision de systèmes de stockages des données - Gestion et supervision de systèmes de sauvegardes des données - Gestion de la documentation et des données techniques de production ; - Prise en charge et gestion des incidents et des demandes systèmes de niveau 2/3 - Connaissances en scripting : Bash, Powershell, Python - Administration d'hyperviseurs (VMWare, HYPERV) - Administration de réseaux TCP/IP - Gestion de la sécurité informatique - Configuration de firewalls - Gestion et configuration de Switchs de niveau 2/3 - Déploiement de points d'accès wifi - Gestion des équipements de téléphonie fixe et/ou IP - Veille technologique
Mission freelance
Etude Data IA
Objectif Cette étude vise à : Identifier les solutions de gestion de données les plus appropriées qu’elles soient on premise ou sur le cloud souverain, en prenant en compte notre volonté de développer à la fois des cas d’usage data et IA, pour des données sensibles qui ne peuvent pas bénéficier de notre plateforme data existante (Azure) Rationaliser, dans la mesure du possible, les plateformes data existantes Définir le périmètre fonctionnel optimal de chacune de nos briques applicatives Nos capacités de traitement "data" sont actuellement réparties sur deux plateformes. Une plateforme unique pourrait-elle améliorer la performance/les délais de réalisations des projets ? Qu'elles seraient les gains associés à une solution unifiées de gestion de la donnée ? Est-ce que les opérateurs de cloud souverains proposent des solutions suffisamment matures pour hébergés de manière efficace une plateforme data/IA (GPU, scalabilité …) ?
Mission freelance
Data Steward
Cherry Pick est à la recherche d'un "Data Steward" pour un client dans le secteur du commerce de détail Contexte de la mission Dans le cadre du projet d’intégration de la solution (Workday) choisie par le Domaine Corporate RH et son déploiement pour les 65 pays dans lesquels le groupe est implanté, vous jouerez un rôle essentiel dans la gestion et la protection des données au sein de l'entreprise. Vous travaillerez en étroite collaboration avec les équipes métiers, les équipes informatiques et les autres parties prenantes pour garantir que les données soient précises, disponibles et conformes aux normes internes et réglementaires. Vous serez en charge, sur le domaine de données de notre équipe, d’assurer la complétude et la conformité de la documentation afin qu’elle réponde aux besoins. Objectifs et livrables Missions principales : Connaître et participer (avec le Data Manager et les Data Owner) à la structuration des concepts Business du domaine RH en conformité avec les principes et normes de modélisation de l’entreprise. Garantir une documentation cohérente et claire : remettre en question et valider la documentation fonctionnelle et technique (cohérence, conformité et clarté) Assurer le lien entre les concepts Business et les connaissances techniques S’assurer que la mise à disposition de la donnée sur le Data lake est conforme aux normes de la plateforme (storage zone, schémas, nomenclatures,..) Être le référent auprès des utilisateurs de données : les accompagner sur la localisation et l'utilisation des données en les orientant vers le data catalog. S’assurer que l’usage des données est bien conforme au registre de traitement des données tenu par le délégué à la protection des données Informer les utilisateurs sur la stratégie d’utilisation des données de Decathlon et des pré-requis à suivre pour intégrer ou utiliser la data. Relayer les bonnes pratiques en matière d'architecture et de gouvernance des données auprès des producteurs de données Contribuer et participer activement à la communauté des Data Stewards
Offre d'emploi
Data Engineer (H/F)
💡 Missions pour le Data Engineer : Développement et maintenance : Créer et maintenir des ETLs et des pipelines de données robustes en utilisant Talend, MS BI, Azure ( DataFactory ), GCP ( BigQuery ) , SQL, Python, Scala... Modélisation des données : Proposer des modèles de données fiables et optimisés en termes de stockage et de traitement. Automatisation : Implémenter des processus de CI/CD pour automatiser le déploiement et la gestion des infrastructures de données. Analyse et reporting : Développer des rapports et des dashboards en utilisant Looker, Power BI, Qlikview, Tableau, pour faciliter l'accès aux insights data-driven.
Mission freelance
Tech Lead Data Analytics GCP
Nous recherchons pour l'un de nos clients un Tech Lead Data Analytics – Expertise GCP Responsabilités principales : Pilotage technique et expertise : Assurer la qualité des données et la mise en œuvre des principes de data gouvernance . Support aux projets liés à la viabilisation des assets et à la gestion des accès. Identifier et résoudre de manière proactive les incidents liés aux données. Conception et implémentation : Apporter une expertise approfondie sur les environnements GCP, notamment en matière de gestion de la donnée et des pipelines. Collaboration et coordination : Collaborer avec les équipes métiers pour garantir que leurs besoins en données soient couverts efficacement. Reporting et amélioration continue : Intégrer des outils de reporting, avec une forte appétence pour Power BI . Proposer des initiatives pour améliorer les processus de qualité et gouvernance des données. Nous recherchons quelqu'un qui a absolument une expertise sur la Data Quality & Gouvernance Objectif global : Détecter proactivement les incidents de données avant qu’ils ne soient signalés par les utilisateurs. La data plateforme solide doit garantir une utilisation simplifiée et sécurisée des données. Focus sur la gouvernance : Classification des données et gestion fine des accès selon les typologies d’utilisateurs. Mise en place d’une hiérarchisation et d’une gradation dans les accès pour assurer une utilisation conforme et sécurisée des assets de données.
Offre d'emploi
Data Engineer Python MLOps AZURE
Vos missions Développement de pipelines de traitement de données et de modèles (préparation des features, entraînement, tuning, inférence). Conception et mise en œuvre de solutions robustes et maintenables (typage fort, design patterns avancés). Collaboration avec les Quants et Data Scientists pour résoudre les problématiques liées au cycle de vie des modèles ML. Rédaction de spécifications techniques détaillées. Implémentation et automatisation des tests. Mise en production des développements, suivi et évolution des solutions. Création de tableaux de bord d’activité.
Mission freelance
Data Analyst
Mission Intégrer et optimiser la plateforme Looker pour son déploiement au sein des Business Units et autres plateformes chez un acteur majeur du retail. Concevoir une architecture répondant aux besoins métiers, garantir des performances optimales, et accompagner les équipes dans l’adoption de Looker. Créer et maintenir des tableaux de bord pour le pilotage des activités tout en assurant une gestion des coûts et une mise à jour des fonctionnalités Looker. Compétences techniques Expertise confirmée sur Looker (LookML, API, bonnes pratiques). Maîtrise des outils Google Cloud Platform (GCP), GitHub, et Terraform. Expérience en optimisation de plateformes et en intégration de solutions analytiques. Connaissances en visualisation de données et accompagnement d’équipes techniques.
Mission freelance
data engineer python / spark MLOPS senior / databricks (forcasting)
Nous recherchons un(e) développeur(se) python passionné(e) pour rejoindre notre équipe et contribuer à la création de pipelines d'orchestration des modèles ML (preparation de features, training, tunning et inférence). Ces pipelines de données permettent aux Quants & Data Scientist d'industrialiser l’utilisation des modèles ML avancés dans les processus de prévision de la consommation et de la production d'énergie. Le profil idéal est : - Un(e) data engineer maîtrisant Python/Spark qui comprend les enjeux du MLOps - Un(e) passionné(e) du développement Python, capable de jongler avec les bibliothèques et les frameworks. - Un(e) passionné du développement capable de travailler avec les Quants et Data Scientists pour résoudre des problèmes relatifs au cycle de vie des modèles de MachineLearning (e.g. mise en place de pipelines d'entraînement). Le poste requiert une maîtrise avancée de Python et Spark. Une expérience préalable autour de Databricks, des Feature Stores / Model Registries est un plus.
Offre d'emploi
Cloud DevOps GCP
Poste : Ingénieur Cloud DevOps GCP Durée : Longue (Voire 3 ans) Lieu : Ile De France Description du Poste : Dans le cadre d’un projet stratégique pour le compte d’une banque de renom , nous recherchons un Ingénieur Cloud DevOps spécialisé GCP . Vous serez chargé de concevoir, déployer et optimiser des solutions d’infrastructure cloud sur la plateforme Google Cloud Platform (GCP) , en assurant leur robustesse, leur performance et leur alignement avec les objectifs métiers. Responsabilités : - Expertise approfondie des services GCP et des outils natifs pour la conception et la gestion d'infrastructures cloud complexes ; - Solides compétences en Terraform et Ansible pour l'infrastructure as code et l'automatisation ; - Maîtrise de la mise en place et de la gestion de pipelines CI/CD avec GitLab CI , adaptés aux exigences d’un secteur bancaire ; - Orchestrer et gérer des conteneurs avec Kubernetes et Docker , en exploitant pleinement les capacités de Google Kubernetes Engine (GKE) ; - Bonne connaissance des outils ArgoCD , Maven , et SonarQube pour la gestion des configurations, des builds, et de la qualité logicielle ; - Optimiser les coûts et l’efficacité des ressources cloud en exploitant des services GCP tels que Compute Engine , Cloud Storage , et BigQuery .
Mission freelance
MLOps
Mission Développer et automatiser des produits et algorithmes Data (IA/Machine Learning) pour améliorer les décisions stratégiques au sein du périmètre marketing client. Créer des pipelines de données robustes et garantir la qualité via des sondes et une cartographie détaillée des données (structurées et non structurées). Mettre en œuvre des solutions de DataViz (PowerBI/Looker) pour fournir des insights exploitables et accompagner la stratégie Data du business. Compétences techniques Expertise en Python, Shell, CI/CD, Airflow, Dataflow, AppEngine, et FastAPI. Maîtrise des outils GCP (BigQuery), Git/GitHub, et des solutions de visualisation (PowerBI/Looker). Connaissance des méthodologies agiles (Scrum, Kanban) et des bonnes pratiques de gestion de données. Expérience avérée dans l’industrialisation de modèles ML/IA à grande échelle et la mise en production de pipelines complexes.
Offre d'emploi
Ingénieur Systèmes et Bases de Données (BDD)
Pour l'un de nos clients, nous recherchons un Ingénieur Systèmes et Bases de Données (BDD) . Participer à l’étude et à la montée de version de DB2 . Participer à l’étude de migration vers PostgreSQL 15 . Réaliser des revues de conception technique pour assurer la conformité des développements. Effectuer des analyses détaillées et la conception technique des solutions. Développer et exécuter des tests unitaires et d’intégration afin de garantir la fiabilité et la performance des systèmes. Mettre à jour la documentation associée aux systèmes et aux bases de données. Partager le code source et la documentation sur les plateformes d’intégration continue (écosystème Git / Jenkins). Assurer le support N3 des systèmes et des bases de données de l’équipe.
Offre d'emploi
data engineer Forecasting Databricks / Mlops / Machine learning
Nous recherchons un(e) développeur(se) python passionné(e) pour rejoindre notre équipe et contribuer à la création de pipelines d'orchestration des modèles ML (preparation de features, training, tunning et inférence). Ces pipelines de données permettent aux Quants & Data Scientist d'industrialiser l’utilisation des modèles ML avancés dans les processus de prévision de la consommation et de la production d'énergie. Le profil idéal est : - Un(e) data engineer maîtrisant Python/Spark qui comprend les enjeux du MLOps - Un(e) passionné(e) du développement Python, capable de jongler avec les bibliothèques et les frameworks. - Un(e) passionné du développement capable de travailler avec les Quants et Data Scientists pour résoudre des problèmes relatifs au cycle de vie des modèles de MachineLearning (e.g. mise en place de pipelines d'entraînement). Le poste requiert une maîtrise avancée de Python et Spark. Une expérience préalable autour de Databricks, des Feature Stores / Model Registries est un plus. Contexte Engie est un acteur majeur de la transition énergétique vers la neutralité carbone, qui investit massivement dans la digitalisation et la modernisation de son système d’information. Le groupe a récemment entrepris de créer une plateforme dédiée au forecasting, qui s’appuie sur l’intelligence artificielle, le big data et les données météorologiques pour optimiser la gestion des risques et la performance des activités Supply et Renewables.
Offre d'emploi
IA Program Manager
Au sein du département Data Science, vous serez en charge de développer, déployer et maintenir un périmètre de solutions basées sur l’IA, en veillant à leur alignement avec les objectifs stratégiques de l’entreprise. Votre rôle Gestion du programme et coordination des ressources · Traiter la demande commerciale, la conception, la planification, les priorités, le développement, les essais et la documentation associée · Collaborer avec le chef de projet informatique · Coordonner les ressources internes et externes pour soutenir le développement et l’implémentation du produit · Déployer les application au sein des unités opérationnelles en assurant la transition fluide des solutions et leur adoption Création de valeurs · Proposer des solutions innovantes pour soutenir de nouveaux cas d’utilisation · Evaluer la performance des modèles génératifs et des solutions NLP/NLU · Identifier les améliorations possibles Sécurisation de l’exécution et de la maintenance des applications basées sur l’IA · Suivre les accords de niveau de service (SLA) et collaborer avec les équipes de support · S’assurer que la documentation est maintenue à jour avec les évolutions de chaque produit Gouvernance et gestion du changement · Sécuriser le processus de gestion du changement afin d’assurer l’adoption et l’utilisation continues des solutions IA · Gérer les indicateurs clés de performance (KPI) relatifs aux projets IA · Etablir et animer une communauté IA au sein de l’entreprise
Offre d'emploi
DATA ENGINEER GCP
Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement • Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants • Rédiger la documentation technique des data products • Assurer un support aux testeurs • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Faire des propositions techniques Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab, Flamingo Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Autonomie et rigueur • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Capacité à communiquer, à travailler en équipe et excellent relationnel • Proactivité et prise d’initiative
Mission freelance
Développeur C# .Net Python
Nous recherchons un Développeur C# .Net Python Contrainte du projet: Au moins 5ans d'expérience dans les technos .Net et anglais obligatoire Compétences techniques: - Confirmé - Impératif C# - Confirmé - Important Python - Confirmé - Important Angular - Confirmé - Important Connaissances linguistiques: Anglais Professionnel Impératif Description détaillée **Responsabilités principales :** - Développer des applications backend robustes en utilisant le framework .NET (C#, Core). - Concevoir et développer des applications frontend interactives avec Angular. - Intégrer des solutions Cloud via Azure (notamment Azure Functions, App Services, Azure DevOps, etc.). - Participer à l’architecture technique et aux choix des technologies pour de nouveaux projets. - Assurer l’optimisation, la maintenance et la mise à jour des systèmes existants. - Travailler en collaboration avec les équipes de développement, QA et product owners pour livrer des fonctionnalités de qualité dans les délais impartis. - Garantir la conformité des solutions aux bonnes pratiques de développement et de sécurité. - Assurer une veille technologique constante pour proposer des solutions innovantes et performantes. **Profil recherché :** - Vous justifiez d'une expérience significative (minimum 3 à 5 ans) en développement avec .NET (C#, Core). - Vous avez une solide expérience en développement frontend avec Angular. - Vous maîtrisez les environnements Cloud, en particulier Microsoft Azure (App Services, Azure Functions, Azure Storage, etc.). - Vous avez une bonne connaissance des bases de données relationnelles (SQL Server, PostgreSQL, etc.) et des API RESTful. - Vous êtes à l'aise avec les outils de gestion de versions tels que Git, ainsi qu'avec les outils CI/CD (Azure DevOps, Jenkins, etc.). - Vous avez une bonne capacité à travailler en équipe, à collaborer avec divers départements et à mener des projets de manière autonome. - Vous êtes rigoureux, passionné par le développement et avez à cœur de proposer des solutions techniquement performantes. - La maîtrise de l'anglais technique est un plus. **Localisation** - La mission se fera depuis le site de Bordeaux. - La politique TLT est de 2j de présentiel sur site par semaine - Des déplacements sur Paris peuvent être possible
Offre d'emploi
Business Analyst en Finance de Marché
Dans un contexte où la data devient de plus en plus clé dans les processus métiers de l'Asset Management, la prestation sera rattachée au service Data, au sein du pôle Back To Front & Clients Externe. A ce titre, les principales missions à mener sont : o Contrôle des Holdings o Mise à jour les KPIs clients - Optimisations des process de production et des contrôles pour une meilleure efficacité - Support de second niveau auprès des utilisateurs - Automatisation de Alto Dashboard - Traitement des demandes Jiras des clients sur la partie securities, portefeuilles et Atlas - Support de second niveau auprès de nos utilisateurs (Alto Ticketing, jiras et mails) - Automatisation Python et VBA pour l'équipe de Production pour améliorer nos météos et automatiser notre activité pour les clients externes - Garantie de la cohérence de nos processus avec les principes de la Gouvernance des données - Contribution à l'optimisation et à l'amélioration continue de nos processus métiers, opérationnels et notre plateforme data management pour accompagner la croissance mondiale du Groupe - Automatisation de la configuration alto pour les clients externe - Automatisation du Dashboard alto pour les KPIs clients Stack Technique : Outils bureautiques (Excel, Word, PowerPoint) / Bloomberg / Reuters /SQL/ VBA/ Python Anglais indispensable Resultats attendus / livrables : - Contrôle de la production quotidienne des intégrations des flux d'alimentation des administrateurs de fonds, dépositaires par application des procédures de contrôles qualités - Contrôle de la production transverse MDS de la prestation Back To Front pour l'ensemble de nos clients externes. o Contrôle des Holdings o Rapprochement et création des instruments financiers o Mise à jour des KPIs clients - Proposition d'optimisations des process de production et des contrôles pour une meilleure efficacité - Support de second niveau auprès des utilisateurs La mission est à pourvoir ASAP, se dérouleras dans Paris Intramuros. 2 ou 3 jours de télétravail par semaine sont prévus.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.