Trouvez votre prochaine offre d’emploi ou de mission freelance DAT
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Senior Graph Data Scientist
Le benéficiaire souhaite une prestation d’accompagnement dans le cadre de la contribution à la mise en place de leur IT Knowledge Graph, avec des opportunités de création d'énormes avantages pour les clients internes. À travers la conception et utilisation de Machine Learning et Graph Analytics (y compris Graph Mining, Graph Algorithms & Graph Enbeddings) dans divers cas, l'objectif est l'apport d'une expertise en matière de modélisation de données graphiques. Les missions sont: • Participation au développement des solutions pour la mise en place d'un Knowledge Graph combinant différentes sources de données • Conception des solutions pour différents cas d’utilisation afin de répondre aux besoins des clients à l’aide du Knowledge Graph • Prototype, test et production des pipelines Machine Learning pour ces cas d'utilisation • Analyses pour identifier les défis et les opportunités
Mission freelance
Développeur Data AWS
Nous recherchons pour un de nos clients un profil dév. data AWS d’au moins 4 ans d’expérience pour intégrer le dép. Solutions Data (data-engineering) et participer activement aux projets d’implémentation de nouveaux cas d’usage data sur notre plateforme Data cloud AWS : Il sera demandé la conception et développement d’alimentations/transformations d’entrepôt de données AWS (Redshift, ...) à partir de diverses sources de données (fichiers Parquet, base Oracle, …), ainsi que la documentation technique/d’exploitation correspondante.
Offre d'emploi
Responsable d'Application Cloud et Data
Afin que votre candidature soit prise en compte merci d'envoyer votre CV sous format Word directement à l'adresse suivante : et non via le site par lequel vous avez consulté cette annonce : Je vous envoie ce mail car pour un de nos clients situé dans la région parisienne nous recherchons dans le cadre d’une mission idéalement le profil Suivant : Responsable d'application solution CDDP (Customer Data plateform) Vous serez rattaché au manager du pôle et ferez partie d'une équipe composée d’une douzaine de collaborateurs ; 2 Gestionnaires d’application vous seront rattachés. Vous contribuerez aux nombreux projets qui impactent vos Applications. Connaître votre application, le cas échéant votre portefeuille d’applications, pour pouvoir être l’interface avec les chefs de projet, le métier, notre DOSI pour gérer les demandes d’évolution et de projet. Dans le cadre de cette gestion des MEV et des projets : Participer aux phases d'études et cadrage des projets d’évolution de la solution Proposer des solutions grâce à votre expertise fonctionnelle et technique Piloter les travaux de chiffrage des évolutions demandées. Gérer et Piloter les déploiements et les mises à jour de Mediarithmics Rédiger et valider les spécifications fonctionnelles et techniques (ou la piloter avec votre éditeur/intégrateur) Rédiger les contrats d’interface Rédiger les dossiers d’exploitation Établir des diagnostics et piloter les corrections aux dysfonctionnements applicatifs ainsi que sur des problèmes de Data Quality. Vous justifiez d’une expérience d’au moins 5 ans en tant que Responsable Application d’une solution Data, de préférence CDP, ou dans une mission Etudes similaire. De formation supérieure en informatique, vous avez de solides compétences techniques et fonctionnelles, de préférence dans le monde du Retail ou de la Relation Clients. Idéalement, vous avez déjà été exposé à une CDP (Mediarithmics) et vous avez déjà eu l’expérience sur des problématiques de Data Quality. Vous avez les compétences et l’expérience dans les domaines suivants : Connaissance/ Maitrise de Databricks, Power BI, Phyton. Maitrise du requêtage SQL, dans l’analyse des résultats et dans la manipulation des fichiers. OTQL sera un vrai plus. Connaissance des problématiques d’intégration en flux et Web Service Connaissance du cycle de vie d'un projet (cycle en V ou agile) Très bonne connaissance data / cloud obligatoire SQL et python - Confirmé – Impératif/Cdp - Confirmé - Souhaitable Databricks - Confirmé – Souhaitable/PowerBI - Confirmé - Souhaitable Data eng / data science Notions (Secondaire) Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.
Offre d'emploi
Data Analyst
Au sein de la direction des Opérations, une équipe est dédiée à la définition, la production et l’analyse des indicateurs de performance liés aux processus de back-office pour les activités de banque de détail. Actuellement en pleine transformation, cette équipe doit également assurer la continuité des indicateurs et tableaux de bord déjà en place. Dans le cadre de cette mission, le Data Analyst aura pour responsabilités de : Produire des indicateurs clés : Participer à la production régulière des indicateurs de performance pour le pilotage des processus de back-office. Automatisation : Contribuer à l’automatisation des rapports existants, afin d’optimiser et de rationaliser les processus. Création d'indicateurs et tableaux de bord : Développer de nouveaux indicateurs et tableaux de bord en lien avec les besoins évolutifs de BPCE.
Mission freelance
Data Engineer GCP Senior H/F
Intégrer l’équipe Move To Cloud pour réaliser la migration dans le cloud GCP. KARMA est le système de Revenue Management du groupe 100% migration cloud GCP Intégration d’une équipe de 6 personnes Présence sur site (Sophia Antipolis) obligatoire 1x par semaine. Présence sur site (Sophia Antipolis) obligatoire 3x par semaine pendant les 3 premiers mois (on boarding) Communication, leadership, autonomie, coaching Profils séniors uniquement Anglais niveau B2 Obligatoire Data engineering / Big Data Development Hadoop et Spark pour migration dans le cloud GCP
Offre d'emploi
Vector Specialist
Compétences requises : Expérience avérée avec le Vector Aggregator et une compréhension approfondie de la méthode "reduce" . Connaissance de OpenShift-logging 5.8 et du Vector Collector de RedHat . Solide expérience en gestion de logs, en particulier dans le remplacement de Fluentd par Vector. Capacité à diagnostiquer et résoudre les problèmes d'agrégation de logs, garantissant l'intégrité des données. Maîtrise des systèmes d'agrégation de logs dans des environnements Kubernetes/OpenShift . Qualifications souhaitées : Expérience avec Fluentd et sa méthode "upsert" pour l'agrégation de logs. Expérience pratique dans des environnements Kubernetes/OpenShift . Excellentes compétences en résolution de problèmes et grande attention aux détails, notamment dans les opérations de gestion des logs.
Mission freelance
Sysops big data
la prestation consiste à : Ø Maintenir l’architecture Big Data en utilisant les dernières technologies ad-hoc Ø Participer à l’industrialisation, au déploiement, au maintien des clusters Cloudera existants (Cloudera Manager, HDFS, Yarn, Hive, Ranger, Nifi, Kerberos) Ø Mettre en place les nouveaux outils que notre SI souhaite explorer: Kafka, Iceberg, Impala … Ø Participer à l’exploitation quotidienne des plateformes (vérifier la santé des clusters, mettre à jours mensuellement les serveurs) Ø Gérer la sécurité et l’accès aux clusters Ø Monitorer les plateformes et communiquer sur les besoins futurs Ø Apporter un support technique aux équipes de développement (Data Engineers / Data Scientists) Ø Mener les réflexions sur les évolutions à apporter aux plateformes
Mission freelance
Architecte Infra/Solution PAAS Azure
En prestation au sein de l'un de nos clients : Le projet de promouvoir l'excellence opérationnelle à travers l'ensemble du groupe, en s'appuyant sur les avancées technologiques (digital, données et intelligence artificielle) ainsi que sur les talents internes. Le département concerné regroupe l'ensemble des moyens d'infrastructures informatiques du groupe et de ses filiales, tant sur le territoire national qu'international. Le département est chargé de la gestion des domaines techniques tels que les bases de données, le Big Data, les middlewares et les containers, en lien avec la production informatique du groupe. il conçoit, construit et opère des services de cloud privés et publics. La mission consiste à contribuer aux aspects suivants : Définition des architectures et des services associés Assistance auprès des différentes entités sur les sujets d’architecture technique d'infrastructure Respect des principes de sécurité dans les projets d'architecture Documentation des architectures, des principes et des bonnes pratiques Déploiement des architectures
Mission freelance
Chef de Projet Technique / Architecture
Nous recherchons un Chef de Projet Technique pour piloter et coordonner des équipes sur des sujets stratégiques de sécurité informatique, d’obsolescence et d’audit. En lien avec les équipes internes, il/elle interviendra sur des projets transverses nécessitant une solide compréhension des architectures techniques et d'excellentes compétences en communication. Principales responsabilités : Consolidation des statuts des projets et reporting Support et suivi des actions des équipes IT projet Gestion des risques, problèmes et planning des projets en cours Coordination des équipes transverses et gestion des audits de sécurité récurrent
Offre d'emploi
Data Engineer - Retail H/F
Contexte de la mission : Viveris pilote les chantiers de transformation métier et IT qui contribuent à la performance des entreprises du Retail. Dans le cadre de nos priorités stratégiques DATA, nous cherchons un DATA Engineer expérimenté. Vos missions et responsabilités : Vous rejoignez l'équipe Supply Chain en charge des échanges de données entre le moteur de calcul de prévision de vente et de réapprovisionnement et l'ensemble des applications internes. Actuellement l'équipe est composée de 3 ingénieurs Data, 1 Product Owner, 1 Scrum Master, 2 Business Analyst et 1 Tech Lead. Nous recherchons un ingénieur Data pour renforcer l'équipe pour assurer le run opérationnel, optimiser l'existant et dans un avenir proche participer au déploiement de la solution dans d'autres pays. Vos missions : - Traitement d'activités de support / maintenance corrective ; - Analyse et cadrage technique des différents besoins ou problématiques remontées par les Bus ; - Réalisation et maintien de la documentation technique du produit (Spécification technique, dossier d'architecture, etc...) ; - Réalisation des développements du produit (Modules GCP, Terraform, Python, BigQuery) ; - Veille et optimisation technique (architecture, fiabilisation, optimisation financière (finops)) ; - Appliquer les normes de qualités définies pour le groupe Nous recherchons quelqu'un de motivé ayant déjà une expérience dans la Data.
Mission freelance
Data Scientiste Sénior (H/F)
1/Contexte : La mission se déroulera au sein de l'équipe Artificial Intelligence Engineering, dans la division Group Emerging Technologies and Data (GETD). La mission de ce projet transversal est à la fois de construire des initiatives basées sur l'IA (preuves de concept, preuves de valeur, pilotes) avec les entités et partenaires stratégiques et de définir et mettre en œuvre les meilleures pratiques, outils et modèles de collaboration en matière d'IA à suivre dans l'ensemble du Groupe. 2/Services : § Améliorer les solutions d'apprentissage automatique de bout en bout développées et déployées, depuis le prétraitement des données et l'ingénierie des caractéristiques jusqu'à l'entraînement, l'évaluation, le déploiement et le suivi des modèles. § Améliorer et mettre en œuvre des modèles/recettes pour stimuler l'évolutivité des cas d'utilisation de l'IA. § Refondre les carnets de notes en scripts de code de haute qualité qui feront partie des pipelines de ML. § Concevoir et optimiser les pipelines de ML, en tirant parti de ses fonctionnalités et capacités pour rationaliser le processus de développement et de déploiement des modèles. § Construire et maintenir une infrastructure MLOps évolutive et fiable, facilitant le versionnage des modèles, la surveillance et le déploiement automatisé. § Codifier les meilleures pratiques pour la surveillance des performances des modèles, la détection des dérives des modèles et le recyclage des modèles, afin de garantir la qualité et la mise à jour des modèles de ML en production. § Mettre en œuvre des pipelines CI/CD reproductibles et fiables. § Mettre en œuvre des tests de données, de modèles et de code. § Rester au courant des dernières avancées en matière de MLOps, LLMOps, et identifier de manière proactive les opportunités d'amélioration de nos capacités ML. § Mettre en œuvre des pipelines CI/CD reproductibles et fiables. § Mettre en œuvre des tests de données, de modèles et de code. § Vous êtes en charge de la mise en place de l'organisation et de la gestion de l'ensemble des activités de l'entreprise et vous êtes responsable de la gestion de l'ensemble des activités de l'entreprise et de la gestion de l'ensemble des activités de l'entreprise. § Vous êtes en charge de la mise en œuvre de la stratégie de développement de l'entreprise et de la mise en place de la stratégie de développement. § Construire des actifs et des lignes directrices avec notre communauté interne de MLOps. § Évaluation des qualifications
Offre d'emploi
Technicien datacenter
Spécialisé dans le secteur bancaire, l'entreprise recherche activement un technicien datacenter pour renforcer ses effectifs. En tant que technicien datacenter, les missions seront les suivantes: Réaliser du cablage LAN (étude, réalisation, validation) Réaliser du cablage SAN (étude, réalisation, validation) Réaliser testing liens fibre, cuivre : photométrie, réflectométrie lire et comprendre un plan de frettage comprendre les plans d'urbanisation réseau d'un DC Connaitre les différentes technologies FO Savoir configurer des cartes type IDRAC,ILO ... Réalisation des gestes de Proximité Telecom en Datacenter Compétences recherchées: "Pack office, surtout excel Outils DCIM Service Now Environnement Mainframe Connaissance des commandes de bases CMD ( Ipconfig / ping /nslookup etc.. ) Configuration IP STATIC / DHCP" "LAN SAN Réflectométrie, photométrie(Connaissance matériel (Testeur Fluke, linkrunner, pince à traffic, stylo FiberAlert…) Connaissance des Modules QSFP / SFP / CVR Gestion des incidents, troubleshooting"
Offre d'emploi
Data scientist - H/F
Nous accompagnons notre client, acteur majeur du secteur [secteur d’activité de l’entreprise cliente], dans l’exploitation et la valorisation de ses données. Nous recherchons un(e) Data Scientist F/H pour rejoindre une squad Agile dédiée aux projets Big Data. Vous serez chargé(e) de créer et maintenir des modèles prédictifs, de gérer les environnements de données distribués, et de contribuer aux projets d’intégration des données pour l’équipe métier. Vos missions seront les suivantes : Développer, entraîner et déployer des modèles de Machine Learning avec l’outil Dataiku, et adapter les solutions de traitement de données à l’architecture Hadoop ; Concevoir et réaliser des dashboards interactifs sous Tableau (Desktop et Serveur) pour répondre aux besoins des métiers en matière de visualisation de données ; Concevoir des pipelines de données robustes en développant en Python, Scala ou SQL, et en intégrant les meilleures pratiques de gestion d’APIs et web services ; Garantir la qualité de code et la gestion des versions sous Git, et documenter les projets sous Confluence et JIRA pour une coordination efficace au sein de l’équipe ; Assurer le suivi de production des modèles et flux de données en collaboration avec les équipes d’exploitation, et participer aux cérémonies Agile (sprint planning, rétrospectives, etc.). Environnement technique : Hadoop (Hue, Zeppelin, Hive), Dataiku, Tableau, Python/Scala, JavaScript, SQL, web services/API, Shell, Git, JIRA, Confluence, Sciforma, Office 365, Teams.
Offre d'emploi
Data MLOps Senior
Vous êtes passionné par l'industrialisation des modèles de machine learning ? Rejoignez une équipe dynamique où vous jouerez un rôle central dans l'optimisation et l'automatisation des pipelines ML, tout en intégrant les meilleures pratiques MLOps. Contexte de la mission : En tant qu'Ingénieur MLOps, vous intégrerez une équipe produit dédiée, avec pour mission de garantir la fluidité des opérations ML. Vous participerez activement à l'industrialisation de modèles de machine learning déjà développés, en optimisant et en automatisant les processus de déploiement et de surveillance pour atteindre une efficacité et une scalabilité maximales. Objectifs et Livrables : • ???? Implémenter des Pipelines Automatisés : Mettre en place des pipelines pour le déploiement et la surveillance des modèles ML, avec gestion des alertes pour une proactivité optimale. • ???? Automatiser et Optimiser les Workflows ML : Améliorer la productivité en automatisant les étapes clés du pipeline ML et en maximisant la scalabilité des workflows. • ????? Mettre en Place des Outils et Pratiques MLOps : Standardiser les pratiques d'ingénierie ML pour optimiser la collaboration et la performance, avec intégration d'outils IA. • ???? Optimiser l'Efficacité des Workflows ML : Concevoir des solutions qui favorisent une exécution plus rapide et plus efficace des workflows, en prenant en compte les enjeux de performance et de coût. Stack Technique : • Environnement Cloud : AWS (prioritaire), incluant des outils et services comme SageMaker, Cloudwatch, Terraform. • Outils MLOps et Orchestration : Kubernetes, TensorFlow, Jenkins, PyTorch. • Surveillance et Observabilité : Cloudwatch, Prometheus, Alertmanager, Grafana. • Programmation : Python (indispensable). Compétences Recherchées : • ? Maîtrise des Technologies AWS et MLOps : Bonne connaissance de l'écosystème AWS et des outils MLOps clés. • ? Excellente Compétence en Python : Maîtrise de la programmation en Python pour l'implémentation de pipelines et workflows ML. • ? Solides Connaissances en Machine Learning : Compréhension des concepts ML pour une intégration optimale des modèles. • ? Force de Proposition et Esprit de Résolution : Capacité à analyser et résoudre rapidement les défis liés aux flux de données ML. • ? Proactivité et Esprit d'Équipe : Goût pour le travail collaboratif, le respect des délais, la qualité et le sens des résultats. Certification Requise : • AWS Machine Learning Specialty (minimum requis). Pourquoi Rejoindre ? Ce poste offre l'opportunité de travailler au sein d'une équipe performante sur des projets à forte valeur ajoutée en machine learning et IA. Vous serez au cœur des processus d'industrialisation et pourrez contribuer activement à l'optimisation des pratiques MLOps dans une structure en pleine croissance.
Offre d'emploi
Data Architecte / MLOPS
Prestation d´accompagnement dans l´objectif d´assurance des services d´ingénierie technique pour le pôle en charge du cloud IBM, notamment dans ´architecture & design des couches techniques basses. L´objectif principal est assurance de l’ hybridation au cloud IBM ainsi qu' autres fournisseurs au futur, et assurance de la cohésion entre le backend (Datalab Platform) et les produits Les missions sont : - Définition, assurance et déploiement des architecture intimes des produits; - Définition, assurance et priorisation des produits; - Définition et assurance de la roadmap Produit; - Déploiement des solutions; - Participation au support des services construits, selon le principe "You Make it You Run it"; - Acceleration du développement de produits data dans le cloud. (calculs distribués, datascience, ETL, datahubs); - Création des services de terraformation des clouds internes/externes; - Création des pipelines de deploiements; - Sécurisation de tous les produits et services (MFA , encryption, etc). Connaissances techniques essentielles: - Bon background dans les infrastructures legacy serveurs/storage; - Haut niveau d'expertise en DEVOPS (Gitlab /ArgoCD/ Terraform / Ansible /Vault); - Expertise en cloud native infrastructures: Kubernetes/ Openshift dans des environnements "statefull"; - Experience significative dans un cloud provider publique - Construction des SAAS data clé en main vu des utilisateurs groupe à partir de comptes cloud "natif" - Haut niveau d´expertise dans beaucoup de technologies différentes.
Offre d'emploi
Data Governance / Data Quality (Luxembourg)
Le consultant rejoindra l’équipe Enterprise Data Office (EDO), en charge de définir et mettre en œuvre la gouvernance des données (qualité, classification, protection) et du reporting du client. EDO contribue donc activement au déploiement de la stratégie des données de la banque en promouvant une culture data et en coordonnant les travaux des Data Stewards/Owners au niveau métier et des Data Custodians au niveau IT. Vos tâches : · Encadrer les Data et Report Stewards en charge de la définition et documentation des données, des rapports et des contrôles de qualité au sein du dictionnaire des données et des rapports. · Encadrer les Report Stewards et Owners en charge de l’analyse de criticité des rapports et de l’identification de données clefs (Golden data). · Analyser les problèmes de qualité des données ; proposer des solutions ; coordonner et suivre la mise en place de ces solutions. · Suivre les indicateurs de qualité et préparer le reporting sur la qualité des données. · Participer à l’élaboration d’une enquête permettant d’évaluer l’adéquation du reporting interne aux besoins des organes internes de supervision.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Calcul de crédit impôt - cas pratique
- situation compliquée fin de mission pression client comment gèrer ?
- Calcul frais télétravail en étant propriétaire
- Peut-on créer une société au nom de son conjoint pour facturer ses prestations en étant sous ARE ?
- Vehicules de société
- Arce 7 mois après la création de l'entreprise ?