Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Data Scientist
👉 Contexte : Je recherche un Data scientist senior pour intervenir chez notre partenaire sur deux projets. Les deux nécessiteront des connaissances en Python , SQL et Azure . Le premier projet nécessite quelqu'un qui soit très compétent en traitement du signal . Nous cherchons à optimiser les paramètres des machines d'usine pour réduire les déchets et garantir la meilleure qualité. La partie la plus difficile de cette tâche sera de trouver la meilleure approche pour extraire le signal du bruit. Nous recherchons un data scientist qui possède de vastes connaissances en découverte causale et en inférence causale . Il serait aussi intéressant d'avoir une expérience dans la création d' algorithmes d'apprentissage par renforcement . Le deuxième domaine relève de la R&D. C'est un projet from scratch qui a pour objectif de relier les données (et de trouver des moyens de les acquérir, lorsqu'elles manquent) à partir de diverses sources.
Offre d'emploi
Data Scientist
Zsoft Consulting est une société de conseil, spécialisée dans les métiers d'ingénierie de développement logiciel. Nous travaillons principalement en étroite collaboration avec des grands comptes et également avec des PME. Depuis 2015, nous continuons à créer un environnement propice à l’innovation et à l’excellence. Dans le cadre de ce développement nous recherchons un Data Scientist. En tant que Data Scientist, vous serez responsable de l'analyse, du traitement, et de la valorisation des données afin de résoudre des problématiques métiers complexes. Vous utiliserez vos compétences en modélisation statistique, machine learning, et visualisation des données pour produire des insights exploitables et des modèles prédictifs. Vous travaillerez en collaboration avec les équipes techniques et métiers pour proposer des solutions adaptées et innovantes. Responsabilités Principales: Analyse exploratoire des données : Collecter, nettoyer, et analyser des jeux de données structurés et non structurés. Modélisation : Développer des modèles prédictifs et prescriptifs à l’aide d’algorithmes de machine learning et de statistiques avancées. Développement d’outils : Implémenter des pipelines de traitement des données et des prototypes de solutions data-driven. Visualisation des données : Communiquer efficacement les résultats via des tableaux de bord ou des outils de reporting (Tableau, Power BI, Dash, etc.). Collaboration : Travailler avec les équipes Data Engineering pour intégrer les modèles dans les systèmes de production. Amélioration continue : Suivre les performances des modèles en production et les ajuster selon les besoins métier. Veille technologique : Rester à jour sur les dernières avancées en intelligence artificielle, machine learning, et outils de data science. Compétences Techniques Requises: Langages de programmation : Solide maîtrise de Python (pandas, NumPy, scikit-learn, TensorFlow, PyTorch) ou R. Data Engineering : Connaissance de SQL pour manipuler des bases de données relationnelles ( PostgreSQL, MySQL ) et des outils Big Data ( Spark, Hadoop ). Machine Learning : Familiarité avec les modèles supervisés et non supervisés, ainsi que les techniques avancées ( Deep Learning, NLP ). Outils Cloud : Expérience avec des plateformes cloud comme AWS (SageMaker), Azure (Machine Learning Studio) ou GCP (Vertex AI). Data Visualisation : Compétence dans des outils comme Matplotlib, Seaborn, Plotly, Tableau, ou Power BI . Gestion des versions : Utilisation de Git pour le contrôle de version et la collaboration sur les projets. Bonnes pratiques : Connaissance des méthodologies Agile et/ou des principes de gestion de projet Scrum.
Mission freelance
Delivery Lead / Chef de Projet Technico-Fonctionnel (SAP / Data / Cloud)
Localisation : Issy-les-Moulineaux (hybride, potentiellement 2 jours par semaine sur site) Démarrage : Début janvier Expérience : 15 ans minimum TJM : En discussion (potentiellement autour de 700 €/jour) Dans le cadre d'un projet stratégique, Accor recherche un Delivery Lead expérimenté pour piloter la mise en œuvre et le suivi d'une solution technique autour de SAP, des données et des environnements Cloud. Ce rôle exige une expertise technique et fonctionnelle, une solide capacité de gestion d'équipe, et une bonne compréhension des enjeux stratégiques d'une organisation globale. Gestion de projet : Piloter le cycle de vie complet de la solution technique, de la phase de construction (build) à la phase opérationnelle (run). Garantir la cohérence des solutions et du cadre technique. Suivre et reporter l’avancement du projet, y compris les risques, obstacles, et alertes majeures. Superviser le budget et veiller au respect des engagements financiers. Expertise technique : Assurer la maintenance et l’évolution des architectures produit et infrastructure pour garantir leur performance, fiabilité et scalabilité. Superviser les intégrations avec des outils tiers pour assurer la compatibilité et l’interopérabilité des systèmes. Collaborer avec les fournisseurs tiers pour gérer les niveaux de support (L1, L2, L3). Leadership et coordination : Coordonner les équipes techniques internes et externes, tout en maintenant une collaboration efficace entre les différentes parties prenantes. Animer les comités techniques et fonctionnels pour aligner les objectifs du projet avec les besoins métier. Piloter la conduite du changement auprès des utilisateurs.
Offre d'emploi
Ingénieur.e Infrastructure Big Data AWS
Vous interviendrez au sein de l’équipe Data et serez chargé.e de concevoir, déployer et optimiser les environnements techniques permettant le traitement des données. Vous assurerez la fiabilité, la scalabilité et la sécurité des infrastructures Big data. Votre rôle Conception et déploiement d’infrastructures Big Data · Concevoir et déployer des architectures distribuées pour les plateformes Big Data · Intégrer les solutions Big Data dans des environnements cloud AWS · Assurer la scalabilité et la haute disponibilité des infrastructures Automatisation et maintenance des environnements · Automatiser le déploiement des environnements · Maintenir et mettre à jour les environnements existants, en assurant leur stabilité et leur performance · Gérer les pipelines CI/CD pour l’intégration continue des workflows Big Data Surveillance et sécurité des systèmes · Surveiller la performance des systèmes · Garantir la sécurité des infrastructures Big Data · Implémenter des mécanismes de sauvegarde et de récupération des données Collaboration et support technique · Collaborer avec les équipes Data (data engineers, data scientists) pour comprendre les besoins métier · Apporter un support technique aux équipes en cas de dysfonctionnement ou d’incidents sur les systèmes Big Data Veille technologique et amélioration continue · Suivre les évolutions des technologies Big Data et des bonnes pratiques · Proposer des améliorations pour anticiper les besoins futurs de l'entreprise
Offre d'emploi
Data Scientist (F/H)
📑 CDI (37-45K€) - 📍 Strasbourg - 🛠 Expérience de 2 ans minimum (hors stages / alternance) Vous êtes passionné(e) par l’intelligence artificielle et ses applications concrètes ? Vous aimez transformer des idées novatrices en solutions opérationnelles ? Nous avons une opportunité qui pourrait vous plaire. 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Data Scientist pour intervenir chez un de nos clients. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Participer activement à chaque étape du projet, de l’exploration R&D à la mise en production dans le cloud - Concevoir des modèles de machine learning (Deep Learning, IA générative) - Réaliser une veille technologique pour rester à la pointe des avancées en IA - Développer des services robustes en Python - Rédiger des spécifications fonctionnelles claires et précises - Contribuer aux daily meetings en méthodologie Scrum
Mission freelance
Chef de projet junior - Grenoble
Notre client recherche un chef de Projet/Business Analyst pour le déploiement du catalogue de données DATA GALAXY. • Piloter la mise en oeuvre de DataGalaxy dans l'écosystème client : Planning, Animation des réunions (Kick-Off, réunion de suivi, support aux ateliers...), gestion des ressources • Monter en compétences sur l'outil pour participer aux activités de rédaction, formation et accompagnement des équipes • Participer à la rédaction des Guidelines (aide à la prise de décision, design et test des solutions possibles dans Data Galaxy) • Être un support des équipes techniques et Data office dans leurs tâches sur l'outil.
Offre d'emploi
Data Engineer - Spark/Scala/Databricks
Compétences technologiques indispensables : Maîtrise de l'API Scala Spark (principalement pour les traitements batch). Expertise dans l'optimisation des performances Spark, avec une expérience avérée dans le traitement de volumétries importantes et complexes. Solide expérience en développement Scala et bonnes pratiques de codage. Compétences en build Maven et gestion des dépendances. Expérience de travail dans un environnement cloud (idéalement sur Azure ou AWS ). Compétences appréciées : Connaissance d' IBM Datastage et de son écosystème. Expérience avec Databricks , ses outils et ses services. Compétences transverses : Aisance relationnelle et capacité à travailler efficacement avec différentes parties prenantes. Esprit d'équipe et forte capacité d'adaptation aux évolutions des projets. Rigueur, sens de l’analyse et capacité à faire preuve d’une synthèse pertinente. Autonomie dans la gestion des tâches et des projets. Force de proposition pour améliorer les processus et l’efficacité des projets. Sens des priorités et gestion rigoureuse des délais dans un environnement dynamique. Capacité à travailler en mode multi-projets , tout en maintenant une vision globale des enjeux. Appétence pour comprendre les besoins clients et fonctionnels, et capacité à transformer ces besoins en solutions techniques pertinentes. Compétences en mentorat et partage de connaissances au sein de l'équipe.
Offre d'emploi
Data Architect GCP
L'architecte data est la personne responsable de la cohérence de bout en bout des données dans l'organisation en appliquant les règles de l'architecture des données. Il est responsable de la modélisation des domaines de données et des business object. Il participe à tous les projets de l'entreprise afin de définir les impacts sur l'architecture de données existante et de la faire évoluer vers la cible. Activités principales : Data Architecture : - Établir et appliquer les principes de l'architecture des données - Encadrer et valider l'architecture des données dans les projets - Capacité de remettre en question les implémentations de données dans les systèmes opérationnels, business intelligence et la data science afin de s'assurer de leur conformité. - Veiller à ce que la conception des solutions permette la mise en oeuvre des business object. Data Governance : - Participer aux revues de projet et prend des décisions sur l'architecture des données. - Identifier et diagnostiquer les dysfonctionnements, les incidents, les non-conformités et soutenir la formalisation des scénarios de remédiation. des scénarios de remédiation. Data Quality : - Exprimer les exigences de qualité des données, avec les data owners, que les solutions doivent assurer. - Analyser la performance du système d'information et recommander des mesures d'amélioration de la qualité, la sécurité et la productivité Data Modeling : - Maintenir les diagrammes du modèle sémantique (avec les principaux business object) et la data domain map. - Soutenir les projets dans la création de data model et les valider. Metdata Management : - Développer, avec les data owners, un vocabulaire commercial commun et les définitions associées. - Gerer un inventaire de données dans les solutions opérationnelles (à l'aide de l'outil de gestion des métadonnées). - Maintenir, avec les business analysts, product owners et les enterprise architect, l'application "Business object associations. Data Integration : - Capacité d'esquisser des conceptions d'intégration inter-applications de haut niveau. Data Transformation : - Encadrer les équipes chargées des données (business analysts, data owners, analystes et ingénieurs du groupe, de la zone et des BU) et les équipes projet en ce qui concerne l'architecture des données (data modeling, integration pattern, etc.). - Diriger des ateliers sur l'architecture des données afin d'améliorer les pratiques. - Soutenir l'approche de l'architecture en créant des contenus de vulgarisation, de formation et de communication.
Mission freelance
LEADER BIG DATA anglais courant - Toulouse H/F
Experienced data technical leader with ETL and reporting tool skills, to join the Revenue Team Tech lead role, drive the team of technical topics, assist them, give guidelines… Helop on the current project backlog (corrections & new features) Within a 8 people team Mainly innovation proposition Daily interaction with business team in Paris and Amsterdam (business trips can happen) SQL (Teradata) : 50% ETL Powercenter :15% Big Data : 10% Linux : 10% Reporting tool (SAP 4BI & Spotfire) : 10% Others (ControlM, Jira…) : 5% Leader technique de données expérimenté avec des compétences ETL et outils de reporting, pour rejoindre l'équipe Rôle de Tech Lead, piloter l'équipe sur les sujets techniques, les assister, donner des lignes directrices… Aide sur le backlog du projet actuel (corrections et nouvelles fonctionnalités) Au sein d'une équipe de 8 personnes Proposition principalement d'innovation Interaction quotidienne avec l'équipe commerciale à Paris et Amsterdam (des voyages d'affaires peuvent avoir lieu)
Mission freelance
Architecte Data / IA - Expert Microsoft et Copilot
En tant qu’Architecte Data / IA, vous serez au cœur des projets stratégiques visant à transformer les données en valeur ajoutée pour l’entreprise grâce à l’intelligence artificielle et aux outils Microsoft, notamment Copilot. Vous serez responsable de la conception, de la mise en œuvre et de l’optimisation des solutions de données et d’IA pour répondre aux besoins métiers. Concevoir et déployer des architectures Data & IA alignées avec les besoins métiers et technologiques. Exploiter les solutions Microsoft Azure (Data Factory, Synapse, Machine Learning, etc.) et l’écosystème Copilot pour maximiser l’efficacité opérationnelle. Intégrer des solutions d’IA générative et conversationnelle dans les processus métiers. Piloter les projets d’optimisation des flux de données et assurer leur fiabilité et leur scalabilité. Former et accompagner les équipes dans l’adoption des outils et technologies Microsoft et IA. Effectuer une veille technologique active sur les avancées en IA, Copilot et l’écosystème Microsoft.
Mission freelance
Senior Data Engineer - Azure & Power BI
Mission temps plein longue durée à pourvoir début 2025 2 jours de remote/sem Mise en œuvre de projets data = missions principales o Data engineering : mise à disposition des données dans le datalake au format delta lake (Azure Databricks) ▪ Conception des flux data ▪ Développement des flux data ▪ Mise en œuvre avec le superviseur des flux du monitoring de ceux-ci ▪ Intégration des tests unitaires o Coordination des intervenants SI o Rédaction de spécifications o Etudes, analyses de données et Requêtages o Développement des briques transversales o Mise en place des exigences RGPD/SSI
Mission freelance
Data Scientist/ Scientifique des données
Développer et optimiser des modèles : créez des modèles d'apprentissage automatique en exploitant de solides connaissances théoriques pour sélectionner les algorithmes appropriés et optimiser les performances. Codage et évaluation de modèles : implémentez des modèles à l'aide de Python sur Databricks. Évaluez les algorithmes et les cadres pour des résultats commerciaux optimaux. Analyse et informations sur les données : utilisez Power BI pour visualiser les données et communiquer des informations exploitables aux parties prenantes. Cycle de vie ML de bout en bout : gérez le cycle de vie complet des projets d'apprentissage automatique, de la préparation des données au déploiement dans Azure Data Factory. Restez à jour : restez au courant des dernières tendances et innovations en matière de science des données et d'apprentissage automatique.
Mission freelance
Senior Data Engineer
Nous recherchons pour le compte d'un groupe international renommé un Ingénieur Données Senior pour une durée initiale de 6 mois avec possibilité d'extension. Rôle : Senior Ingénieur Data Lieu: Lyon Durée : 6 mois (extensible) Travail Hybride : 2 jours travail par semaine Date de début : Janvier/Février 2025 Principales responsabilités : Vous travaillez sur la migration de Talend vers DBT, en assurant une intégration transparente. Concevoir, développer et optimiser des pipelines de données évolutifs, des schémas et des processus pour notre nouvel entrepôt de données. Collaborer avec des équipes interfonctionnelles pour fournir des solutions de données de haute qualité. Vous êtes en charge de l'organisation et de la mise en œuvre de l'ensemble des activités de l'entreprise, de la conception à la mise en œuvre.
Offre d'emploi
Data Engineer Azure Data Factory/Synapse
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Senior Data Engineer Azure Data factory : Principales responsabilités du poste : S'assurer que les modèles sont expliqués et compris. Valider les développements au cours des premiers mois. Répondre aux questions des ingénieurs en données et assurer la liaison avec l'architecte si nécessaire. Garantir que tous les développements respectent les politiques de l'équipe et que les performances sont optimales. Mettre en œuvre ou participer à des développements complexes. Développer des normes et un kit de développement (pipelines de données, journaux, CI/CD, surveillance de la qualité des données). Accompagnement des profils juniors Qualités attendues : Capacité à travailler en mode collaboratif au sein d'une squad pour livrer dans tous les environnements. Avoir une attitude orientée client. Capacité à collaborer avec des ressources offshore. Savoir communiquer entre les aspects techniques et non techniques. Si vous êtes actuellement à l'écoute du marché, je vous invite à m'envoyer votre candidature. Bien à vous, Nadia
Mission freelance
Data Engineer
Nous recherchons pour l'un de nos clients Glocomms, un Data Engineer pour un contrat freelance de 6 mois. Rôle : Ingénieur de données freelance Lieu de travail : Ile-de-France Durée du contrat : Contrat de 6 mois Travail à distance Date de début : Janvier 2025 Principales responsabilités : Concevoir et mettre en œuvre des pipelines ETL optimisés, traitant des téraoctets de données tout en réduisant les coûts du cloud. Développer des outils basés sur Python pour appliquer les règles commerciales et assurer la fiabilité des données de tarification. Construire des systèmes de reporting automatisés et en temps réel pour l'analyse et le suivi des données de tarification. Établir et maintenir des tests et des processus robustes de qualité des données. Collaborer avec des équipes interfonctionnelles pour améliorer les flux de données et soutenir les objectifs de l'entreprise.
Mission freelance
Ingénieur Data
Ingénieur Data : injecter de la master DATA dans SAP Il va faire de la reprise de données, de la source de données à transformer en CSV (format texte ouvert en présentant des données tabulaires séparées sous forme de virgule) Il s’occupera de la qualité de données également Il s’occupe d’importer dans SAP (ré interroger la DATA etc) Aide à décrire le projet (73 objets métiers) Management de 2 alternants DATA Expérience en importation dans SAP Tous les modules Expérience en qualité de données basiques
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.