Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Product Owner Altéryx Power BI Reporting Finance
Le consultant travaillera en mode projet agile en tant qu’expert Alteryx/Power BI pour apporter des réponses aux besoins métier, relayés par les Product Owner. Il aura pour mission de définir, de mettre en œuvre et de faire évoluer, les workflows avec Alteryx et les reportings avec Power BI. Grandes lignes de la mission : • Designer la solution en collaboration avec l’ensemble des acteurs projets • Qualifier les impacts de la solution sur la production applicative • Fabriquer la solution applicative, développements et paramétrage Alteryx/Power BI • Réaliser la première phase de recettes technico fonctionnelles • Accompagner les Product Owner et les métiers dans l’exécution de la recette fonctionnelle • Assurer la maintenance des produits déjà en production sous Alteryx
Mission freelance
Lead Data scientist (H/F)
En tant que Lead Data Scientist (H/F), vous serez en charge des missions suivantes : • Concevoir et développer les futures fonctionnalités de la plateforme sous Google Cloud Platform. • Concevoir les flux d'alimentation et les tables (structure de donnée). • Automatiser et industrialiser les flux. La stack technique : • Python • Maîtrise des outils permettant de gérer les gros volumes de données (stockage HDFS, calcul distribué, …) via Spark. • Expérience significative dans la mise en production de solutions de ML ayant un impact à grande échelle sur les clients. • Maîtrise des pratiques de packaging ML et de mise en place des architectures AI avancées. • Maîtrise des environnements de développement sur le Cloud (ex : AWS, SageMaker, DataBricks, etc.). • Maîtrise des outils de développement : Git, Github, CI/CD, VSCode/Pycharm, Terminal. • Maîtrise de l'Anglais indispensable.
Offre d'emploi
Data Engineer (H/F)
Vos missions ? En tant qu'Ingénieur Data, vous serez responsable de la conception, du développement et de la maintenance de solutions data au service des différents métiers de l'entreprise . Aux côtés d'experts métiers, et d'un Leader Technique, vous devrez développer des traitements robustes, monitorés et résilients dans un écosystème Cloud avec des technologies d'industrialisation à l'état de l'art. Vos traitements répondront à des besoins autour de problématiques complexes dans les domaines d'activité de l'entreprise (Réseau & système IOT, évolutions possibles sur comptage de l'eau, gestion des déchets, etc …) La stack Technique : - MongoDB, PostgreSQL, Power BI - Python, Scala, R - Docker, Jenkins - Gitlab/Github - Grafana
Offre d'emploi
Bigdata Engineer Cloud
💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket
Mission freelance
TECH LEAD AB INITIO
Nous sommes à la recherche d'un profil TECH LEAD AB INITIO pour une mission de longue duré ...... ........ ...... ........ ...... ........ ...... ........ ...... ........ ...... ........ ...... ........ ...... ........ ...... .... .... ...... ........ ...... ........ ...... ........ .... ...... ........ ...... ........ ...... ........ .... ...... ........ ...... ........ ...... ........ .... ...... ........ ...... ........ ...... ........ .... ...... ........ ...... ........ ...... ........
Offre d'emploi
Consultant Data Quality (H/F)
Les missions d'un Amiltonien : Identifier des besoins de mise en qualité Proposer des offres outillées de mise en qualité Mise en place d'outils pour automatiser la détection et correction de données erronées Créer des rapports et de tableaux de bord standards La stack technique : MDM, Outils Data Visualisation, Data Management Le profil d'un Amiltonien : Diplômé Bac+4/5 (Ecole d'ingénieur/Master), vous disposez de minimum 4 années d'expérience. Toujours sur le qui-vive des nouveautés technologiques, vous êtes force de proposition sur des technos, des outils ou des process qui permettent d'améliorer la qualité du code et la stabilité de nos applications. Outre vos compétences techniques, nous nous intéressons également à votre potentiel et votre motivation. Nos postes sont ouverts aux personnes en situation de handicap.
Mission freelance
Data Scientiste Machine Learning
Nous recherchons un prestataire Data Scientist expérimenté pour rejoindre notre équipe et capable de transformer nos données en informations précieuses pour orienter nos décisions stratégiques. Le prestataire retenu aura une solide expérience technique dans le développement des solutions Data science pour répondre aux enjeux de performance et d’innovation (modèles prédictifs, algorithmes de recherche opérationnelle, Machine Learning, Deep Learning, Computer Vision, Time Series, etc...). Le prestataire sera responsable du développement et optimisation des modèles de machine learning robustes, l’analyse des données, l’amélioration et l’optimisation de processus décisionnels. Il ou elle jouera un rôle clé en tant qu’expert technique : - Data Processing : collecte, nettoyage, traitement et modélisation des données. - Analyse exploratoire : identification des motifs, tendances et anomalies. - Data Visualisation : visualisation claire et concise des résultats via des outils de visualisation. - Qualité et Responsabilité technique : assurer la qualité et l’intégrité des analyses et informations partagées. - Modélisation et Algorithmes de machine learning : développer et implémenter des modèles statistiques, de machine learning et d’intelligence artificielle (prédiction, classification, clustering, NLP, ect …). - Optimisation et Mise en production : optimiser les modèles développés et déployer les modèles en production. - Interprétation et Communication : identification d’insights pertinents, communication des résultats à travers des visualisations et rapports clairs et concis. - Collaboration : travailler étroitement avec les équipes techniques et non techniques. - Résolution de problèmes spécifiques : compréhension des défis métiers et propositions des solutions performantes adaptées aux besoins et contraintes de l’organisation. - Innovation : tests et propositions de nouvelles approches ou technologies qui améliorent les processus de traitement de données et la qualité des modèles. - Transmission de savoir : participer à la montée en compétences des data scientists internes en partageant son savoir et en expliquant le développement détaillé des méthodologies employées.
Mission freelance
Chef de projet Web
Recherche d’un Chef de Projet Web Expérimenté dans le Secteur des Mutuelles Nous recherchons un chef de projet Web expérimenté , avec une solide connaissance du secteur des mutuelles. Vous devez maîtriser une large gamme de compétences : fonctionnelles, techniques, développement, et gestion de projet. Il s'agit d'une mission longue durée, avec des enjeux stratégiques. Objectifs de la mission : Votre rôle consistera à piloter les évolutions d’un site Web développé par un prestataire externe. Vous interviendrez à différents niveaux clés : Organisation des releases : Gestion des demandes fonctionnelles et techniques, évaluation de leur maturité pour une mise en production, et définition du contenu de chaque release. Suivi des développements : S’assurer de l'avancement des travaux réalisés par le fournisseur. Supervision des livraisons : Gestion des livraisons en cours ou à venir, avec un suivi rigoureux des étapes jusqu'à la mise en production (installation, validation, go live).
Mission freelance
Consultant BI
Intégré dans une équipe projet transverse aux équipes Enjeux Digital Data, ayant pour objectif de décommissionner l’outil Business Object, la mission sera de: - Préparer et réaliser les tests des tableaux de bord (y compris la pertinence des données) - Analyser les résultats et rédiger le rapport de tests - Identifier et traiter les dysfonctionnements éventuels - Identifier les opportunités d'amélioration et formuler des recommandations pour optimiser les tableaux de bord - Accompagner les métiers dans leur montée en compétence sur l’outil
Offre d'emploi
AMOA Data Office
Profil : Minimum 5 ans d'expérience Maîtrise du pilotage projet, de l'expression de besoin, la réalisation d'études, d'analyses. Maîtrise de l'organisation et de la conduite de réunions. Excellentes aptitudes à la communication, tant orale qu'écrite. (Réalisation de CR, support de réunions, d'ateliers d'alignement, de désambiguation…) Sens de la synthèse, afin de résumer pour tous la situation du projet. Connaissances sur les grands principes de la donnée (Fonctionnement des bases de données, tables, requêtes, jointures…), du fonctionnement des CRMs Eventuellement expérience dans la manipulation de la donnée (SQL, Excel). Secteur : assurance Site : Chauray (Niort) 2 à 3 j / sem sur site
Offre d'emploi
Data Engineer (H/F)
Vos missions ? Intégré à nos équipes sur nos projets en Factory ou chez nos clients vous interviendrez en tant que data Engineer. En tant que data Engineer (H/F), vous assurez les missions suivantes : Conception de solutions permettant le traitement de volumes importants de pipelines données. Ceux-ci doivent être suffisamment sécurisés et lisibles pour les Data Analysts et Data Scientists. Animation d'une équipe de professionnels de la Data sur toutes les étapes du traitement de la donnée. Mise à jour permanente sur les technologies et langages utilisés dans le but de partager ses connaissances et aider à l'avancement du projet.
Mission freelance
product owner Big Data
Product Owner Datahub +6 ans d’XP. Mission basé sur site client à Massy (91) avec 2 jours de télétravail. Besoin d'un profil capé dans la data, qui vient idéalement de la maitrise d’œuvre avant de transitionner avec l’expérience vers un rôle de product ownership. Le consultant, en plus de ses qualités de product owner (gestion backlog, référent fonctionnel) doit être capable d’émettre des opinions quant à des orientations techniques à prendre, de participer aux phases de tests voire de réaliser quelques scripts d’intégration de donnée si nécessaire. Par ailleurs, au-delà de l’aspect BI c’est vraiment le côté « Big Data » avec une expérience précédente sur la gestion d’un data lake / datawarehouse qui va intéresser le client. Profil habilitable demandé Compétences Le positionnement central du DataHub requiert aussi les compétences générales suivantes : •Compétences techniques basiques en script (shell, python). •Compétences techniques en Automatisation des tâches (développement de scripts, tests automatiques). •Connaissances géénrales pour les technologies Big Data (NoSql, Data Virtualization) et Cloud (Azure, Kubernetes). •Analyse des besoins exprimés d’un point de vue métier, selon les processus utilisateurs et mode opératoires correspondants. •Transcription d’un besoin métier d’un point de vue technique (analyse d’impacts). •Propositions de solutions adaptées aux besoins, et en conformité avec les solutions standards existantes. •Vulgarisation technique. •Animation d’atelier et workshop avec les stakeholders. •Connaissance des métiers de la Data et compréhension des enjeux dans ce domaine (valeur ajoutée, gouvernance, sécurité, etc…). •Connaissances générales sur des technologies big data souhaitées afin de pouvoir participer à des ateliers techniques et être force de proposition (par exemple : NoSql, pipelines ETL/ELT, moteur de recherche/indexation, etc.) Missions La prestation couvre les activités suivantes : •Récolter l’ensemble des besoins fonctionnels et techniques. •Mettre à jour et prioriser l’ensemble des besoins dans le backlog JIRA en fonction : -De la roadmap produit headlight, -Des priorités projet client utilisateur du DataHub, -Des contraintes techniques de construction du DataHub, -De la capacité de l’équipe. •Être le point de contact privilégié du DataHub avec les stakeholders : -Présenter et partager la vision DataHub, -Définir la roadmap du DataHub, -Expliquer les priorités, -Distinguer ce qui est du ressort produit de ce qui est spécifique projet. •Participer à la rédaction de la documentation technique et fonctionnelle du DataHub. •Valider que les productions de l’équipe DataHub satisfont aux exigences fonctionnelles, non-fonctionnelles (performances, sécurité, etc...). •Participer et animer les réunions techniques, fonctionnelles et d’avancement avec les différents « stakeholders » (possiblement en anglais avec d’autres entités Client internationales).
Offre d'emploi
Technicien datacenter
Réalisation des gestes de Proximité Telecom en Datacenter avec déplacements possibles inter -DCs, travail en HNO, astreintes potentielles. Misson à réaliser dans l'est parisien Réaliser du cablage LAN (étude, réalisation, validation) Réaliser du cablage SAN (étude, réalisation, validation) Réaliser testing liens fibre, cuivre : photométrie, réflectométrie lire et comprendre un plan de frettage comprendre les plans d'urbanisation réseau d'un DC Connaitre les différentes technologies FO Savoir configurer des cartes type IDRAC,ILO ... Réalisation des gestes de Proximité Telecom en Datacenter
Offre d'emploi
Data Architect
Contexte et Enjeux de la Mission : Dans le cadre d’une transformation numérique ambitieuse , une grande entreprise française, leader dans son secteur, recherche un(e) Data Architect pour moderniser et unifier son écosystème de données. Le projet se concentre principalement sur l’implémentation et l’optimisation d’une architecture sur Google Cloud Platform (GCP) , visant à améliorer la gestion des données à grande échelle et la qualité des insights pour les équipes métiers. Basé à Lille , vous interviendrez à un moment clé de ce projet stratégique, avec pour objectif de créer une architecture évolutive, scalable et résiliente, tout en facilitant l'exploitation des données pour l'ensemble des départements. Vos Responsabilités : Conception et mise en place d’une architecture data robuste sur Google Cloud Platform (GCP), en accord avec les meilleures pratiques de gestion des données et de sécurité. Structurer et gérer les pipelines de données pour garantir des flux fluides, fiables et sécurisés. Assurer la qualité et la gouvernance des données via la mise en place de standards, d’outils de monitoring, et de processus de validation. Collaborer de manière étroite avec les équipes Data Engineering et Data Science pour maximiser l’utilisation des données et proposer des améliorations continues. Apporter une vision stratégique à long terme, en anticipant les évolutions nécessaires pour adapter l'architecture aux besoins futurs de l'entreprise. Documenter les solutions et former les équipes internes sur l'utilisation et la maintenance des nouvelles structures.
Mission freelance
Programmeur FAO (Topsolid 7) - 100% Télétravail
Nous recherchons un Programmeur FAO expérimenté pour réaliser des programmes FAO via Topsolid 7 dans le cadre d'un projet de grande envergure. Vous serez responsable de la réalisation de 100 programmes FAO , à raison d'environ 20 programmes par semaine , ainsi que de la résolution des bugs éventuels. Réalisation de 100 programmes FAO sur Topsolid 7 Livrer environ 20 programmes FAO par semaine Assurer la résolution des bugs liés aux programmes Effectuer un rendu hebdomadaire sur l'avancement des travaux
Offre d'emploi
Pilote de contrat datacenter
Résumé : Biliingue Anglais, autonome, organisé et un sens aigu de l'optimisation financière, le candidat doit avoir une expérience similaire de mission dans un contexte international (> 7 ans). Le candidat travaillera au sein d’une équipe de 5 personnes et sera en contact permanent avec l’infogérant du Datacenter, les pays européens utilisant la plateforme, et les fonctions de gouvernance du Client (Sécurité, Risques, Inspection Générale, Audit .... ) . Contexte : L’European Datacenter (EDC) fournit des services d’hébergement. Un infogérant externe assure l’exploitation et la mise à disposition des assets et des services de l'EDC pour le Client. Une entité de production rattachée à la DSI IT Groupe, est garante de l'architecture et des solutions technique en vigueur au sein de l'EDC. L'EDC arrive en fin de vie (2026+ ) et l'ensemble des assets de l'EDC doivent être migrés vers la solution d'hébergement Cloud du groupe BNP Paribas.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes