Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Bigdata Engineer Cloud
💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket
Offre d'emploi
Business Analyst Asset Management STATPRO
Contexte / Objectifs : Projet en cours d'implémentation d'un outil de performance. Un accompagnement est nécessaire afin d'assurer les tâches suivantes : Collecte du besoin auprès de l’équipe Performance Tenue des workshops avec les parties prenantes pour prioriser et analyser la faisabilité du besoin + recensement des règles de gestion associées au besoin Rédaction des spécifications fonctionnelles Synthèse sur l’avancement du projet + Interactions avec l’éditeur dans le cadre du suivi de l’implémentation Mise en place/mise à jour de la documentation encadrant le process La mission nécessitera une coordination entre l'équipe performance et l'équipe developpement, principaux interlocuteurs sur le projet. Expertises spécifiques : Solides connaissances fonctionnelles sur les métiers de la gestion d'actifs. Le consultant doit avoir une expertise en data-management, notamment pour identifier les points de données nécessaires aux différents processus. Une expérience/expertise dans la contribution/attribution de performance est un véritable plus (l'implémentation concerne l'outil Statpro de Confluence) Le consultant doit être hybride, c'est à dire suivre le projet avec l'éditeur mais également les équipes internes mais également avoir la casquette Business analyst dans le cadrage des besoins ainsi que la rédaction des spécifications. Grande autonomie et excellente présentation.
Offre d'emploi
Chef de projet DATA
Le candidat sera amené à piloter plusieurs projets, dont celui sur le décommissionnement d'un l'infocentre. - Gestion de l’obsolescence du SID - Assurer la continuité de service en mettant à disposition les tables encore utilisées sur la plateforme data cible La mission consiste à : - Animation des équipes projets - Planification dans ITBM - Suivi des consommés et des restes à faire - Coordination des acteurs MOE - Préparation et présentation dans les instances de la gouvernance projets - Reporting et alertes projets
Mission freelance
Data scientist
PAS DE SOUS-TRAITANCE // MERCI Nous recherchons un Data Scientist pour renforcer une équipe Data & Innovation dans le cadre d’un projet. Le rôle implique la collaboration avec l’équipe technique et les ingénieurs Data pour développer et mettre en production des modèles prédictifs et explicables. Une XP en startup est fortement appréciable Les principales missions incluent : • Analyse de données énergétiques enrichies (tarifs de l’énergie, données météo, intensité carbone, travaux d’efficacité énergétique, etc.) pour identifier des insights métiers pertinents. • Proposer, construire et implémenter de nouvelles analyses basées sur les besoins des clients internes et externes. • Documenter les recherches et les modèles développés. • Appliquer des algorithmes de Machine Learning adaptés (régressions, arbres de décision, random forest, XGboost, etc.) à des données structurées et semi-structurées. • Participer à l’amélioration continue des modèles en termes de performance et d’explicabilité. • Collaborer avec les ingénieurs pour intégrer les modèles dans les applications. • Mettre en place des systèmes de détection d’anomalies et des alertes en temps réel.
Offre d'emploi
Data Analyst (H/F)
Les missions d'un Amiltonien : En tant que Data Analyst (H/F), vous serez en charge des missions suivantes : - Cadrer et challenger les besoins de nos métiers - Elaborer la stratégie, analyser, concevoir et développer les traitements de données - Optimiser les flux existants - Contrôler la qualité des données - Analyser les incidents de production et apporter des solutions La stack technique : - Technologies : ETL ODI / Sql et PL SQL (Oracle) - Référentiels : JIRA / Service Now - Maitrise Data Visualisation (Power BI)
Mission freelance
LEAD TECHNOLOGIQUE
Le consultant sera le référent technologique sur les projets Innovation dont il aura la charge. Il garantira leur faisabilité, les développera et assurera leur industrialisation et leur intégration avec les systèmes d’information et les équipes Contribuer aux phases d’idéation et de définition de nouveaux concepts innovants, notamment en évaluant leur faisabilité technique. Développer des Proofs of Concept (POC) et des prototypes pour matérialiser ces concepts et les tester auprès d’utilisateurs finaux. Prendre une part active aux choix techniques et technologiques des projets innovation de son portefeuille. Évaluer les solutions technologiques proposées par des acteurs externes (startups, ...) qui permettraient de réaliser les projets en Open Innovation. Veiller à ce que les prototypes et projets réalisés puissent être transmis à d’autres équipes de la DSI et industrialisés avec un effort minimum. S’assurer que les projets innovation respectent les bonnes pratiques technologiques et de sécurité de l’environnement SI Effectuer les ateliers de passation vers d’autres équipes, réaliser le support le cas échéant. Effectuer une veille sur les nouvelles technologies et solutions logicielles pertinentes dans le cadre des priorités du Lab. Participer à la définition et à l’amélioration des processus de l’équipe Conception et mise en place d’architectures SI complexes. Documentation (Diagramme de flux etc). Design logiciel. Expérience requise en environnement Cloud PaaS, IaaS (Amazon). Très bonnes compétences en développement backend et mise en place d’APIs + REST. A l’aise avec le Data processing / engineering. AWS (S3/API Gateway/Lambda/IAM, DynamoDB ou Cognito ou RDS). Terraform (bon niveau demandé). Python 3 (bon niveau demandé). SQL (particulièrement jointures). Linux (niveau intermédiaire). Bases de Data Science. Librairie Python Boto3 (AWS). Git. ANGLAIS REQUIS
Mission freelance
Chef de projet Web
Recherche d’un Chef de Projet Web Expérimenté dans le Secteur des Mutuelles Nous recherchons un chef de projet Web expérimenté , avec une solide connaissance du secteur des mutuelles. Vous devez maîtriser une large gamme de compétences : fonctionnelles, techniques, développement, et gestion de projet. Il s'agit d'une mission longue durée, avec des enjeux stratégiques. Objectifs de la mission : Votre rôle consistera à piloter les évolutions d’un site Web développé par un prestataire externe. Vous interviendrez à différents niveaux clés : Organisation des releases : Gestion des demandes fonctionnelles et techniques, évaluation de leur maturité pour une mise en production, et définition du contenu de chaque release. Suivi des développements : S’assurer de l'avancement des travaux réalisés par le fournisseur. Supervision des livraisons : Gestion des livraisons en cours ou à venir, avec un suivi rigoureux des étapes jusqu'à la mise en production (installation, validation, go live).
Offre d'emploi
Architecte Data
Visian recherche pour un de ses clients grand compte un profil Architecte Data . Contexte : Au sein de la direction Architecture de notre client grand compte, l'Architecte de Data conçoit et met en œuvre l'architecture et la stratégie de données d'une organisation. Dans le cadre d'un programme de transformation numérique initié par le groupe, vous serez impliqué dans la conception et le soutien à la construction de l'environnement DATA 4.0. À cette fin, en tant qu'architecte data, vos principales missions seront de : Contribuer à l'architecture, à la mise en œuvre et à la pérennité de l'entreprise du point de vue technique et fonctionnel, en accord avec les architectes/expert IT de chaque domaine de compétence (Stockage, Réseau, etc.) afin de soutenir les données de l'entreprise et leur utilisation ; Formaliser la description des bases de données (modèle de données métiers et dictionnaire de définition) et s'appuyer sur le responsable des données ; Orienter les pratiques des Data Engineers de la plateforme (ingestion et exposition des données), ainsi que les responsables des pratiques en gestion des données, Dataviz et ingénierie ML avec la plateforme de données, responsables respectivement de la mise en œuvre de la gouvernance des données, de la dataviz et de la science des données ; Soutenir les projets informatiques (architecture) dans la définition des besoins métiers concernant la description et l'utilisation des données (concepts métiers, exigences métiers, utilisation des données dans les algorithmes, modèles de données, flux de données, etc.) et animer l'urbanisation des données du SI de l'entreprise ; Concevoir les produits et solutions de données soutenus par les équipes de la fabrique numérique (Data Factory) (BI, self-service, IA, IAGen, gestion des données) en fonction de la stratégie technique et industrielle du département IT en ce qui concerne les problématiques de données ; Orienter les projets en mettant en place et en appliquant des normes et standards applicables à la construction des données et à leur description, en particulier en utilisant le dictionnaire de données et les modèles métiers ; Porter la vision technique, en interne comme en externe, et encourager ses développements avec les équipes en ligne avec la stratégie globale ; Contribuer à la qualité du contenu du dictionnaire de données et des modèles de bases de données dans le temps, et mettre en place des outils pour garantir la pérennité des données Assurer la gestion des changements de données (formation à l'utilisation des données, communication), mais aussi sur les évolutions en matière de normes et standards de données, sur l'évolution du dictionnaire et des modèles de données.
Offre d'emploi
Consultant(e) Data / Big Data
En tant que Consultant(e) AMOA Big Data / Data , vous accompagnez la modélisation et à la mise en œuvre des solutions décisionnelles (reporting stratégique, opérationnel, etc.) la mise en œuvre des usages concernant les données des services Solidarités et Droit à l’information. Les solutions à mettre en œuvre le seront sous une architecture technique Hadoop/Hive ; les outils de manipulation des données : Tableau et Alteryx. De plus, vous participez à l’enrichissement des dictionnaires de données sur le périmètre concerné ainsi qu’à la modélisation des datamarts décisionnels répondant aux cas d’usages du projet. Les activités seront menées en méthode dite agile . La durée des sprints est de trois semaines. Le nombre de sprints sera de 9. À ce titre, vous aurez pour rôle : -Accompagnement et interface entre Métier et MOE sur les solutions d’architecture data mises en place -Animer les réunions avec les utilisateurs et l’équipe de développement (une réunion par semaine, de 5 à 10 participants par réunion) -Recueillir et restituer les indicateurs -Tâches attendues pendant un sprint : Analyser les user-stories prises en compte dans les sprints et animer les ateliers métiers associés ; Modélisation fonctionnelle des objets pivots et des datamarts ; Préparer et conduire les recettes -Réalisation d’un mode opératoire, façon Tutoriel, pour que les métiers puissent construire des rapports en autonomie. Cela pourra être sous forme de document de type Powerpoint avec un maximum de 30 slides -Réalisation/automatisation de rapports et d’indicateurs sur demande des métiers -Accompagnement des métiers dans l’utilisation de la solution S.I mise en œuvre -Réalisation de documents sur le fonctionnement de l’outil à destination de la MOA. Les documents seront sous format de type Word. Ils devront être exhaustifs en termes de périmètre de fonctionnalités mise en œuvre.
Mission freelance
Data Analyst senior
- Communication avec les équipes Participer aux ateliers d’expression des besoins internes. Comprendre les problématiques métiers et les traduire de manière analytique. Etudier / réaliser le cahier des charges du rapport de métrologie attendu. - Analyser et explorer les données de plusieurs sources (BDD SQL, Active Directory, Azure Cloud, Microsoft Graph connectors …). Réaliser les tableaux de bord. Réaliser des tests statistiques sur les données. - Documentation / Transfert de connaissance Réaliser le Dossier d’Architecture Technique des cas d’usage. Amender les Dashboard avec les explications pour accompagner l’utilisateur sur la compréhension de la donnée. Accompagner les collaborateurs sur la compréhension des calculs du Dashboard.
Offre d'emploi
Data Scientist IA Factories
Le Bénéficiaire souhaite une prestation d´accompagnement dans l´objectif d´assurer un service de data science au sein d´une équipe responsable pour la gestion de données de BCEF. Les missions sont: - Réalisation d'algorithme de datascience. Hard skills: - Python, Pandas, Scikit Learn, XGBoost, timeseries - Profil expérimenté Machine Learning - Si possible expérience sur de la planification de workforce / stock - Git Soft skills: - Autonomie - Posture permettant d'accompagner la montée en charge d'une ressource junior
Mission freelance
Architecte DATA 2
Contexte de la mission : Eclairage des solutions applicatives possibles en réponse au besoin métier remonté lors d’une Etude de faisabilité projet (EF). Identification des scénarii en cohérence avec l'existant Data du client, projection de l'effort à faire, accompagnement de l'architecte et du pilote projet sur l'EF. MISSIONS : Description des scénarii Livrable Dossier d'architecture sur le volet DATA Eclairage des volets risque et sécurité
Offre d'emploi
CONSULTANT REPRISE DE DONNEES ERP F/H - AIX-EN-PROVENCE (13) - 100% PRESENTIEL
VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez notre client en qualité de Consultant Reprise de Données ERP F/H. A ce titre, vous serez en charge de : Analyser les besoins liés à la reprise des données Rédiger les spécifications fonctionnelles détaillées et réaliser le mapping des données Source – Cible Accompagner les développeurs Analyser les données source, qualité et besoin de transcodification Réaliser les tests nécessaires Le poste est basé à Aix-en-Provence (13) . Une présence sur site à 100% est impérative.
Mission freelance
Data et ML Ops - secteur bancaire CIB - 7 - 10 ans d'expérience
L'entreprise cherche à renforcer ses équipes techniques dans le cadre de projets d'innovation en Intelligence Artificielle (IA) Générative et MLOps. L'objectif est de moderniser les systèmes d'information, particulièrement pour le département Capital Markets, en intégrant des solutions basées sur des modèles d'IA performants. L'équipe IT globale est responsable de la conception, du développement et de la production des infrastructures techniques. Un focus particulier est mis sur la mise en place de solutions MLOps pour améliorer l'efficacité et la scalabilité des processus d'apprentissage automatique. Les projets IA Générative et MLOps sont au cœur de la transformation numérique de l'entreprise. Ils visent à exploiter les données des marchés financiers pour fournir des solutions innovantes, et alignées avec les objectifs stratégiques de l'organisation. Conception, développement et optimisation de modèles IA, y compris des modèles d'IA Générative pour répondre à des problématiques spécifiques des marchés financiers. Mise en œuvre des meilleures pratiques MLOps (intégration continue/déploiement continu, automatisation des pipelines de données) via des outils tels que GitLab, Docker, Kubernetes, CI/CD. Sélection des modèles IA les plus adaptés pour répondre aux besoins métiers spécifiques, incluant le traitement des données des marchés financiers. Supervision de la scalabilité et de l'efficacité des modèles IA déployés, en assurant leur performance dans des environnements à grande échelle. Mise en place de processus de monitoring avancé pour suivre les performances des modèles et réagir rapidement aux anomalies. Documentation des solutions IA et MLOps et formation des équipes internes pour garantir une utilisation et une maintenance adéquates des systèmes. Collaboration avec les équipes métiers et IT pour comprendre les enjeux spécifiques et proposer des solutions techniques adaptées. Support des solutions mises en place pour garantir leur alignement avec les objectifs stratégiques de l'entreprise et des besoins métiers.
Mission freelance
Expert IICS
Nous recherchons un Expert IICS Profil Data Engineer expert IICS avec une connaissance de Snowflake Démarrage en novembre Localisation : de préférence Bordeaux ou Paris, autre lieu à étudier au cas par cas TT : en fonction de la localisation Activité principale : Création et maintenance de pipeline d'alimentation Compétence IICS : Expertise Compétence Snowflake : Connaissance Anglais courant obligatoire -- Nous recherchons un Expert IICS Profil Data Engineer expert IICS avec une connaissance de Snowflake Démarrage en novembre Localisation : de préférence Bordeaux ou Paris, autre lieu à étudier au cas par cas TT : en fonction de la localisation Activité principale : Création et maintenance de pipeline d'alimentation Compétence IICS : Expertise Compétence Snowflake : Connaissance Anglais courant obligatoire
Offre d'emploi
Data Engineer
Nous recherchons deux Ingénieurs Data — Medior — pour concevoir, implémenter et optimiser des solutions de données basées sur le cloud. Les candidats idéaux travailleront sur des plateformes de données modernes comme Snowflake et des outils comme DBT et Wherescape RED pour soutenir nos initiatives de data warehouse, y compris l'adoption de l'architecture Data Vault 2.0. Principales responsabilités : Concevoir et implémenter des processus ETL pour migrer des données d'Oracle vers Snowflake en utilisant DBT. Développer des solutions de données cloud en utilisant des outils comme DBT pour la transformation des données. Travailler avec le cadre Data Vault 2.0 pour concevoir des solutions de data warehouse évolutives. Collaborer avec des équipes interfonctionnelles pour implémenter des pipelines CI/CD pour les workflows ETL. Rédiger et maintenir une documentation complète pour les processus ETL et les pipelines de données. Compétences et exigences : Outils : DBT, Wherescape RED, Snowflake, Oracle, Azure Synapse. Programmation : SQL, Python, ou d'autres langages de programmation modernes similaires. Contrôle de version : Maîtrise de Git pour le développement en mode trunk-based. Tests : Expérience en tests d'intégrité des données, de performance et de régression. Connaissances : Data Vault 2.0, concepts modernes de data warehousing. Résumé du rôle : Le rôles est axés sur la création de pipelines de données efficaces et évolutifs en utilisant des technologies cloud telles que Snowflake et DBT. et est davantage concentré sur l'exécution pratique et la livraison des projets. Pour postuler, envoyez votre CV et vous contacterons dans les plus brefs délais.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes