Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php

Offre d'emploi
Admin Production (HDP CDP KUBERNETES)
Le bénéficiaire souhaite une prestation d'accompagnement dans le cadre de la maintenance et la construction des plateformes Hadoop Cloudera (HDP & CDP). Ainsi qu'un accompagnement au développement d'un ensemble des DATA Services et challenge des fonctionnalités à développer et les standards de travail. Vous contribuerez : · A l’installation de cluster · Au monitoring et à l’administration des outils Big Data · A l’administration de cluster · A l’upgrade des distributions et des composants Hadoop · A l’installation des différents composants sur Hadoop · Au support et à la résolution des problèmes N2 et N3 · A la mise en place d’environnements de développement et de test · A la sécurisation des clusters

Mission freelance
Data Science GenAI
Objet de la prestation Dans le cadre de transformation digitale du groupe et afin d’accélérer la chaîne de création de valeurs pour ses clients et employés, notre client cherche à sourcer une plateforme d’IA générative en remplacement de l’initiative interne en cours. Une équipe en mode task force est à constituer pour exécuter une campagne d’évaluation les capacités des plateformes du marché dont le rôle de Data Scientist Senior est un des piliers de la core team. Missions principales : • Contribuer à la conception de la grille d’évaluation • Livrer le tableau de comparaison des capacités des plateformes d’ingénierie de produits de l’IA génératives Les activités attendues sont les suivantes : • Conduire sous la supervision des Data Scientists internes le protocole d’évaluation et les use-cases métier • Participer à la synthèse des résultats • Apporter ses connaissances à la campagne de d’évaluation, notamment l’ajustement des protocoles lors des rétrospectives

Offre d'emploi
Data Science - Machine Learning Engineer
Les tâches sont: - Analyse et interprétation des ensembles de données (structurées et non structurées) sur les produits et services et l’environnement de travail des collaborateurs BNP pour identification des motifs et des tendances. - Développement et mise en œuvre des modèles de machine learning et des LLM pour détéction, prédictio et classification des données. L’objectif principale étant du datamining sur les tickets d'incidents des utilisateurs. - Construction et maintient des pipelines de machine learning pour les modèles d'IA/ML dans des environnements de production. - Collaboration avec les ingénieurs logiciels et les ingénieurs de données pour intégrer les modèles d'IA dans des applications évolutives. - Analyse et interprétation des résultats des modèles pour affination des algorithmes et amélioration des performances

Mission freelance
Consultant Anonymisation des données (IBM InfoSphere Optim, Informatica Dynamic Data Masking)
Bonjour, Nous recherchons un consultant senior en projet d’anonymisation de données et ayant un profil IT et faisant preuve d'une grande autonomie. La durée de la mission est de 6 mois sur Paris. Début de la mission : sous quinzaine Bonnes connaissances RGPD car le cadrage doit se faire en relation avec les DPO Expériences avec les outils IBM InfoSphere Optim, Informatica Dynamic Data Masking ou Talend Data Masking Prérequis : avoir déjà cadré et piloté un projet d’anonymisation de données dans le monde banque / assurance ou de santé avec un focus sur les données de tests. Responsabilités principales : ? Fournir des conseils d'expert sur la conformité de données, avec un accent sur les techniques et meilleures pratiques d?anonymisation des données. ? Développer et mettre en ?uvre des stratégies d?anonymisation pour garantir que les données personnelles soient efficacement anonymisées en conformité avec les exigences RGPD. ? Effectuer des évaluations régulières et des audits des activités de traitement des données pour identifier des pistes d'amélioration et assurer une conformité continue. ? Collaborer avec des équipes pluridisciplinaires pour intégrer les pratiques d?anonymisation dans les flux de traitement des données. ? Concevoir et dispenser des programmes de formation pour sensibiliser les collaborateurs à la conformité de données et aux techniques d?anonymisation. ? Suivre les évolutions des réglementations en matière de protection des données. ? Préparer et maintenir une documentation détaillée des processus d?anonymisation et des activités de conformité.

Offre d'emploi
Profil MOA Data & Finance
Nous recherchons un profil MOA ayant une expertise Data & Finance (finance de marché, asset management). Vous serez amené à travailler en étroite collaboration avec des utilisateurs ainsi que la filière SI. Les principales missions seront : - L’accompagnement des métiers - L’assistante de la filière SI - Proposer des conseils d’intégration technique Les différentes tâches que vous seriez amené à accomplir sont : · L’étude de cadrage et la mise en place du DataHub comprenant : 1. La mise en place de backlogs pour la Filière SI / métier pour créer un DataHub 2. La modélisation des objets métiers du DataHub, les spécifications de leur implémentation 3. La spécification des données devant être distribuées aux systèmes en aval, 4. La validation des modèles de données du DataHub (Data Vault / Business View) 5. La rédaction des spécifications de mapping des données pour alimenter ce DataHub et produire les extractions en aval et challenger si nécessaire les besoins fonctionnels 6. Une contribution au pilotage du sujet en support du responsable de périmètre · Le renfort de la gestion de patrimoine du Data Finance existant : 1. La participation au recueil, à l’analyse et à la rédaction des expressions des besoins des métiers en reporting 2. La rédaction des dossiers de spécifications fonctionnelles des besoins en données qui en découlent 3. La conception, et la recette de l’alimentation des données, 4. La conception de l’exposition des données à travers les DataMarts bigdata et les DataSources TABLEAU avec l’équipe 5. L’assurance de respecter la qualité et la cohérence des données utilisées dans les solutions de business intelligence, en veillant à ce qu'elles répondent aux normes de gouvernance des données et aux exigences de conformité, · La mise en place de rapports TABLEAU sur les volets Data Finance et / ou ALM : 1. L’analyse des besoins métier en matière de reporting, d'analyse de données et de visualisation, en étroite collaboration avec les parties prenantes internes 2. La conception et le développement des solutions de business intelligence en utilisant les outils TABLEAU et ALTERYX Designer, en mettant l'accent sur la création de tableaux de bord interactifs, de rapports analytiques et de flux de données automatisés 3. La collaboration avec les équipes Filière SI pour intégrer les solutions de business intelligence dans les processus métier existants et assurer une adoption efficace par les utilisateurs finaux 4. L’assistance des métiers à la réalisation des rapports sous TABLEAU 5. La fourniture d’un support technique et fonctionnel pour les utilisateurs finaux, y compris la formation et l'assistance pour l'utilisation des solutions de business intelligence 6. La conduite du changement auprès des métiers pour la prise en main des nouveaux rapports.

Mission freelance
Product Manager IA H/F
Fiche de Poste – Product Manager Innovation Nous recherchons un Product Manager expérimenté pour diriger le développement d’un produit numérique innovant intégrant des capacités d’intelligence artificielle (IA). Ce rôle nécessite une expertise en gestion de produit, méthodologies agiles, ainsi qu’une bonne compréhension de l’IA et de la data science. Résumé du Poste Au sein du Département Innovation Digitale, nous recherchons un Product Manager motivé pour superviser le développement produit. Le candidat devra avoir une forte capacité en product discovery, delivery et opération. Il/elle devra être capable de communiquer efficacement avec des parties prenantes situées à différents niveaux et dans diverses localisations. Missions Définir la vision et la stratégie du produit. Comprendre les besoins utilisateurs et business grâce aux données et aux retours d’expérience. Construire, ajuster et communiquer la roadmap produit. Rédiger des user stories et documenter les fonctionnalités développées. Collaborer avec les équipes de développement, les Product Designers et les spécialistes data. Garantir une qualité produit élevée et mener des phases de discovery lorsque nécessaire. Gérer les risques et piloter la performance du produit. Parties Prenantes Clés Digital Innovation Manager Business Owner Customer Success Manager Product Chapter Manager Équipe Innovation Digitale Autres équipes IT Conditions Financières & Contractuelles Possibilité d’internalisation au sein des équipes internes du client à long terme. Contrat de 6 mois renouvelable, à temps plein. Démarrage : ASAP Télétravail possible, à définir avec le client en fonction des besoins du projet. Locaux situés à Paris – St. Lazare. Déplacements occasionnels en Suisse (Zurich, Genève) à prévoir.

Mission freelance
Chef Projet Senior Data
Bonjour, Nous recherchons pour notre client grand compte un Chef Projet Senior Data pour renforcer la DSI data. Nous étudions prioritairement les candidatures adressées par mail à freelance à insyco . fr avec : Un argumentaire écrit répondant de façon ciblée au besoin ci-dessous Un CV à jour au format Word Une date de disponibilité Un tarif journalier Merci d’indiquer la référence MDE/CDP/4721 dans l'objet de votre mail Vos responsabilités Rédiger et contribuer à la constitution des documents de cadrage, d’exploitation et de pilotage Définir les indicateurs de performance, du monitoring et des tests Suivre les indicateurs, les communiquer et alerter en cas de difficultés Coordonner et définir les stratégies de mise en production Organiser et animer les ateliers, les réunions de suivi et autres rituels agiles Accompagner les équipes dans les différentes étapes des projets avec des objectifs de qualité, de performance et de respects des engagements Faciliter et coordonner les interactions entre les équipes et avec les différentes parties prenantes Assurer l’évolutivité, la sécurité, la stabilité des environnements

Mission freelance
Azure Data Architect
Data Cloud Architect , freelance, contrat de 24 mois, IDF Attractive opportunité pour un(e) Azure Data Architect chevronné(e) de rejoindre notre client final basé à La Défense sur un projet sensible à destination de millions de professionnels et de particuliers. Vous rejoindrez une équipe hautement performant pour participer à un ambitieux projet full Azure. Missions principales : · Concevoir et proposer des solutions sur les données en utilisant les technologies Azure Cloud. · Exécuter des restitutions documentaires dans les normes et l'architecture. · Concevoir et proposer des solutions sur Snowflake · Appliquer la stratégie " Data as a Service " dans le respect des bonnes pratiques architecturales · Concevoir et développer des APIs / Micro-services · Soutenir la stratégie Event Driven Architecture basée sur Azure Event Hub et Azure IoT Hub · Contribuer au catalogue de services pour l'enrichissement en libre-service · Contribuer à la modernisation et à la sensibilisation à la technologie au sein de l'équipe Data Capture et dans l'ensemble de l'organisation Data & Analytics. · Être le référent au sein de l'équipe pour tous les sujets liés au cloud. · Conduire des ateliers et faciliter la collecte des besoins · Soutenir les data engineer sur les sujets liés au cloud · Soutenir l'équipe de sécurité pour les sujets connexes · Contribuer à la feuille de route et à l'évolution du projet · Challenger et soutenir les fournisseurs externes · Collaborer étroitement avec les équipes IT, partenaires commerciaux, les partenaires externes et tous les membres de l'équipe d'intégration.
Mission freelance
Data Cloud Architect
Nous sommes à la recherche d'un Data Cloud Architect avec une solide expertise en technologies cloud, développement de microservices et l’architecture orientée événements (EDA). Le candidat travaillera en étroite collaboration avec les équipes IT Groupe/Zone, les partenaires métier, les prestataires externes et l’ensemble des membres de l’équipe d’intégration. Objectifs et livrables Concevoir et proposer des solutions Data basées sur Azure Cloud , en accord avec le framework Concevoir et proposer des solutions sur Snowflake Appliquer la stratégie Data as a Service en respectant les meilleures pratiques architecturales Développer des APIs et microservices pour enrichir notre écosystème de solutions Soutenir la stratégie Event Driven Architecture en s'appuyant sur Azure Event Hub et Azure IoT Hub Contribuer à l’enrichissement du catalogue de services en self-service Participer à la modernisation et à la montée en compétences technologiques de l'équipe Data Capture et de l’organisation Data & Analytics Être le référent cloud au sein de l’équipe Animer des ateliers et faciliter la collecte des besoins Assister les Data Engineers sur les sujets liés au cloud Apporter un soutien à l’équipe Sécurité pour les sujets associés Contribuer à la roadmap et à l’évolution de Data Capture Challenger et accompagner les prestataires externes

Offre d'emploi
Product Owner Big Data - Socle Hadoop
Missions principales : Vision produit et roadmap Définir la vision et la stratégie du socle Hadoop en lien avec les enjeux métiers. Construire et maintenir la roadmap produit en fonction des priorités business et techniques. Identifier les besoins utilisateurs et traduire les exigences en backlog. Gestion du backlog et priorisation Rédiger les user stories et critères d’acceptation. Arbitrer et prioriser les développements avec les équipes techniques. Animer les cérémonies Agile. Collaboration et suivi des développements Travailler en étroite collaboration avec les équipes Data, DevOps et Sécurité. Garantir la qualité des livrables et le respect des bonnes pratiques Hadoop. Assurer un suivi des KPI liés à l’usage et à la performance du socle Hadoop. Accompagnement des équipes métier Recueillir les besoins des équipes et leur proposer des solutions adaptées. Organiser des formations et des démonstrations sur les usages du socle Big Data. Gérer la communication autour des évolutions et des nouvelles fonctionnalités.

Offre d'emploi
Test Lead BI Data
Pour un de nos clients à paris La Défense, nous recherchons un/une Test Lead BI Data talentueux(se) et expérimenté(e) pour rejoindre notre équipe dynamique. Si vous avez une forte expertise dans le domaine du QA , du test API , du test IHM , et que vous êtes passionné par les technologies Azure DevOps , Power BI , et les solutions BI et Data , cette offre est faite pour vous ! Missions : Assurer le lead des activités de tests sur des projets BI et Data . Encadrer l’équipe de test, définir les stratégies de tests et garantir leur exécution efficace. Rédiger et exécuter des tests API , tests IHM et tests fonctionnels sur des applications BI . Tester des rapports BI et des tableaux de bord Power BI afin de valider leur précision, leur performance et leur conformité aux exigences métier. Mettre en place des processus de tests automatisés et manuels sur des plateformes telles qu' Azure DevOps . Suivre et analyser les résultats des tests pour garantir la qualité et la performance des solutions Data . Collaborer étroitement avec les équipes Data , BI et DevOps pour assurer une intégration fluide et une livraison continue des projets. Compétences requises : Expérience avérée en tant que Test Lead ou QA Lead dans le domaine BI et Data . Expertise dans le test de rapports BI , avec une expérience pratique sur des projets BI en production. Maîtrise des tests API , tests IHM et tests fonctionnels. Connaissance des outils Azure DevOps pour l’automatisation des tests et la gestion des versions. Expérience avec Power BI et les solutions BI pour l'analyse des données. Forte capacité à travailler en équipe et à encadrer des projets de test complexes. Excellentes compétences en communication pour interagir avec les équipes techniques et fonctionnelles. Profil recherché : Bac+5 en informatique ou domaine similaire. Minimum 5 ans d’expérience dans un rôle de Test Lead , avec une spécialisation BI et Data . Avoir déjà participé à des projets BI complexes, avec une expérience concrète dans le test de rapports BI et la validation des résultats. Une certification en QA ou gestion de projet serait un plus. Esprit d’analyse, rigueur, et capacité à prendre des décisions rapidement. Pourquoi rejoindre notre équipe ? Opportunité de travailler sur des projets innovants et à forte valeur ajoutée. Environnement de travail collaboratif et stimulant. Accès à des formations continues pour développer vos compétences. Si vous êtes passionné par l'assurance qualité, les technologies Data et BI , et que vous souhaitez jouer un rôle clé dans le développement et la réussite de projets ambitieux, n'attendez plus pour postuler !

Offre d'emploi
Data Engineer H/F
Plus qu'un métier, Itéa a pour vocation de déceler et révéler les bons profils avec une curiosité qui va souvent au-delà des compétences et parfois entre les lignes d’un CV. Aujourd’hui, nous recherchons pour l’un de nos clients, un Data Engineer H/F et vous présentons les points clés du poste : Poste en CDI Basé à Strasbourg ou Metz Secteur public Vos missions seront : Participer à l'audit fonctionnel et à la compréhension des besoins métiers Rédiger les spécifications et le cahier des charges Réaliser les MCP et MPD Mettre en place de contrôles de données et réalisation de tableaux de bords Participer aux réunions d'avancement Suivre et évaluer la bonne mise en place via des tests d'impacts Gérer la bonne mise à disposition de la documentation

Mission freelance
Responsable d’Application/Proxy Product Owner Data
Mission Responsable d’Application/Proxy Product Owner Data : Mission : Accompagner la refonte d’une application Data. Être le référent des applications Big Data. Analyser les besoins métiers et assurer la faisabilité. Piloter les projets et organiser les instances Agile. Coordonner les phases de réalisation et de maintenance. Optimiser les budgets et suivre la performance des applications. Compétences demandées : Qualités relationnelles et capacité à gérer nombreuses interactions Capacités à comprendre et traduire les besoins métiers en spécifications techniques Maitrise des bonnes pratiques de développement et méthodes agiles Capacités à Manager une équipe technique Connaissance des architectures des plateforme Big Data Connaissance de l’écosystème Microsoft Azure Data Factory, Azure Data Lake Store Connaissance Technologie autour de la data : Power BI, Spark, Airflow, Python, Scala… / Base de données : SQL, Postgré SQL (Paas) et modélisation de la donnée Connaissance des systèmes de gestionnaire de conteneur (Kubernetes,...) Connaissance des outils de déploiements : Jenkins, Ansible, Helm Dynamisme, autonomie et envie de découvrir des manières différentes/innovantes de faire.

Mission freelance
Architecte Cloud & Data
📍 Contexte de la mission Au sein de l’équipe Data Capture , nous recherchons un Architecte Cloud & Data expérimenté pour concevoir, développer et optimiser les solutions de gestion de données basées sur Azure Cloud et Snowflake . Ce rôle nécessite une solide expertise en architecture IT , en développement de microservices , ainsi qu’en Event-Driven Architecture (EDA) . Le candidat devra collaborer étroitement avec les équipes IT Groupe/Zone, les partenaires métiers, les prestataires externes et les membres de l’équipe Data & Analytics . Ce poste exige également un leadership fort, une autonomie avérée , ainsi qu’une capacité à documenter rigoureusement les solutions mises en place dans le cadre d’audits, de Proof of Concept (PoC) ou d’alignements architecturaux.

Offre d'emploi
Chef de Projet Big Data - Socle Hadoop
Missions principales : Gestion de projet Piloter les projets liés au socle Hadoop. Définir les plannings, les ressources et suivre l’avancement des livrables. Assurer la coordination entre les équipes Data, Infrastructure et Sécurité. Gérer les risques et proposer des plans d’action correctifs. Architecture et implémentation Superviser la mise en place et l’évolution et le développement des clusters Hadoop. Garantir la scalabilité et la performance de la plateforme. Assurer l’intégration d’outils et frameworks complémentaires. Veiller à la bonne gestion des droits d’accès et à la sécurisation des données. Relation avec les parties prenantes Accompagner les équipes métiers dans l’adoption des solutions Big Data. Assurer un reporting régulier auprès de la direction et des sponsors du projet.

Offre d'emploi
Développeur Big Data GCP - ENTRE 3 ET 6 ANS
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Objectifs et livrables Infos Complémentaires : Récupérer les données issues de sources externes • Utiliser la puissance du Datalake • Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. 💡Caractéristiques de la mission: Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le datalake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner. • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels Aspects Humains : • Grande capacité à travailler dans une équipe, en mode Scrum / Kanban. • Bonnes compétences relationnelles et grand sens de la communication (capacité à entrer dans le détail). • Sensible et informé des évolutions technologiques sur les piles logicielles pratiquées.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.