Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Data Architect Azure
🎯Inventifs Wanted Nous recherchons un architecte Data Azure ayant une expertise en architecture de données, chiffrage de projets Big Data et méthodologies Agile. Avec 8 ans d'expérience au minimum Travaillant sur plusieurs Projets Data; Participation à l’évaluation et à la livraison de composants Azure Conception et mise en œuvre d’architectures de solutions data sur Azure (data lakes, ingestion, service et consommation de données). Développement d’architectures Azure Data Lake pour stocker les données IoT et configurer Databricks. Implémentation de solutions utilisant Azure SQL Database, Azure Data Factory, et Azure SQL Managed Instance. Direction de projets cloud axés sur les services Azure et gestion de la qualité des livrables pour les projets de migration et d’infrastructure. Cadrage et chiffrage des divers projets Big Data Définition des solutions d’architecture Big Data dans le Cloud Azure Garantir la cohérence technique et la pérennité du système d’information. Mise en place de l'architecture des projets Big Data sur le Cloud Azure en rédigeant des Dossiers d’Architecture Logiciels (DAL) et en validant des Dossiers d’Architecture Technique (DAT). Migration des projets dans des nouvelles architectures (HDI vers AKS, Datalake Gen1 ver Gen2, AKS 1.19 vers AKS 1.) et concevoir de nouvelles solutions avec un monitoring de PaaS et une synchronisation des données de Prod et Hprod. Participation à des instances de : Design Authority, CoArch avec les Architectes Techniques, CAO (Comité d'Architecture Opérationnel) Validation de l'architecture du Product Incrément, à des réunions de qualification Validation avec le RSSI et au suivi de chantiers de résilience et de suivi FinOps. Conception de solutions BI avec Power Platform (Power BI, Power Automate, Power Virtual Agents). Création de rapports, tableaux de bord, et KPI avec Power BI, ainsi que gestion de la sécurité des données. Environnement Technique : Cloud Platform & Services : Azure, Azure API APPS, Azure DevOps, Azure Data Factory, Azure Data Lake, Azure Synapse Analytics, Azure Databricks, Azure IoT, Azure Stream Analytics, Azure SQL DB, Azure SQL Managed Instance Data & Analytics : Datalake, SQL, Power BI, Azure Synapse Analytics, Azure Databricks, Azure Data Lake, Azure Stream Analytics Automation & Scripting : PowerShell, CI/CD, Azure DevOps
Offre d'emploi
Data Engineer Java / Python / Scala / AWS
Le prestataire travaillera en tant que Data Engineer sur les différents systèmes de gestion de données, et devra supporter les développements sur les différentes plateformes dans les meilleurs délais (time to market), tout en garantissant leur qualité. Le rôle impliquera notamment les activités suivantes : - Maintenance évolutive et corrective sur le périmètre applicatif actuel - Définition et chiffrage des architectures et solutions cibles en réponse aux besoins de l'entreprise. - Définition et mise en œuvre de PoCs pour valider les solutions proposées. - Rédaction des spécifications techniques et du dossier d'architecture. - Développement de processus d'ingestion de données dans AWS. - Définition et diffusion des meilleures pratiques de développement - Développement de services de récupération de données stockées dans AWS/S3. - Gestion du cycle de développement, de l'infrastructure et des mises en production (DevOps). - Accompagnement des utilisateurs dans la prise en main des nouvelles fonctionnalités. Le contexte L'outil est basé sur un SGBD Postgresql et une couche de collecte de données Java. Le second outil repose sur une base de données Cassandra avec une ingestion via des automates écrits principalement en Python. Dans les deux cas, les données sont récupérées via une API .Net. Un site web en Angular et un addin Excel en .Net permettent aux utilisateurs de consulter/manipuler les données. Les données de ces bases opérationnelles sont synchronisées avec le datalake amazon afin d'alimenter les processus d'analyse de données qui utilisent la pile technique AWS.
Offre d'emploi
Consultant Data Gouvernance Collibra
Nous un recherchons un Data Manager - Consultant Data Gouvernance étant spécialisé en Gouvernance de données. Maîtrisant la Data Management et la Data Visualisation. Dans le cadre de la gestion et de la mise en gouvernance des données d'une Plateforme Data. Accompagnement des Uses Cases Data pour la définition de leur architecture data au sein de la plateforme dans le respect du paradigme du Data Mesh ; Identification, modélisation et documentation des Data-as-a-products exposés par chaque domaine de données ; Animation et contribution aux ateliers avec les correspondants RGPD (relais DPO) ainsi que les MOA pour l’identification et la classification des données sensibles et des données à caractère personnel ; Catalogage et taggage des données de couche Bronze dans le gestionnaire des métadonnées ; Accompagnement pour la prise en main de l’outil COLLATE (Open Metadata) par les ingénieurs de données afin d’effectuer le taggage des métadonnées de leurs domaines data respectifs conformément aux règles data management ; Participation aux cadrages des fonctionnalités techniques relatives au Data Management : gestion des schémas de données, gestion des contrats d’interface, minimisation des données, framework d’exposition des données … Conception et développement d’une newsletter Data Management sous forme d’un tableau de bord Power BI pour suivre l’évolution des principaux KPIs du patrimoine de données de la plateforme. Environnement Technique : Data Engineering : Databricks Data Storage & DB : AWS S3 Data Visualisation : Microsoft Power BI Data Management : OPEN METADATA, COLLIBRA, Data Galaxy / Data Catalog
Mission freelance
Ingénieur Fullstack Java (migration ElasticSearch vers OpenSearch)
Bonjour, Nous recherchons pour notre client grand compte un Ingénieur Full Stack Java pour rejoindre ses équipes dans le cadre de projets de migration Elastic Search 1.X vers OpenSearch 2.X et de développement des fonctionnalités en Java/Spring Nous étudions - prioritairement - les candidatures qui nous sont adressées par MAIL [freelance à insyco . fr] avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin CV à jour (format Word) Date de prochaine disponibilité Tarif journalier Merci d’indiquer la référence KTR/DEV/4551 en objet de votre message La prestation Réaliser la migration ElasticSearch V1.8 d'une application existante vers OpenSearch sur AWS Implémenter, développer et maintenir les fonctionnalités en JAVA/Angular 7+ Réaliser les tests unitaires et les tests de bout en bout avec l’appui du PO Participer à l’animation de l’équipe (daily meeting, atelier de partage) Produire les documents techniques correspondants (spécifications techniques) Travail dans un cadre agile Safe et participation aux rituels (PI planning, démo)
Mission freelance
Architecte Expert LeanIX (H/F)
Nous recherchons pour l'un de nos clients un.e Architecte Expert LeanIX spécialisé.e dans les solutions Cloud et On-Premise. Vous rejoindrez une équipe dédiée à la définition et la gestion de l'architecture des applications Corporate, en lien avec des équipes internationales. Cette mission couvre à la fois des environnements On-Premise et des solutions Cloud (notamment Azure), avec un rôle clé dans la stratégie de migration vers le Cloud. Missions et Activités Définir des solutions d'architecture technique : Proposer des architectures adaptées aux besoins des applications Corporate. Rédiger des documents techniques (HLD, schémas de modélisation). Cartographier le référentiel applicatif : Utiliser l’outil LeanIX pour cartographier les solutions d'architecture et alimenter le référentiel applicatif de l’entreprise. Accompagner la stratégie de migration vers le Cloud : Participer à la conception, au développement et à la maintenance des environnements Azure pour les applications Corporate. Documenter l’existant technique pour préparer les éventuelles migrations vers le Cloud. Assurer la continuité et la conformité : Garantir le respect des bonnes pratiques du groupe, notamment en matière de sécurité pour les applications Cloud. Suivre l'obsolescence des applications et proposer des solutions pour réduire la dette technique. Collaborer avec les équipes projets et IT : Servir de point de contact pour les équipes projets, les MOA, ainsi que les autres équipes IT (architecture d’entreprise, IT OPS, sécurité).
Offre d'emploi
Développeur Big Data (H/F)
Nous recherchons un développeur big Data pour l'un de nos clients. L'équipe assure les fonctions décrites pour les périmètres SI suivants : Les systèmes d’échange Groupe, les référentiels Groupe, la base de données Liquidité, les données communes aux Filières Finance et Risques et Conformité, l’accès agile et la valorisation des données et le pilotage des opérations relevant du périmètre du centre de solutions. Vos responsabilités : • Intégration des données de risques, de notations et d’autorisations • Validation des données selon les règles métiers • Normalisation des données brutes et mise à disposition de table Hive • Développement des requêtes pour le requêtage des données à travers les Apis (Trino) • Etude et optimisation des jobs Spark • Participation à mise en place des spécifications des besoins et écriture des fichiers de mapping des données • Gestion d’équipe : prise de décisions techniques, suivi hebdomadaire, attribution des tâches • Participation et animation de réunions
Mission freelance
Data Engineer 6
Contexte de la mission : Vous interviendrez en tant que Data Engineer au sein d'une cellule de Développement de notre client un acteur majeur du trading de l'énergie. Tâches à réaliser : Contribution aux Guidelines (utilisation de la plateforme et pratiques de développement et de déploiement) Conception et réalisation de solutions (développement) pour répondre aux besoins prioritaires (de type analyse et restitution de données) Rédaction des Dossiers de conception et d’exploitation des solutions délivrées Veille technologique et proposition de solutions innovantes pour exploiter les données
Mission freelance
Data Business Analyst F/H
METSYS est un intégrateur de solutions Microsoft, Cloud & Cybersécurité. Nous recherchons pour l'un de nos clients grands-comptes dans le secteur assurantiel un.e Data Business Analyst (F/H) pour une mission de longue durée à Courbevoie (92), pour un démarrage prévu fin octobre. Dans le cadre de cette mission, vous seriez amené.e à concevoir et à modéliser un socle fonctionnel pour permettre l'intégration de données tierces dans la data warehouse de notre Client, et ce au sein d'un environnement international.
Offre d'emploi
Référent Power BI
Expertise technique : Assurer la maîtrise technique de la plateforme Power BI. Être le référent technique pour l'ensemble des utilisateurs. Développer et maintenir des rapports, des tableaux de bord et des visualisations de haute qualité. Optimiser les performances et la scalabilité des modèles de données. Accompagnement des utilisateurs : Former et accompagner les utilisateurs sur les différentes fonctionnalités de Power BI. Recueillir et analyser les besoins des utilisateurs pour adapter les solutions. Assurer un support de niveau 2 et 3. Gouvernance des données : Contribuer à la définition et à la mise en œuvre d'une gouvernance des données cohérente. Garantir la qualité, la fiabilité et la sécurité des données utilisées dans Power BI. Innovation : Être force de proposition pour l'évolution de la plateforme Power BI et l'intégration de nouvelles fonctionnalités. Suivre les évolutions technologiques et les meilleures pratiques en matière de BI.
Mission freelance
Chef de projet Web
Recherche d’un Chef de Projet Web Expérimenté dans le Secteur des Mutuelles Nous recherchons un chef de projet Web expérimenté , avec une solide connaissance du secteur des mutuelles. Vous devez maîtriser une large gamme de compétences : fonctionnelles, techniques, développement, et gestion de projet. Il s'agit d'une mission longue durée, avec des enjeux stratégiques. Objectifs de la mission : Votre rôle consistera à piloter les évolutions d’un site Web développé par un prestataire externe. Vous interviendrez à différents niveaux clés : Organisation des releases : Gestion des demandes fonctionnelles et techniques, évaluation de leur maturité pour une mise en production, et définition du contenu de chaque release. Suivi des développements : S’assurer de l'avancement des travaux réalisés par le fournisseur. Supervision des livraisons : Gestion des livraisons en cours ou à venir, avec un suivi rigoureux des étapes jusqu'à la mise en production (installation, validation, go live).
Mission freelance
DATA ENGINEER
- Construction des pipelines de données pour collecter, transformer et traiter des données dans notre Data Lake sur Azure - Développement de notebooks de traitement avancés des données sur Databricks (Spark, langages Scala, SQL et Python) - Conception et modélisation des données au niveau du Data Lake (format Parquet, Delta) - Réalisation des tests unitaires - Rédaction de documentation technique (Dossier d'Analyse Technique, release delivery note, ….) - Préparation de package pour livraison en CI/CD avec les équipes DevOps - Réalisation des activités de maintenance corrective et évolutive - Participation aux cérémonies agiles (Sprint Planning, Daily, Spring Review, Demo,…)
Offre d'emploi
Développeur front-end REACT
SI FREELANCE TJ MAXIMUM 440 NON NÉGOCIABLE !! Nous recherchons pour l’un de nos clients dans le secteur de l’énergie un développeur front-end React JS pour une mission longue (une durée de 24 mois renouvelable). Le client est localisé à La Défense. Vos principales missions sont les suivantes : Participer à la maintenance évolutive et corrective du front de l’application Développer des tests unitaires pour les développements réalisés Participer aux revues de codes Être acteur lors des démonstrations et faire une présentation précise des nouveautés
Offre d'emploi
Data Engineer h/f
Missions principales : En tant que Data Engineer, vous serez responsable de la conception, de la construction et de la maintenance des infrastructures de données nécessaires à la collecte, au stockage, à la transformation et à l'analyse des données de l'entreprise. Vous travaillerez en étroite collaboration avec les data scientists, les chefs de projet data et les équipes métiers pour garantir la qualité et la disponibilité des données. Vos missions incluent : Conception et Développement de Pipelines de Données : Concevoir, développer et déployer des pipelines de données pour collecter, traiter et transformer les données provenant de diverses sources (ERP, CRM, IoT, capteurs sur chantiers, etc.) ; Assurer l’ingestion, la transformation et le nettoyage des données dans un Data Lake ou Data Warehouse ; Mettre en place des processus d'automatisation pour garantir des flux de données fiables et sécurisés. Gestion et Maintenance de l’Infrastructure Data : Participer à la mise en place et à la gestion des infrastructures cloud (AWS, Azure, Google Cloud) pour le stockage et le traitement des données ; Assurer la disponibilité et la performance des plateformes de données (bases de données, Data Lake) Surveiller et optimiser les performances des systèmes de stockage et de traitement des données. Qualité et Sécurité des Données : Mettre en œuvre les pratiques de gouvernance des données pour garantir leur qualité, leur conformité (RGPD) et leur sécurité ; Effectuer des contrôles de qualité des données pour détecter et corriger les anomalies ; Collaborer avec les équipes sécurité pour garantir la protection des données sensibles. Support aux équipes Data Science et BI : Travailler en collaboration avec l’équipe data pour préparer les jeux de données nécessaires à la modélisation et à l’analyse ; Optimiser les requêtes et les modèles de données pour faciliter les analyses et la visualisation (ETL/ELT) ; Accompagner les équipes BI dans la conception de tableaux de bord et de rapports à partir des données disponibles. Veille Technologique et Innovation : Rester informé des dernières évolutions technologiques dans le domaine de la data engineering (outils, langages, méthodologies) ; Proposer des solutions innovantes pour améliorer les architectures de données et répondre aux nouveaux besoins métiers ; Participer à des projets de R&D pour explorer de nouvelles approches en matière de stockage et de traitement de données.
Mission freelance
Coach Agile (H/F)
Notre client dans le secteur Agroalimentaire recherche un/une Coach Agile H/F Description de la mission: Notre client recherche un coach agile expérimenté en freelance. Dans le cadre de sa transformation vers un mode de fonctionnement Agile et l'adoption de l'état d'esprit Agile, le Centre Lean Agile et Design accompagne les managers et les équipes de notre client à progresser et adopter l'Agilité. Pour renforcer son dispositif actuel, nous recherchons un(une) Coach Lean & Agile ayant une expérience significative dans l'accompagnement de transformations d'entreprise vers une organisation en mode produit. Principales attentes : -20% du temps : Participation active à la vie du Centre Lean Agile et Design : partage d'expérience, co-construction de pratiques, partage de l'avancement des accompagnements - 20% du temps : Co-Construction et Dispense de "formations" : aide à la co-construction et à la dispense de petits modules d'acculturation ou formation à des pratiques sur l'Agilité orienté Delivery (principalement pour des Agile Master, et des Product Owner), Product Management et Product Delivery (pour des Product Owner, des Product Manager) - 60% du temps : Accompagnement des manager et des équipes avec un focus particulier sur l'articulation des rôles de Manager, Agile Master et Product Owner, la bonne compréhension et la bonne mise en œuvre de ces rôles. Compétences Accompagnement d'équipes dans le passage à un fonctionnement Mode Produit : build & run dans la même équipe, mode de fonctionnement Lean et Agile, Il faudra accompagner à la fois, les équipes et les managers DSI et métier Livrables : - Capitalisation de pratiques - Synthèse des actions d'accompagnement (Contrat de Coaching, Objectifs, Suivi de l'évolution de la maturité, ...) Compétences / Qualités indispensables : Framework Lean et Agile : Lean, Lean SixSigma, Kanban, Scrum, - Framework Agile à l'échelle : SAFe, Scrum@Scale, ... Informations concernant le télétravail : 2 jours de TT / semaine
Mission freelance
DATA INGNEIEUR
Description détaillée : -Construction des pipelines de données pour collecter, transformer et traiter des données dans notre Data Lake sur Azure -Développement de notebooks de traitement avancés des données sur Databricks (Spark, langages Scala, SQL et Python) -Conception et modélisation des données au niveau du Data Lake (format Parquet, Delta) -Réalisation des tests unitaires -Rédaction de documentation technique (Dossier d'Analyse Technique, release delivery note, ….) -Préparation de package pour livraison en CI/CD avec les équipes DevOps -Réalisation des activités de maintenance corrective et évolutive -Participation aux cérémonies agiles (Sprint Planning, Daily, Spring Review, Demo,…
Offre d'emploi
Data Engineer
La Prestation s’effectuera au sein de l’équipe « IS Data Factory » d’une vingtaine de personnes composée de : Data Engineer, travaillant majoritaire à l’alimentation du Datawarehouse d’entreprise Data Architect travaillant sur les évolutions de la gestion des données au sein de l’entreprise. Les données sont principalement gérées au sein - D’un datawarehouse d’entreprise organisé autour de plusieurs instances de base de données ORACLE - D’un Datalake s’appuyant sur l’offre cloudera on premise L’équipe est en charge des évolutions, du support et de la maintenance du datawarehouse. Dans ce contexte, la prestation consiste à intervenir sur le POC (Proof of concept) en étroite collaboration avec l’administrateur du Data Lakehouse et à mettre en œuvre et valider l’infrastructure de plateforme de données. Dans ce cadre, le Prestataire contribuera et aura la responsabilité de : Ø POC Developpement : o Conception et développement du POC pour notre Data Lakehouse ouvert en utilisant les dernières technologies (Cloudera, NoSQL, NiFi, Apache Iceberg, DBT, Superset, etc.) pour répondre aux exigences de l’entreprise, Ø L’intégration des données : o Mise en œuvre des pipelines d’ingestion et d’intégration de données à partir de diverses sources tout en s’assurant la qualité et la cohérence des données. Ø Du processus ETL/ELT: o Développement et optimisation des processus ETL/ELT pour soutenir les besoins de data warehousing et d’analyse. Ø L’optimisation de la performance: o Analyse et optimisation de la performance des flux de données et des requêtes. Ø La collaboration : o Travail en étroite collaboration avec l’administrateur du Data Lakehouse pour assurer l’intégration et la fonctionnalité de l’infrastructure du Data Lakehouse. Ø La documentation : o Création et maintenance de documents techniques sur les pipelines de données, o l’architecture o les flux de travail. Ø L’innovation: o Rester à jour avec les technologies émergentes et les meilleures pratiques pour améliorer continuellement la plateforme de données.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.