Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Data Engineer SQL (FH)
Notre client bancaire recherche un Data Engineer SQL confirmé (6 à 9 ans) pour rejoindre ses équipes IT. Le projet supporte plusieurs Business Lines, telles que Global Market, CCO, Compliance, et On Boarding, avec des équipes Agile localisées à Paris (80%) et Porto (20%). La mission est centrée sur l'impact de la migration vers Windows 11, incluant des modifications des process techniques, des optimisations, et le support niveau 2. Objectifs de la mission : Le consultant sera intégré dans le chapter « Data & BI Client - Data Engineering », et devra : Assurer la maintenance évolutive des flux de données : SQL : Modélisation, transformation des données, calculs d’indicateurs. Ordonnancement des traitements via Ctrl-M. Gestion des flux de données (fichiers plats, XML, web services). Optimisation SQL. Gérer l'impact de la migration Windows 11 : adaptation des outils, processus et pipelines. Développer et implémenter des corrections et améliorations techniques. Réaliser des tests unitaires et participer aux recettes. Participer au support opérationnel (niveau 2) et à la méthodologie Agile-Kanban (daily meetings, rétrospectives). Contribuer à la rédaction de documentations techniques. Participer à des astreintes techniques.
Offre d'emploi
Data Analyst/Engineer H/F
Votre 1er projet : Vous accompagnerez notre client, un grand compte historique de la région. Votre intégrerez une équipe dédiée à la conception d’un outil dédié à l’autonomie des clients. Dans ce contexte, nous recherchons un Analytics Engineer ou BI Engineer pour soutenir l’activité de notre client. Vous travaillerez dans environnement international et anglophone avec des standards de haut niveau. Vos missions : · Construire et optimiser les pipelines de données dans notre entrepôt de données · Effectuer des analyses pour répondre aux différentes opportunités commerciales · Construire, automatiser et maintenir des rapports avec nos outils BI. · Assurer la cohérence et la qualité des données transmises en mettant en œuvre la stratégie de gestion des données convenue. Vous vous y voyez déjà, pas vrai ? Ça tombe bien, ce n’est pas fini !
Mission freelance
Data engineer (H/F)
Le profil interviendra au sein de la direction informatique , dans le service Data Analytics. Il intégrera une Squad Data : Au cours de sa mission, le consultant : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data Profil avec un minimum de 5 ans d'expériences.
Offre d'emploi
Data Analyst orienté Business Object
Ce que vous ferez : -Collecte et analyse des besoins métier -Création de rapports opérationnels et de tableaux de bord (Power BI) -Analyses ad hoc utilisant des techniques de modélisation statistique avec R ou Python -Analyse de la performance métier avec définition et calcul des KPI pertinents -Présentation et communication des résultats d’études à l’équipe métier En s’appuyant sur une solide formation en statistiques, le Data Analyst formalisera les problématiques métier sous forme de modèles de données et de visualisations de données : -Ajustement saisonnier sur les séries temporelles -Modèles de régression (OLS / Logistique) -Définition des groupes de contrôle (échantillonnage) -Gestion avancée des données / encodage
Offre d'emploi
Ingénieur Infra Cloud (AZURE/ GCP)
Rôle principal : Concevoir, déployer et maintenir les infrastructures cloud robustes et évolutives. Collaborer étroitement avec les équipes de développement logiciel, les équipes techniques et les architectes pour garantir des solutions performantes et sécurisées. Déploiement d’architectures cloud : En collaboration avec les architectes, l’ingénieur participera à l’élaboration des architectures cloud robustes en utilisant des services tels qu’Azure ou GCP. Le déploiement se fera via des outils comme Terraform et Ansible, qui permettent de décrire l’infrastructure en code et de la déployer de manière reproductible. Gestion des ressources cloud : L’ingénieur sera responsable de la création, de la configuration et de la gestion des ressources cloud. Il/elle devra surveiller les performances, optimiser les coûts et s’assurer que les ressources sont correctement dimensionnées. Intégration dans les pipelines CI/CD : Travaillant en étroite collaboration avec les équipes de développement, l’ingénieur devra intégrer les meilleures pratiques d’infrastructure dans les pipelines CI/CD. Cela peut inclure l’automatisation du déploiement, la gestion des secrets, la mise en place de tests d’intégration, etc. Principales tâches : Résolution des problèmes d’infrastructure : Diagnostiquer et résoudre les problèmes liés à l’infrastructure cloud. Gestion des ressources cloud : Création, configuration et gestion des ressources cloud. Surveiller les performances, optimiser les coûts et s’assurer que les ressources sont correctement dimensionnées. Intégration dans les pipelines CI/CD : Intégrer les meilleures pratiques d’infrastructure dans les pipelines CI/CD. Cela peut inclure l’automatisation du déploiement, la gestion des secrets, la mise en place de tests d’intégration, etc. Résolution des problèmes d’infrastructure : Diagnostiquer et résoudre les problèmes liés à l’infrastructure cloud. Cela peut inclure des problèmes de performance, de sécurité, de disponibilité, etc. Collaboration avec les équipes : Travailler en étroite collaboration avec les développeurs, les ingénieurs de production, les architectes et les autres membres de l’équipe afin de garantir que l’infrastructure répond aux besoins des applications. Participer à des réunions d’équipe, partager les connaissances et contribuer à l’amélioration continue des processus
Mission freelance
Data Engineer GCP Finance
Dans ce cadre, nous recherchons un développeur Full Stack, ayant une solide expérience dans le Cloud GCP Récupérer les données issues de sources externes • Utiliser la puissance du Data Lake • Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le data Lake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner. • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels • Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise • Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent • Acheminement de la donnée • Mise à disposition de la donnée aux équipes utilisatrices • Mise en production de modèles statistiques • Suivi de projet de développement • Développement job spark • Traitement et ingestion de plusieurs formats des données • Développement des scripts • Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données • Développement des moyens de restitution via génération de fichier et ou API & Dashboarding • Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers • Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des Spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) • Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP • Participer à la conception, mise en place et administration de solutions Big Data • Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data Lake via des topics Kafka • Normalisation et agrégation des données afin de produire les rapports sous forme de Business View
Mission freelance
Devops/développeur Java
Contexte L’équipe Infrastructure au sein de la Direction des Systèmes d’Information du client recherche un(e) profil DevOps/Developpeur Full Stack pour la gestion opérationnelle de ses infrastructures. • Une infrastructure MultiCloud (AWS – 90%, Azure, GCP) • L’hébergement de Portails Web (10 portails) et Services Backend (+200 applications dockerisées) • L’hébergement d’une Factory DevOps (CICD/Testing/Monitoring) • L’hébergement d’une plateforme Data Analytics, DataViz, • L’hébergement d’une plafeforme d’Echange (Serveurs de fichiers, ETL, Bases de données) Principaux périmètres pour cette mission : Mise en place d'un portail de Self Service Infrastructure avec API AWS (gestion du frontend et backend) Participation à la mise en place d’une Landing Zone AWS en remplacement de deux comptes historiques Migration/Création de l’infrastructure de micro-services java, nodejs, php vers Landing zone Réalisations de nouvelles infrastructures pour les demandes des équipes applicatives Intégration des applications sur ECS, dockerisation, déploiement Intégration des applications dans l’écosystème DevOps (CI/CD, Monitoring, Testing) Création de pipelines CI/CD sur Jenkins et Gitlab CI Infrastructure as code avec Terraform Provisioning de l’Infrastructure avec Ansible Support aux équipes applicatives et troubleshooting sur les anomalies Gestion du RUN et des incidents de production Environnement technique: • Cloud : AWS (EC2, ECS, RDS, S3, EKS, ELK, …) / Azure / GCP • Langage applicatif : JBOSS, Widlfly, Spring, NodeJS, PHP, • IAC : Docker, Terraform, Ansible, • FACTORY : Jenkins, Okta, Grafana, Splunk, Gitlab, Kubernetes, Jira, Confluence, API Management • DATA : TIDB, Databricks, Informatica, MS-BI, Oracle GoldenGate, Hadoop, Spark, EMR, SAS, • DataBase : MySQL, SQL Server, MariaDB, MongoDB, ORACLE
Mission freelance
Network Security Architect
Notre client, un grand groupe international, recherche un Cybersecurity Architect très qualifié et expérimenté, avec un fort accent sur la sécurité des réseaux, pour rejoindre l’équipe Cloud & Architecture Cybersecurity en pleine croissance. Le candidat idéal sera responsable de la conception, de la mise en œuvre et du maintien d'architectures de sécurité robustes qui protègent l'infrastructure réseau et les données sensibles de notre organisation. Ce rôle exige une compréhension approfondie des principes, des architectures et des technologies de sécurité des réseaux afin de garantir la sécurité des systèmes contre les menaces actuelles et émergentes. LE RÔLE - OBJECTIF DU POSTE Le Network Security Architect est responsable de la sécurité de la connectivité entre tous les sites du client, qu'ils soient dans le Cloud ou sur site. PRINCIPALES RESPONSABILITES Conception et mise en œuvre : - Développer et mettre en œuvre des architectures de sécurité réseau complètes alignées sur les objectifs et les politiques de sécurité de l'organisation. - Concevoir des solutions de réseau sécurisées, y compris des pare-feu, des VPN, des systèmes de détection/prévention des intrusions (IDS/IPS) et des systèmes de contrôle d'accès au réseau (NAC). - Elaborer des stratégies de segmentation du réseau afin de limiter l'accès et de réduire la surface d'attaque. Évaluation et gestion des risques : - Procéder à des évaluations approfondies des risques et à des analyses de vulnérabilité afin d'identifier les risques de sécurité potentiels dans les infrastructures de réseau. - Élaborer et mettre en œuvre des stratégies d'atténuation pour remédier aux vulnérabilités et aux risques identifiés. - Collaborer avec les équipes informatiques et opérationnelles pour intégrer des contrôles de sécurité dans les conceptions de réseaux existants et nouveaux. Politiques de sécurité et conformité : - Élaborer, mettre en œuvre et maintenir des politiques, procédures et normes de sécurité du réseau en conformité avec les meilleures pratiques de l'industrie et les exigences réglementaires (par exemple, PCI-DSS, HIPAA, GDPR). - Collaborer avec les équipes d'audit interne et de conformité afin de remédier à tout problème lié à la sécurité du réseau. Surveillance et réponse aux incidents : - Concevoir et mettre en œuvre des solutions de surveillance de la sécurité afin de détecter les incidents de sécurité du réseau et d'y répondre. - Collaborer avec l'équipe chargée des opérations de sécurité afin d'établir et de maintenir un plan de réponse aux incidents de sécurité du réseau. Évaluation et innovation technologiques : - Évaluer et recommander de nouvelles technologies et solutions de sécurité afin d'améliorer la posture de sécurité du réseau. - Diriger les initiatives de PoC pour les nouveaux outils et solutions de sécurité. Formation et sensibilisation : - Fournir des conseils et une formation aux équipes IT et aux autres employés sur les meilleures pratiques et politiques en matière de sécurité du réseau.
Mission freelance
Développeur O365 / Dynamics / Power Platform
Nous recherchons pour notre client un Développeur O365 (Dynamics CRM | Power Platform) (H/F) : Prestation pure en Freelance ou en Portage salarial (CDI.c) ; (Longue) Durée : 24 mois ; Démarrage : Souplesse ; Localisation : Montpellier (34) ; Télétravail : 3 jours par semaine. Contexte : Renfort d’une équipe (5 personnes). Mission : Vous intervenez sur l’écosystème O365 et plus particulièrement sur le Dynamics CRM / la Power Platform (PP). Vous concevez et implémentez des solutions sur la PP : Conception / Développement de flux Power Automate et D'applications Power Apps. Vous accompagnez l'ouverture des services Power Automate / Power Apps : configuration d'environnements, gestion politique DLP + Habilitations, Stockage Dataverse... Vous accompagnez l'ouverture d'environnement Dynamics : Configuration / Force de proposition en termes d'urbanisation et d'architecture. Vous participez à la gouvernance : cadre et règles d'usage sur la PP. Vous assurez la communication générale avec Microsoft. Vous mettez en place toutes les automatisations nécessaires à base de scripts Powershell (gestion et l'administration des services). Vous mettez en œuvre les éléments de sécurité demandés par le RSSI Vous produisez toute la documentation à destination des équipes N2 tout en assurant le passage de connaissance. Vous traitez les incidents de niveau 3 également. Vous animez en tant qu'expert des groupes de travail technique autour de la Power Platform. Environnement technique : Dynamics CRM, Power Plateform (Power Apps et Power Automate), O365, Scripting Powershell.
Mission freelance
Data Engineer GCP H/F
Notre client dans le secteur Banque et finance recherche un/une Data Engineer GCP H/F Description de la mission: Contexte / Objectifs : Récupérer les données issues de sources externes • Utiliser la puissance du Datalake • Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le datalake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner. • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels Description : • Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise • Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent Activités et tâches : • Acheminement de la donnée • Mise à disposition de la donnée aux équipes utilisatrices • Mise en production de modèles statistiques • Suivi de projet de développement • Développement job spark • Traitement et ingestion de plusieurs formats des données • Développement des scripts • Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données • Développement des moyens de restitution via génération de fichier et ou API & Dashboarding • Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers • Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) • Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP • Participer à la conception, mise en place et administration de solutions Big Data • Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka • Normalisation et agrégation des données afin de produire les rapports sous forme de Business View Compétences / Qualités indispensables : Plateforme et environnement GCP (indispensable), • Environnement GKE, • Stockage : HDFS / GCS, • Traitement: Maitrise de l’écosystème Spark / Kafka / Scala, • Planification : Airflow / Composer, • DWH : SQL, BigQuery, BigTable, • Delivery : Git, Ansible, Docker, Terraform, Jenkins / Cloud Build Informations concernant le télétravail : 2 jours
Mission freelance
Data steward
Le service observabilité est une entité transverse de la direction du système d’information et du Digital, au service des Directions Métiers et de la DSID. Sa mission est de définir et de mettre en œuvre les solutions de supervision techniques, applicatives et fonctionnelles. Dans le cadre d'un nouveau programme, nous devons renforcer la capacité du produit observabilité à déployer de nouvelles solutions. MAITRISER ET DOCUMENTER LA DONNEE METIER • Apporte un conseil personnalisé répondant aux problématiques des acteurs de la donnée • Qualifie et enrichie la donnée en s’assurant que l’utilisateur dispose du plus grand nombre d’informations (catalogue de données, validation de la définition de la donnée) • Accompagne la cartographie de la donnée • Optimise la prise en main et l’utilisation et de la donnée en facilitant sa compréhension • Accompagne les acteurs de la donnée dans le maintien de la connaissance de la donnée (dictionnaire, référentiels de contrôle) GARANTIR LA METHODOLOGIE ET LE MAINTIEN DE LA QUALITE DES DONNEES • Accompagne les acteurs de la donnée dans le respect des règlementations en vigueur (RGPD, …) et des règles d’éthique définies au sein du Groupe. • Apporte un conseil pour fiabiliser la provenance de la donnée afin d’en maitriser son usage (cycle de vie) • Accompagne les acteurs de la donnée dans la maitrise de la qualité de leurs données : diagnostic, suivi de leur procédure de qualité • Déployer et pérenniser les procédures de détection et de correction des problèmes de qualité des données
Mission freelance
Administrateur Citrix
Responsabilités: ---------- Analyse les besoins des clients et conçoit des solutions Citrix efficaces Implémente et maintient les solutions Citrix pour les clients Fournit des services de support technique pour les solutions Citrix existantes Développe des programmes de formation pour les clients et les employés Surveille les tendances et les développements technologiques dans le domaine de Citrix Évalue régulièrement et améliore les processus de prestation de services Citrix Exigences: ---------- Expérience antérieure dans la gestion d'environnements Citrix Cloud, Netscaler et Citrix Workspace Expérience dans l'optimisation des environnements pour un accès distant efficace Bonne connaissance des protocoles de connexion Solides compétences en résolution de problèmes pour traiter les problèmes liés à Citrix, Netscaler et Google Cloud Plateforme Compétences en gestion de projet pour coordonner les déploiements de la solution Citrix et la maintenance des systèmes Connaissance approfondie des systèmes d'exploitation Windows pour être en mesure de travailler efficacement sur des environnements Citrix Bonne capacité à documenter les solutions et à former les utilisateurs finaux Esprit d'équipe et capacité à travailler efficacement avec les autres membres de l'équipe informatique
Mission freelance
data analyst Power BI H/F
• Développer les reports Procurement BI dont la maquette a été définie par les utilisateurs et l’UX Designer • Piloter et animer les recettes utilisateurs • Mettre en production les reports validés dans le respect du planning établi • Mapper les données issues des nouvelles sources (ERP, nouvelle application, etc …), charger les historiques, mettre en place les flux pour l’alimentation quotidienne automatique du BI, valider les chiffres. • Contribuer avec le reste de l’équipe BI au support utilisateurs (questions reçues par mail principalement) • Participer aux cérémonies Agiles : daily scrums, retrospectives, backlog refinement, etc … • S’assurer de la bonne compréhension de la solution par les utilisateurs, soit en mettant en place des tool tips directement dans le BI soit en livrant une documentation utilisateurs. • Optimiser les traitements pour améliorer les temps de réponse et réduire les couts • Participer aux démarches d’amélioration continue avec l’équipe Activités spécifiques prévues d’octobre à décembre 2024 : • Connexion d’un nouvel ERP SAP by Design basé en Inde • Mise en place d’un dashboard permettant de suivre l’activité des tactical buyers (transformation des DA en commandes, suivi des livraisons et de la facturation) • Mise en place d’un dashboard de mesure du Spend par fournisseur • Mis en place d’un dashboard de mesure de la performance des Achats vis-à-vis du cash (délais de paiement négociés, acomptes, reverse factoring, ponctualité de paiement)
Mission freelance
Data Steward
La mission consiste à : - Maitriser et documenter la donnée métier - Garantir la méthodologie et le maintien de la qualité des données - Mission sur la métropole lilloise avec télétravail hybride (2 ou 3 jours / semaine) Compétences recherchées : - Une expérience au sien d’une équipe de gouvernance des données et/ou une expérience autour de la mise en qualité des données - Connaissance des principes de la gouvernance de la donnée - Connaissance en analyse et gestion de la donnée - Maitrise du fonctionnement en équipe agile - Capacité d'analyse et de synthèse - Cloud (GCP)
Offre d'emploi
Databricks Architect
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Mission freelance
Data Engineer F/H
Nous poursuivons notre développement et recherchons actuellement un.e Data Engineer pour intervenir chez un de nos clients du secteur bancaire. Contexte / Objectifs : Récupérer les données issues de sources externes Utiliser la puissance du Datalake Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. Mise en œuvre de la chaîne : d’ingestion de données, de validation de données, de croisement de données, de déversement dans le datalake des données enrichies Développer dans le respect des règles d’architecture définies Développer et documenter les user stories avec l’assistance du Product Owner. Produire les scripts de déploiement Prioriser les corrections des anomalies Assister les équipes d’exploitation Participer à la mise en œuvre de la chaîne de delivery continue Automatiser les tests fonctionnels
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes