Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Expert technique Colibra
Dans le cadre de la mise en œuvre et de l'optimisation de la solution Colibra pour la gestion des données financières et la conformité, l'entreprise recherche un Expert Technique Colibra . Ce poste est essentiel pour garantir l'efficacité de la solution en fournissant une expertise technique approfondie, en gérant les intégrations et en assurant le support technique pour les utilisateurs. En tant qu'expert Colibra, vos missions seront les suivantes: Analyser les besoins des clients (IT et métiers) dans la documentation de leur périmètre Data - Charger la documentation Data du métier dans Collibra et documenter le processus - Paramétrer la solution Collibra pour adapter son usage aux besoins des utilisateurs (création de dashboards, vues, etc.) - Présenter l’offre de service aux clients et les accompagner dans la prise en main de l’outil - Tester les nouvelles fonctionnalités de Collibra, déterminer leur pertinence et les intégrer dans l’offre de service - Donner des ateliers de formation et animer des ateliers de travail / des démonstrations - Recueillir le feedback des utilisateurs pour adapter l’offre de service - Fournir du support et de l’assistance aux utilisateurs, tester les nouvelles releases et résoudre d’éventuels incidents ou bugs.
Mission freelance
Ingénieur DevOps
Nous recherchons un Ingénieur DEVOPS, pour un de nos clients basé à Aix en Provence, pour une mission freelance (longue visibilité) Les principales missions sont : • Votre maitrise des chaînes CI/CD contribuera à la qualité de la construction et du déploiement de nos systèmes applicatifs • Votre expertise technique vous permettra d’éprouver le système et de participer à son amélioration • Vous participerez à l’intégration technique du système applicatif déployé et à la mise en place des bonnes pratiques depuis l'environnement de développement jusqu'à l’exploitation • Intégrer, configurer et déployer les applications PSPDV dans un contexte de DEV et Intégration SI • Modifier, optimiser les configurations des différents environnements (DEV / INT / PERF) • Gérer une dizaine de composants et leurs versions à travers les chaines CI/CD • Suivies des anomalies dans l’outil de suivi du client Autres compétences: • Bon sens, factuel, pragmatique • Organisé • Très bon relationnel • Agilité • Reporting de son activité Techno: • CI/CD, Rancher, Kubernetes, Gitlab • Unix • Requêtes SQL Oracle • Kafka (notions) • API Rest
Offre d'emploi
Tech Lead Java Senior h/f
Contexte : Dans le cadre de notre développement, nous recherchons un.e Tech Lead Java Senior. L’objectif de notre client est de créer une nouvelle plateforme de 0 afin de collecter, afficher et analyser les avis laissés par leurs clients sur leurs produits et services et ceux de leurs partenaires. Cette nouvelle plateforme sera le lancement de leur nouvelle stratégie en terme de captation des contenus générés par leurs clients (social media, questions/réponses, vidéo, images, ...). Mission : Dans le cadre de la construction de cette nouvelle plateforme, nous cherchons un Tech Lead Java Senior afin de faire le design puis l'implémentation de la plateforme. Environnement technique : - Back : Java, PostgreSQL, Elasticsearch, Kafka - Cloud : GCP, K8S - CI/CD : GitHub, Github action, Docker - Monitoring : Datadog
Mission freelance
Consultant(e) BI Senior (H/F) 92
Notre client recherche un(e) consulmtant(e) pour une mission de prestation informatique concernant un(e) Consultant(e) BI Senior. Cette mission s'inscrit dans le cadre du développement des tableaux de bord d’intérêt pour notre Direction Medical Oncology France. Contexte et objectifs de la mission : Au sein de l’équipe Datafactory rattachée à la DDSI (Direction Data et Systèmes d’Information) : Collaborer avec les différentes équipes (IT et Médical) pour comprendre les besoins. Animer les ateliers métiers de spécification et expression des besoins. Auditer et analyser un tableau de bord existant de la direction jumelle Medical Biophama, proposer une factorisation pour aboutir à un modèle de données unique. Animer les ateliers de conception technique avec nos Data engineer. A partir de jeux de données pour la plupart issus de notre CRM Veeva, développer et automatiser des tableaux de bord permettant de suivre les principaux indicateurs d’activité des RMRs (KPI). Assurer la qualité et l’intégrité des données en effectuant des contrôles réguliers
Offre d'emploi
Ingénieur études et développement java/angular H/F
Afin d'accompagner nos clients dans la mise en œuvre de leur transformation digitale, l'agence de Norgay rennes recrute un/e Ingénieur études et développement java/angular , dont les différentes missions seront : - Conception technique, spécifications, chiffrage ; - Développement back-end et/ou front-end ; - Tests ; - Maintenance évolutive et corrective ; - Mise en production. Stack technique : - Back : Java Spring - Front : Angular -Outils CI/CD : jenkins.. -Gestions de projet : Jira, confluence,trello...
Mission freelance
Data Quality Analyst
Ce poste est rattaché à la Directrice Data . Au sein d'une équipe composée de data analystes intégrée aux rituels Product, vous participez à l'évolution fonctionnelle et technique de nos produits data en environnement Agile. Vous aurez l’opportunité de collaborer avec l’ensemble des équipes product, tech et métiers autour des missions suivantes : ● Explorer, analyser et documenter les données du data Warehouse du groupe. ● Contribuer à l’amélioration de la qualité du data Warehouse : mettre en place le plan d’action défini sur 2024 : contrôles, monitoring et alerting. ● Réaliser des travaux d’automatisation afin de gagner en productivité et efficacité. rôle support, retro-engineering et documentation, mise en place de tests de qualité de données (data quality/observabilité) via Sifflet/Python/SQL et Looker/Looker Studio Encadrer une équipe de 3 data analystes : les former aux pratiques Links, les challenger sur leurs réalisations, les monter en compétence sur la partie technique. Notre stack data : GCP, BigQuery, Python, Looker Studio
Offre d'emploi
Analyse données d'inventaire et qualité des référentiels
🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : IDF 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : La mission s'inscrit dans le cadre du programme Safety & Trust consistant en l'amélioration de nos référentiels et de la maîtrise du système d'information. Il s'agira de procéder à plusieurs vagues de nettoyage et d'amélioration de la qualité et de l'exhaustivité des données stockées dans plusieurs de nos référentiels mais également de coordonner l'implémentation d'outils de monitoring et de contrôle de nos inventaires et de nos assets. Il s'agira également d'accompagner les équipes DEV/APS de Pologne afin d'implémenter des nouveaux outils de l'écosystème Inventaires Hardware Assets Management.
Offre d'emploi
Chargé(e) de projet junior H/F
Notre client recherche un Chef de projet junior qui aura un rôle de coordinateur. Voici les missions qui seront effectuées : - Être le contact privilégié des différents sites clients pour le projet de déploiement pendant la phase de préparation ; - Suivre et accompagner les site clients dans la phase préparatoire du déploiement de SAP ; - Assurer l'assistance fonctionnelle des sites sur les différents chantiers et pré-requis à réaliser ; - Collecter auprès des différents sites les informations nécessaires aux équipes du projet pour la bonne réalisation de la bascule. DESCRIPTION DE FONCTION - Organiser et animer les points de contact avec les interlocuteurs ou des référents selon le planning de suivi établi ; - Documenter les échanges issus des points de suivi dans les outils dédiés ; - Recueillir les besoins d'informations complémentaires souhaités et y répondre sur la base de documentations existantes ; - Être le relai entre le site client et les équipes projets pour les sujets nécessitants une réponse technique ; - Contribuer à l'enrichissement des documentations existantes (Procédures, FAQ...) ; - Détecter et remonter au manager les éventuels risques au bon déroulement de la préparation à la bascule des sites suivis ; - Assurer le lien entre les besoins de l'équipe projet ou équipes amont et les différents sites ; - Être un ambassadeur du projet SAP auprès des différents sites. Dans le but du changement d'ERP avec la mise en place de SAP sur chacun sites, cette personne devra suivre en amont la préparation pour la mise en place de SAP, s'assurer que les différentes étapes post déploiement soit bien respecter et s'assurer d'être dans les délais. Il/elle fera partie d'une équipe de 12 personnes et d'un responsable.
Mission freelance
Ingénieur DevOps
Du build Participer au développement de la CI/CD et de l'infra as code Apporter de l'expertise sur le choix des solutions Accompagner les équipes de delivery sur les aspects d'opérabilité (résilience, observabilité, performance) Du run Effectuer les mises en production et fournir les outils permettant à l’équipe de réaliser les mises en production S’assurer du bon fonctionnement de la production et veiller à l'opérabilité du monitoring Assurer le maintien en condition opérationnelle de l'infrastructure Réaliser les actions d'amélioration continue Participer à l'analyse d'incident Assurer l'astreinte technique Contribution à la vie de l'équipe et du projet : Etre acteur des cérémonies agiles Participer à la réalisation des éléments du backlog Etre force de proposition sur l'amélioration continue Stack technique : CD/CI : Gitlab-ci Infra As code : Terraform (Services managé AWS, K8S) Suivi : Kibana/Grafana, Superset, Instana, AWS Cloudwatch Service Mesh : istio Serverless : AWS lambdas, AWS API Gateway Caches : Redis, Varnish Stockage de données : Mongo, DynamoDB, AWS S3
Mission freelance
Business Analyst - Valorisation et Data Market
Notre Client recherche un consultant Business Analyst - Valorisation et Data Market (H/F). Renforcer l'équipe fonctionnelle en charge du référentiel de données de marché, répondre aux besoins des utilisateurs pour valoriser de nouvelles opérations, et participer aux projets d'évolution de l'outil d'administration des données de marché. - Analyser les besoins des études métiers, techniques et spécifiques nécessaires à la réalisation des projets - Assurer l’expertise et le diagnostic métier et technique en intégrant les besoins spécifiques aux traitements des données de marché pour les clients - Rédiger les spécifications et la documentation des livrables - Garantir la qualité des livrables attendus et l’intégration dans l’existant - Identifier les besoins prévisionnels en Maitrise d’Ouvrage en lien avec les métiers et proposer et concevoir des actions/solutions correspondantes - Assurer une veille sur l’ensemble des problématiques Maitrise d’Ouvrage en relation avec les objectifs de l’entreprise - Elaborer des plans de tests, exécuter des recettes, produire des procès-verbaux et intégrer ces cas de tests aux plans récurrents - Assurer une assistance aux utilisateurs en support de second niveau (50 % de votre temps).
Mission freelance
Consultant DevOps
Technologies : AMQ, KAFKA, APIGEE, BUCKET GCP, Scripts, code Terraform pour CI/CD, Procédures, Scripting (Shell, Python), Git, Argo, Kubernetes, Ansible Descriptif de la prestation : Participer au sein de l'équipe Plateforme Échanges en tant que DevOps dans un contexte Agile (Agile Master + Product Owner) sur des évolutions spécifiques des plateformes d'échanges AMQ, KAFKA, APIGEE et BUCKET GCP. Améliorer l'industrialisation, la sécurisation, la résilience et la supervision des plateformes d'échanges : AMQ, KAFKA, APIGEE, Bucket GCP et SFTP. Travailler sur la résilience d'APIGEE et KAFKA, ainsi que sur l'accompagnement auprès des équipes produits vers la fin d'usage d'AMQ. Mise en place du portail APIGEE Integrated Portal. - Cloud Provider Public (idéalement GCP) - Scripting (Shell, Python) - Terraform, Git, Argo, Kubernetes, Ansible, scripts, code Terraform pour CI/CD, procédures
Offre d'emploi
Expert DevOps
Description de la mission Ø Accompagner, faire monter en compétence les équipes Run Ø Définir les bonnes pratiques du DevOps Ø Etre l’interlocuteur privilégié des experts SAS Ø Être force de proposition dans l’amélioration et l’optimisation des applications existantes Ø Mise en place des CI-CD des projets, garant de la qualité des livraisons et de la documentation Ø Animation (Ateliers / suivi de l’avancement des tâches / . . .) Ø Capacité relationnelle et rédactionnelle en français et en anglais
Offre d'emploi
Data Engineer
La Prestation s’effectuera au sein de l’équipe « IS Data Factory » d’une vingtaine de personnes composée de : Data Engineer, travaillant majoritaire à l’alimentation du Datawarehouse d’entreprise Data Architect travaillant sur les évolutions de la gestion des données au sein de l’entreprise. Les données sont principalement gérées au sein - D’un datawarehouse d’entreprise organisé autour de plusieurs instances de base de données ORACLE - D’un Datalake s’appuyant sur l’offre cloudera on premise L’équipe est en charge des évolutions, du support et de la maintenance du datawarehouse. Dans ce contexte, la prestation consiste à intervenir sur le POC (Proof of concept) en étroite collaboration avec l’administrateur du Data Lakehouse et à mettre en œuvre et valider l’infrastructure de plateforme de données. Dans ce cadre, le Prestataire contribuera et aura la responsabilité de : Ø POC Developpement : o Conception et développement du POC pour notre Data Lakehouse ouvert en utilisant les dernières technologies (Cloudera, NoSQL, NiFi, Apache Iceberg, DBT, Superset, etc.) pour répondre aux exigences de l’entreprise, Ø L’intégration des données : o Mise en œuvre des pipelines d’ingestion et d’intégration de données à partir de diverses sources tout en s’assurant la qualité et la cohérence des données. Ø Du processus ETL/ELT: o Développement et optimisation des processus ETL/ELT pour soutenir les besoins de data warehousing et d’analyse. Ø L’optimisation de la performance: o Analyse et optimisation de la performance des flux de données et des requêtes. Ø La collaboration : o Travail en étroite collaboration avec l’administrateur du Data Lakehouse pour assurer l’intégration et la fonctionnalité de l’infrastructure du Data Lakehouse. Ø La documentation : o Création et maintenance de documents techniques sur les pipelines de données, o l’architecture o les flux de travail. Ø L’innovation: o Rester à jour avec les technologies émergentes et les meilleures pratiques pour améliorer continuellement la plateforme de données.
Mission freelance
Data Engineer confirmé
Mission : En tant que Data Engineer, vous jouerez un rôle central dans la transformation digitale de notre client. Vous concevrez et optimiserez les flux de données en assurant leur ingestion, transformation et modélisation dans un environnement AWS et Snowflake. Vous travaillerez étroitement avec la Data & Tech Factory pour automatiser les processus et assurer l'intégration continue de données fiables et exploitables dans les projets métier de l'entreprise. Compétences : Expérience de 4 à 5 ans en data engineering, idéalement en environnement cloud AWS Maîtrise de Snowflake pour le stockage et la gestion des données, avec des compétences en SQL et Python pour la manipulation et la transformation de données Connaissance des pratiques DevOps et CI/CD pour optimiser les workflows, et expérience en Infrastructure as Code avec Terraform
Mission freelance
Chargé de Consolidation et Data Analyse
Pour un grand compte du Retail spécialisé, je recherche un consultant pour une mission en 2 phases : Récupération de fichiers .csv issus d'extractions manuelles de données de plusieurs logiciels Saas, pour plusieurs directions du groupe (une 30 aine de pays). Consolidation des données obtenues pour obtenir un rapport Groupe. Les datas sont des données d'utilisation des logiciels. Présentation des données obtenues grâce à un logiciel de DataViz (Tableau idéalement). Analyse des données pour faire des recommandations métier.
Mission freelance
DATA INGNEIEUR
Description détaillée : -Construction des pipelines de données pour collecter, transformer et traiter des données dans notre Data Lake sur Azure -Développement de notebooks de traitement avancés des données sur Databricks (Spark, langages Scala, SQL et Python) -Conception et modélisation des données au niveau du Data Lake (format Parquet, Delta) -Réalisation des tests unitaires -Rédaction de documentation technique (Dossier d'Analyse Technique, release delivery note, ….) -Préparation de package pour livraison en CI/CD avec les équipes DevOps -Réalisation des activités de maintenance corrective et évolutive -Participation aux cérémonies agiles (Sprint Planning, Daily, Spring Review, Demo,…
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.