Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Expert GITLAB 10j sur Janviert
Pour un audit flash d’une migration d’un pipeline devsops (jenkins) vers Gitlab, je recherche un expert gitlab qui maitrise à la fois les solutions gitlab (couverture fonctionnelle de l’existant vers la cible gitlab à confirmer, planning de migration à valider) mais aussi la dimension licencing (quels type de licences nécessaires pour quels types de populations). Durée : audit flash sur le mois de janvier 2025 . Nb de jours : mi temps minimum Un auditeur chargé de la migration de Jenkins vers GitLab joue un rôle essentiel dans l’évaluation, la planification et la gestion de la transition entre ces deux outils d’intégration continue (CI) et de déploiement continu (CD). Ce processus nécessite une analyse approfondie des configurations existantes, des workflows et des besoins spécifiques de l'entreprise. Tout d’abord, l’auditeur commence par une évaluation des pipelines CI/CD actuels dans Jenkins. Cela inclut l’analyse des scripts, des configurations de build, des plugins utilisés, des dépendances, ainsi que de l'architecture de l’infrastructure Jenkins. L’objectif est de comprendre la manière dont les processus sont automatisés et de relever les points sensibles qui pourraient nécessiter une adaptation lors de la migration. Ensuite, l’auditeur examine les fonctionnalités de GitLab, telles que GitLab CI/CD, qui peuvent remplacer celles de Jenkins, tout en identifiant les fonctionnalités spécifiques qui pourraient ne pas être directement transférables. Il faut aussi étudier la manière dont GitLab peut répondre aux besoins spécifiques de l’entreprise, qu’il s’agisse de gestion de versions, de pipelines ou de collaboration entre équipes. L’auditeur aide ensuite à définir une stratégie de migration, qui inclut la priorisation des tâches, la gestion du changement et la formation des équipes. Il est crucial d’élaborer un plan détaillé pour minimiser les interruptions et s’assurer que la migration soit progressive et non disruptive. Cela implique aussi des tests de validation pour garantir que les pipelines fonctionnent correctement une fois migrés vers GitLab. Enfin, l’auditeur peut participer à la phase post-migration en surveillant la performance des nouveaux processus, en ajustant les configurations et en proposant des améliorations continues pour optimiser l’utilisation de GitLab dans l’environnement de développement.
Mission freelance
Développeur Senior GMAO EAM
Les compétences techniques attendues sont les suivantes : · Expérience significative de mise en œuvre ou de TMA sur la GMAO INFOR EAM 11 et - Expérience sur Java 8 (et plus) et architectures MVC (SpringFramework) · Développements Oracle (SQL, PL/SQL, Triggers, Procédures stockées) · Développements Unix (shell, crontab) · Très Bonnes connaissances WebService REST · Très Bonnes connaissances des services SOAP · Connaissance d’un outil de suivi d’anomalies, type Mantis/Jira · Expérience TMA et projets exigés
Offre d'emploi
Technical Analyst Calypso Senior
🔍 Opportunité : Technical Analyst Calypso Senior 💼 Nous recherchons un Technical Analyst Expert Calypso pour une mission au sein d’un environnement dynamique et stimulant. Fournir des estimations de charge , élaborer des plannings détaillés et proposer des solutions techniques en collaboration avec les équipes d’architecture. Assurer le suivi des développements , accompagner les phases de tests UAT et garantir la qualité des livraisons. Documenter les solutions, développer des fonctionnalités, rédiger les cahiers de tests techniques et accompagner les mises en production. Études et comparaisons des solutions techniques. Estimations des charges humaines et infrastructurelles. Plannings et stratégies d’implémentation détaillées. Expérience significative sur des projets de grande envergure avec Calypso version 16 . Connaissances en FX et MM (atout). Autonomie et esprit d’initiative indispensables.
Offre d'emploi
Développeur FullStack java - F/H - Lille
En rejoignant notre pôle d’expertise de développeurs, vous serez amené(e) à : Concevoir et développer des fonctionnalités, composants et services d’une application ou plateforme web. Participer activement à la conception et au développement de la nouvelle solution (de la conception à la réalisation); Contribuer aux choix techniques / fonctionnels et challengez vos pairs sur ces derniers; Assurer les niveaux de qualité, sécurité et performances attendus en faisant de le revue de code produit par vos pairs; Effectuer régulièrement de la veille technique et partagez vos connaissances.
Mission freelance
Data Analyst
Mission Intégrer et optimiser la plateforme Looker pour son déploiement au sein des Business Units et autres plateformes chez un acteur majeur du retail. Concevoir une architecture répondant aux besoins métiers, garantir des performances optimales, et accompagner les équipes dans l’adoption de Looker. Créer et maintenir des tableaux de bord pour le pilotage des activités tout en assurant une gestion des coûts et une mise à jour des fonctionnalités Looker. Compétences techniques Expertise confirmée sur Looker (LookML, API, bonnes pratiques). Maîtrise des outils Google Cloud Platform (GCP), GitHub, et Terraform. Expérience en optimisation de plateformes et en intégration de solutions analytiques. Connaissances en visualisation de données et accompagnement d’équipes techniques.
Offre d'emploi
Ingénieur de production applicative Unix – H/F
Votre poste : Rejoignez notre équipe pour une mission chez notre client Grand Compte bancaire et au sein duquel vous serez en charge de : Création et maintien des plans Control-M Maintenance du référentiel technique des Intégrateurs Applicatifs (« Fichiers Tools ») Mise en Production des applications selon les processus en vigueur Gestion des certificats pour les applications Windows Traitement des alertes et des incidents N2 – escalade vers les N3 Gestion des campagnes de sauvegarde/restauration réglementaire Participation au Plan de Secours Informatique Gestion et coordination de l’équipe MGI Ing Unix APP Vos compétences techniques : Ordonnancement : Control-M Scripting : bash OS : Linux, Unix AIX
Offre d'emploi
Ingénieur de production Open/MVS (expert prod)
Dans le cadre de notre croissance, nous recherchons un(e) Ingénieur(e) de Production pour rejoindre nos équipes et contribuer à garantir la disponibilité, la performance et la sécurité des systèmes en environnement de production. En tant qu’Ingénieur(e) de Production, vous jouerez un rôle clé dans la gestion des environnements critiques de nos clients. Vos principales responsabilités seront : Gestion des environnements de production : Superviser et maintenir les systèmes, applications, et infrastructures en production. Diagnostiquer et résoudre les incidents en garantissant un niveau de service optimal. Industrialiser les processus de production pour améliorer la stabilité et l’efficacité. Automatisation et amélioration continue : Développer des scripts d’automatisation pour optimiser les tâches répétitives (Shell, Python, etc.). Participer à la mise en place de solutions CI/CD pour fluidifier les déploiements applicatifs. Collaborer avec les équipes DevOps pour garantir une intégration fluide entre le développement et la production. Sécurité et conformité : Garantir la conformité des environnements de production avec les normes de sécurité et les politiques internes. Réaliser des analyses de risques et proposer des solutions correctives. Support et collaboration : Assurer un support de niveau 2/3 pour résoudre les incidents complexes. Travailler en étroite collaboration avec les équipes techniques (développement, réseau, cloud) et métier. Mainframe OBLIGATOIRE, tâches de développement ponctuels à réaliser
Mission freelance
Data Visualisation en Finance (Power BI, Excel, SharePoint)
Nous recherchons un(e) consultant(e) en Data Visualisation pour une mission stratégique dans une entreprise spécialisée dans le financement des solutions locatives Dans le cadre de son plan stratégique, l'entreprise cherche à optimiser ses indicateurs de pilotage et à améliorer la performance globale de ses processus. L'entreprise met en œuvre des initiatives pour répondre aux objectifs, visant à accélérer l'efficacité opérationnelle et à être dans une dynamique de développement avec des risques maîtrisés. Actuellement, des indicateurs EQR (Efficacité, Qualité, Risques) sont utilisés pour analyser la performance des équipes de Middle et Back-Office . La mission consiste à revisiter et optimiser ces indicateurs afin de répondre aux exigences croissantes et aux attentes des utilisateurs. Évolution des fichiers EQR : Adapter les fichiers actuels en tenant compte des retours d’expérience et des nouvelles exigences. Application des règles de management visuel : Structurer et présenter les fichiers de manière optimale pour faciliter leur compréhension et leur exploitation. Migration vers un outil de pilotage adapté : Revoir le format actuel sous Excel et proposer une solution plus adaptée (notamment Power BI) pour une meilleure gestion des données. Proposition d’un support innovant : Concevoir un support de collecte, d’organisation et d’exploitation des données, répondant aux besoins exprimés par les parties prenantes.
Offre d'emploi
Cloud DevOps GCP
Poste : Ingénieur Cloud DevOps GCP Durée : Longue (Voire 3 ans) Lieu : Ile De France Description du Poste : Dans le cadre d’un projet stratégique pour le compte d’une banque de renom , nous recherchons un Ingénieur Cloud DevOps spécialisé GCP . Vous serez chargé de concevoir, déployer et optimiser des solutions d’infrastructure cloud sur la plateforme Google Cloud Platform (GCP) , en assurant leur robustesse, leur performance et leur alignement avec les objectifs métiers. Responsabilités : - Expertise approfondie des services GCP et des outils natifs pour la conception et la gestion d'infrastructures cloud complexes ; - Solides compétences en Terraform et Ansible pour l'infrastructure as code et l'automatisation ; - Maîtrise de la mise en place et de la gestion de pipelines CI/CD avec GitLab CI , adaptés aux exigences d’un secteur bancaire ; - Orchestrer et gérer des conteneurs avec Kubernetes et Docker , en exploitant pleinement les capacités de Google Kubernetes Engine (GKE) ; - Bonne connaissance des outils ArgoCD , Maven , et SonarQube pour la gestion des configurations, des builds, et de la qualité logicielle ; - Optimiser les coûts et l’efficacité des ressources cloud en exploitant des services GCP tels que Compute Engine , Cloud Storage , et BigQuery .
Mission freelance
Data ingénieur - Python - GCP
Assurer la performance et l’évolutivité des solutions Data & ML : Concevoir et optimiser des pipelines de données robustes et évolutifs (ETL/ELT). Garantir la qualité des données et leur disponibilité pour les modèles de Machine Learning et les équipes métier. Implémenter des solutions scalables pour le traitement de grands volumes de données. Encadrer techniquement une équipe en forte croissance : Accompagner une équipe de Data Engineers et Data Scientists, en participant activement à leur montée en compétences. Fédérer et guider l’équipe dans un environnement collaboratif et motivant. Assurer l’adoption des meilleures pratiques de développement (DevOps, CI/CD, tests automatisés, monitoring). Aligner les solutions Data avec les standards technologiques du groupe : Veiller à la cohérence des solutions avec les stratégies globales de l’entreprise. Introduire des standards modernes comme l’Infrastructure as Code, l’observabilité et le monitoring avancé. Roadmap produit et décisionnel : Collaborer avec les Product Owners pour prioriser les fonctionnalités liées à la gestion et au traitement des données. Assurer les choix architecturaux et techniques clés pour garantir la sécurité, la scalabilité et les performances des systèmes. Interopérabilité et standardisation : Travailler avec les autres Tech Leads et équipes transverses pour une intégration fluide des solutions au sein de l’écosystème global. Standardiser les pratiques liées aux pipelines de données et au MLOps. Supervision de la production et amélioration continue : Assurer la stabilité et la fiabilité des systèmes de données en production. Participer activement aux revues de code (MOB programming, pair reviews) pour maintenir un haut niveau de qualité technique. Être force de proposition pour des initiatives d’amélioration continue. Support et relation utilisateurs : Être le point de contact clé pour les utilisateurs finaux, comprendre leurs besoins et garantir leur satisfaction. Former les parties prenantes à l’utilisation des solutions déployées. L'équipe, actuellement composée de 5 collaborateurs, est en forte expansion avec des recrutements en cours pour répondre aux objectifs ambitieux du projet. Vous évoluerez dans un cadre mêlant innovation, technologies avancées et défis stratégiques, avec une véritable autonomie pour construire des solutions Data & ML d’envergure. Expertise confirmée en ingénierie des données (5+ ans) avec une solide maîtrise des technologies Cloud (AWS, GCP ou Azure). Compétences avancées en Python, Spark, Kafka, SQL ou outils de traitement des données distribuées. Expérience en MLOps et dans la mise en œuvre de pipelines automatisés. Leadership technique et capacité à encadrer une équipe technique. Forte capacité à communiquer, à collaborer et à prendre des décisions stratégiques.
Mission freelance
Data Analyst
Dans le cadre de la Direction Technologie et Système d’Information et plus particulièrement pour son Pôle Qualité Opérationnelles et Excellence Utilisateurs un(e) Data Analyste F/H. L’équipe COMUX dont la principale mission tourne autour de la satisfaction et l’expérience utilisateur. Au quotidien, détecter des signaux faibles, produire/restituer des analyses et mener des projets d’amélioration continue. Du fait de l' activité transverse, être le garant du maintien en condition opérationnel des dashboards PowerBI et de leurs évolutions pour le compte de nos clients internes.
Offre d'emploi
Développeur SQL
Mise en place des bases de données Intégration continu avec les pipeline Ansible (développement en Shell) Intégration des données (source de données multiples) Modélisation des données mettre en place la base de données, anticiper les volumes de données à stocker, concevoir, tester et mettre en place, contrôler le bon fonctionnement des progiciels de système de gestion de base de données, mettre en place le dimensionnement du serveur, organiser les systèmes de gestion en tenant compte des paramètres de cohérence, de qualité et de sécurité, veiller à la disponibilité des informations et à leur facilité d’utilisation, mettre en place des normes de qualité et élaborer des tableaux de bord pour en assurer le suivi, préconiser les bonnes pratiques, définir les paramètres d’accès à la base de données, prendre en considération les besoins et attentes des utilisateurs, organiser le stockage des données, améliorer le système de classement en vue de réduire le temps de réponse, Développement Support technique Rédaction de la documentation
Offre d'emploi
Data Analyste - F/H - Lille
Au sein de la direction Retail Data International, nous recherchons un Analytics Engineer afin de renforcer la palette de compétences présentes au sein de nos équipes composées de Product owner, Data Analyst & Data Engineer. Le scope métier couvre l'ensemble des activités du retail (Marketing / Finance / Produit etc). Missions : Conçoit , déploie et assure le RUN des data pipelines, datasets et KPI Crée à partir des données présentes dans la plate-forme Data la modélisation et les traitements nécessaires à l’exploitation des données, à destination des usages analytiques. Assure la maintenance de ce qui a été produit. Réalise des recettes techniques et fonctionnelles. Veille au respect des normes et des pratiques de référence de la Data. Accompagne les consommateurs ou utilisateurs de solutions data dans leur choix d’indicateurs et leur expression de besoin d’accès aux données Garantit l’alignement et la cohérence des solutions data Travaille en étroite collaboration aussi bien avec les équipes techniques que métier. Livrable : Script SQL Dashboard PV de recette
Mission freelance
Trélazé - Référent Fonctionnel N2
SRE - Sous l’autorité du SDM de la prestation, le référent Fonctionnel N2 est un acteur clé dans le dispositif Atos. Il doit être un facilitateur au quotidien et s’assurer notamment de: Exploitation Maintenance et fiabilité des systèmes : Assurer la disponibilité, la surveillance et la maintenance des infrastructures et services critiques. Gérer les incidents et les problèmes, y compris l’analyse post-mortem et l’implémentation des solutions correctives. Automatisation et optimisation : Développer et maintenir des outils d’automatisation pour améliorer l’efficacité opérationnelle. Optimiser les performances des systèmes pour garantir des temps de réponse rapides et une fiabilité élevée. Collaboration et communication : Travailler en étroite collaboration avec les équipes de développement pour intégrer les pratiques de fiabilité dans le cycle de vie du développement logiciel. Communiquer efficacement avec les parties prenantes sur les problèmes de fiabilité et les mesures correctives. Planification de la capacité et gestion des risques : Évaluer et planifier les besoins en ressources pour soutenir la croissance et l’évolution des services. Identifier et gérer les risques associés à l’infrastructure et aux services. Innovation et veille technologique : Explorer et intégrer de nouvelles technologies et pratiques pour améliorer la fiabilité et les performances. Se tenir informé des dernières tendances et meilleures pratiques en matière de fiabilité des sites
Offre d'emploi
Ingénieur DevOps
Zsoft Consulting est une société de conseil, spécialisée dans les métiers d'ingénierie de développement logiciel. Nous travaillons principalement en étroite collaboration avec des grands comptes et également avec des PME. Depuis 2015, nous continuons à créer un environnement propice à l’innovation et à l’excellence. Dans le cadre de ce développement nous recherchons un Ingénieur DevOps. En tant qu'ingénieur DevOps, vous jouerez un rôle clé dans l'automatisation et l'optimisation des processus de déploiement, de monitoring et de gestion des infrastructures cloud ou on-premise. Vous collaborez étroitement avec les équipes de développement et d'exploitation pour assurer la qualité, la stabilité et la scalabilité des applications et des systèmes. Responsabilités Principales: Automatisation : Développer et maintenir des pipelines CI/CD pour assurer des déploiements continus et fiables. Infrastructure as Code (IaC) : Concevoir et gérer les infrastructures avec des outils comme Terraform ou Ansible. Monitoring et Logs : Implémenter et surveiller les systèmes de monitoring (Prometheus, Grafana, ELK, etc.) pour garantir la disponibilité des services. Collaboration : Travailler en étroite collaboration avec les développeurs pour intégrer les pratiques DevOps dans les cycles de développement. Cloud Computing : Déployer et gérer des applications dans des environnements cloud (AWS, GCP, Azure). Sécurité : Participer à la mise en œuvre des bonnes pratiques de sécurité dans les pipelines et les systèmes. Compétences Techniques Requises: Systèmes : Bonne maîtrise des systèmes Linux (CentOS, Ubuntu) et bonne connaissance de Windows Server . Conteneurisation : Expérience avec Docker et orchestration via Kubernetes . Outils CI/CD : Familiarité avec des outils comme Jenkins, GitLab CI/CD, ou GitHub Actions. Infrastructure as Code (IaC) : Connaissance de Terraform , CloudFormation ou Ansible. Langages de script : Compétences en Bash , Python ou Go pour automatiser les tâches. Cloud : Expérience avec au moins un fournisseur cloud ( AWS, GCP, Azure ). Versionning : Bonne maîtrise de Git et des workflows Git ( GitFlow, GitOps ). Monitoring : Expérience avec des outils comme Prometheus, Grafana, ou des solutions APM ( Datadog, New Relic) .
Mission freelance
Expert Intégrateur BI - SAP FC
Nous sommes à la recherche d'un Expert Intégrateur BI - SAP FC dans le cadre de la mise en place d’un outil de Dataviz branché en aval de l’outil de consolidation Groupe SAP FC. Profil Technico - Fonctionnel 5 ans d'expérience effective exigée (minimum) dans ces missions. Le projet sera composé de plusieurs volets : Volet principal Outil de BI comprenant : - La mise en place d’un outil de BI performant et intuitif, avec une interface Excel disponible (en vue de répondre a minima aux besoins actuels) et avec une BDD indépendante de l’outil SAP FC permettant de restituer les données de consolidation - La mise en place d’une interface avec SAP FC permettant la récupération des données issue des traitements de consolidation en moins de 5 minutes. Volet Reprise de données et paramétrages comprenant : - La vague 1 de reprise de données pour pouvoir initier l’exploitation des données historisées : données réelles mensuelles YTD de fin avril à fin décembre 2024 (8 périodes), du budget annuel (1 période) et mensualisé (12 périodes) 2025, de l’estimé 1 2025 (1 période) et des premières clôtures réelles mensuelles YTD de fin février à fin mai 2025 (4 périodes). - La vague 2 de reprise de données suivra dans un planning restant à définir en vue de couvrir les données réelles mensuelles YTD de fin décembre 2019, YTD de fin décembre 2020, YTD de fin décembre 2021, YTD de fin décembre 2022, YTD de fin décembre 2023, puis les périodes restantes YTD de février et mars 2024. Des arbitrages sur les périodes historiques reprises seront menés en fonction du coût et des délais requis pour ces opérations de reprise. La reprise des données historiques de la « vague 1 » devra cependant permettre une reprise aussi industrialisée que possible étant entendu que le modèle de données demeure hérité de SAP FC (simplification du processus de reprise). - Le paramétrage de l’interface utilisateur de l’outil BI suivant les profils d’utilisateurs - Le paramétrage des droits d’accès aux données suivant les profils d’utilisateurs (doivent correspondre aux droits déjà présents dans SAP FC) Volet Infrastructure comprenant: - les travaux sur l’infrastructure techniques, installations d’environnements, reprise de données, VAT, mise en production. - Le respect des aspects sécurité des systèmes et cybersécurité dans un contexte de données ultra sensibles avec des utilisateurs à l’international, y compris hors UE
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.