Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Responsable de Plateforme Data
En partenariat avec un client financier établi de GloComms, nous recherchons un responsable senior de la plateforme de données pour aider à diriger le développement et la gestion de la plateforme de données existante. Role: Responsable de Plateforme Data Lieu: Paris Hybride Teletravail Debut: Novembre/Decembre Role: Superviser la création et l'entretien d'une infrastructure et d'une plateforme de données sûres, évolutives et performantes. Travailler avec les équipes de Data Science, Data Engineering et Quant pour s'assurer que les pipelines de données et les procédures s'intègrent de manière transparente. Superviser le développement de services et de parties communes utilisés par les équipes Data et Quant. Réduire le temps de mise en production en rationalisant les opérations de développement à l'aide de l'automatisation et de modèles réutilisables. Superviser un groupe multidisciplinaire d'ingénieurs en logiciels, en fiabilité des sites et en DevOps. Établir, mettre en pratique et garder un œil sur les KPI qui sont liés à la valeur de l'entreprise et à l'expérience de l'utilisateur.
Offre d'emploi
DBA Sybase/SQLServer
En tant que DBA Sybase/SQLServer : - Prise en charge des sujets de refresh de plateforme OS Sybase ASE - Prise en charge des sujets de migration de Sybase vers sqlserver - Développement et maintenance de scripts powershell et ksh pour automatiser les taches - Audit régulier des bases de données Sybase ASE 16 & MS-SQL ( SQL, SSAS, SSIS, SSRS ) - Maintien en conditions opérationnelles des SGBD du périmètre - Supervision des SGBDs de Production du périmètre ( sqlserver 2014 à sqlserver 2022, Sybase ASE 16 ) - Prise en compte et traitement des incidents et des appels des utilisateurs - Participation aux cellules de crise - Contrôle et livraison des modifications de structure de base, - Prise en charge des demandes de Mise en Production, - Prise en compte des demandes d'interventions sur les différentes technologies SGBDs - Prise en charge de l'installation, l'administration et l'optimisation avec analyse de performances des serveurs SGBDs - Assistance aux équipes études pour le contrôle et l'optimisation des requêtes SQL et procédures stockées - Participation aux exercices de continuité et de disponibilité et maintenance des procédures associées. - Réalisation et maintenance de la documentation d’exploitation des bases de données. - Participation aux projets de veille technologique (Nouvelles fonctionnalités SQL2022, Interfaçage Polybase - Hadoop) - Participation au projet bases de données sur Cloud Azure ( SQLServer, Analysis Services, PowerBI ...), AWS et GCP. - Application de la politique générale de sécurité. La mission proposée est soumise aux dispositifs d'astreintes et horaires décalées. Contexte : Environnement multi SGBD majoritairement SQLServer avec du Sybase et mySQL/PostgreSQL. Expertises spécifiques : Accompagner les métiers sur leurs projets, initiatives, évolutions, être proactif. Assurer aux utilisateurs de l’Asset Management un bon niveau de qualité de support. Etre force de proposition sur les évolutions d'infrastructures techniques et logicielles en garantissant le traitement, les refreshs et la prévention de l'obsolescence Déploiement de l’Agile, du Devops, XLDeploy, MyCloud et Cloud AZURE.
Mission freelance
Data Analyst - H/F - Lille (59)
Sous la responsabilité du responsable qualité & efficience, au sein de la Relation Client, vous travaillerez en étroite collaboration avec les différents métiers de la relation Client et de l’expérience clients auprès desquels vous insufflez votre vision “data centric”. “ Voice of customer analyst” vous produisez des métriques et des analyses dans l’optique de mesurer la qualité de nos process et la satisfaction clients, en identifiant les risques et les opportunités associés. Vous jouez un rôle clé de business partner dans la prise de décision des choix opérationnels et en les challengeant par de la donnée et des analyses fiables. Votre quotidien s'articule autour de la mesure, l’analyse et l’animation des données de la satisfaction client, et des actions d'amélioration continue : Garantir la fiabilité et la cohérence des données et des reportings sur le périmètre. Construire en autonomie des tableaux de bord dans les outils dataviz de l’entreprise (Qualtrics, Power BI, data studio,...) Réaliser des analyses approfondies en croisant les différentes sources de données notamment à partir des relevés des enquêtes d’écoutes téléphoniques ou bien notre NPS depuis l’interface Qualtrics et définir les modalités de diffusion des résultats. Proposer des nouveaux regards et approches, en proximité avec les besoins et les priorités du métier de l'équipe Relation Client et les partenaires.
Offre d'emploi
Ingénieur DevOps Expérimenté
Bonjour, Nous sommes à la recherche d'ingénieurs DevOps pour notre client de renom basé en France. Dans le cadre de cette mission, vous serez responsable de la gestion et de l'optimisation des infrastructures cloud et on-premise. Vous interviendrez dans un environnement technique exigeant et contribuerez à l'automatisation des processus de déploiement et de supervision. Vos principales responsabilités seront : Automatisation des processus CI/CD pour assurer des déploiements continus et fiables. Supervision et optimisation des environnements de production. Maintenance et gestion des infrastructures cloud (AWS, Azure, GCP) et on-premise. Résolution des incidents et amélioration des performances des systèmes. Collaboration avec les équipes de développement pour garantir une intégration fluide. Mise en place de solutions de monitoring et de sécurité pour assurer la stabilité des environnements.
Mission freelance
Lead Tech IaaS / Cloud DevOps
Technologies : IaaS (Windows/linux, VM Cloud), GCP, GCE, MIG, Filestore, Terraform, Ansible, Python Descriptif de la prestation : Dans le cadre de la plateforme IaaS, le Lead Tech a pour mission de guider et orienter l'équipe dans ses choix technologiques tout en adoptant une posture de coach technique. Il travaillera en étroite collaboration avec le Product Owner (PO) pour assurer la réussite des projets. Responsabilités : - Participer activement à l'ensemble des cérémonies Agile de l'équipe IaaS. - Servir de point de contact technique entre la plateforme IaaS et les autres plateformes Cloud. - Co-construire et alimenter le backlog en collaboration avec le PO. - Contribuer directement à la réalisation des sujets techniques, au même titre que les membres DevOps de l'équipe. Compétences requises : - Excellente maîtrise des environnements GCP (ou AWS/Azure), notamment sur les problématiques IaaS et Cloud Functions/Lambda. - Expertise dans l'utilisation de Terraform, Ansible et Python. - Expérience confirmée du travail en environnement Agile et en collaboration étroite avec des équipes. Objectifs : - Collaborer avec le PO pour alimenter le backlog de l'équipe IaaS (utilisation de Jira et Confluence). - Contribuer à la réalisation et la livraison des tickets techniques issus du backlog
Mission freelance
Data Analyst
Nous recherchons un Data Engineer dont la mission sera d'assurer la publication et l'exploitation efficace des données au sein de l'entreprise. Vous serez également responsable de la conception d'algorithmes intelligents à partir de ces données et du suivi des bonnes pratiques data. Tâches et responsabilités : Publication et gestion des données : Garantir la disponibilité et la qualité des données publiées pour l’entreprise (maintenance des données existantes, intégration des nouvelles données). Accompagner les autres produits internes qui consomment ces données, en assurant la bonne intégration et l'utilisation efficace des sources de données. Marketing interne des usages des données : promouvoir et sensibiliser les équipes aux différents usages possibles des données au sein de l’entreprise. Conception d'algorithmes intelligents : Concevoir, développer et implémenter des algorithmes intelligents basés sur l'exploitation des données disponibles. Proposer des solutions innovantes pour valoriser les données et répondre aux besoins métiers de l’entreprise. Amélioration continue des processus data : Challenger les pratiques et les outils existants en matière de gestion et exploitation de données. Apporter des améliorations pour optimiser l'efficience des processus data de l’entreprise, que ce soit en termes de qualité, rapidité ou efficacité. Collaboration et mobilisation des compétences internes : Collaborer étroitement avec les équipes data de l’entreprise pour assurer une synergie entre les différentes compétences (data scientists, data analysts, ingénieurs data). S'entourer des expertises internes pour mener à bien les projets de publication et d'optimisation de données.
Mission freelance
Consultant DevOps
Technologies : AMQ, KAFKA, APIGEE, BUCKET GCP, Scripts, code Terraform pour CI/CD, Procédures, Scripting (Shell, Python), Git, Argo, Kubernetes, Ansible Descriptif de la prestation : Participer au sein de l'équipe Plateforme Échanges en tant que DevOps dans un contexte Agile (Agile Master + Product Owner) sur des évolutions spécifiques des plateformes d'échanges AMQ, KAFKA, APIGEE et BUCKET GCP. Améliorer l'industrialisation, la sécurisation, la résilience et la supervision des plateformes d'échanges : AMQ, KAFKA, APIGEE, Bucket GCP et SFTP. Travailler sur la résilience d'APIGEE et KAFKA, ainsi que sur l'accompagnement auprès des équipes produits vers la fin d'usage d'AMQ. Mise en place du portail APIGEE Integrated Portal. - Cloud Provider Public (idéalement GCP) - Scripting (Shell, Python) - Terraform, Git, Argo, Kubernetes, Ansible, scripts, code Terraform pour CI/CD, procédures
Mission freelance
Développeur Back Search engine
En tant que développeur Search Engine, vos missions incluent : Optimiser les résultats de recherche du site en améliorant leur pertinence grâce au Machine Learning. Participer activement à toutes les phases du cycle agile : conception, développement, test, déploiement et maintenance des nouvelles fonctionnalités. Appliquer et remettre en question les recommandations d’architecture, de sécurité et de performance pour garantir la qualité et la robustesse des développements. Collaborer avec l’équipe pour élaborer le contenu des prochaines versions. Trouver des solutions techniques en équipe pour atteindre les objectifs fixés. Documenter les aspects techniques et partager les connaissances avec les autres développeurs. Contribuer à l’amélioration des processus de livraison des produits en utilisant les outils DevOps et les méthodes agiles.
Mission freelance
Développeur FullStack (Java, Angular, Kubernetes) - Lille - 12 mois
Développeur Fullstack - 12 mois - Lille Un de nos importants clients recherche un Développeur Fullstack expérimenté pour une mission de 12 mois sur Lille. Veuillez trouver le descriptif de la mission ci-dessous: À la demande du Métier, il analyse, paramètre et code les composants logiciels applicatifs dans le respect des évolutions souhaitées, des normes et des procédures. Nous recherchons 1 développeur fullstack expérimenté avec idéalement des compétences devOps éprouvées Ce développeur intégrera l'équipe Client du centre de développement digital. L’équipe est en charge des fonctionnalités associés au compte client du site internet. Elle intervient sur : - L'authentification / gestion du compte client - Historique - Listes des achats L'équipe cible sera constituée de: - 1 PO - 1 QA - 4 à 6 développeurs Le développeur s'intégrera dans une équipe produit auto-gérée, qui fonctionne en agilité dans la gestion de son backlog qui s’anime autour de rituels Scrum. Les pratiques devOps sont privilégiées, l'équipe assure le BUILD et le RUN du produit (support de dernier niveau) Le développeur aura pour mission de : - développer les nouvelles features qui enrichiront le produit - intégrer son code dans la CI - tester unitairement ses développements (manuels, automatisés) - déployer ses développements dans les différents environnements d'intégration, de qualification, et de production - participer au maintien et à la mise en place des outils aidant à la production au sein du centre de développement (CI, env hors prod, env de prod etc) - participer à la mise en place / à jour et à l’amélioration des outils et process de production du CDD Profil: - Être à l'aise avec JAVA Spring MVC (Java 11) et les architectures microservices (connaissances Spring webflux / Spring intégration / Spring batch) - Avoir des connaissances dans un framework front (VueJS, AngularJS, ReactJS) - Idéalement VueJS - Avoir des connaissances dans les bases de données relationnelles et non relationnelles (MongoDB / Postgres) - Avoir des notions solides en API REST - Connaître les concepts et savoir manipuler les conteneurs, il sera amené à travailler dans un environnement K8S - Avoir développé dans ses précédentes missions ou sur des projets personnels des compétences devOps - Mettre en place et améliorer des chaînes d’intégration continue, des outils de métriques / d’alerting et de monitoring - Savoir déployer sur différents environnements les applicatifs qu’il aura développés - Utiliser des outils de déploiement (Helm / Ansible) - Savoir utiliser Kubernetes (utilisation de kubectl) - Connaître une solution d'authentification (Keycloak) serait un plus Si cette mission vous intéresse merci de m'envoyer votre CV et je reviendrai vers vous dès que possible avec les détails.
Offre d'emploi
Profil OPS
Bonjour, Afin que votre candidature soit prise en compte merci d'envoyer votre CV sous format Word directement à l'adresse suivante : et non via le site par lequel vous avez consulté cette annonce : Nous recherchons un consultant OPS GCP Compétences techniques Orchestration de conteneurs - Expert - Impératif CI/CD & Automatisation - Confirmé - Impératif Architecture microservices - Confirmé - Impératif Connaissances linguistiques Anglais Professionnel (Secondaire) Description détaillée En tant que DevOps vous participerez aux différents chantiers d’évolution de la plateforme et vous intégrerez l’équipe OPS GCP qui comprend 8 personnes Vos missions • Maintenir en condition opérationnelle les infrastructures en diagnostiquant les pannes et les dysfonctionnements • Configurer et dimensionner les plateformes en fonction des performances requises • Industrialiser les architectures cibles et configurer les équipements (CI / CD) • Mettre en place des procédures et outils de surveillance permettant de garantir la haute disponibilité des infrastructures • Effectuer le suivi des coûts des différents composants et applications (FinOps) Compétences De formation supérieure en informatique, vous avez déjà exercé une fonction de Tech Lead OPS sur Google GCP. Vous êtes un expert technique et vous maitrisez les modules suivants : • Orchestration de conteneurs : Kubernetes • De bonnes connaissances sur Linux et réseaux • Bases de données : Postgres – Redis – Couchbase - Kafka • Connaissance des principes de monitoring (ELK, Prometheus, Grafana, …) • Compétences en CI/CD (Gitlab CI, Jenkins, Nexus, ArgoCD …) • Maitrise en Automatisation et en gestion de configuration IAC ( Terraform / Ansible ) • Maitrise des architectures microservices et de leur gestion Capable de challenger les équipes et force de proposition, vous faites preuve d’un leadership naturel vous permettant d’entraîner l’équipe OPS vers la réalisation de vos objectifs. Une certification Kubernetes ( CKA ou CKAD ) et GCP ( Professionnal Cloud Architect ou Cloud DevOps Enginer ) serait un atout différenciant. Vos capacités de coopération et d’orientation service et clients sont déterminantes. Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format Word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.
Mission freelance
Développeur Back
Python - Expert - Impératif GCP - Confirmé - Important Java - Junior - Souhaitable Terraform - Junior - Souhaitable Connaissances linguistiques: Anglais Lu, écrit (Impératif) Description détaillée En tant Développeur Back-end, vous interviendrez sur le produit Data Pipelines, qui rassemble un ensemble d’outils permettant aux équipes produits d’Adeo de construire et monitorer leurs data pipelines en complète autonomie. A ce titre, voici vos missions : Développer des microservice en APIs first Participer aux prises de décisions relatives à l’architecture et à la sécurité des solutions dans un environnement Cloud (GCP). Concevoir des outils facilitant le développement de modules. Communication entre micro service Développement d’un scheduler / Développement d’un dispatcher Mise en place d’outils de monitoring Assistance des utilisateurs sur le run technique MOB, Pair review
Offre d'emploi
Développeur Node Js
Nous recherchons notre prochain Développeur Node Js Sénior, mobile à hauteur de 3 jours par semaine sur Valbonne, pour renforcer l'équipe en charge du moteur de recherche de la section TV. Vous travaillerez sur des projets clés utilisant Algoléa, un outil central au sein de l’équipe pour le traitement et la gestion des requêtes de recherche. Missions : -Traiter les requêtes de recherche liées à la partie TV, en optimisant la performance et la rapidité des réponses. -Travailler en autonomie pour comprendre et résoudre les problématiques techniques, tout en s’intégrant efficacement dans une équipe collaborative. -Produire du code propre, performant et rapide, permettant d'améliorer l'expérience utilisateur finale. -Utiliser GCP (Google Cloud Platform) pour l'implémentation et la gestion des services de backend nécessaires au bon fonctionnement du moteur de recherche. Environnement : -Node.js : Maîtrise parfaite de la technologie, capable de développer, déboguer, et optimiser du code backend. -Algoléa : Connaissance de l’outil et capacité à l’utiliser pour gérer les requêtes de recherche et les flux de données. -GCP (Google Cloud Platform) : Expérience dans la gestion des services cloud, y compris le déploiement, la gestion des bases de données, et l'optimisation des performances.
Offre d'emploi
Ingénieur Cloud GCP H/F
Dans le cadre de notre croissance, nous recrutons un(e) Ingénieur Cloud GCP. Le poste est basé à Paris (possibilité de télétravail selon la mission). Votre rôle s'articule autour de différents axes : En tant qu'Ingénieur Cloud GCP, vous serez responsable de la migration et de l'optimisation des applications vers l'environnement cloud Google Cloud Platform (GCP). Vous rejoindrez une équipe dédiée au projet Move-to-cloud, en charge du build et de la migration des applications critiques pour les clients internes et externes. Vous jouerez un rôle clé dans l'automatisation des infrastructures, la conception des architectures et l'intégration des solutions cloud. Missions principales : - Infrastructure as Code (IAAC) : Développer et maintenir des modules Terraform pour automatiser le déploiement des infrastructures sur GCP via des pipelines de déploiement. - Migration Cloud : Gérer la migration des applications vers les services cloud, incluant des services tels que GCP App Engine, GCP Compute Engine, et d'autres services GCP pertinents. - Architecture Cloud : Participer à la conception des architectures cloud, en assurant une intégration fluide des applications et des bases de données dans les environnements GCP. - Provisioning : Déployer et configurer les infrastructures cloud, incluant les services réseau, les composants de sécurité et les services de bases de données sur GCP. - Automatisation et CI/CD : Intégrer des pipelines CI/CD pour assurer des déploiements continus et fiables, en utilisant des outils d'intégration comme Cloud Build ou GitHub Actions. - Kubernetes : Administrer des clusters Kubernetes sur GCP, en assurant une orchestration efficace des conteneurs et une gestion des applications déployées. - Collaboration Agile : Travailler en étroite collaboration avec les équipes de développement et les parties prenantes en suivant les méthodologies agiles pour assurer la réussite du projet.
Mission freelance
ingénieur cloud azure et GCP - 550€ max
Missions Maitrise de l’offre Cloud Microsoft Azure et GCP Gestion des serveurs cloud et outillages associés Installer et Administrer les services IaaS et PaaS en relation avec nos partenaires Cloud Maintien en condition opérationnelle de niveau 3 sur les environnements Cloud, Windows Servers, Linux Servers en lien avec les hébergeurs et infogérant. Documenter l’ensemble des solutions (DINS, DEX,..) Compétences et qualités personnelles Vous avez une expérience solide sur Azure et GCP ainsi que sur les outils d’automatisation (Terraform) et de CI/CD. Bonnes connaissances des serveurs Windows et Linux Bonne qualité rédactionnelle Connaissances dans la rédaction de cahier des charges, documentation d’architecture et d’exploitation Connaissance du référentiel ITIL serait un plus Vous êtes autonome, rigoureux et polyvalent. Vous avez un bon niveau d'anglais. Environnement: • OS: 90% Windows servers, 5% Linux servers, 5% PaaS • Cloud: 85% Azure, 10% GCP, 5% Aliyun
Offre d'emploi
Cloud Architect (DataOPS/MLOPS)
Dans le cadre de son désir de développer de nouveaux cas d'usage de l'IA dans le cloud, le DataLab Group souhaite exploiter toute la puissance du cloud pour tirer parti des capacités des modèles d'IA propriétaires et open-source. Objectif : - Aborder les sujets liés à l'IA générative en lien avec les offres AWS (Bedrock, SageMaker, etc.), en mettant l'accent sur les concepts clés (LLM, RAG) et les défis actuels tels que la scalabilité, les coûts et les optimisations ; - Superviser l'intégration fluide de ces modèles d'IA avancés dans notre infrastructure cloud ; - Optimiser l'utilisation des ressources, l'assurance de l'évolutivité et la promotion de la collaboration entre les équipes de développement et d'exploitation. Responsabilités : - Accompagner l'équipe technique dans les meilleures pratiques de développement et d'intégration continue ; - Collaboration avec les parties prenantes : Établir et maintenir des canaux de communication efficaces avec divers acteurs, y compris les dirigeants, les clients et les équipes internes ; - Mise en place d'une architecture permettant le déploiement continu de modèles d'apprentissage automatique ; - Travailler en étroite collaboration avec les équipes de développement pour intégrer les pratiques DevOps dans le cycle de développement ; - Créer des POC (Proof of Concept) de tests d'intégration dans Kubernetes, démontrant le potentiel des pipelines de déploiement automatisés et efficaces ; - Concevoir l'architecture des composants AWS responsables du stockage et de l'intégration des données ; - Gérer et maintenir l'infrastructure as code, en utilisant des outils tels que Docker, Kubernetes et Terraform ; - Optimiser les flux de travail existants en identifiant les goulets d'étranglement et en proposant des solutions d'amélioration ; - Surveiller les performances du système, l'efficacité des processus et la disponibilité des services en implémentant des métriques et des outils de monitoring.
Offre d'emploi
ingénieur DevOps cloud expérimenté Google Cloud Platform et Azure
Dans le cadre du développement vers le cloud public de notre client, nous sommes à la recherche d'un ingénieur cloud expérimenté sur Google Cloud Platform et Azure. Le but de cette mission sera d'implémenter, sur la base de scripts terraform, les architectures techniques définies par nos architectes, participer à la gestion du catalogue de service et suivre le backlog des tickets affectés au centre d'excellence cloud. La mission s'oriente autour de 3 axes : Suivi des tickets Gestion du catalogue de service Création/maintenance de modules terraform / pipeline CI/CD dans le cadre de nos déploiements "Infrastructure as Code" ou du déploiement d'applications Le premier use-case défini est la mise en place automatisée du provisionning de VM dans le Cloud au sein de notre Catalogue de Services BUILD Pilote les demandes et la réalisation sur le périmètre technique Propose des évolutions sur les outils Gestion du backlog interne qui recense les évolutions à venir Promotion/explication/accompagnement sur les différents services du catalogue vis-à-vis des différents interlocuteurs de la DSI Accompagnement des projets (chefs de projets, développeurs, partenaires etc.) sur l'utilisation des modules existants ou la définition du besoin pour la modification/création de nouveaux modules RUN Collabore au point production quotidien Assurer un suivi quotidien des incidents, tâches et changes affectés au centre d'excellence (suivi, affectation, réalisation, mise à jour du statut quotidien, routage etc.) Réaliser un reporting hebdomadaire de l'activité Travaille avec les équipes Architectures et opérateurs de services managés pour mettre en œuvre les mises à jour, les correctifs ou le dépannage nécessaires à la résolution des problèmes sur la chaine CI/CD Participe à l'analyse et à la résolution des incidents et des problèmes du périmètre technique Déploiement d'infrastructures sur GCP et Azure sur la base des architectures définies par nos équipes Scripting terraform pour le déploiement ou la mise à jour des plateformes Intégration des scripts de déploiement de l'infra as code dans notre Gitlab CI Documentation (Low Level Design) des plateformes déployées Mise à jour des tickets (incidents, tâches et changes) Objectifs de la mission et tâches Mettre en place les bonnes pratiques d’exploitation avec notre opérateur de Service managés Apporter l’expertise sur les outils d’exploitation (CI/CD, Terraform, Monitoring, …) Plateformes déployées et opérationnelles Production de la documentation d'implémentation et d'exploitation Automatiser partout ou c’est possible
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.