Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Ingénieur Systèmes Red hat Satellite Ansible N3 (H/F)
Administration d'un parc de 45000 serveurs Linux RedHat RHEL8 et 9, on permise et dans le Cloud public. Dans un environnement bancaire sécurisé, remédié via Ansible Automation Platform. Administration d'infrastructures Satellite et IDM. Assure l'expertise de son domaine. - Valorise et gère les évolutions en adéquation avec les besoins fonctionnels ou techniques tout en assurant conseil, assistance, information, formation et alerte. - Effectue une veille technologique. Peut intervenir directement sur tout ou partie d'un projet qui relève de son domaine d'expertise et participer aux études de l'architecture générale et de son évolution ainsi qu'à la qualification des plates-formes informatiques. - Assure l'ingénierie d'installation et de paramétrage de plates-formes simples ou complexes. - Coordonne le cas échéant les différents acteurs qui interviennent dans le processus d'installation. - Conçoit, développe et intègre les capacités techniques s'appuyant sur les produits de son domaine d'expertise - Dans le cadre des projets, participe aux études d'évolution de l'infrastructure (DESIGN) : - Réalise la conception technique des nouvelles infrastructures ou produits techniques - En relation avec les Architectes, contribue à la réalisation des POC1 et prototypes - Participe aux études pour définir les infrastructures et / ou les produits nécessaires aux besoins des projets et au Maintien en Condition Opérationnelle des Infrastructures et / ou des produits - Peut être amené à participer à l'installation des infrastructures ou produits, le paramétrage et la validation des composants de l'infrastructure - Garantit la disponibilité des ressources techniques - Intervient, en expertise de Niveau 3 sur les incidents complexes de fonctionnement - Réalise des diagnostics pour identifier les causes de dysfonctionnement et propose des corrections et des solutions de contournement - Définit et met en œuvre les règles de bonne gestion et d'exploitabilité des systèmes ou produits et les qualifie d'un point de vue technique - Contribue à la réalisation des actions de capacity planning voire en assure la responsabilité sur délégation de son responsable Propose des solutions pour améliorer les performances des systèmes - Assure l'expertise de son domaine, propose et gère les évolutions en adéquation avec les besoins fonctionnels ou techniques : - Effectue la veille technologique sur les produits - Participe aux études ou évolutions de l'architecture technique générale et ainsi qu'à la qualification des plates-formes informatiques - Assure l'interface avec les experts des autres domaines.
Mission freelance
Développeur Cloud AWS/GCP Senior - Energie - Paris (H/F)
Contexte de la mission Rejoignez un acteur incontournable du secteur énergétique en France, situé à Lyon et Nanterre, engagé dans une transformation digitale et technologique majeure. Dans le cadre du renforcement de notre équipe dédiée au cloud computing et aux opérations de FinOps, nous sommes à la recherche d'un Développeur Cloud AWS/GCP expert. Au sein d'une équipe dynamique et innovante, vous collaborerez sur des projets d'envergure visant à optimiser l'utilisation des ressources cloud et à générer des économies significatives. Ce poste est ouvert en raison d'un accroissement de nos activités et de la mise en place d'une nouvelle stratégie orientée cloud natif. Missions : Principales : - Développer et mettre en œuvre des solutions d'infrastructure-as-code (IAC) utilisant Terraform, centrées sur AWS et GCP. - Écrire et maintenir des scripts d'automatisation en Python pour optimiser les coûts et l'efficacité des ressources cloud. - Participer activement à la stratégie FinOps de l'entreprise, proposer et mettre en œuvre des optimisations de coûts sur les environnements cloud. Annexes : - Contribuer à la veille technologique et à l'adoption de meilleures pratiques au sein des équipes Cloud et FinOps. - Accompagner les projets de transformation cloud et orienter les choix architecturaux vers des solutions optimales en termes de coût et de performance.
Mission freelance
Azure Data engineer & BI
Nous recherchons pour notre client un data engineer pour une mission longue a Gennevilliers Contexte de la mission - Equipe : DataFab qui se compose de 12 collaborateurs : dont 1 manager, 2 Architecte Data, 3 BI et 6 Data Engineer; Missions et tâches : Mission principales ; Mise en oeuvre de projets data ▪ Data engineering : mise à disposition des données dans le datalake au format delta lake (Azure Databricks) ▪ Conception des flux data ▪ Développement des pipelines de données avec ADF et Databricks (ingestion Bronze/ Implémentation Silver) ▪ Mise en oeuvre avec le superviseur des flux du monitoring de ceux-ci ▪ Intégration des tests unitaires o Analyse & BI : ▪ Analyse des besoins ▪ Conception, élaboration et déploiement des rapports et tableaux de bord sous Power BI à partir du Gold ▪ Modélisation des datamarts ▪ Analyses de données et Requêtages ▪ Maintenance évolutive et corrective o Coordination des intervenants SI o Rédaction de spécifications & Documentation o Mise en place des exigences RGPD/SSI
Offre d'emploi
Data Architect GCP
L'architecte data est la personne responsable de la cohérence de bout en bout des données dans l'organisation en appliquant les règles de l'architecture des données. Il est responsable de la modélisation des domaines de données et des business object. Il participe à tous les projets de l'entreprise afin de définir les impacts sur l'architecture de données existante et de la faire évoluer vers la cible. Activités principales : Data Architecture : - Établir et appliquer les principes de l'architecture des données - Encadrer et valider l'architecture des données dans les projets - Capacité de remettre en question les implémentations de données dans les systèmes opérationnels, business intelligence et la data science afin de s'assurer de leur conformité. - Veiller à ce que la conception des solutions permette la mise en oeuvre des business object. Data Governance : - Participer aux revues de projet et prend des décisions sur l'architecture des données. - Identifier et diagnostiquer les dysfonctionnements, les incidents, les non-conformités et soutenir la formalisation des scénarios de remédiation. des scénarios de remédiation. Data Quality : - Exprimer les exigences de qualité des données, avec les data owners, que les solutions doivent assurer. - Analyser la performance du système d'information et recommander des mesures d'amélioration de la qualité, la sécurité et la productivité Data Modeling : - Maintenir les diagrammes du modèle sémantique (avec les principaux business object) et la data domain map. - Soutenir les projets dans la création de data model et les valider. Metdata Management : - Développer, avec les data owners, un vocabulaire commercial commun et les définitions associées. - Gerer un inventaire de données dans les solutions opérationnelles (à l'aide de l'outil de gestion des métadonnées). - Maintenir, avec les business analysts, product owners et les enterprise architect, l'application "Business object associations. Data Integration : - Capacité d'esquisser des conceptions d'intégration inter-applications de haut niveau. Data Transformation : - Encadrer les équipes chargées des données (business analysts, data owners, analystes et ingénieurs du groupe, de la zone et des BU) et les équipes projet en ce qui concerne l'architecture des données (data modeling, integration pattern, etc.). - Diriger des ateliers sur l'architecture des données afin d'améliorer les pratiques. - Soutenir l'approche de l'architecture en créant des contenus de vulgarisation, de formation et de communication.
Mission freelance
Data Steward
En tant que Data Steward pour le domaine, vous dirigerez les initiatives de modélisation des données et d'amélioration de la qualité, en travaillant en étroite collaboration avec les équipes métiers, produit et techniques pour garantir une gouvernance des données appropriée et une conformité aux normes. Qualité des données & Modélisation : Piloter les initiatives de modélisation des données en suivant les exigences internes. Garantir l'utilisation sémantique appropriée et la cardinalité dans les modèles de données. Valider les structures de données avec l'équipe d'architecture. Maintenir les standards de qualité des données dans le domaine concerné. Animation des parties prenantes : Coordonner avec les Chefs de Projet (propriétaires des données). Faciliter les discussions entre les équipes métiers et techniques. Guider les équipes techniques dans l'amélioration des structures API/événements. Travailler en étroite collaboration avec les équipes produit pour intégrer les sujets de données dans la feuille de route. Collaborer avec l'équipe d'architecture pour la validation des modèles. Compréhension des processus métier : Analyser les processus métier existants. Proposer des recommandations initiales pour l'architecture des données. Garantir l'alignement entre les besoins métiers et les structures de données. Documenter les flux de données et les dépendances. Support à la mise en œuvre technique (20%) : Guider l’exposition des données selon les modèles validés. Supporter la restructuration des sujets Kafka et des API de points de terminaison. Superviser la mise en œuvre de la qualité des données. Valider les solutions techniques.
Mission freelance
Ingénieur DevOps Kubernetes Terraform (H/F)
L’équipe XXX est responsable des deux services XFactory et XConfiguration pour le maintien en condition opérationnelle et le développement des templates d'OS serveur linux RedHat/CentOS du cloud privé interne de la banque En tant qu’un ingénieur DevOps précisément Ops. - Assurer le maintien et le bon fonctionnement de ces deux services précédemment cités en amont et de contribuer à leur amélioration - Amélioration des outils et les processus d'installation et d'administration des serveurs RedHat/CentOS - Gestion des incidents, des problèmes et des évolutions des produits développés et maintenus par l'entité. - Assistance pour les entités de développement dans la définition de leurs architectures techniques en prenant en compte leurs besoins et contraintes tout en respectant les standards et les critères de sécurité. Différentes taches ont été réalisées pour atteindre ces objectifs parmi lesquelles nous avons : - Automatiser la création des ressources via les ressources Terraform de la plateforme, des scripts pythons et ansible pour la configuration système des serveurs de ces deux services (XFactory et XConfiguration). - Mettre en place des scripts de pipeline Jenkins pour le déploiement en pré-prod et en prod des nouvelles versions de nos services. - Déploiement en ‘’blue/green’’ avec les processus de rollback intégrés au niveau des pipelines Jenkins - Mettre en place un système d’alerting, de suivi et de monitoring de nos services via Prometheus et des dashboards en utilisant Grafana et Kibana - Automatiser certaines tâches via des images dockers et des cronjobs kubes Environnement technique : Docker, Bash, Linux, Python, CentOS, Rhel, Jenkins, Kubernetes, Prometheus, Grafana, Kibana, Ansible
Offre d'emploi
Ingénieur.e DevOps
En tant qu’ingénieur.e DevOps, vous serez chargé.e d’assurer l’intégration, le déploiement et le support des applications dans l’environnement de production Cloud (GCP / Openshift) via des pipelines CI/CD. Votre rôle Analyse des besoins et veille technologique · Recueillir les informations et analyser les besoins en équipements matériels et logiciels · Préconiser et conseiller sur les choix de solutions informatiques en collaboration avec les architectes, les experts métiers et techniques tout en respectant les standards définis par l’entreprise · Rédiger les cahiers des charges et les appels d’offres puis analyser les propositions des fournisseurs en termes de performance, fiabilité et compatibilité · Réaliser une veille technologique pour optimiser les ressources systèmes de l’entreprise Mise en place et intégration · Concevoir ou paramétrer les logiciels sélectionnés en fonction des besoins identifiés · Configurer et dimensionner les solutions matérielles selon les performances requises · Tester les systèmes mis en place et veiller à la compatibilité des éléments entre eux · Contribuer à la validation technique lors des mises en production · Veiller à la sécurité et la fiabilité des systèmes de l’entreprise Exploitation · Valider l’installation et l’intégration des nouveaux outils (systèmes, réseaux et télécoms) · Diagnostiquer et résoudre les incidents ou anomalies tout en assurant leur suivi · Participer aux actions correctives de maintenance en veillant à leur qualité · Proposer des améliorations pour optimiser l’utilisation et l’organisation des ressources existantes · Rédiger et mettre à jour la documentation des procédures et consignes d’exploitation · Assurer le transfert de compétences et l’assistance technique aux équipes d’exploitation ainsi que leur formation si nécessaire Sécurité · Respecter et suivre les règles de sécurité définies par l’entreprise · Appliquer les plans de sauvegarde et de secours définis · Assurer la sécurité physique des données en termes de sauvegarde et d’archivage
Offre d'emploi
TechLead Data GCP
Je recherche pour un de mes clients un TechLead Data : Missions principales : • Accompagner les Data Engineers sur les bonnes pratiques, les choix d’architecture et dans leur travail au quotidien • Effectuer les audits et les contrôles des développements réalisés : Sécurité, Maintenabilité, Robustesse et Performance • Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement • Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d’assurer la qualité des développements réalisés par l’équipe • Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants • Rédiger la documentation technique des data products • Assurer un support aux testeurs • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Études d’impact technique • Faire des propositions techniques • Schéma de solution des flux, modèle de données • Fournir des chiffrages détaillés des futures réalisations • Relecture de code technique • Rédaction de SFD, STD, Manuel d’installation • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements Compétences techniques : Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab, Flamingo • Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Manipulation des formats de fichiers : CSV, JSON, Avro, XML
Mission freelance
Architecte Technique Cloud Expert
Vous intégrerez l'équipe Architecte Cloud , en charge de l'évolution des Plateformes d'Échanges , afin de : Participer à la transformation des échanges sur Kafka et Apigee. Renforcer la résilience des plateformes existantes. Participer à la conception, au cadrage, et au suivi de l’implémentation des solutions choisies. Participation aux cérémonies agiles : Collaborer avec l’équipe architecte Cloud dans un cadre Agile. Conception et documentation : Rédiger un dossier de choix pour sélectionner une solution adaptée. Produire la documentation nécessaire au cadrage et à la validation de la solution. Accompagnement de la mise en œuvre : Travailler en étroite collaboration avec l’équipe Plateforme Échange PDV & Partenaires pour implémenter la solution. Dossier de choix de la solution d'échange. Documents de cadrage et d'architecture. Suivi et accompagnement de la mise en production.
Mission freelance
Data Engineer
Nous recherchons un consultant Data pour la création et l'amélioration continue des produits digitaux Eco-responsable et sociaux. L'objectif de ces produits digitaux est de mesurer l'impact environnemental et social des produits vendus notre client. Le consultant Data aura une dominance Data Engineer mais des compétences de Data Analyst sont également attendues - Collecter les données via des PIPELINE - Mesurer la qualité des données - Historiser les données - Créer des modèles optimisés - Créer des dashboards pour répondre aux besoins métiers Environnement technique sur lesquels une expérience significative est attendue et non une première formation - GCP & BigQuery - Terraform & Github - PowerBI Gen 2 - Python
Offre d'emploi
Consultant cybersécurité (H/F)
Gestion des processus de sécurité : Maintenir les procédures, la documentation et les KPIs liés à la sécurité opérationnelle. Opérations de sécurité : Gérer les outils (WAF, SIEM, CDN, Datadog), exécuter les tâches récurrentes, surveiller et analyser les activités suspectes. Réponse aux incidents : Identifier les menaces, analyser les alertes, coordonner les réponses, appliquer les correctifs et gérer les vulnérabilités. Intégration de la sécurité : Collaborer avec les équipes projets pour intégrer des pratiques sécurisées dans les applications et infrastructures. Audits et conformité : Participer aux audits annuels, évaluer les risques, gérer les accès privilégiés, et remédier aux vulnérabilités identifiées.
Mission freelance
Ingénieur de production -MCO Monétique de production- N4
Objectif global : Effectuer la mco du périmètre Monétique de production, l'intégration des nouveaux projets et l'administration récurrente des plateformes MISSIONS : Administration récurrente des environnements monétiques - Faire un suivi des incidents pour déceler les incidents récurrents et mettre en place les solutions curatives. - Gèrer les incidents, gèrer les problèmes, les changements, et les demandes de support. Mise en recette et mise en production des applications, - Administrer les plates-formes monétiques : systèmes (AIX, LINUX et WINDOWS), composants Applicatifs (Java, script …), applications (95% de gestion applicative et 5 % d’administration système), middlewares, logiciels d'infrastructure. - Relation avec les métiers, les éditeurs et mainteneurs pour les mises en production et le support constructeur. - La maîtrise de l'ordonnanceur VTOM est indispensable pour la mission - La maîtrise de XLDeploy et XLRelease indispensable pour la mission Maintien en condition opérationnelle - Surveiller l’évolution de la consommation CPU des applications du périmètre de l’unité et remonter les alertes aux responsables d’application Etudes. Surveiller la bonne gestion des fichiers applicatifs, des logs , des displays pour les applications du périmètre de l’unité. - Garantir et maintenir la documentation sur les applications, les modes opératoires et les bonnes pratiques. - Effectuer et valider la mise en œuvre des sauvegardes applicatives, légales et contractuelles. - Etablir et maintenir les consignes d’exploitation (batchs , systèmes répartis …), effectuer et valider l’instrumentation applicative. - Valider le bon fonctionnement applicatif suite aux opérations réalisées dans le cadre des plans de continuité. Intégration techniques sur la production applicative Monétique - Intégrer des nouvelles versions de logiciels applicatifs dans les environnements monétiques en respectant les normes en vigueur en faisant l’analyse d’impact de l’évolution applicative sur l’application touchée et les applications connexes. - Contrôler la conformité de la demande aux normes et standards de Production, et prise en compte des contraintes d’exploitation - Installer et tester les nouvelles versions de logiciels applicatifs dans des environnements de recette et d’homologation et en assurer un suivi technique durant la phase de validation fonctionnelle de l’évolution effectuée par la MOE ou le métier - Assister les métiers de Natixis à réaliser les recettes des applications - Gérer et/ou contribuer aux projets d’infrastructure touchant les architectures applicatives Monétique. La mission proposée est soumise à une participation au dispositif d'astreintes. Contrainte forte du projet : Monétique Front Office, environnement temps réel critique et sensible
Offre d'emploi
DATA ENGINEER GCP
Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement • Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants • Rédiger la documentation technique des data products • Assurer un support aux testeurs • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Faire des propositions techniques Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab, Flamingo Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Autonomie et rigueur • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Capacité à communiquer, à travailler en équipe et excellent relationnel • Proactivité et prise d’initiative
Mission freelance
CONSULTANT MOE DATA BI - SSIS - SQL Server - Azure Devops
Dans le cadre d'une mission longue chez l'un de nos clients à la Defense et pour un démarrage immédiat, nous recherchons un(e) Consultant technique MOE BI / Domaine Socle Data ▪ Type de prestation : Assistance Technique ▪ Expertise métier requise : BI ▪ Nombre d'années d'expérience : 7-10 ans minimum ▪ Descriptif détaillé de la mission : ➢ Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) ➢ Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. ➢ Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. ➢ Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. ➢ Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). ➢ Conseiller, proposer des axes d'amélioration, alerter si besoin. ▪ Environnement technique de la mission : ➢ Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) ➢ Reporting : COGNOS BI 10.2 et 11 & Tableau (le reporting n'est pas dans le scope, il s'agit d'une information)
Mission freelance
Consultant FinOps & GreenOps AWS / DevOps
Le candidat idéal devra être un expert AWS avec une solide maîtrise de Python et Terraform, et une forte expérience dans les pratiques FinOps et GreenOps . Cette mission consiste à coder, industrialiser et accompagner l’équipe dans la mise en œuvre de bonnes pratiques FinOps et GreenOps, tout en contribuant à l’analyse et la gestion des données financières et carbone. Gestion de l'infrastructure cloud : Prendre en charge la gestion de l'infrastructure cloud AWS, avec une connaissance complémentaire de GCP. Développement Python : Utiliser Python pour automatiser les processus et améliorer l'efficacité des opérations. Gestion des coûts cloud (FinOps) : Participer activement à la gestion des coûts via les bonnes pratiques FinOps, tout en contribuant à l'optimisation des ressources cloud. Optimisation de l'impact environnemental (GreenOps) : Appliquer des pratiques GreenOps pour réduire l'empreinte carbone des infrastructures cloud. Analyse de données : Gérer et analyser de grandes quantités de données financières et de données liées à l'impact carbone, en utilisant SQL pour la création et modification de requêtes. Collaboration et pédagogie : Travailler en étroite collaboration avec l’équipe technique et être capable de partager vos connaissances et bonnes pratiques avec les autres membres de l’équipe. Contributions à GitLab et Terraform : Contribuer à la gestion des modules Terraform dans GitLab, déployer et gérer les pipelines d'intégration continue (CI/CD). AWS : Expertise avancée dans la gestion d’infrastructures cloud sur AWS (la connaissance de GCP est un plus). Python : Maîtrise du développement Python pour automatiser des tâches dans un environnement cloud. Terraform : Expérience dans l’utilisation de Terraform pour la gestion de l’infrastructure en tant que code. FinOps : Très bonne connaissance des pratiques FinOps pour la gestion des coûts cloud, avec une capacité à coder et à industrialiser les processus. GreenOps : Compréhension des principes de GreenOps pour optimiser l'impact environnemental des infrastructures cloud. SQL : Bonne maîtrise de SQL pour la création et la modification de requêtes dans le cadre de l’analyse de données financières et environnementales. Git et GitLab : Expérience avec Git et GitLab pour la gestion de versions et le déploiement des modules Terraform.
Mission freelance
Frontend Développeur / Développeuse Confirmé.e (Front-end / Headless) - H/F
Dans le cadre de l’évolution de notre SI vers une architecture Headless, nous recherchons un Frontend Développeur/Développeurse qui aura le rôle de développeur/développeuse confirmé.e dans l’équipe de migration de notre legacy, vers un front headless en React JS / Next JS. Vous serez en charge de l’ensemble des tâches inhérentes à un développeur React confirmé (réaliser un code fiable de qualité, participer aux revues de code, élaborer une UI de qualité, débugger, simuler différents contextes de rendu de l’UI). Taches principales Effectuer la maintenance du socle existant (optimisation du code, corrections des bugs, interventions sur les incidents de Prod). Effectuer de veille technologique, proposition de sujets techniques visant à améliorer les performances du front web, le SEO et l’accessibilité. Travailler à l’élaboration des contrats d’interfaces avec notre équipe Back-For-Front (API/Middleware). Appliquer – avec l’aide de nos Tech Leads et Lead Devs – les bonnes pratiques de développement ainsi que la mise en place des tests (TU, TDD…) Monter rapidement en compétence sur l’utilisation de la stack technique . Familier aux concepts d’optimisations liés aux clients front-end comme l’optimisation de chargements de pages (bundles splitting, Server-side rendering), les problématiques de rétrocompatibilités navigateurs et le debugging de code. Collaborer avec une équipe design intégrant un design system.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.