Trouvez votre prochaine offre d’emploi ou de mission freelance Github
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Développeur devops python (H/F) - LILLE
Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : Développeur devops python (H/F) - LILLE Contexte : Au sein de notre équipe technique agile, vous interviendrez sur des projets innovants en lien avec l'automatisation et la mise en place de solutions cloud sur Google Cloud Platform (GCP). Vous collaborerez étroitement avec les équipes de développement, infrastructure et sécurité pour améliorer les processus CI/CD, tout en garantissant une surveillance optimale des systèmes. Responsabilités : Développement Backend : Conception et développement d'applications et de services en Python et Go, dans un environnement cloud natif. Intégration DevOps : Mise en place et gestion des pipelines CI/CD en utilisant GitHub et GitHub Actions pour automatiser les déploiements. Gestion de l'infrastructure : Provisionner et gérer les environnements Kubernetes sur GCP, assurer l'automatisation des infrastructures via des outils d'IaC (Infrastructure as Code). Surveillance et Résilience : Mise en place de solutions de monitoring (Datadog, Prometheus) et de gestion des alertes (PagerDuty) pour garantir la disponibilité et la performance des services. Amélioration continue : Participation aux cérémonies Agile (stand-ups, rétrospectives, etc.), et contribution à l'amélioration continue des pratiques de développement et d’intégration. Optimisation des process : Veiller à la bonne configuration des outils de monitoring et à l’optimisation des coûts d’infrastructure, tout en garantissant la sécurité des environnements.
Offre d'emploi
Dev. C# .NET H/F
Le bénéficiaire souhaite mettre en oeuvre plusieurs évolutions de son socle technique. A ce titre, le Bénéficaire souhaite bénéficier de l'expertise du Prestataire en termes de Conception et développement. Dans ce cadre la prestation consiste à contribuer à/au(x) : • Gestion de l’implémentation (qualité du code, couverture totale en matière de tests) • Maintenabilité de la solution / Agilité d’évolution • Streamlining / componentisation • Complexité limitée pour les autres parties prenantes • Qualité du code • Performance • Versionning compatible à l’échelle d’itec (github)
Mission freelance
DEVOPS (H/F)
Notre client recherche un.e expert.e DevOps. Le consultant recherché doit avoir une expérience significative dans l'installation, la configuration et la maintenance des outils pour le compte de ses clients qui viennent consommer l'outillage. Ses clients sont majoritairement des ingénieurs Devops. Les principales missions sont : - Maintenir en condition opérationnelle la plateforme d'intégration continue utilisée par la DSI - Accompagner les utilisateurs dans la consommation des services de l'équipe: github, argocd, AWX, sonarqube, nexus, backstage - Définir les règles de bonnes pratiques, les pipeline standards - Développer sur backstage les composants en mode self service pour nos utilisateurs: terraform, python, bash - Contribuer à la transformation digitale en promouvant les services de l'équipe et notamment en développant l'offre Platform Engineering
Mission freelance
Développeur Full Stack Python et Go
Nous recherchons un Développeur Full Stack confirmé pour rejoindre notre équipe Cloud Databases. Si vous êtes passionné par le développement et l'optimisation de solutions de gestion de bases de données dans le Cloud, cette opportunité est faite pour vous. La mission est basée à Ronchin (59) Vos principales missions seront les suivantes : · Participer activement à la conception, au développement et au déploiement de solutions en Python et GO . · Collaborer avec l'équipe DevOps pour gérer les infrastructures sur GCP et Kubernetes en suivant une approche Agile . · Implémenter et maintenir des pipelines CI/CD (via GitHub / GitHub Actions ) pour automatiser les déploiements. · Assurer la surveillance de l'infrastructure et des applications avec des outils tels que Datadog , PagerDuty , et Prometheus . · Travailler au sein d'une équipe dynamique et proactive, en étant force de proposition.
Mission freelance
Data Scientiste junior (h/f)
emagine recherche pour l'un de ses Clients Grand Compte un (e) Data Scientiste junior Rythme: 1 à 2 jours sur site + 3 à 4 jours de télétravail Durée: minimum 2 ans Lieu : Île de France, 95 Contexte : Programme attendu avec roadmap serrée dans un contexte de migration vers le cloud (GCP) L'entreprise a commencé une migration de ses applications data sur le cloud public (GCP). L'ensemble des travaux d'industrialisation se feront donc sur ce nouvel environnement de travail pour lesquels des compétences spécifiques MLOps sont nécessaires : maitrise de docker, github action, terraform, vertexAI etc… Objectifs de la Mission • Comprendre en profondeur les mécanismes du revenue management, y compris les facteurs influençant la demande et les stratégies de tarification. • Concevoir et implémenter un modèle de prévision de séries temporelles en utilisant les technologies les plus récentes en IA et ML, pour améliorer la fiabilité et l'efficacité des prévisions. • S'assurer que le modèle est à la fois interprétable et explicable, permettant aux équipes de revenue management de comprendre et d'exploiter pleinement les prévisions générées. • Proposer des indicateurs permettant de qualifier la fiabilité des prévisions, et être capable de les résumer et communiquer auprès du métier. Compétences et Expériences Requises • Anglais bilingue • Python • MLOps (docker, github action, terraform, vertexAI etc…) • GCP ( Migration vers GCP ) • Forecasting/time series • Bonne expérience en séries temporelles • Maîtrise du langage de programmation tels que Python ainsi que des outils de visualisation de données (Spotfire, Power BI, etc.). • Maîtrise des bibliothèques de machine learning (scikit-learn, TensorFlow, etc.) et des techniques statistiques avancées. • Solides compétences en analyse de données. • Excellente communication et capacité à travailler en équipe. Livrables Attendues • Code source des composants développés et tests associés • Description des choix d'architecture • Documentation de la solution développée (code, modélisation...) • Supports de communication (slides…) sur les développements réalisés Si vous êtes disponible et intéressé, merci de me retourner votre CV à jour et vos attentes à l'adresse mail -email masqué-
Mission freelance
Ingénieur DevOps - 3 mois - Lille
Ingénieur DevOps - 3 mois - Lille Un de nos importants clients recherche un Ingénieur DevOps pour une mission de 3 mois renouvelable sur Lille. Possibilité de télétravail à hauteur de 2 jours par semaine. Les principales missions sont : - Maintenir en condition opérationnelle la plateforme d'intégration continue utilisée par la DSI - Accompagner les utilisateurs dans la consommation des services de l'équipe: github, argocd, AWX, sonarqube, nexus, backstage - Définir les règles de bonnes pratiques, les pipeline standards - Développer sur backstage les composants en mode self service pour nos utilisateurs: terraform, python, bash - Contribuer à la transformation digitale en promouvant les services de l'équipe et notamment en développant l'offre Platform Engineering Les livrables sont: - Dossier d'architecture - Développement feature - Accompagnement support Compétences techniques : DevOps - Expert Outil ci/cd - Expert Github Sonarqube, Nexus - Confirmé AWX, ArgoCd, Terraform - Confirmé Langage : bash , python, nodeJs - Confirmé La connaissance de Backstage, Azure, GCP sera un plus Si cette mission vous intéresse merci de m'envoyer votre CV et je reviendrai vers vous dès que possible avec les détails.
Mission freelance
Ingénieur système linux / Puppet
Nous recherchons pour notre client un ingénieur système linux pour une mission longue a Val de fontenay L’Ingénierie système Linux : • L'amélioration des outils et des processus d'installation et d'administration des serveurs Red Hat/CentOS, • L'assistance pour les entités de développement dans la définition de leurs architectures techniques, • La gestion des incidents, des problèmes et des évolutions des produits développés et maintenus par l'entité. 1. La gestion du cycle de vie des OS Linux et de l’usine de développement de ces derniers, à savoir : • Campagnes régulières de patching et de mise à jour des templates d’OS, pour des serveurs en environnement virtualisé VMware ou physiques (bare metal), • Maintien en conditions opérationnelle et de sécurité, et évolutions de l’usine de développement des templates d’OS, • Veille d’obsolescence, • Maintien à jour de la documentation associée. • Maintien en condition opérationnelle et développement de modules Puppet permettant notamment : • Déploiement des règles de sécurité système (durcissement). Environnement technique : • Cloud privé interne et offre de compute non-cloud, • Linux Red Hat/CentOS Stream et dérivés, • Langages : scripting, shell, Python, Packer, • Pipelines Jenkins, • Red Hat Satellite, • Kickstart. • , GitHub Python • en IaC : Terraform • en CI/CD : Jenkins • Puppet (création et maintien d'infrastructure, de manifests, de modules) • Plates-formes OS : Red Hat Enterprise Linux, CentOS • Outils et fonctions : Red Hat Satellite, Kickstart
Offre d'emploi
Senior Cloud Devops Engineer
Senior Cloud DevOps Engineer Objectives of the position: At our unit \"Data Foundation - Big Data Management\" we aim to offer organizations a robust and scalable solution for managing and deriving insights from vast quantities of data. By utilizing Azure's PaaS components, our platform streamlines the deployment and handling of Big Data workloads, empowering our clients to make data-driven decisions and propel business expansion. Our team is accountable for the creation and upkeep of the Big Data platform built on Azure PaaS components EDL (Enterprise Data Lake). We collaborate intensively with stakeholders to comprehend their needs and devise solutions that fulfill their expectations. The team is also in charge of guaranteeing the platform's scalability, dependability, and security, and for staying abreast with the newest technologies and trends in the big data domain About the Job: We are seeking a highly motivated and detail-oriented candidate who will be responsible for the Azure Enterprise Data Lake Infrastructure and is able to maintain/scale the platform in an ambitious team. Your main responsibilities include: * To make sure that the platform is optimally maintained through monitoring, performance measurements, and automation. * Develop continuous deployment and monitoring solutions. * Together with us, empower and improve our DevOps culture mindset. * Development and deployment of infrastructure as code (Terraform) and using Azure DevOps. * CI/CD - develop, test and automate pipelines (Azure DevOps, Jenkins, Github Actions) * Continue learning new technologies and evaluating new tools. * Design the implementation of our cloud strategy and automation technologies in the context of CI / CD, Azure, Python and Spark - automate everything. * Monitoring of our cloud environment with focus on availability, performance, and security. * Incident/Change/Problem Management - Continual Service Improvement. * Ensure BASF compliance and security guidelines on our platform. * Patch management of cloud infrastructure. * Creation and implementation of Backup and Recovery concepts. * Manage and monitor 3rd party tickets for supplier support. * Demonstrate fluent communication skills in English (spoken and written). Internal Our main requirements: * Bachelor's degree in computer science, Information Technology, Engineering, Business, or related fields. * Minimum 3-4 years' related working with cloud infrastructure and familiarity with Big Data concepts. * Experience in Azure, Python and Terraform. * Experience operating and troubleshooting production environments, including monitoring, alerting & log analysis. * Experience in securing cloud environments and implementing best practices in regards of cyber security. * Experience with development and deployment of infrastructure as code (Terraform or similar tools) and using Azure DevOps. * Experience with installation and usage of monitoring tools (DataDog or similar tools). * Working flexible and agile (Scrum knowledge appreciated) with a DevOps mindset. Beneficial further knowledge: * Ideally, backed up by vendor certifications (e.g. Microsoft, Linux). * Team player with strong interpersonal, written, and verbal communication skills. What's in it for you: - A secure work environment because your health, safety and wellbeing is always our top priority. - Flexible work schedule and Home-office options, so that you can balance your working life and private life. - Learning and development opportunities - 23 holiday days per year - 5 days of adjustment - 2 cultural days - A collaborative, trustful and innovative work environment - Being part of an international team and work in global projects - Relocation assistance to Madrid provided
Mission freelance
Testeur Automaticien Agile SAFe
Nous recherchons pour l'un de nos clients, un(e) ingénieur(e) en automatisation de tests qui réalisera également des tests manuels et test d’API. La mission est à effectuer au sein d’un projet Agile Safe. Les principales tâches seront les suivantes : Aide à la spécification du besoin Interface client · Réalisation de campagne de tests manuels des APIs avec « POSTMAN » · Réalisation et exécution de campagne de tests automatisés · Analyse des rapports de tests automatisés · Mise à jour du patrimoine de tests · Création et suivi des anomalies (JIRA) · Reporting de l'activité / Rédaction des bilans des campagnes de tests sous Jira/Confluence · Construction des référentiels de tests (rédaction des plans de tests, définition des jeux de données) · Participation aux cérémonies Agile (Daily, Retro, Démo, Planning, ...) · Création/Modification JDD · Tests automatisés : RobotFramework TA Mobile : Libraire Appium TA Web : Librairie Selenium & Browser GitHub · Tests manuels : Test fonctionnel mobile (iOS & Android) / Web Conception sur Jira/Xray et exécution des tests sur Web, Mobile & API Conception des cas de test à partir des maquettes FIGMA · Outil : Confluence / JIRA / Xray / Postman
Mission freelance
Ingénieur MLOPS Montpellier (Pré embauche sous 1 an de mission)/ri
Ingénieur MLOPS Montpellier Senior DevOps : Maîtrise de GitHub, Docker, Kubernetes. Outils : MLFlow, Expérience avec Airflow. Plateformes : Connaissance de Spark (Databricks) ou GCP (Vertex AI), AWS, . Langages : Excellente maîtrise de Python et Scala. Pré embauche sous 1 an de mission ASAP Vos principales responsabilités : Concevoir et développer des solutions logicielles pour l'IA et la gestion des flux de données. Proposer et implémenter des stratégies novatrices pour l'extraction, le traitement et l'analyse de l'information. Assurer le déploiement, le test et la maintenance des solutions MLOps. Vous serez également en charge de : Participer aux rituels de gestion de projet (Agile ou cycle en V). Rédiger de la documentation technique détaillée. Réaliser une veille technologique proactive autour des données et de leur traitement. Votre profil : Formation : Diplôme d'Ingénieur ou équivalent (Bac+5) en sciences ou informatique. Expérience : Expertise avérée sur des projets en data & IA, avec une forte inclinaison pour le développement et une culture solide en data et DevOps. Compétences Techniques : DevOps : Maîtrise de GitHub, Docker, Kubernetes. Outils : MLFlow, Expérience avec Airflow. Plateformes : Connaissance de Spark (Databricks) ou GCP (Vertex AI), AWS, . Langages : Excellente maîtrise de Python et Scala. Qualités Personnelles : Esprit d'équipe, passion pour la data, autonomie et capacité d'adaptation.
Offre d'emploi
Ingenieur Devops (SRE/CLOUD) (H/F)
Contexte de la mission : Nous recherchons un(e) Ingenieur Devops (SRE/CLOUD) (H/F) pour une mission au sein d’une grande entité spécialisée dans les infrastructures Cloud. Vous contribuerez au développement et à la mise en place d’une entité de type SRE (Site Reliability Engineering) afin d'assurer une infrastructure fiable et évolutive à grande échelle. Expertises et technologies requises : Développement : Shell Unix, Perl, PHP, Python, Git, GitHub. Continuous Integration : Docker, Elastic Search, Kibana. Environnement : Vous évoluerez dans un environnement cloud global, orienté API , avec une approche Infrastructure as Code . Vous collaborerez avec des équipes de développement tout au long du cycle de vie des logiciels pour garantir des déploiements stables et évolutifs. Le défi principal sera de maintenir une infrastructure robuste et fiable à grande échelle tout en adoptant des pratiques d’ingénierie logicielle adaptées aux opérations IT. Ce poste est destiné à un(e) expert(e) ayant une solide expérience en gestion d'infrastructures Cloud et développement sur des systèmes critiques, à l’aise avec des pratiques DevOps et SRE dans des environnements techniques complexes et à grande échelle.
Mission freelance
Expert DevOps AWS/Kubernetes (H/F)
Jeune entreprise innovante, Digital Partners a pour ambition de devenir un acteur incontournable du digital, et ce dans l'ensemble de ses marchés. Digital Partners intervient en transformation digitale, efficience opérationnelle et data analytics auprès de sociétés de tous secteurs d'activité. Dans le cadre de notre développement nous recherchons un Expert DevOps AWS/Kubernetes (H/F). DIGITAL PARTNERS recherche pour son client un(e) Expert(e) DevOps passionné(e) par les technologies Cloud et Containers. ? VOTRE MISSION Au sein d'une équipe technique de haut niveau, vous participerez à : - L'architecture et l'implémentation d'infrastructures Cloud Native sur AWS - La gestion et l'optimisation de clusters Kubernetes en production - L'automatisation des déploiements via des pipelines CI/CD modernes - La mise en place des bonnes pratiques DevOps et SRE - L'amélioration continue de la plateforme technique ? PROFIL RECHERCHÉ - Minimum 5 ans d'expérience en tant qu'Ingénieur DevOps - Expertise AWS : architecture, services managés, sécurité, monitoring - Maîtrise de Kubernetes en production : déploiement, scaling, troubleshooting - Excellent niveau en Infrastructure as Code (Terraform) - Solides bases en développement permettant de comprendre les enjeux dev - Expérience avec les outils DevOps modernes (Docker, Git, CI/CD) - Culture DevOps et amélioration continue ? COMPÉTENCES TECHNIQUES REQUISES - Cloud : AWS (services core, conteneurs, réseaux, sécurité) - Containers : Kubernetes, Docker, Helm - IaC : Terraform, CloudFormation - CI/CD : expérience pipeline moderne (Jenkins, GitLab CI, GitHub Actions...) - Scripting : Python, Shell - Monitoring : Prometheus, Grafana ou équivalents - Logs : ELK ou équivalent ? SOFT SKILLS ESSENTIELS - Excellente communication - Capacité à travailler en équipe - Force de proposition - Autonomie et rigueur - Sens du service ? NOUS OFFRONS - Projets techniques ambitieux - Environnement de travail stimulant - Équipe passionnée et développement professionnel - Package attractif selon profil ? LOCALISATION Paris/IDF (préciser si remote partiel possible)
Mission freelance
2 Data scientists (1 senior & 1 expert à temps partiel) (h/f) (h/f)
emagine recherche pour l'un de ses Clients Grand Compte 2 Data scientists (1 senior & 1 expert en temps partiel) Rythme: 1 à 2 jours sur site + 3 à 4 jours de télétravail Durée: minimum 2 ans Lieu : Île de France, 95 Contexte : Programme attendu avec roadmap serrée dans un contexte de migration vers le cloud (GCP) L'entreprise a commencé une migration de ses applications data sur le cloud public (GCP). L'ensemble des travaux d'industrialisation se feront donc sur ce nouvel environnement de travail pour lesquels des compétences spécifiques MLOps sont nécessaires : maitrise de docker, github action, terraform, vertexAI etc… Objectifs de la Mission • Comprendre en profondeur les mécanismes du revenue management, y compris les facteurs influençant la demande et les stratégies de tarification. • Concevoir et implémenter un modèle de prévision de séries temporelles en utilisant les technologies les plus récentes en IA et ML, pour améliorer la fiabilité et l'efficacité des prévisions. • S'assurer que le modèle est à la fois interprétable et explicable, permettant aux équipes de revenue management de comprendre et d'exploiter pleinement les prévisions générées. • Proposer des indicateurs permettant de qualifier la fiabilité des prévisions, et être capable de les résumer et communiquer auprès du métier. Compétences et Expériences Requises • Anglais bilingue • Python • MLOps (docker, github action, terraform, vertexAI etc…) • GCP ( Migration vers GCP ) • Forecasting/time series • Bonne expérience en séries temporelles • Maîtrise du langage de programmation tels que Python ainsi que des outils de visualisation de données (Spotfire, Power BI, etc.). • Maîtrise des bibliothèques de machine learning (scikit-learn, TensorFlow, etc.) et des techniques statistiques avancées. • Solides compétences en analyse de données. • Excellente communication et capacité à travailler en équipe. Livrables Attendues • Code source des composants développés et tests associés • Description des choix d'architecture • Documentation de la solution développée (code, modélisation...) • Supports de communication (slides…) sur les développements réalisés Si vous êtes disponible et intéressé, merci de me retourner votre CV à jour et vos attentes à l'adresse -email masqué-
Offre d'emploi
Senior Cloud Devops Engineer
Senior Cloud DevOps Engineer Objectives of the position: At our unit \"Data Foundation - Big Data Management\" we aim to offer organizations a robust and scalable solution for managing and deriving insights from vast quantities of data. By utilizing Azure's PaaS components, our platform streamlines the deployment and handling of Big Data workloads, empowering our clients to make data-driven decisions and propel business expansion. Our team is accountable for the creation and upkeep of the Big Data platform built on Azure PaaS components EDL (Enterprise Data Lake). We collaborate intensively with stakeholders to comprehend their needs and devise solutions that fulfill their expectations. The team is also in charge of guaranteeing the platform's scalability, dependability, and security, and for staying abreast with the newest technologies and trends in the big data domain About the Job: We are seeking a highly motivated and detail-oriented candidate who will be responsible for the Azure Enterprise Data Lake Infrastructure and is able to maintain/scale the platform in an ambitious team. Your main responsibilities include: * To make sure that the platform is optimally maintained through monitoring, performance measurements, and automation. * Develop continuous deployment and monitoring solutions. * Together with us, empower and improve our DevOps culture mindset. * Development and deployment of infrastructure as code (Terraform) and using Azure DevOps. * CI/CD - develop, test and automate pipelines (Azure DevOps, Jenkins, Github Actions) * Continue learning new technologies and evaluating new tools. * Design the implementation of our cloud strategy and automation technologies in the context of CI / CD, Azure, Python and Spark - automate everything. * Monitoring of our cloud environment with focus on availability, performance, and security. * Incident/Change/Problem Management - Continual Service Improvement. * Ensure BASF compliance and security guidelines on our platform. * Patch management of cloud infrastructure. * Creation and implementation of Backup and Recovery concepts. * Manage and monitor 3rd party tickets for supplier support. * Demonstrate fluent communication skills in English (spoken and written). Internal Our main requirements: * Bachelor's degree in computer science, Information Technology, Engineering, Business, or related fields. * Minimum 3-4 years' related working with cloud infrastructure and familiarity with Big Data concepts. * Experience in Azure, Python and Terraform. * Experience operating and troubleshooting production environments, including monitoring, alerting & log analysis. * Experience in securing cloud environments and implementing best practices in regards of cyber security. * Experience with development and deployment of infrastructure as code (Terraform or similar tools) and using Azure DevOps. * Experience with installation and usage of monitoring tools (DataDog or similar tools). * Working flexible and agile (Scrum knowledge appreciated) with a DevOps mindset. Beneficial further knowledge: * Ideally, backed up by vendor certifications (e.g. Microsoft, Linux). * Team player with strong interpersonal, written, and verbal communication skills. What's in it for you: - A secure work environment because your health, safety and wellbeing is always our top priority. - Flexible work schedule and Home-office options, so that you can balance your working life and private life. - Learning and development opportunities - 23 holiday days per year - 5 days of adjustment - 2 cultural days - A collaborative, trustful and innovative work environment - Being part of an international team and work in global projects - Relocation assistance to Madrid provided
Mission freelance
Développeur Embarqué C++ Linux embarqué Yocto - Secteur des Technologies Énergétiques - Grenoble
## Missions Missions principales : - Conception et développement de logiciel embarqué en C++, en veillant à la qualité et à la performance du code. - Participation à l'architecture et à la conception des systèmes, en mettant en œuvre les meilleures pratiques en termes de développement orienté objet. - Optimisation des systèmes d'exploitation Linux et contribution à l'amélioration continue des processus de développement agile. Missions annexes : - Collaboration avec les équipes cross-fonctionnelles pour intégrer de nouvelles fonctionnalités. - Participation à l'évaluation et à la sélection des outils et technologies adaptés aux besoins de développement. ## Stack technique À maîtriser : - Langage C++ - Développement orienté objet - Linux, Yocto, Kernel bas niveau - Git/Github, VS Code - Protocoles de communication réseau Environnement technique global : - Outils de qualimétrie (Coverity, SonarQube) - Conteneurisation d'application (Docker) - Test unitaire et frameworks de Mock - Développement agile (SAFE, Scrum, Kanban) - Asciidoctor / Markdown ## Avantages - TJM compétitif adapté à l'expérience. - Politique de télétravail flexible. - Participation aux projets innovants et à fort impact. - Opportunités de formation continue et de développement professionnel. ## Pourquoi nous rejoindre ? - Intégrez une entreprise leader et innovante dans le secteur des solutions énergétiques. - Contribuez à des projets d'envergure internationale axés sur l'innovation et le développement durable. - Évoluez dans une équipe dynamique et collaborative, où votre expertise sera valorisée et où vous pourrez réellement faire la différence. - Bénéficiez d'un environnement de travail flexible et d'un package attractif.
Offre d'emploi
Développeur frontend React H/F
Stack :Back-end: PHP 5.6/7.4 en cours de migration vers PHP 8.3 / Symfony.Bdd : MySQL/MSSQL/Mongo.Front-end : React, Tailwind en cours de migration NextJs.DevOps : Docker, CloudFlare, Sentry, Azure.Gestion de projet : GitHub et Atlassian.Développeur Front End. Les missions : • A l'initiative d'une internalisation de l'équipe technique composée de développeurs, d'un PO et d'un CTO, vous avez pour missions : • Participer à la conception et au développement des nouvelles plateformes e-commerce : tout est à faire ! • Evaluer les choix techniques en collaboration avec vos collègues : nous réfléchissons ensemble ! • Garantir un niveau élevé de qualité, de sécurité et de performances : responsable et engagé ! • Effectuer une veille technique dans un cadre qui privilégie le partage et l'échange : continuons à apprendre !
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- SASU IR vs Micro entreprise + ARCE
- Peut-on créer une société au nom de son conjoint pour facturer ses prestations en étant sous ARE ?
- Close de non concurrence freelance à portgae salarial
- Arce 7 mois après la création de l'entreprise ?
- Calcul de crédit impôt - cas pratique
- situation compliquée fin de mission pression client comment gèrer ?