Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
DevOps Confirmé(e)
Nous recherchons un(e) DevOps Confirmé(e) pour rejoindre une équipe dynamique et innovante. Votre mission principale sera d'accompagner les équipes applicatives dans la mise en œuvre, le maintien en condition opérationnelle et l’industrialisation de leurs produits. Vous jouerez un rôle essentiel dans la diffusion des bonnes pratiques DevOps et l'amélioration continue des performances et de la sécurité des systèmes. La mission est basée sur le site de Ronchin (59) avec la possibilité de télétravailler 3 jours. Missions principales : · Diffuser les bonnes pratiques DevOps auprès des équipes de développement. · Déployer et configurer des environnements (hors-production et production). · Mettre en place des chaînes CI/CD. · Accompagner les équipes dans la mise en œuvre de leur observabilité (monitoring et alerting, SLI/SLO). · Participer aux analyses d'incidents, définir et mettre en œuvre des plans d’action post-mortems. · Proposer des solutions pour améliorer la performance et la sécurité des systèmes. · Mener une démarche FinOps pour optimiser les coûts tout en assurant un service de qualité. · Participer au Run transverse et prendre en charge les tickets des Business Units utilisatrices. · Participer aux astreintes en rotation avec l’équipe Ops. · À la demande du Métier, vous analysez, paramétrez et codez les composants logiciels applicatifs en respectant les normes et procédures en place. · Analyser les spécifications générales et réaliser l'étude technique. · Paramétrer les progiciels applicatifs (ERP). · Concevoir et assembler les modules logiciels. · Effectuer les tests unitaires et assurer la maintenance corrective/évolutive. Environnement technique: · Langages de développement/scripting : Python (++), Bash (++), Terraform (++) · Monitoring : Datadog (++), PagerDuty (++) · DevOps : GitHub/GitHub Actions (++), Vault (++) , Jfrog (++), Jira (+) · Cloud : Google Cloud Platform (GCP) (++) · Conteneurs : Kubernetes/GKE (++), Docker (++) · OS : Linux Redhat & CentOS (++) · Bases de données : PostgreSQL (++), MongoDB (++) , MySQL (++) · ITSM : ServiceNow (+
Mission freelance
Expert Securité GCP IAM
Contexte de la mission : La prestation se déroulera au sein du CCOE, dont l'objectif principal est d'accompagner les métiers dans l'intégration GCP. La prestation consiste à : - Conception et Spécifications Techniques : Définir les spécifications techniques détaillées pour l'infrastructure cloud sur GCP, en tenant compte des exigences de sécurité. - Déploiement et Exploitation : Mettre en place l'infrastructure cloud GCP en suivant les bonnes pratiques de sécurité et en assurant le déploiement automatisé à l'aide d'outils CI/CD et l'Infrastructure as Code (IaC) - Intégration de la Sécurité dans le design de la solution : Collaborer avec les équipes de développement pour intégrer la sécurité dès les premières phases du processus de développement (DevSecOps), en automatisant les tests de sécurité, les analyses de vulnérabilités et les contrôles de conformité dans les pipelines CI/CD. - Surveillance et Détection des Menaces : Mettre en place des outils de surveillance et de détection des menaces sur l'infrastructure cloud GCP, en surveillant en temps réel les activités suspectes et en répondant rapidement aux incidents de sécurité potentiels. - Gestion des Incidents de Sécurité : Mettre en place des procédures de gestion des incidents de sécurité pour répondre efficacement aux menaces ou aux incidents de sécurité, en collaborant avec l'équipe SOC (Security Operations Center) et en assurant un suivi régulier. - Gestion des Identités et des Accès (IAM) : Définir et maintenir des politiques de gestion des identités et des accès (IAM) sur GCP, en s'assurant que seules les personnes autorisées ont accès aux ressources et données sensibles, et en garantissant la mise en place de principes de moindre privilège. - Gestion des Vulnérabilités : Mettre en œuvre et maintenir un processus de gestion des vulnérabilités pour identifier, évaluer et traiter les vulnérabilités de sécurité sur l'infrastructure cloud GCP, en collaborant avec les équipes de développement pour appliquer les correctifs et les mises à jour de sécurité nécessaires - Analyse des Logs et des Alertes : Effectuer une analyse approfondie des logs et des alertes de sécurité générés par les outils de surveillance et de détection des menaces, en identifiant les comportements suspects, les anomalies de sécurité et en prenant des mesures proactives pour les atténuer. - Reporting et Suivi : Élaborer des rapports réguliers sur l'état de la sécurité et de la performance de l'infrastructure cloud GCP, en fournissant des indicateurs clés de performance (KPI) et des recommandations pour améliorer continuellement la sécurité et l'efficacité opérationnelle. - Conformité et Audits de Sécurité : Assurer la conformité aux normes de sécurité définies par l'entreprise et aux réglementations applicables en effectuant des audits réguliers de sécurité sur l'infrastructure cloud GCP, en identifiant les écarts de conformité et en mettant en œuvre les actions correctives nécessaires.
Offre d'emploi
Data Engineer Python / SQL / Azure
Profil : Experienced Data Engineer • good technical skills o Python 3.7, o Flask/Fast API (Librairie API pour python), o SQL o Modelisation (MCD, MLD, MPD) , o Azure Functions, Azure Tables, Azure Data Explorer, o API Rest / API Management. • Technical specifications and OPEN API Specifiction writing • Functionnel Specification writing Activités : Specification, Development, Correction d'anomalies.
Mission freelance
Architecte Azure
RED GLOBAL est à la recherche d’un Architect Azure sur Lille, pour un projet Build et RUN. Détails du projet : Début : Au plus vite Durée: 3 mois renouvelable – longue durée Lieu : Hybride à Lille Langue: Français et Anglais Il faudra etre en charge de la conception des solutions d’infrastructure. Participer au diagnostic et àla résolution des incidents complexes et/ou des problèmes remontés par les équipes de niveau 2 et 3 Etre en charge de la définition de la roadmap projet (modernisation et obsolescence de l'infrastructure) et collabore avec les autres architectes techniques. On recherche un architecte AZURE qui maitrise Ansible et Terraform. Si vous souhaitez recevoir de plus amples informations sur le poste ou si vous pouvez recommander un collègue ou un ami, n’hésitez pas à me contacter par mail :
Mission freelance
Mission DevOps Cloud Azure / 1 jour de présentiel
Vous occuperez le poste de DevOps Azure au sein d'une Start Up dynamique dont les locaux sont situés au coeur de Paris. Vous intégrerez une équipe de 3 personnes composée d'un lead DevOps et d'un autre DevOps. Le projet a connu une migration de Add service vers conteneur App il y a peu. Vôtre rôle sera donc d'intervenir post migration en proposant votre expertise. Les points attendus pour cette mission : Cloud Azure / construction d'une infrastructure pour Azure ML / load balancers Azure / implémentation de VPN sur Azure YAML / Azure DevOps Implémentation d'un DAST (analyse dynamique) SCA SAST Bicep Terraform / Powershell Mise en place d'un service sur un réseau privé Hub and spoke Mise en place d'un WAF / travail avec un WAF
Offre d'emploi
DEVSECOPS
Spécialisé dans le secteur bancaire, l'entreprise recherche activement un devSecops pour renforcer ses effectifs. Le rôle est centré sur un état d'esprit agile DevSecOps et nécessite un large éventail de compétences techniques. Travailler en étroite collaboration avec une grande variété d'équipes pour : - Gérer un ou plusieurs produits numériques DevOps. - Gestion du cycle de vie du produit, de la conception à l'exécution - Recueillir les commentaires des utilisateurs et créer une boucle de rétroaction - Planifier et prioriser les tâches pour le renforcement de l'équipe et les mises à jour du produit. - Gérer l'évolution et la consommation du produit à l'aide d'indicateurs de performance clés (KPI) pertinents. - Développer et maintenir la feuille de route du produit - Coordination avec les dépendances : autres propriétaires de produits, équipes d'infrastructure et de sécurité - Comprendre l'état de préparation à la production et travailler avec les équipes pour comprendre les besoins des utilisateurs. - Identifier l'efficacité des processus et contribuer à l'automatisation - Comprendre les besoins de toutes les parties prenantes, documenter les raisons de ces décisions architecturales. - Élaborer et mettre en œuvre la stratégie d'adoption de l'informatique dématérialisée de la Banque. Compétences spécifiques au rôle - Compétences essentielles - Product Owner (engagement des utilisateurs, définition de la feuille de route, collecte des besoins des utilisateurs, définition des tâches, etc.) - Développement dans différents langages, tels que Go, Pyhton - Cycle de vie des applications et des méthodologies agiles - Terraform - Kubernetes - TeamCity et Jenkins - Artifactory/binaires - Gestion du code source, y compris Git et Bitbucket - SAST et SCA et comment intégrer les tests de sécurité dans les pipelines CI/CD standard - CI/CD, en particulier Jenkins, infrastructure dans la construction de plateformes ainsi que dans la création et la configuration de pipelines en tant qu'utilisateur - Méthodologies de programmation et de script, écriture de code dans un ou plusieurs des langages suivants : Go, Python - Administration de systèmes - Linux/Unix et Windows - Compréhension des plateformes et solutions basées sur le cloud et fourniture de solutions PAAS.
Mission freelance
Data Engineer
La mission consiste à : - Participer aux rituels agiles - Analyser les besoins des utilisateurs et proposer des solutions innovantes et en phase avec les drivers de l'entreprise - Développer les solutions data - Valider la qualité des développements - Améliorer et optimiser le patrimoine actuel - Maintenir les solutions existantes (RUN) - Contribuer à la construction du nouveau socle et des services - Accompagner les métiers sur les bonnes pratiques de l'exploitation de la Data - Mission basée en métropole lilloise avec présence sur site 3j/semaine obligatoire Compétences demandées : - Première expérience en Data Engineering indispensable - Expertise SQL, ETL, CI/CD, GIT, Terraform, Kafka, GCP ... - Connaissances sur Power BI, Looker ... - Excellents savoir-être : rigueur, esprit analytique et de synthèse, communication... - Méthode Agile - Anglais un +
Offre d'emploi
BI Engineer - Bordeaux
ATLANSE, réseau international d’ingénierie informatique, accompagne ses clients (banques/finance, Assurances/Mutuelles, Retail, Transport/Logistique, Energie, Santé, Administration) dans leur transformation numérique, responsable et durable. Pour mener à bien cette mission, ATLANSE s’appuie sur son capital humain, des consultants experts et expérimentés qui capitalisent sur des compétences fonctionnelles et techniques reconnues et des méthodologies éprouvées. Vous intégrerez une DataSquad (Sports, Gaming, Marketing, player…) pour prendre en charge une partie des activités courantes (Business As Usual – BAU) au service des clients internes Métier. Missions : · Modifier, faire évoluer et créer des pipelines d’intégration de données · Modéliser et enrichir notre Data Model d’entreprise · Créer des tableaux de bord TABLEAU CLOUD · Data management (recueil du besoin en data, réalisation d’extractions, coaching, communication, …)
Mission freelance
Data Engineer
Le contexte : L'un des objectifs clés du plan de convergence DATA du groupe est de développer des infrastructures de données robustes et de qualité. Au sein de notre équipe, nous sommes responsables de la gestion des données pour les équipes en charge des campagnes marketing. Cette infrastructure permettra aux équipes marketing de mieux maîtriser les outils de gestion des campagnes, optimisant ainsi les stratégies de communication et la personnalisation des messages pour un déploiement plus efficace sur tous les canaux. Des exemples de projets sont nombreux et variés : • Intégration des données dans Braze pour une gestion centralisée et efficace des campagnes. • Développement et ajout de pipelines de données pour garantir la prise en compte complète de tous les canaux de communication. • Mise en place de solutions d'analyse avancée pour optimiser les stratégies de marketing en fonction des insights obtenus. L'objectif principal de la mission est de maintenir le système actuel et de réaliser des projets ambitieux. Début : le plus tôt possible Description du poste : • Mise en place et optimisation de pipelines de données pour intégrer les données de communication provenant de tous nos canaux (SMS, TV, application MyCanal, etc.) avec la nouvelle application de Marketing Automation Braze. • Conception et mise en œuvre d'architectures de données • Migration des anciens pipelines data. • Rédaction de la documentation des nouveaux flux de données.
Offre d'emploi
Ingénieur(e) / Architecte NetDevOps
Nous sommes à la recherche d'un(e) Ingénieur(e) / Architecte NetDevOps pour rejoindre une équipe dynamique et contribuer à des projets de transformation digitale. Contexte : Vous intégrerez une équipe spécialisée dans l’automatisation des services réseaux et sécurité, au sein d’un environnement Openshift. Votre rôle sera central dans le développement et la maintenance des API et portails d’accès aux infrastructures réseau, tout en collaborant avec les équipes de développement pour optimiser les meilleures pratiques NetDevOps. Missions principales : Contribuer à l'automatisation et la fiabilisation des infrastructures. Réaliser des revues de code et assurer la veille technologique. Développer et intégrer des solutions d'automatisation pour les réseaux et la sécurité. Collaborer étroitement avec les équipes de développement sur les projets CI/CD. Accompagner l’équipe dans le déploiement et la gestion des plateformes réseau.
Mission freelance
Cloud Engineer
Contribuer techniquement aux engagements de l'équipe dans la livraison des fonctionnalités (Activités de Build gérées via des rituels Scrum) Participer régulièrement au maintien opérationnel de nos composants réseaux Automatiser nos solutions d'infrastructure réseau via le développement. Participer au Run sur les modules, scripts et automates développés par l'équipe Participer aux différents projets d'innovation et d'amélioration du réseau au sein de l'équipe. Proposer et mettre en œuvre des améliorations et des solutions innovantes (Build & Run). Gestion de VPC Cloud AWS & GCP - VPC, Endpoint, NCC, TransitGateway, SharedVPC, PSC,PrivateLink Segmentation du Cloud - Inspection VPC, Groupes de sécurité, PrivateLink, VPCEndpoints. Filtrage des sorties cloud - Fortinet, Squid Transit cloud - routeurs Cisco, AWS DirectConnect, partenaires GCP Interconnect, routeurs cloud) Gestion IP - IPAM Netbox, Infoblox, RFC1918 Réseau fédérateur - Bandwith On-Demand, BGP, OSPF, Juniper Connectivité des partenaires externes - VPN IPSEC, SSL, ZTNA DNS privé - Route53, CloudDNS, Infoblox
Mission freelance
Data Engineer GCP Finance
Dans ce cadre, nous recherchons un développeur Full Stack, ayant une solide expérience dans le Cloud GCP Récupérer les données issues de sources externes • Utiliser la puissance du Data Lake • Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le data Lake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner. • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels • Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise • Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent • Acheminement de la donnée • Mise à disposition de la donnée aux équipes utilisatrices • Mise en production de modèles statistiques • Suivi de projet de développement • Développement job spark • Traitement et ingestion de plusieurs formats des données • Développement des scripts • Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données • Développement des moyens de restitution via génération de fichier et ou API & Dashboarding • Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers • Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des Spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) • Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP • Participer à la conception, mise en place et administration de solutions Big Data • Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data Lake via des topics Kafka • Normalisation et agrégation des données afin de produire les rapports sous forme de Business View
Offre d'emploi
Data Engineer H/F
Concevoir, réaliser, maintenir et faire évoluer les services et contenus de la PDA Mettre à disposition la donnée de tous les domaines de l’entreprise aux utilisateurs Modéliser les solutions applicatives selon les besoins métiers de l’entreprise Accompagner et développer avec les métiers des reporting et datasets à haute valeur ajoutée. HardSkills DataEngineering obligatoires: Maitrise des process d’ingestion en batch et streaming quel que soit la typologie de sourcing des données (API, Fichier (structuré, semi structuré, non structuré), BDD, …) et quel que soit le Cloud provider en entrée(AWS/AZURE). • Expertise BDD Snowflake avec minimum 3 ans d’expérience(SQL, Rôle, Virtual Warehouse, Datamodelling) • Parfaite maitrise des modèles de données. Les consultants seront référent technico fonctionnel sur plusieurs domaines métier(2 à 3 domaines suivant la complexité). • Très bonne maitrise des langages Javascript(impératif), SQL, T-SQL, PowerShell, Python. • Création d’app, aisance sur Notebook avec bibliothèques afférentes (ex : Panda, NumPy) • Optimisation de requête et performance, factorisation du code, respect de l’état de l’art • Capacité d’analyse avancée pour résoudre les incidents techniques ou fonctionnels avec Tests unitaires et code quality. • Développement de cube tabulaire PBI (M et DAX) • Support Niveau 3 sur le périmètre des socles applicatifs et reporting associés • Parfaite maitrise de GIT et connaissance d’un outil de gestion de configuration tel que Azure Devops(Méthode GITflow / GITHubflow), CI/CD/Artefact) • Interlocuteur technique privilégié avec les supports éditeurs (Microsoft, Snowflake) • Mise en place et Monitoring de l'infrastructure • Développement script d’administration • Développement d’alertes de sécurité • Veille au respect de l'état de l'art pour les langages de développement (SQL, C#, Powershell) • Revue et amélioration de code (SQL, C#, Powershell) • Maintenance et développement en amélioration continue du framework d’alimentation et de supervision de la plateforme PDA (.net/Powershell/Javascript) • DBA étude : Code review, audit et validation des PR, optimisation de requête et performance/factorisation, veille au respect des bonne pratique de code, Contrôle et ajustement des performances des bases de données (SQL Serveur, Snowflake, Azure SQL) • DBA Système : Conception et implémentation des modèles de sécurité des bases de données, gestion de la performance des bases de données, monitoring et résolution d'incidents • Développement de pipeline CI/CD, Artefact, repo et taches Azure Devops • Mise en place des bonnes pratiques (technique, fonctionnel, corpus documentaire) • Animation de communauté Développeur
Offre d'emploi
Ingénieur DevOps Cloud (F/H)
Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un.e Ingénieur DevOps Cloud pour intervenir chez un de nos clients, un acteur majeur du secteur du paiement en France. Votre mission consiste à intervenir sur le déploiement et la maintenance d’une solution monétique basée sur le progiciel TANGO, ainsi que sur la gestion des environnements de recette et de production. Vos fonctions : Déployer des applications et scripts dans différents environnements (Ansible, Jenkins) Assurer le support technique et gérer les incidents en lien avec l’éditeur Mettre à jour et maintenir la documentation technique Développer et maintenir des scripts d’intégration (Shell, Java, SQL) Garantir le maintien en condition opérationnelle des environnements hors production et production Contribuer à l’optimisation des pipelines DevOps et à l’intégration de nouvelles fonctionnalités
Mission freelance
AWS Platform Engineer (F/H)
La mission se déroulera au sein du département Digital Platform travaillant en mode Agile. Maitrise en profondeur les concepts du Well Architecture Framework du Cloud AWS -Vous êtes amené à définir / construire / faire évoluer et exploiter une plateforme sur AWS permettant aux métiers de développer et faire tourner leurs applications Cloud. -Vous participez aux activités de RUN liées à la plateforme. -"Infra as Code” : Vous développez des modules Terrraform et pipeline CICD pour déployer/configurer/gouverner l’infrastructure (aucun déploiement sera fait manuellement via la console AWS). -“User centric” : Vous êtes à l’écoute des utilisateurs du produit et rechercher leur feedback, documenter pour que les utilisateurs soient autonomes dans leur utilisation de la plateforme. Des astreintes pourraient devenir obligatoires pour des raisons opérationnelles
Mission freelance
Ingénieur DATAOPS - Freelance – (H/F)
Description du poste : Notre client Grand-Compte recherche un/une ingénieur(e) DATAOPS. Principales missions : Automatisation des pipelines de données : Concevoir et mettre en place des pipelines qui automatisent l'extraction, la transformation et le chargement (ETL/ELT) des données entre différentes sources. Gestion des environnements cloud : Déployer et gérer des environnements cloud (AWS, Azure, GCP) pour le traitement des données. S'assurer que les solutions de gestion de données sont optimisées pour ces plateformes. Sécurité des données : Assurer la mise en œuvre des politiques de sécurité, de conformité et de gouvernance pour protéger les données sensibles.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes