Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 760 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
DevOps Confirmé(e)

SELFING
Publiée le
Google Cloud Platform
Kubernetes
Terraform

12 mois
300-350 €
Ronchin, Hauts-de-France

Nous recherchons un(e) DevOps Confirmé(e) pour rejoindre une équipe dynamique et innovante. Votre mission principale sera d'accompagner les équipes applicatives dans la mise en œuvre, le maintien en condition opérationnelle et l’industrialisation de leurs produits. Vous jouerez un rôle essentiel dans la diffusion des bonnes pratiques DevOps et l'amélioration continue des performances et de la sécurité des systèmes. La mission est basée sur le site de Ronchin (59) avec la possibilité de télétravailler 3 jours. Missions principales : · Diffuser les bonnes pratiques DevOps auprès des équipes de développement. · Déployer et configurer des environnements (hors-production et production). · Mettre en place des chaînes CI/CD. · Accompagner les équipes dans la mise en œuvre de leur observabilité (monitoring et alerting, SLI/SLO). · Participer aux analyses d'incidents, définir et mettre en œuvre des plans d’action post-mortems. · Proposer des solutions pour améliorer la performance et la sécurité des systèmes. · Mener une démarche FinOps pour optimiser les coûts tout en assurant un service de qualité. · Participer au Run transverse et prendre en charge les tickets des Business Units utilisatrices. · Participer aux astreintes en rotation avec l’équipe Ops. · À la demande du Métier, vous analysez, paramétrez et codez les composants logiciels applicatifs en respectant les normes et procédures en place. · Analyser les spécifications générales et réaliser l'étude technique. · Paramétrer les progiciels applicatifs (ERP). · Concevoir et assembler les modules logiciels. · Effectuer les tests unitaires et assurer la maintenance corrective/évolutive. Environnement technique: · Langages de développement/scripting : Python (++), Bash (++), Terraform (++) · Monitoring : Datadog (++), PagerDuty (++) · DevOps : GitHub/GitHub Actions (++), Vault (++) , Jfrog (++), Jira (+) · Cloud : Google Cloud Platform (GCP) (++) · Conteneurs : Kubernetes/GKE (++), Docker (++) · OS : Linux Redhat & CentOS (++) · Bases de données : PostgreSQL (++), MongoDB (++) , MySQL (++) · ITSM : ServiceNow (+

Freelance

Mission freelance
Expert Securité GCP IAM

OctopusGroup
Publiée le
Google Cloud Platform
IAM
Terraform

3 ans
100-740 €
La Défense, Île-de-France

Contexte de la mission : La prestation se déroulera au sein du CCOE, dont l'objectif principal est d'accompagner les métiers dans l'intégration GCP. La prestation consiste à : - Conception et Spécifications Techniques : Définir les spécifications techniques détaillées pour l'infrastructure cloud sur GCP, en tenant compte des exigences de sécurité. - Déploiement et Exploitation : Mettre en place l'infrastructure cloud GCP en suivant les bonnes pratiques de sécurité et en assurant le déploiement automatisé à l'aide d'outils CI/CD et l'Infrastructure as Code (IaC) - Intégration de la Sécurité dans le design de la solution : Collaborer avec les équipes de développement pour intégrer la sécurité dès les premières phases du processus de développement (DevSecOps), en automatisant les tests de sécurité, les analyses de vulnérabilités et les contrôles de conformité dans les pipelines CI/CD. - Surveillance et Détection des Menaces : Mettre en place des outils de surveillance et de détection des menaces sur l'infrastructure cloud GCP, en surveillant en temps réel les activités suspectes et en répondant rapidement aux incidents de sécurité potentiels. - Gestion des Incidents de Sécurité : Mettre en place des procédures de gestion des incidents de sécurité pour répondre efficacement aux menaces ou aux incidents de sécurité, en collaborant avec l'équipe SOC (Security Operations Center) et en assurant un suivi régulier. - Gestion des Identités et des Accès (IAM) : Définir et maintenir des politiques de gestion des identités et des accès (IAM) sur GCP, en s'assurant que seules les personnes autorisées ont accès aux ressources et données sensibles, et en garantissant la mise en place de principes de moindre privilège. - Gestion des Vulnérabilités : Mettre en œuvre et maintenir un processus de gestion des vulnérabilités pour identifier, évaluer et traiter les vulnérabilités de sécurité sur l'infrastructure cloud GCP, en collaborant avec les équipes de développement pour appliquer les correctifs et les mises à jour de sécurité nécessaires - Analyse des Logs et des Alertes : Effectuer une analyse approfondie des logs et des alertes de sécurité générés par les outils de surveillance et de détection des menaces, en identifiant les comportements suspects, les anomalies de sécurité et en prenant des mesures proactives pour les atténuer. - Reporting et Suivi : Élaborer des rapports réguliers sur l'état de la sécurité et de la performance de l'infrastructure cloud GCP, en fournissant des indicateurs clés de performance (KPI) et des recommandations pour améliorer continuellement la sécurité et l'efficacité opérationnelle. - Conformité et Audits de Sécurité : Assurer la conformité aux normes de sécurité définies par l'entreprise et aux réglementations applicables en effectuant des audits réguliers de sécurité sur l'infrastructure cloud GCP, en identifiant les écarts de conformité et en mettant en œuvre les actions correctives nécessaires.

CDI
Freelance

Offre d'emploi
Data Engineer Python / SQL / Azure

Signe +
Publiée le
Azure
Big Data
engineer

24 mois
25k-30k €
Rennes, Bretagne

Profil : Experienced Data Engineer • good technical skills o Python 3.7, o Flask/Fast API (Librairie API pour python), o SQL o Modelisation (MCD, MLD, MPD) , o Azure Functions, Azure Tables, Azure Data Explorer, o API Rest / API Management. • Technical specifications and OPEN API Specifiction writing • Functionnel Specification writing Activités : Specification, Development, Correction d'anomalies.

Freelance

Mission freelance
Architecte Azure

RED Commerce - The Global SAP Solutions Provider
Publiée le
Ansible
Azure
Terraform

3 mois
100-640 €
Lille, Hauts-de-France

RED GLOBAL est à la recherche d’un Architect Azure sur Lille, pour un projet Build et RUN. Détails du projet : Début : Au plus vite Durée: 3 mois renouvelable – longue durée Lieu : Hybride à Lille Langue: Français et Anglais Il faudra etre en charge de la conception des solutions d’infrastructure. Participer au diagnostic et àla résolution des incidents complexes et/ou des problèmes remontés par les équipes de niveau 2 et 3 Etre en charge de la définition de la roadmap projet (modernisation et obsolescence de l'infrastructure) et collabore avec les autres architectes techniques. On recherche un architecte AZURE qui maitrise Ansible et Terraform. Si vous souhaitez recevoir de plus amples informations sur le poste ou si vous pouvez recommander un collègue ou un ami, n’hésitez pas à me contacter par mail :

Freelance

Mission freelance
Mission DevOps Cloud Azure / 1 jour de présentiel

SKILLWISE
Publiée le
Azure
Azure DevOps Server
Azure DevOps Services

6 mois
100-550 €
Paris, France

Vous occuperez le poste de DevOps Azure au sein d'une Start Up dynamique dont les locaux sont situés au coeur de Paris. Vous intégrerez une équipe de 3 personnes composée d'un lead DevOps et d'un autre DevOps. Le projet a connu une migration de Add service vers conteneur App il y a peu. Vôtre rôle sera donc d'intervenir post migration en proposant votre expertise. Les points attendus pour cette mission : Cloud Azure / construction d'une infrastructure pour Azure ML / load balancers Azure / implémentation de VPN sur Azure YAML / Azure DevOps Implémentation d'un DAST (analyse dynamique) SCA SAST Bicep Terraform / Powershell Mise en place d'un service sur un réseau privé Hub and spoke Mise en place d'un WAF / travail avec un WAF

Freelance
CDI

Offre d'emploi
DEVSECOPS

AVA2I
Publiée le
Bitbucket
Jenkins
Kubernetes

3 ans
10k-60k €
Vincennes, Île-de-France

Spécialisé dans le secteur bancaire, l'entreprise recherche activement un devSecops pour renforcer ses effectifs. Le rôle est centré sur un état d'esprit agile DevSecOps et nécessite un large éventail de compétences techniques. Travailler en étroite collaboration avec une grande variété d'équipes pour : - Gérer un ou plusieurs produits numériques DevOps. - Gestion du cycle de vie du produit, de la conception à l'exécution - Recueillir les commentaires des utilisateurs et créer une boucle de rétroaction - Planifier et prioriser les tâches pour le renforcement de l'équipe et les mises à jour du produit. - Gérer l'évolution et la consommation du produit à l'aide d'indicateurs de performance clés (KPI) pertinents. - Développer et maintenir la feuille de route du produit - Coordination avec les dépendances : autres propriétaires de produits, équipes d'infrastructure et de sécurité - Comprendre l'état de préparation à la production et travailler avec les équipes pour comprendre les besoins des utilisateurs. - Identifier l'efficacité des processus et contribuer à l'automatisation - Comprendre les besoins de toutes les parties prenantes, documenter les raisons de ces décisions architecturales. - Élaborer et mettre en œuvre la stratégie d'adoption de l'informatique dématérialisée de la Banque. Compétences spécifiques au rôle - Compétences essentielles - Product Owner (engagement des utilisateurs, définition de la feuille de route, collecte des besoins des utilisateurs, définition des tâches, etc.) - Développement dans différents langages, tels que Go, Pyhton - Cycle de vie des applications et des méthodologies agiles - Terraform - Kubernetes - TeamCity et Jenkins - Artifactory/binaires - Gestion du code source, y compris Git et Bitbucket - SAST et SCA et comment intégrer les tests de sécurité dans les pipelines CI/CD standard - CI/CD, en particulier Jenkins, infrastructure dans la construction de plateformes ainsi que dans la création et la configuration de pipelines en tant qu'utilisateur - Méthodologies de programmation et de script, écriture de code dans un ou plusieurs des langages suivants : Go, Python - Administration de systèmes - Linux/Unix et Windows - Compréhension des plateformes et solutions basées sur le cloud et fourniture de solutions PAAS.

Freelance

Mission freelance
Data Engineer

ICSIS
Publiée le
Apache Kafka
BigQuery
CI/CD

3 ans
350-500 €
Lille, Hauts-de-France

La mission consiste à : - Participer aux rituels agiles - Analyser les besoins des utilisateurs et proposer des solutions innovantes et en phase avec les drivers de l'entreprise - Développer les solutions data - Valider la qualité des développements - Améliorer et optimiser le patrimoine actuel - Maintenir les solutions existantes (RUN) - Contribuer à la construction du nouveau socle et des services - Accompagner les métiers sur les bonnes pratiques de l'exploitation de la Data - Mission basée en métropole lilloise avec présence sur site 3j/semaine obligatoire Compétences demandées : - Première expérience en Data Engineering indispensable - Expertise SQL, ETL, CI/CD, GIT, Terraform, Kafka, GCP ... - Connaissances sur Power BI, Looker ... - Excellents savoir-être : rigueur, esprit analytique et de synthèse, communication... - Méthode Agile - Anglais un +

Freelance
CDI

Offre d'emploi
BI Engineer - Bordeaux

Atlanse
Publiée le
API
Snowflake
SQL

6 mois
37k-65k €
Bordeaux, Nouvelle-Aquitaine

ATLANSE, réseau international d’ingénierie informatique, accompagne ses clients (banques/finance, Assurances/Mutuelles, Retail, Transport/Logistique, Energie, Santé, Administration) dans leur transformation numérique, responsable et durable. Pour mener à bien cette mission, ATLANSE s’appuie sur son capital humain, des consultants experts et expérimentés qui capitalisent sur des compétences fonctionnelles et techniques reconnues et des méthodologies éprouvées. Vous intégrerez une DataSquad (Sports, Gaming, Marketing, player…) pour prendre en charge une partie des activités courantes (Business As Usual – BAU) au service des clients internes Métier. Missions : · Modifier, faire évoluer et créer des pipelines d’intégration de données · Modéliser et enrichir notre Data Model d’entreprise · Créer des tableaux de bord TABLEAU CLOUD · Data management (recueil du besoin en data, réalisation d’extractions, coaching, communication, …)

Freelance

Mission freelance
Data Engineer

CHARLI GROUP
Publiée le
Apache Airflow
AWS Cloud
Git

3 ans
100-550 €
Île-de-France, France

Le contexte : L'un des objectifs clés du plan de convergence DATA du groupe est de développer des infrastructures de données robustes et de qualité. Au sein de notre équipe, nous sommes responsables de la gestion des données pour les équipes en charge des campagnes marketing. Cette infrastructure permettra aux équipes marketing de mieux maîtriser les outils de gestion des campagnes, optimisant ainsi les stratégies de communication et la personnalisation des messages pour un déploiement plus efficace sur tous les canaux. Des exemples de projets sont nombreux et variés : • Intégration des données dans Braze pour une gestion centralisée et efficace des campagnes. • Développement et ajout de pipelines de données pour garantir la prise en compte complète de tous les canaux de communication. • Mise en place de solutions d'analyse avancée pour optimiser les stratégies de marketing en fonction des insights obtenus. L'objectif principal de la mission est de maintenir le système actuel et de réaliser des projets ambitieux. Début : le plus tôt possible Description du poste : • Mise en place et optimisation de pipelines de données pour intégrer les données de communication provenant de tous nos canaux (SMS, TV, application MyCanal, etc.) avec la nouvelle application de Marketing Automation Braze. • Conception et mise en œuvre d'architectures de données • Migration des anciens pipelines data. • Rédaction de la documentation des nouveaux flux de données.

CDI

Offre d'emploi
Ingénieur(e) / Architecte NetDevOps

Management Square
Publiée le
Ansible
Firewall
Git

56k €
Paris, France

Nous sommes à la recherche d'un(e) Ingénieur(e) / Architecte NetDevOps pour rejoindre une équipe dynamique et contribuer à des projets de transformation digitale. Contexte : Vous intégrerez une équipe spécialisée dans l’automatisation des services réseaux et sécurité, au sein d’un environnement Openshift. Votre rôle sera central dans le développement et la maintenance des API et portails d’accès aux infrastructures réseau, tout en collaborant avec les équipes de développement pour optimiser les meilleures pratiques NetDevOps. Missions principales : Contribuer à l'automatisation et la fiabilisation des infrastructures. Réaliser des revues de code et assurer la veille technologique. Développer et intégrer des solutions d'automatisation pour les réseaux et la sécurité. Collaborer étroitement avec les équipes de développement sur les projets CI/CD. Accompagner l’équipe dans le déploiement et la gestion des plateformes réseau.

Freelance

Mission freelance
Cloud Engineer

Phaidon London- Glocomms
Publiée le
Natural Language Processing (NLP)
Python
Terraform

12 mois
400-650 €
Paris, France

Contribuer techniquement aux engagements de l'équipe dans la livraison des fonctionnalités (Activités de Build gérées via des rituels Scrum) Participer régulièrement au maintien opérationnel de nos composants réseaux Automatiser nos solutions d'infrastructure réseau via le développement. Participer au Run sur les modules, scripts et automates développés par l'équipe Participer aux différents projets d'innovation et d'amélioration du réseau au sein de l'équipe. Proposer et mettre en œuvre des améliorations et des solutions innovantes (Build & Run). Gestion de VPC Cloud AWS & GCP - VPC, Endpoint, NCC, TransitGateway, SharedVPC, PSC,PrivateLink Segmentation du Cloud - Inspection VPC, Groupes de sécurité, PrivateLink, VPCEndpoints. Filtrage des sorties cloud - Fortinet, Squid Transit cloud - routeurs Cisco, AWS DirectConnect, partenaires GCP Interconnect, routeurs cloud) Gestion IP - IPAM Netbox, Infoblox, RFC1918 Réseau fédérateur - Bandwith On-Demand, BGP, OSPF, Juniper Connectivité des partenaires externes - VPN IPSEC, SSL, ZTNA DNS privé - Route53, CloudDNS, Infoblox

Freelance

Mission freelance
Data Engineer GCP Finance

HIGHTEAM
Publiée le
Apache Spark
BigQuery
Google Cloud Platform

3 ans
400-550 €
Île-de-France, France

Dans ce cadre, nous recherchons un développeur Full Stack, ayant une solide expérience dans le Cloud GCP Récupérer les données issues de sources externes • Utiliser la puissance du Data Lake • Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le data Lake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner. • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels • Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise • Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent • Acheminement de la donnée • Mise à disposition de la donnée aux équipes utilisatrices • Mise en production de modèles statistiques • Suivi de projet de développement • Développement job spark • Traitement et ingestion de plusieurs formats des données • Développement des scripts • Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données • Développement des moyens de restitution via génération de fichier et ou API & Dashboarding • Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers • Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des Spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) • Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP • Participer à la conception, mise en place et administration de solutions Big Data • Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data Lake via des topics Kafka • Normalisation et agrégation des données afin de produire les rapports sous forme de Business View

Freelance
CDD

Offre d'emploi
Data Engineer H/F

SMARTPOINT
Publiée le
Apache Kafka
Git
Microsoft Power BI

12 mois
10k-48k €
Bois-Colombes, Île-de-France

Concevoir, réaliser, maintenir et faire évoluer les services et contenus de la PDA Mettre à disposition la donnée de tous les domaines de l’entreprise aux utilisateurs Modéliser les solutions applicatives selon les besoins métiers de l’entreprise Accompagner et développer avec les métiers des reporting et datasets à haute valeur ajoutée. HardSkills DataEngineering obligatoires: Maitrise des process d’ingestion en batch et streaming quel que soit la typologie de sourcing des données (API, Fichier (structuré, semi structuré, non structuré), BDD, …) et quel que soit le Cloud provider en entrée(AWS/AZURE). • Expertise BDD Snowflake avec minimum 3 ans d’expérience(SQL, Rôle, Virtual Warehouse, Datamodelling) • Parfaite maitrise des modèles de données. Les consultants seront référent technico fonctionnel sur plusieurs domaines métier(2 à 3 domaines suivant la complexité). • Très bonne maitrise des langages Javascript(impératif), SQL, T-SQL, PowerShell, Python. • Création d’app, aisance sur Notebook avec bibliothèques afférentes (ex : Panda, NumPy) • Optimisation de requête et performance, factorisation du code, respect de l’état de l’art • Capacité d’analyse avancée pour résoudre les incidents techniques ou fonctionnels avec Tests unitaires et code quality. • Développement de cube tabulaire PBI (M et DAX) • Support Niveau 3 sur le périmètre des socles applicatifs et reporting associés • Parfaite maitrise de GIT et connaissance d’un outil de gestion de configuration tel que Azure Devops(Méthode GITflow / GITHubflow), CI/CD/Artefact) • Interlocuteur technique privilégié avec les supports éditeurs (Microsoft, Snowflake) • Mise en place et Monitoring de l'infrastructure • Développement script d’administration • Développement d’alertes de sécurité • Veille au respect de l'état de l'art pour les langages de développement (SQL, C#, Powershell) • Revue et amélioration de code (SQL, C#, Powershell) • Maintenance et développement en amélioration continue du framework d’alimentation et de supervision de la plateforme PDA (.net/Powershell/Javascript) • DBA étude : Code review, audit et validation des PR, optimisation de requête et performance/factorisation, veille au respect des bonne pratique de code, Contrôle et ajustement des performances des bases de données (SQL Serveur, Snowflake, Azure SQL) • DBA Système : Conception et implémentation des modèles de sécurité des bases de données, gestion de la performance des bases de données, monitoring et résolution d'incidents • Développement de pipeline CI/CD, Artefact, repo et taches Azure Devops • Mise en place des bonnes pratiques (technique, fonctionnel, corpus documentaire) • Animation de communauté Développeur

CDI
Freelance

Offre d'emploi
Ingénieur DevOps Cloud (F/H)

CELAD
Publiée le
Ansible
Bash
DevOps

12 mois
40k-60k €
Nanterre, Île-de-France

Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un.e Ingénieur DevOps Cloud pour intervenir chez un de nos clients, un acteur majeur du secteur du paiement en France. Votre mission consiste à intervenir sur le déploiement et la maintenance d’une solution monétique basée sur le progiciel TANGO, ainsi que sur la gestion des environnements de recette et de production. Vos fonctions : Déployer des applications et scripts dans différents environnements (Ansible, Jenkins) Assurer le support technique et gérer les incidents en lien avec l’éditeur Mettre à jour et maintenir la documentation technique Développer et maintenir des scripts d’intégration (Shell, Java, SQL) Garantir le maintien en condition opérationnelle des environnements hors production et production Contribuer à l’optimisation des pipelines DevOps et à l’intégration de nouvelles fonctionnalités

Freelance

Mission freelance
AWS Platform Engineer (F/H)

Quick Source
Publiée le
AWS Cloud
Confluence
Git

6 mois
550-580 €
Paris, France

La mission se déroulera au sein du département Digital Platform travaillant en mode Agile. Maitrise en profondeur les concepts du Well Architecture Framework du Cloud AWS -Vous êtes amené à définir / construire / faire évoluer et exploiter une plateforme sur AWS permettant aux métiers de développer et faire tourner leurs applications Cloud. -Vous participez aux activités de RUN liées à la plateforme. -"Infra as Code” : Vous développez des modules Terrraform et pipeline CICD pour déployer/configurer/gouverner l’infrastructure (aucun déploiement sera fait manuellement via la console AWS). -“User centric” : Vous êtes à l’écoute des utilisateurs du produit et rechercher leur feedback, documenter pour que les utilisateurs soient autonomes dans leur utilisation de la plateforme. Des astreintes pourraient devenir obligatoires pour des raisons opérationnelles

Freelance

Mission freelance
Ingénieur DATAOPS - Freelance – (H/F)

SWING-ONE
Publiée le
AWS Cloud
Azure Active Directory
Cloud

1 an
500-650 €
Île-de-France, France

Description du poste : Notre client Grand-Compte recherche un/une ingénieur(e) DATAOPS. Principales missions : Automatisation des pipelines de données : Concevoir et mettre en place des pipelines qui automatisent l'extraction, la transformation et le chargement (ETL/ELT) des données entre différentes sources. Gestion des environnements cloud : Déployer et gérer des environnements cloud (AWS, Azure, GCP) pour le traitement des données. S'assurer que les solutions de gestion de données sont optimisées pour ces plateformes. Sécurité des données : Assurer la mise en œuvre des politiques de sécurité, de conformité et de gouvernance pour protéger les données sensibles.

760 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous