Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 476 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

CDI
Freelance

Offre d'emploi
Expert Elastic stack - SRE

F2K COMPUTING
Publiée le
DevOps
ELK
Python

36 mois
52k-70k €
Île-de-France, France

Objectifs de la mission Concevoir, développer et déployer des solutions basées sur la plateforme Elasticsearch . Consolider l'écosystème autour d'Elasticsearch : infrastructure, orchestration, gestion de la capacité. Industrialiser et automatiser les opérations de run sur Elasticsearch , Kibana , Logstash et Beats . Accompagner les clients dans la résolution de leurs problématiques liées à l'observabilité. Missions principales Conception de solutions Elastic adaptées aux besoins clients. Modélisation des données , optimisation des requêtes, et gestion des clusters Elastic. Développement de POC pour démontrer la valeur des solutions Elastic. Support aux équipes dans la résolution de problèmes complexes de données. Mentorat auprès des équipes sur les pratiques DevOps et SRE. Compétences requises Expertise Elastic Stack (Elastic Cloud Enterprise, Elasticsearch, Kibana, Logstash). Connaissances avancées en DevOps (Git, Gitlab, CI/CD, Ansible). Maîtrise du Python pour le développement d’outils et de scripts. Anglais professionnel requis.

CDI
Freelance

Offre d'emploi
Ingénieur Back Up Restauration

AGH CONSULTING
Publiée le
Python

2 ans
10k-60k €
Charenton-le-Pont, Île-de-France

Nous recherchons un Ingénieur Sauvegarde expérimenté, spécialisé sur la solution Rubrik. Vous serez responsable de la gestion, de la maintenance et de l’optimisation des systèmes de sauvegarde et de restauration des données critiques de l’entreprise. Une bonne connaissance des scripts en Python est nécessaire afin d’automatiser et d’améliorer les processus de sauvegarde. Administrer, configurer et surveiller la solution de sauvegarde Rubrik . Assurer la disponibilité, l’intégrité et la sécurité des données sauvegardées. Gérer les politiques de sauvegarde et de rétention des données conformément aux besoins de l'entreprise. Surveiller les performances des sauvegardes et optimiser les processus pour réduire les temps de récupération. Mettre en place des scripts en Python pour automatiser les processus de sauvegarde, restauration et reporting. Assurer la mise à jour et l'application des correctifs logiciels sur la solution Rubrik. Diagnostiquer et résoudre les incidents liés aux sauvegardes et aux restaurations. Rédiger des procédures techniques et des documents relatifs à l’administration des sauvegardes. Participer aux audits de conformité et aux tests de restauration périodiques. Collaborer avec les équipes IT pour assurer la continuité des opérations.

CDI

Offre d'emploi
Administrateur des infrastructures - Expertise Rubrik

AGH CONSULTING
Publiée le
Python

10k €
Toulouse, Occitanie

Nous sommes à la recherche d'un Administrateur Infrastructure de Sauvegarde Rubrik pour l'un de nos clients basé à Toulouse ; Missions : la gestion, de la maintenance et de l?optimisation des systèmes de sauvegarde et de restauration des données critiques de l'entreprise. Une bonne connaissance des scripts en Python est nécessaire afin d'automatiser et d'améliorer les processus de sauvegarde. Administrer, configurer et surveiller la solution de sauvegarde Rubrik. Assurer la disponibilité, l'intégrité et la sécurité des données sauvegardées. Gérer les politiques de sauvegarde et de rétention des données conformément aux besoins de l'entreprise. Surveiller les performances des sauvegardes et optimiser les processus pour réduire les temps de récupération. Mettre en place des scripts en Python pour automatiser les processus de sauvegarde, restauration et reporting. Assurer la mise à jour et l'application des correctifs logiciels sur la solution Rubrik. Diagnostiquer et résoudre les incidents liés aux sauvegardes et aux restaurations. Rédiger des procédures techniques et des documents relatifs à l'administration des sauvegardes. Participer aux audits de conformité et aux tests de restauration périodiques. Collaborer avec les équipes IT pour assurer la continuité des opérations.

Freelance

Mission freelance
Chargé de vérification et validation logiciel H/F

Hays Medias
Publiée le
Ethernet
FTP (File Transfert Protocol)
Grafcet

6 mois
100-550 €
Tours, Centre-Val de Loire

Savoir-faire métier : Familier avec les concepts de gestion de configuration et utilisation d’au moins un outil associé (SVN, ClearCase, Git, etc…), Familier avec les concepts de gestion des exigences et utilisation d’au moins un outil de gestion d’exigences (Reqtify, doors, polarion, etc…), Familier avec les concepts de gestion de modification et ticketting et utilisation d’au moins un outil associé (trac, clearquest, bugzilla, etc…), Connaissances générales en développement cycle en « V » Logiciel, Connaissances en automatisme, électronique et contrôle commande, Expérience en test ou développement dans un contexte de développement embarqué sécuritaire et/ou normé (EN50128, EN50657, DO-178, IEC 61508, ISO 26262, IEEE 1558-2004, …).

Freelance

Mission freelance
Consultant Automatisation des tests

DLA CONSEIL
Publiée le
ISTQB
Python

3 mois
100-3k €
Montreuil, Île-de-France

Durée de la mission : Longue (Bon de commande par 3 mois renouvelables) Télétravail : 100% Début de mission : ASAP Description de la prestation : L’URSSAF Caisse Nationale devient l’opérateur national de la fiabilisation des DSNs pour les entreprises relevant du régime général. Dans cette optique, elle opère une transmission en profondeur de son système d’informations DSN afin de pouvoir répondre à ces enjeux. Missions : Définition de stratégie d’automatisation : démarches et outils Mise en place du socle technique sur applicatifs IHM, Batch, API, Contrôle des bases de données Définition de la stratégie de tests automatisés par incrément Implémentation des tests automatisés de bout en bout

Freelance

Mission freelance
Responsable technique système H/F

Hays Medias
Publiée le
API REST
Docker
Framework

6 mois
100-3k €
Biot, Provence-Alpes-Côte d'Azur

Nous recherchons un "Responsable Technique Système H/F" pour le compte de notre client spécialisé dans l'ingénierie et l'étude technique à Biot dans les Alpes-Martitimes (06). Il s'agit d'une mission de 6-8 mois en freelance ou portage salarial avec une évolution possible (souhaité) en CDI par la suite chez le client final. Dans ce rôle, vous serez amené à : ➢ Imaginer et programmer de nouvelles fonctionnalités en Python ➢ Entretenir et rectifier les fonctionnalités existantes ➢ Concevoir et développer des services, systèmes et API dans le domaine du traitement des données environnementales ➢ Créer et élaborer des systèmes complexes ➢ Développer et mettre en place des orchestrateurs pour le traitement des données EO ➢ Rédiger des spécifications techniques ➢ Participer à la documentation technique ➢ Contribuer à la maintenance et à l’amélioration de la qualité du code et des meilleures pratiques au sein de l’équipe ➢ Encadrer et assister techniquement les membres juniors de l’équipe ➢ Collaborer avec le Responsable Technique Web sur des sujets communs ➢ Travailler avec le Responsable DevOps pour les déploiements et les environnements ➢ Interagir avec l’Architecte pour obtenir les spécifications fonctionnelles et les détails de conception ➢ Travailler au sein d’une équipe projet avec une vision d’amélioration continue et de gestion agile, et être capable d’estimer les tâches de développement en respectant le calendrier du projet

Freelance

Mission freelance
Tech Lead Data Engineer GCP (H/F)

NSI France
Publiée le
Google Cloud Platform
Python
SQL

3 ans
100-600 €
Paris, France

En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Conception des solutions nécessitant l’utilisation de technologies cloud & data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données dans le Cloud · Travaille avec différents profils data du groupe (Data Scientist, data engineer, data architect, data analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne

Freelance
CDI

Offre d'emploi
GO/Python - ML Engineer

VISIAN
Publiée le
Go (langage)
Kubernetes
Python

1 an
10k-66k €
Levallois-Perret, Île-de-France

le cadre de sa prestation, l'intervenant externe évoluera au sein de la direction de la Data chez BNP Paribas Personal Finance, AI Delivery. AI Delivery accompagne les métiers et les pays dans leurs projets de Data science, depuis la génération de use case jusqu’à la mise en production. Notre équipe, dynamique et internationale, au profil « start-up » intégrée à un grand groupe, regroupe des profils de Data scientist experts en Machine Learning (computer vision, NLP, scoring), un pôle ML engineering capable d'accompagner les DataScientists lors de l'industrialisation des modèles développés (jusqu'à la mise en production) ainsi qu’une équipe AI Projects. AI Delivery met aussi à disposition des lignes de métiers Personal Finance la plateforme de Datascience « Sparrow », qui comporte L’équipe Technical Office, composée principalement de MLOps Engineers, a pour principale mission d’être garante de la qualité des livrables de l’ensemble de la direction, de les déployer sur le cloud privé du Groupe, « dCloud » et enfin d’assurer la haute disponibilité de l’ensemble de nos assets. Cette équipe conçoit, développe et maintient des plateformes et des frameworks de data science. PF fait appel a une prestation en AT pour assurer l’évolution et la haute disponibilité de l'ensemble de nos assets. Le prestataire aura la charge de la disponibilité et de la stabilité de nos différentes plateformes data avec un focus particulier sur notre asset Sparrow. Le prestataire intègrera l’équipe du Technical Office. DevOps, MLOps, Data Science, Cloud sont les moteurs de son quotidien. Les sujets traités par l’équipe sont variés : - Participer à la conception architecturale cloud et data ; - Participer à la maintenance/l’évolution des frameworks de data science existants (Python) ; - Participer à la maintenance/l’évolution des services web et opérateurs kubernetes existants (Golang) ; - Participer à la maintenance/l’évolution des pipelines de CI/CD (Gitlab CI, GitOps) ; - Participer à la maintenance/l’évolution du code d’IaC (Terraform, Bash) ; - Participer à la maintenance/l’évolution de l’outillage DevOps (Gitlab runners, BuildKit, ArgoCD, ArgoWorkflows, ArgoEvents, etc.) ; - Participer à la maintenance/l’évolution de l’outillage DevSecOps (Vault, Keycloak, Sparrow IAM, etc.) ; - Participer à la maintenance/l’évolution de l’Observabilité des plateformes (logging, monitoring, traçabilité) ; - Participer à la mise en production des outils et des solutions IA déployées sur la plateforme ; - Être force de proposition et participer aux POCs.

Freelance

Mission freelance
Expertise DBA

HIGHTEAM
Publiée le
Oracle
PostgreSQL
Python

3 ans
100-650 €
Île-de-France, France

Dans le cadre de l’évolution permanente et du maintien en conditions opérationnelles de ses socles techniques le bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes d'expertise technique DBA Le client gère 3800 bases de données Oracle, et 650 bases mongo DB, 1700 bases MS SQL, et 5600 cluster PostGres. Expertise DBA Cela comprend pour .... Expertise avancée en Bases de données Oracle Expertise en infrastructures Exadata, ExaCC Expertise en Bases de données MongoDB Technologies de sauvegarde : TSM, Networker Scheduling : Autosys, Control M, Jobscheduler, Airflow Monitoring : Oracle Enterprise Manager, Zabbix Socle OS : Redhat Linux Automatisation en Python, Ansible, Scripting shell Cela comprend pour.... Expertise avancée en Bases de données PostgreSQL, MSSQL Expertise en Bases de données Cassandra & Sybase Technologies de sauvegarde : TSM, Networker Scheduling : Autosys, Control M, Jobscheduler, Airflow Monitoring : Zabbix, Datasentinel Socle OS : Redhat Linux, Microsoft Windows Server Automatisation en Python, Ansible, scripting shell unix & powershell Au sein de ..... la prestation consiste à contribuer pour les bases de données à la maintenance et à l'évolution des bases de données sur ses plateformes Unix (Décisionnel, Flux, Transactionnel, Progiciels) : La conduite du changement sur les opérations importantes (migration/montées de version, migrations de socle de hosting vers du cloud interne, gestion de l’obsolescence, defrag,…) et à la documentation auprès de l'entité L’expertise en support aux équipes niveau 1 & 2 en cas d’incident L'optimisation selon les besoins applicatifs L'expertise sur la performance des bases et le suivi des changements applicatifs L'expertise sur la sécurité des bases de données (durcissement, gestion des vulnérabilités, mises à jour) Suivi des projets en relation avec les entités sécurité du groupe Second niveau de contrôle pour les sujets clés (backup, capacity planning, conformité avec les standards, tels que le durcissement) Delivery selon un modèle Agile/DevOps des API cloud privé en Python

Freelance

Mission freelance
data Ingénieur

Etixway
Publiée le
Google Cloud Platform
Python
SQL

1 an
100-450 €
Lille, Hauts-de-France

Contexte international, suivi opérationnel Le livrable est Développement flux Compétences techniques SQL/Python - Confirmé - Impératif GCP - Confirmé - Important Connaissances linguistiques Français Professionnel (Impératif) Anglais Lu, écrit (Secondaire) Description détaillée Au sein de la Supply Chain Digital Platform, notre équipe assure les échanges de données entre le moteur de calcul de prévision de vente et de réapprovisionnement et l'ensemble des applications internes. Nous avons mis en place un ELT (Gateway) permettant de consolider, transformer et analyser les données nécessaires à l'outil de réappro. Nous utilisons la stack technique BigQuery et Airflow pour déclencher les process de transformation de données et d'échange avec l'outil. Nous souhaitons nous renforcer dans l'équipe de la Gateway d'un ingénieur data afin d'assurer le run opérationnel, optimiser l'existant et dans un avenir proche participer au déploiement de la solution dans d'autres pays. Nous recherchons quelqu'un de motivé ayant déjà une expérience dans la data. Une bonne maîtrise de SQL est nécessaire. (elle sera testée durant l'entretien). (Actuellement l'équipe est composée de 3 ingénieurs data, 1 product owner, 1 scrum master, 1 tech lead, 1 incident manager.)

Freelance
CDI

Offre d'emploi
Expert Zabbix

e3M MANAGEMENT
Publiée le
Bash
ITIL
Python

1 an
45k-65k €
Yvelines, France

Nous recherchons un Expert Zabbix pour intégrer une équipe dynamique et participer à des projets de supervision d'infrastructures critiques. Vous interviendrez sur des missions de migration, d'automatisation et d'intégration au sein d'environnements complexes. Vos missions : Migration d'infrastructures Zabbix de la version 6 vers la version 7.0. Mise en place et optimisation d’architectures Zabbix V5 et V6. Développement de scripts d'automatisation en Python et Bash pour améliorer les processus de supervision. Migration de supervisions existantes (PATROL, SCOM, ZABBIX V4, CENTREON) vers les versions plus récentes de Zabbix. Intégration avec Netcool Omnibus via SNMP et WebHook . Rédaction de la documentation d'installation et d'exploitation. Maintien en conditions opérationnelles des systèmes en conformité avec la certification PCI-DSS . Compétences requises : Expertise avérée sur Zabbix et ses différentes versions. Solides compétences en scripting Python et Bash . Expérience avec des outils de supervision tels que BMC Patrol , ElasticSearch , et Entuity . Connaissance des processus ITIL et des certifications PCI-DSS .

Freelance

Mission freelance
Consultant DevOps

Enterprise Digital Resources Ltd
Publiée le
Bash
DevOps
Github

2 mois
100-510 €
Hauts-de-France, France

On recherche un.e expert.e DevOps. Les principales missions sont : - Maintenir en condition opérationnelle la plateforme d'intégration continue utilisée par la DSI - Accompagner les utilisateurs dans la consommation des services de l'équipe: github, argocd, AWX, sonarqube, nexus, backstage - Définir les règles de bonnes pratiques, les pipeline standards - Développer sur backstage les composants en mode self-service pour nos utilisateurs: terraform, python, bash - Contribuer à la transformation digitale en promouvant les services de l'équipe et notamment en développant l'offre Platform Engineering

Freelance

Mission freelance
Business Analyst Technique - IA Générative pour IT

CAT-AMANIA
Publiée le
Intelligence artificielle
Python
Streamlit

36 mois
290-570 €
Île-de-France, France

Nous recherchons un Business Analyst Technique spécialisé en IA générative pour rejoindre une équipe d'experts en innovation et développement IT. Le candidat travaillera sur des projets pilotes et des Proof of Concept (POC) liés à l'intégration de solutions d' IA générative au sein de systèmes IT complexes. Veille technologique : Réaliser une veille active sur les solutions d'IA générative disponibles (Make/Buy/Open Source) et proposer des solutions adaptées à l'IT. Pilotage de POC : Diriger et piloter des Proof of Concept et Proof of Value autour des technologies d'IA générative pour assister au développement de prototypes et outils d'aide au développement. Communication et adoption : Promouvoir et accompagner la mise en place des premières solutions d'IA générative au sein des équipes IT. Assurer une communication claire et efficace autour des résultats obtenus. Animation d'une communauté IA : Créer et animer une communauté dédiée à l' IA générative pour les développeurs, partager les meilleures pratiques, et fournir des supports pour les comités. Accompagnement des projets IT : Apporter un soutien technique et méthodologique aux projets IT lors de l'adoption des solutions IA.

Freelance
CDI

Offre d'emploi
Expert Sauvegarde

SooIT
Publiée le
Ansible
NetBackup
Python

6 mois
10k-65k €
Lyon, Auvergne-Rhône-Alpes

Nous sommes à la recherche d'un expert pour l'équipe Sauvegarde (disponibilité immédiate) L'équipier Sauvegarde Niveau 3 a pour rôle principal d'assurer la maintenance des systèmes de sauvegarde des datacenters. Cet expert maîtrise les technologies de sauvegarde, en particulier Commvault, ainsi que les architectures de sauvegarde et les sauvegardes sur bande. Une connaissance de NetBackup est également requise. En complément, une compétence en technologies DevOps est un plus pour automatiser les infrastructures de stockage. Les outils et technologies utilisés incluent : Ansible, Python, Git/GitLab, RestAPI, et en option, Terraform et Go.

Freelance

Mission freelance
Architecte F5 H/F

LeHibou
Publiée le
F5
Réseaux

3 ans
450-720 €
Montreuil, Île-de-France

Le client est un acteur majeur du secteur bancaire, cherchant un consultant pour compléter son dispositif d'architectes. L'architecte technique F5 est en charge de définir les solutions techniques en réponse aux besoins métiers, il rédige la documentation HLD, qui permettra à l'équipe de mise en œuvre de réaliser l'intégration. Il assure le suivi de la relation fournisseur, pour aider à l'amélioration des solutions et réaliser la veille technologique, il définit et communique le cycle de vie des solutions de références, nécessaire à l'exercice de gestion de l'obsolescence. Il est en support des équipes de mise en œuvre, avec qui il valide en lab les évolutions matérielles et logicielles pour mettre à jour le catalogue des produits de référence. - Relation technique avec les fournisseurs pour le suivi de la prestation d'accompagnement et pour assurer la veille technologique - Rôle de product Owner (plan de continuité, cycle de vie, catalogue, …) - Rédaction des HLD projets, - Qualification des nouveaux matériels et logiciels en lab en coopération avec les équipes de mise en œuvre Pré-requis : Expertise F5 tous modules (GTM, ASM, LTM)

Freelance
CDI

Offre d'emploi
Data engineer GT Lake

VISIAN
Publiée le
Apache Spark
MySQL
Python

2 ans
10k-45k €
Charenton-le-Pont, Île-de-France

Contexte / Objectifs : La mission va se dérouler au sein de l'IT Data Management & BI dans l'équipe Trade et Treasury Solutions qui aujourd'hui développe et gère un datalake (GT Lake) Ce datalake est une brique clé dans la mise en oeuvre des projets de développements autour du plan stratégique et des besoins métiers. Les principales missions consisteront notamment à : - Rédiger des spécifications techniques détaillées - Analyser les impacts des nouveaux projets sur les traitements/processus du système d’information existant - Comprendre et faire évoluer les modélisations - Développer des requêtes - Réaliser des développements (avec une approche industrielle) - Organiser et réaliser des recettes - Planifier et suivre la production - Implémenter et automatiser de bout en bout des programmes et solutions de Data Engineer dans un environnement Big Data - Intégrer, former les collaborateurs data ingénieur de l'équipe, définir les bests practices... - Participer à la communauté BigData de la BGC La mission se fera exclusivement dans un contexte méthodologique Agile. Il impliquera de pouvoir travailler avec des collègues travaillant à distance dans l’entité de Porto. Activités et tâches : • Acheminement de la donnée • Mise à disposition de la donnée aux équipes utilisatrices • Mise en production de modèles statistiques • Suivi de projet de développement • Développement job spark • Traitement et ingestion de plusieurs formats des données • Développement des scripts • Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données • Développement des moyens de restitution via génération de fichier et ou API & Dashboarding • Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers • Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) • Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP • Participer à la conception, mise en place et administration de solutions Big Data • Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka • Normalisation et agrégation des données afin de produire les rapports sous forme de Business View

476 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous