Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 422 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI

Offre d'emploi
Ingénieur DevOps + IA

Deodis
Publiée le
Docker
FastAPI
Gitlab

6 mois
10k-55k €
Montpellier, Occitanie

Vous travaillez sur une application IA GEN généralisée et vos missions principales seront : le suivi et l'évolutions technologiques (on prem, Landing-zone AWS, cloud privé) sur LLM avoir une expertise technique au sein de équipe en charge de la conception, du développement et du déploiement d'une application de type chatbot basé sur un LLM. Attendus : travail en équipe maîtrise de l'outillage devops (gitlab, gitlab-ci, helm, docker, kubernetes, artifactory, grafana) pratiques de développement backend (python, fastapi) et de test (pytest) connaissance en bases de données (redis, mongoDB, llamaindex) premières expériences en intégration des IA génératives (cloud/onpremise + framework langchain)

Freelance
CDI

Offre d'emploi
DEVSECOPS

AVA2I
Publiée le
Bitbucket
Jenkins
Kubernetes

3 ans
10k-60k €
Vincennes, Île-de-France

Spécialisé dans le secteur bancaire, l'entreprise recherche activement un devSecops pour renforcer ses effectifs. Le rôle est centré sur un état d'esprit agile DevSecOps et nécessite un large éventail de compétences techniques. Travailler en étroite collaboration avec une grande variété d'équipes pour : - Gérer un ou plusieurs produits numériques DevOps. - Gestion du cycle de vie du produit, de la conception à l'exécution - Recueillir les commentaires des utilisateurs et créer une boucle de rétroaction - Planifier et prioriser les tâches pour le renforcement de l'équipe et les mises à jour du produit. - Gérer l'évolution et la consommation du produit à l'aide d'indicateurs de performance clés (KPI) pertinents. - Développer et maintenir la feuille de route du produit - Coordination avec les dépendances : autres propriétaires de produits, équipes d'infrastructure et de sécurité - Comprendre l'état de préparation à la production et travailler avec les équipes pour comprendre les besoins des utilisateurs. - Identifier l'efficacité des processus et contribuer à l'automatisation - Comprendre les besoins de toutes les parties prenantes, documenter les raisons de ces décisions architecturales. - Élaborer et mettre en œuvre la stratégie d'adoption de l'informatique dématérialisée de la Banque. Compétences spécifiques au rôle - Compétences essentielles - Product Owner (engagement des utilisateurs, définition de la feuille de route, collecte des besoins des utilisateurs, définition des tâches, etc.) - Développement dans différents langages, tels que Go, Pyhton - Cycle de vie des applications et des méthodologies agiles - Terraform - Kubernetes - TeamCity et Jenkins - Artifactory/binaires - Gestion du code source, y compris Git et Bitbucket - SAST et SCA et comment intégrer les tests de sécurité dans les pipelines CI/CD standard - CI/CD, en particulier Jenkins, infrastructure dans la construction de plateformes ainsi que dans la création et la configuration de pipelines en tant qu'utilisateur - Méthodologies de programmation et de script, écriture de code dans un ou plusieurs des langages suivants : Go, Python - Administration de systèmes - Linux/Unix et Windows - Compréhension des plateformes et solutions basées sur le cloud et fourniture de solutions PAAS.

Freelance

Mission freelance
Data Analyst GCP Python appétence Date ingénierie

Kaïbee
Publiée le
Google Cloud Platform
Microsoft Power BI
Python

1 an
100-460 €
Paris, France

PAS DE SOUS-TRAITANCE // MERCI Nous recherchons un Data Analyst passionné par la Data Ingénierie pour rejoindre une équipe dynamique dans un environnement stimulant. En tant que Data Analyst , vous jouerez un rôle clé dans l’analyse et la gestion des données au sein d’une organisation innovante. Vous interviendrez également sur des aspects techniques de la data ingénierie pour optimiser et structurer les pipelines de données. Compétences requises : • Excellente maîtrise de GCP pour la gestion des pipelines et des infrastructures cloud. • Expertise en SQL pour extraire, manipuler et analyser des données complexes. • Connaissance avancée de Python pour automatiser les processus et gérer les workflows. • Expérience avec dbt pour transformer les données. • Utilisation de Argo pour l’orchestration des workflows. • Maîtrise de Terraform pour le déploiement d’infrastructures cloud. • Capacité à créer des rapports visuels et dynamiques avec Power BI .

Freelance
CDI

Offre d'emploi
Ingénieur DevOps Cloud Privée

Deodis
Publiée le
Ansible
CI/CD
Confluence

6 mois
45k-70k €
Montpellier, Occitanie

Compétences demandées : Très bonnes connaissances sur l'administration de l’outillage CI/CD Gitlab, Jenkins et AWX/AAPv2 Connaissance sur la suite ELK (production de dashboards) Très Bonnes connaissances Linux A l'aise en développement Shell et ansible Le code Python et le GO serait un plus. Connaissance Docker et la containerisation (Kube, Openshift) Softskills : Capacités relationnelles et travail en équipe Adaptabilité Force de proposition Rigueur, sens de la méthode Fort esprit d'équipe Outils informatiques Linux AWX/AAP Docker ANSIBLE Python Confluence GitLab, Artifactory, Vault, Sonar, Confluence, Jenkins

Freelance

Mission freelance
Data Engineer

Kaïbee
Publiée le
AWS Cloud
CI/CD
Python

1 an
100-600 €
Paris, France

PAS DE SOUS-TRAITANCE // MERCI En tant que Data Ingénieur, vous serez responsable de la conception, du déploiement et de la maintenance d'une infrastructure de données basée sur les bonnes pratiques du Well Architected Framework (WAF) d'AWS, en respectant les piliers suivants : Excellence opérationnelle, Sécurité, Fiabilité, Efficacité des performances, Optimisation des coûts, et Développement durable. Vous travaillerez en étroite collaboration avec le CTO et les Data Scientists pour construire et maintenir des pipelines de données robustes et sécurisés sur AWS. 1. Mise en place de pipelines de données robustes et scalables : Concevoir des pipelines de données serverless optimisés (e.g., step function, Lambda, S3, Redshift) pour gérer des données provenant de compteurs énergétiques en mode batch et en streaming. Structurer la donnée en zones fonctionnelles sur S3 (Landing, Raw, Trusted, Curated, Archive) et transformer les formats (e.g., XML en JSON, JSON en Parquet) pour optimiser les performances et réduire les coûts. 2. Excellence opérationnelle : Implémenter et automatiser des workflows CI/CD/CT avec GitHub Actions pour garantir des déploiements continus, sécurisés et sans interruption (via EKS, ECS, App Runner, Sagemaker) Mettre en place un monitoring avancé pour les pipelines de données et les modèles déployés, garantissant la détection proactive des anomalies et une maintenance efficace. (via cloudwatch, SNS) 3. Sécurité et fiabilité : Collaborer à la migration des applications R/Shiny vers des technologies plus familières et sécurisées (e.g. Kotlin ou Python) tout en respectant les standards de sécurité, notamment via des solutions telles que Posit Connect 4. Optimisation des coûts et développement durable Proposer des optimisations pour réduire les coûts de stockage et de traitement des données, en s’appuyant sur des services AWS adaptés et en optimisant les formats et processus de gestion des données. 5. Collaborer avec l'équipe Data Science Faciliter l'accès aux données de qualité pour les Data Scientists, en veillant à ce que les modèles puissent être intégrés efficacement dans les applications existantes

Freelance

Mission freelance
architecte pyspark - 3 mois

Innov and Co
Publiée le
Apache Spark
Azure DevOps Services
Databricks

3 mois
100-700 €
Boulogne-Billancourt, Île-de-France

Contrainte forte du projetFort enjeux metier Les livrables sont Package pyspark Dictionnaire / catalog de données Model de données tabulaire Compétences techniques PYTHON / PYSPARK / SPARK - Expert - Impératif Databricks/ datafactory/ azure devops - Expert - Impératif Azure Analysis Services - Expert - Impératif Integration GIT - Expert - Important Connaissances linguistiques Français Courant (Impératif) Description détaillée L'equipe Datafinance utilise actuellement une architecture basée sur Databricks, Azure Blob Storage, Azure Data Factory et Azure Analysis Services pour traiter et analyser ses données financières. Nous cherchons à optimiser les processus de traitement de ces données, en particulier le rafraîchissement des données, pour améliorer la performance et la qualité des analyses. Dans ce cadre, nous recherchons un expert en BI et Data pour une mission de 3 mois. L'objectif est d'optimiser le Temps de traitement et de rafraichissement des données. 2. Objectifs de la mission L'expert BI et Data sera chargé de : Optimiser le traitement des données du projet Data finance, en se concentrant principalement sur le processus de rafraîchissement des données entra la zone gold et le cube de données. Optimiser l'utilisation de Azure Analysis Services (modèle Tabulaire) pour les rapports et les analyses. 3. Technologies utilisées L'expert devra maîtriser les technologies suivantes : Databricks (en particulier avec PySpark). Azure Analysis Services (modèle Tabulaire). SQL . Git et Azure DevOps pour la gestion des versions et l'intégration continue. 4. Compétences requises Le candidat idéal doit posséder une expérience avérée dans les domaines suivants : Maîtrise de PySpark : pour le traitement et l'optimisation des données dans Databricks. Expertise en modélisation de données : capacité à concevoir et optimiser des modèles de données pour améliorer la performance et la gestion des données financières. Maîtrise du modèle Tabulaire dans Azure Analysis Services : pour optimiser le rafraîchissement des données et améliorer les performances des cubes. Bonne compétences en SQL 5. Livrables attendus Les livrables de la mission incluent : . Mise en œuvre des optimisations dans Databricks et Azure Analysis Services. Documentation détaillée des modifications apportées et des bonnes pratiques mises en place. Transfert de connaissances aux équipes internes pour garantir une gestion continue des processus optimisés.

CDI
Freelance

Offre d'emploi
Data Engineer Python / SQL / Azure

Signe +
Publiée le
Azure
Big Data
engineer

24 mois
25k-30k €
Rennes, Bretagne

Profil : Experienced Data Engineer • good technical skills o Python 3.7, o Flask/Fast API (Librairie API pour python), o SQL o Modelisation (MCD, MLD, MPD) , o Azure Functions, Azure Tables, Azure Data Explorer, o API Rest / API Management. • Technical specifications and OPEN API Specifiction writing • Functionnel Specification writing Activités : Specification, Development, Correction d'anomalies.

Freelance

Mission freelance
Devops AWS, Dataiku, Gitlab, Terraform, python

Kaïbee
Publiée le
AWS Cloud
Dataiku
GitLab CI

2 ans
100-540 €
Île-de-France, France

Organisation : Le consultant rejoindra notre client dans l'équipe DevOps & Technologies au sein de la direction DATA du groupe (France et international). Cette équipe gère la plateforme Data, couvrant l'architecture, l'administration, DevOps, FinOps, et accompagne les équipes projets en assurant l'application des bonnes pratiques. L’écosystème technique inclut : AWS, Dataiku, GitLab CI/CD, Terraform, Ansible, IA, Snowflake, Braze, Spark, Python, Scala, etc. Nous recherchons un consultant DevOps expert en Dataiku, GitLab CI/CD, Terraform, AWS et Python. Il participera au développement avancé de l’Infrastructure as Code (IaC) et à l'amélioration continue de la plateforme data.

Freelance

Mission freelance
Expert Ansible

MCONSULTING
Publiée le
Ansible
CI/CD
Gitlab

12 mois
510 €
Paris, France

Prestation d'Expertise Ansible Automation Platforme Maintenance AAP : upgrade Python, upgrade Ansible, upgrade AAP Exploitation des machines : mises à jour système, rotation de logs, purge de FS ou extensions de FS au besoin Développement de nouveaux cas d'usage (workflow Ansible, playbooks/roles Ansible) Maintien du plugin d'inventaire pour les connexions SSH Troubleshooting Ansible Troubleshooting plate-forme AAP (suivi de case RedHat) Interactions avec API REST et outils EDF (BASTION, ITzMI, VIGIE, Datalake, SSA) Sécurité surveillance OS, bonnes pratiques de développement Accompagnement utilisateurs (suivi de cas d'usage, communication aux utilisateurs de la plate-forme) Technologies : RHEL 8, Ansible Automation Platform 2.4, Python (software engineering, profiling, analyse de performances), Ansible, PostgreSQL, Dynatrace, Prometheus/Grafana, Gitlab Runners, Gitlab CI/CD, metricbeat/filebeat, YAML, Superset, SQL, Commvault, Backup-restore, Loadbalancing (tests de vie), Conteneurs (podman), GitOps, Git, Gitlab Compétences : Conteneurs : Gitops, Git, Gitlab Connaissance d’Ansible : Comprendre les modules, les tâches et les playbooks1. Savoir exécuter des commandes Ansible. Utilisation des variables et des modèles : Savoir comment utiliser des variables et des modèles dans Ansible. Connaissance du Contrôleur d’Automatisation : Comprendre les bases du contrôleur d’automatisation et ses fonctions, comme les contrôles d’accès basés sur les rôles, les workflows. Expérience avec Red Hat Ansible Automation Platform : Avoir suivi le cours Développement de processus automatisés avancés avec Red Hat Ansible Automation Platform. Compétences en Python et Linux : Ansible doit s’accompagner de compétences techniques liées au langage de programmation Python et à Linux. Pratiques DevOps : Ansible est un outil conçu pour faciliter la mise en œuvre des pratiques DevOps. Gestion de Configuration : Maintenir les serveurs et les dispositifs réseau dans l’état désiré. Automatisation des tâches : Savoir exécuter des tâches programmées sur de nombreux serveurs4. Déploiement d’applications : Automatiser le déploiement d’applications de manière cohérente et répétable. Intégration Continue : Faciliter l’intégration et le déploiement continus dans les pipelines DevOps.

CDI

Offre d'emploi
Support technico-fonctionnel Finance de Marché

Atlanse
Publiée le
Python
SQL

10k-65k €
Île-de-France, France

Vous interviendrez en tant que support technico fonctionnel avec une parfaite compréhension du secteur financier dans un contexte international. Missions : Effectuer le support fonctionnel et le support à la production Assurer le maintien en condition opérationnelle des plateformes applicatives Réaliser le monitoring des flux de données Suivre et résoudre les incidents Coordonner le projet Assurer une communication régulière auprès des métiers Effectuer des reportings réguliers La maîtrise de l’anglais technique est indispensable pour mener à bien cette mission.

Freelance

Mission freelance
Lead développeur python go (H/F)

Espace Freelance
Publiée le
Go (langage)
Python

3 mois
100-530 €
Villeneuve-d'Ascq, Hauts-de-France

Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : Lead développeur python go (H/F) Mission : Le Lead Développeur aura pour rôle de renforcer les compétences de développement des ingénieurs réseaux et de contribuer à l'évolution de la stack technique. Responsabilités : Accompagner les ingénieurs réseaux dans leur montée en compétences (évaluations, formations, peer-programming) Participer à la maintenance et à l’amélioration de la stack Python et GO Contribuer activement au Software Engineering Board

Freelance

Mission freelance
Développeur Java / Python / AWS

ODHCOM - FREELANCEREPUBLIK
Publiée le
Java
Python

12 mois
100-500 €
Hauts-de-Seine, France

Développeur Back end Java Python localisation : 92 Durée : Longue jusqu'à 3 ans Télétravail : 2 jours TT - 3 jours sur site Dans le cadre du développement d'un produite lié à la gestion d'un fort volume de data Nous recherchons un dev Back end dont les taches seront : Implémenter les fonctionnalités en accord avec le PO et le Tech Lead - Implémenter les tests unitaires / tests d'intégration / tests de bout en bout - Réaliser les codes reviews en collaboration avec les autres membres de l'équipe - Implémenter l'infrastructure (IaC) si besoin, accompagné du Sysops

Freelance

Mission freelance
Administrateur IT (Niveau 1 & 2) - H/F

Zenith Rh
Publiée le
Active Directory
Azure
ITIL

6 mois
200-450 €
La Défense, Île-de-France

Vos missions et activités principales : • Support Niveau 1 & 2 : Fournir un support technique aux utilisateurs et aux équipes internes pour les problèmes liés aux serveurs, bases de données, stockage, sauvegarde, Active Directory, Azure Entra ID et Exchange Online. • Gestion des incidents : Identifier, diagnostiquer et résoudre les incidents techniques de niveau 1 et 2. Escalader les problèmes complexes aux ingénieurs seniors lorsque nécessaire. • Maintenance et Administration : Assurer la maintenance quotidienne des systèmes d’exploitation Windows, des serveurs de fichiers, des bases de données SQL (SQL Server, MySQL, PostgreSQL), des solutions de sauvegarde (Dell Data Protect, Data Domain), ainsi que des environnements Active Directory, Azure Entra ID et Exchange Online. • Gestion des demandes : Traiter les demandes des utilisateurs concernant les accès, les configurations et les problèmes techniques en utilisant les outils de gestion des tickets. • Documentation : Mettre à jour les documents techniques et les procédures de support pour refléter les changements apportés et les nouvelles informations. • Assistance au déploiement : Aider à la configuration et au déploiement de nouveaux équipements ou logiciels, en suivant les directives des ingénieurs senior. • Veille Technologique : Se tenir informé des nouvelles technologies et tendances afin de fournir des recommandations et d’améliorer les pratiques en place. • Scripting et Automatisation : Utiliser des scripts simples pour automatiser des tâches récurrentes sous la supervision des ingénieurs senior. Connaissance de scripting avec PowerShell, Bash ou Python est un plus.

CDI
Freelance

Offre d'emploi
Consultant Ops Infrastructure - Python H/F

STORM GROUP
Publiée le
AWS Cloud
Python

3 ans
10k-60k €
Île-de-France, France

1 - Contexte et objectifs de la prestation .Le département a pour prestation d'assurer le bon fonctionnement des infrastructures et de la production informatique pour servir le développement de l'activité Banque et Services Financiers Internationaux. Le service Exploitation ICR/ALD regroupe les services d'infrastructures propres à cette ligne métier. Son activité couvre la surveillance et l'exploitation des différents systèmes dédiés, la maintenance et les évolutions techniques de ces systèmes, la gestion des changements des applications métiers et la conformité aux différentes réglementations en vigueur. Dans ce cadre la prestation consiste à contribuer à/au(x) : La surveillance et l'exploitation des differents systemes dédiés, La maintenance et les évolutions techniques de ces systèmes, L'acculturation des équipes en charge des infras aux bonnes pratiques de développement et de conception dans un cadre Agile, L'évolution de l'offre "Automatisation" au sein du département, La transition vers la plateforme Cloud de la Société Générale, La gestion des changements des applications metiers. Expertises : infrastructures et technologies

CDI

Offre d'emploi
QA Agile ISTQB - CDI en ESN uniquement - Secteur Energie -

Kaïbee
Publiée le
Agile Scrum
API
Confluence

10k-65k €
Paris, France

Une filiale des services énergétiques du groupe EDF, qui met son expertise au service de ses clients pour développer, réaliser et gérer des solutions énergétiques écologiques et économiques. Au sein de la Direction des Systèmes d'Informations et du Numérique , vous rejoindrez l’équipe Qualité Produit pour accompagner les équipes de la DSIN et métier en étant responsable des activités de tests, détaché opérationnellement auprès du domaine SI Systèmes connectés. Vous interviendrez sur les phases de tests, dans le cadre d’un programme de transformation de notre SI industriel. Vous serez garant des standards et bonnes pratiques de tests mis en place par le domaine Qualité Produit. Début de mission début Octobre.

Freelance
CDI

Offre d'emploi
Administrateur Rubrik

ENGIT
Publiée le
NetApp
Python

3 mois
10k-50k €
Paris, France

Missions Administrer les infrastructures de sauvegarde Rubrik, Storage Protect, DataDomain et NetApp. Activités de Build/Run N3 sur ces infrastructures. L'expertise Rubrik est indispensable et une forte expérience sur Storage Protect sera très appréciée. Environnement technique et fonctionnel Rubrik - Expert - Impératif Storage Protect (Spectrum Protect) - Expert - Important (idéalement) Python - Confirmé - Souhaitable NetApp - Confirmé - Souhaitable VTL de type Data Domain ou Unity / Robotique - Confirmé - Souhaitable

422 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous