Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 410 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Un Développeur Python Fullstack avec des connaissances du framework Jango Sur Gennevilliers .

Almatek
Publiée le
Python

6 mois
100-340 €
Gennevilliers, Île-de-France

Almatek recherche pour l'un de ses clients, Un Développeur Python Fullstack avec des connaissances du framework Jango Sur Gennevilliers . La mission consiste au développement d’une application Web, en binôme avec l’archi. LE ou la consultante doit donc être autonome. 100% site Almatek recherche pour l'un de ses clients, Un Développeur Python Fullstack avec des connaissances du framework Jango Sur Gennevilliers . La mission consiste au développement d’une application Web, en binôme avec l’archi. LE ou la consultante doit donc être autonome. 100% site

Freelance
CDI

Offre d'emploi
skiils recherche son/sa futur(e) DevOps réseau et sécurité pour ses équipes au maghreb (remote)

skiils
Publiée le
Administration réseaux
Python

1 an
10k-200k €
Île-de-France, France

Nous sommes à la recherche d'un DevOPS pour rejoindre nos équipes. Si vous êtes passionné par le réseau et le développement Python et que vous souhaitez contribuer à la transformation numérique d'une grande entreprise leader dans dans son domaine ce poste est fait pour vous ! Analyser les flux TCP avec PaloAlto pour identifier les problèmes et identifier les solutions Analyser les flux HTTPS avec HAProxy et Envoy pour identifier les problèmes et identifier les solutions Faire du développement Python pour faciliter la transition HAProxy vers Envoy Intégrer son développement dans de la CICD (Jenkins ou Gitlab CI) Collaborer avec les équipes techniques et communiquer avec les clients 🔎 Rejoignez une équipe innovante et contribuez à l'évolution de notre infrastructure cloud !

Freelance

Mission freelance
Architecture technique - Orléans (45)

Signe +
Publiée le
Apache Maven
Apache Spark
Java

240 jours
360-400 €
Orléans, Centre-Val de Loire

Description détaillée L’objectif de cette prestation est de sécuriser un projet important en accompagnant le chef de projet Les attendus de cette prestation sont les suivants : le prestataire ➔ devra remplacer à la demande le chef de projet informatique sur les aspects techniques, notamment dans les réunions du comités technique et du comité stratégique; ➔ prendra en charge l’IAC, l’automatisation des déploiements sur Kubernetes et documenter en vue de faciliter le passage en maintenance à l’automne 2025 ; ➔ sur la base de l’évaluation craft réalisée en juin 2024, prendra en charge le suivi des axes d’améliorations identifiés, éventuellement en proposer de nouveaux, notamment sur l’observabilité ; ➔ documentera l’architecture actuelle via des ADRs et des diagrammes (flux, applicatif, infrastructure) ; ➔ rédigera d’ici fin 2024 une note d’observation critique sur les architectures (infrastructure, applicative, logicielle) mises en œuvre ; ➔ assistera le chef de projet informatique sur les questions de sécurité ; ➔ mettra en place un process efficace de gestion des connaissances, notamment une organisation documentaire. Formera les parties prenantes à son utilisation et sa mise à jour ; ➔ établira une cartographie des compétences et savoir-faire nécessaires pour le MCO-MCS du produit. Les développements sont réalisés en grande partie dans l’écosystème Kubernetes Les versions utilisées sont : - Java : 17 - Maven : 3.X.X - PostgreSQL : 14.X - Spark : 3.2.X - Spring Boot : 3.X.X - Spring Batch : 5.X.X - Hibernate : 6.X.X - Cucumber : 7.X.X Date de début : asap à voir suivant disponibilité de l’intervenant Durée de la prestation : 6 mois pour commencer avec une reconduction possible sur la durée restante du projet soit jusque septembre 2025. La prestation se déroulera dans les locaux d’Orléans. Une organisation du travail en mode hybride est possible après une phase d’intégration : - 3 jours de présence du prestataire - 2 jours de distanciel. Compétences requises - Compétences techniques : Développement java sénior, maîtrise des architectures big data ( spark), applicative ( java et écosystème, postgresql) et infrastructure ( kubernetes et écosystème), gitlab, Notions avancées de sécurité applicative et infrastructure. - compétences humaines : adaptabilité et capacité à collaborer, organisé, capacité à mettre en place un fonctionnement pérenne dans une équipe, esprit critique et argumenté. - connaissances de l’agilité Instances de suivi de la prestation - au sein des cérémonies agile du projet pour les réalisations - point hebdomadaire avec le chef de projet informatique et/ou ses responsables hiérarchique et l’intervenant

CDI
Freelance

Offre d'emploi
Ingénieur Infrastructure Devops

OBJECTWARE MANAGEMENT GROUP
Publiée le
Ansible
DevOps
Linux

3 ans
40k-53k €
Île-de-France, France

Au sein de notre client bancaire, l’équipe Baremetal est en charge de la livraison des nouveaux serveurs de bout en bout, et de l'amélioration continue des services dont elle a la charge. Le but de la mission est de passer d’une gestion de serveurs physiques manuelle à une complète automatisation de provisioning de la maintenance de ces serveurs. Fortes compétences infrastructures et DEVOPS attendus. Au sein d'une équipe de cinq personnes vous prendrez part aux activités suivantes : - Prise de connaissance et analyse des besoins - Pilotage des réunions de suivi hebdomadaires avec les équipes multidisciplinaires afin de remonter et résoudre les points de blocage rencontrés à différents niveaux (techniques, stratégiques, ressources humaines ou matériels) Activités plus liées au pré-armement et au déploiement des nouveaux serveurs (Linux, Windows) - Vérification des prérequis techniques et déclenchement des actions adéquates auprès des équipes tierces (DC, réseaux, systèmes et infrastructure) - Mise en relation entre les différentes équipes contributrices - Livraison des serveurs physiques au client - Développement de l’offre de service / des outils des serveurs physiques (orchestration Baremetal) - Maintien de la documentation relative à l'activité Nous souhaitons que tous les collaborateurs de l'entité soient force de proposition et soient intégrés dans toutes les réflexions. A ce titre, le collaborateur devra : - Participer aux réflexions sur l'évolution des processus - S'inscrire dans une démarche d'amélioration continue et proposer des axes d'améliorations tant sur la partie technique qu'organisationnelle

CDI

Offre d'emploi
Lead Data Scientist NLP

AGH CONSULTING
Publiée le
Python

10k-61k €
Colombes, Île-de-France

AGH Consulting recherche pour un de ses clients un Lead Data Scientist NLP. Les missions consiste à : • Aider le commanditaire à cadrer le projet en étant force de proposition • Accompagner techniquement des data scientists • Requêter les bases de données du client • Recenser et agréger les données de différentes sources • Analyser et explorer les données • Modéliser en s’appuyant sur des techniques de Machine Learning, Deep Learning • Automatiser et optimiser les traitements • Analyser les résultats produits pour s’assurer de la qualité des livrables • Produire des data visualisations si nécessaire et en minimisant les actions de maintenance que cela impliquerait par la suite • Restituer les résultats des travaux à l’écrit mais également à l’oral devant des commanditaires et en équipe, en apportant une plus-value dans l’analyse • Accompagner les commanditaires dans la prise en main des livrables • Documenter les travaux réalisés sur les aspects techniques et fonctionnels • Capitaliser et travailler en équipe dans une démarche de boucle d’amélioration • Utiliser les données en veillant au respect du RGPD

Freelance

Mission freelance
Tech Lead Data Engineer GCP (H/F)

CTG
Publiée le
Google Cloud Platform
Python
SQL

3 ans
100-600 €
Paris, France

En tant que Tech Lead Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers et p · Conception des solutions nécessitant l’utilisation de technologies cloud & data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données dans le Cloud · Accompagnement des différents profils data du groupe (Data Scientist, data engineer, data architect, data analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne.

Freelance
CDI
CDD

Offre d'emploi
2 ETP Support infrastructure

CONCRETIO SERVICES
Publiée le
BI
Cloud
Python

12 mois
10k-64k €
Versailles, Île-de-France

Nous recherchons pour l'un de nos clients 2 ETP support infrastructure. Contexte : Vous remplacerez les deux consultants en place, vous travaillez dans un environnement international donc un anglais courant est requis. Vos missions : Stratégies de Groupe Microsoft (GPO), personnalisation d'images, création de packages Microsoft Intune, Autopilot, MECM, configuration des annuaires Configuration et utilisation de JAMF Connaissance approfondie de PowerShell Création d'images Linux (RedHat, Ubuntu, CentOS)

Freelance
CDI

Offre d'emploi
Support métier Middle office et trading

Lùkla
Publiée le
Ansible
Python
Shell

3 ans
10k-33k €
Île-de-France, France

Activité du client : Secteur bancaire Poste : Support métier Middle office et trading Séniorité : à partir de 2 ans Bac +5 Maîtrise de l'anglais (aisance orale exigée) Profil : - Connaissances fixed income - Connaissances FOREX - Connaissances crédits - Suivi des incidents et requêtes - Support besoins des utilisateurs - Support Conduite du chagement Environnement technique : - Python - Scripting (GuitHub, Ansible, AWX, shell, vba) - SQL

Freelance

Mission freelance
Développeur Cloud F/H

LeHibou
Publiée le
DevOps
Kubernetes
Python

3 ans
550-650 €
Montreuil, Île-de-France

Notre client dans le secteur Banque et finance recherche un Développeur Cloud F/H Descriptif de la mission: Le client est un acteur majeur du secteur bancaire. Dans le cadre du renforcement de sa Squad de développement pour un produit dans le cloud privé du client, une recherche est nécessaire sur un poste de développeur, capable de maintenir le produit existant et de réaliser le développement de nouvelles fonctionnalités. Les connaissances technologies nécessaires sont: - Java - Framework Spring boot (montée de version a venir) avoir à minima de l'expérience dans les environnements utilisant Kubernetes, Terraform et Python. L'application étant déjà en production, l'adaptabilité du candidat a reprendre de l'existant est très importante • Être force de proposition sur les choix techniques, savoir vulgariser et documenter pour les membres de l’équipe • Orientation client pour saisir les besoins, et les traduire en application technique • Correction des bugs 10 ans d'expérience nécessaire pour prétendre au poste Compétences / Qualités indispensables: Python,Cloud,DevOps,Kubernetes,Java Spring boot Compétences / Qualités qui seraient un +: Expérience bancaire

Freelance
CDI

Offre d'emploi
Senior Data Scientist H/F

AMD Blue
Publiée le
Big Data
Python

3 ans
55k-68k €
Paris, France

Qui sommes-nous ? Chez AMD Blue, l'innovation est notre passion, et nous sommes fiers de présenter Blue Data, notre Tribu spécialisée dans le domaine de la Data. Avec une présence établie sur l'ensemble du territoire français et une récente expansion aux États-Unis et au Canada, nous sommes résolument tournés vers l'avenir. Dans le cadre d’un besoin client, nous avons l'opportunité d'accueillir un nouveau membre au sein de notre Tribu Blue Data. Contexte de la mission : Notre client recherche un(e) Senior Data Scientist expert(e) dans le développement de modèles et plus particulièrement dans les méthodes d'inférence statistique (eg, causal inference, synthetic control), afin de définir et implémenter la mesure de performances de la solution d'optimisation de l'assortiment pour les magasins de notre client. Détail de la mission : Méthodes d'inférences statistiques Modélisation et développement d'un framework de mesure de la performance. Expertise approfondie du Machine Learning et en particulier des statistiques Production de code “robuste” permettant l’industrialisation, le passage à l’échelle et le maintien de la solution IA

Freelance

Mission freelance
zabbix

Innov and Co
Publiée le
Python
Zabbix

12 mois
100-510 €
Lyon, Auvergne-Rhône-Alpes

Contrainte forte du projetTravail en autonomie, déploiement récent de la solution en production Les livrables sont Mise à jour de la documentation existante (DAT, DEX) Rédaction de nouvelles procédures Compétences techniques Zabbix - Expert - Impératif Python - Confirmé - Important Splunk - Junior - Serait un plus Connaissances linguistiques Anglais Professionnel (Impératif) Description détaillée Expert administration Zabbix F/H - Lyon (69) Rattaché au pôle Managed Services, et intégré au sein de l’équipe monitoring, vous aurez à votre charge l’administration d’une plateforme zabbix installée au cœur de notre cloud hybride pour superviser l’ensemble de nos assets Vos missions principales ? - Assurer l’administration de la plateforme Zabbix et son maintien en conditions opérationnelles dans un environnement linux : o Upgrade des différentes briques (zabbix server, zabbix proxies, zabbix-agent …) o Création/mise à jour de templates de supervision o Création/mise à jour de dashboards d’administration o Gestion des droits o Utilisation des APIs Zabbix (python) - Mise à jour de la documentation (DAT, DEX, …) - Proposer des améliorations techniques et mise en œuvre de ces solutions. - Assurer le suivi de la roadmap technique - Être le support N3 de la solution Profil Votre background et vos compétences techniques : - Vous justifiez d’au moins 3 ans d’expérience dans l’implémentation ou/et l’opération d’une plateforme zabbix pour superviser tout type d’équipement (Dell, HP, ESX/vCenter, VMs Linux/Windows, Bdd, eqpt réseau via snmp) - Pyhton (utilisation des APIs zabbix) - Connaissances Postgres, Patroni, etcd (utilisés dans l’architecture zabbix) - Connaissances des environnements Unix/Windows - A l’aise pour échanger avec les équipes techniques (système, bdd, vmware, ..) - Vous pratiquez les méthodes Agile. Vos qualités interpersonnelles et « soft skills » : - Autonomie et force de proposition - Esprit d’analyse et de synthèse - Anglais Votre connaissance de l'entreprise constitue un atout fort !

CDI

Offre d'emploi
Ingénieur en Intégration des Systèmes d'Information

MEETSHAKE
Publiée le
API
Firewall
LDAP

10k-200k €
Neuilly-sur-Seine, Île-de-France

Rejoignez une équipe dynamique pour soutenir la transformation numérique de nos clients dans le domaine de l'enseignement. En tant qu'Ingénieur en Intégration des Systèmes d'Information, vous serez le référent technique, garantissant la bonne intégration de nos solutions SQOOL. Vous analyserez les problématiques clients, résoudrez les dysfonctionnements complexes, et documenterez l'architecture des SI. Vous participerez activement au déploiement et à l’automatisation des systèmes tout en garantissant le bon fonctionnement tout au long des projets.

Freelance

Mission freelance
Architect Data

VISIAN
Publiée le
Azure
Azure Data Factory
Databricks

3 mois
100-570 €
Boulogne-Billancourt, Île-de-France

L'equipe Datafinance utilise actuellement une architecture basée sur Databricks, Azure Blob Storage, Azure Data Factory et Azure Analysis Services pour traiter et analyser ses données financières. Nous cherchons à optimiser les processus de traitement de ces données, en particulier le rafraîchissement des données, pour améliorer la performance et la qualité des analyses. Dans ce cadre, nous recherchons un expert en BI et Data. L'objectif est d'optimiser le Temps de traitement et de rafraichissement des données. 2. Objectifs de la mission L'expert BI et Data sera chargé de : Optimiser le traitement des données du projet Data finance, en se concentrant principalement sur le processus de rafraîchissement des données entra la zone gold et le cube de données. Optimiser l'utilisation de Azure Analysis Services (modèle Tabulaire) pour les rapports et les analyses. 3. Technologies utilisées L'expert devra maîtriser les technologies suivantes : Databricks (en particulier avec PySpark). Azure Analysis Services (modèle Tabulaire). SQL . Git et Azure DevOps pour la gestion des versions et l'intégration continue. 4. Compétences requises Le candidat idéal doit posséder une expérience avérée dans les domaines suivants : Maîtrise de PySpark : pour le traitement et l'optimisation des données dans Databricks. Expertise en modélisation de données : capacité à concevoir et optimiser des modèles de données pour améliorer la performance et la gestion des données financières. Maîtrise du modèle Tabulaire dans Azure Analysis Services : pour optimiser le rafraîchissement des données et améliorer les performances des cubes. Bonne compétences en SQL 5. Livrables attendus Les livrables de la mission incluent : Mise en œuvre des optimisations dans Databricks et Azure Analysis Services. Documentation détaillée des modifications apportées et des bonnes pratiques mises en place. Transfert de connaissances aux équipes internes pour garantir une gestion continue des processus optimisés.

Freelance

Mission freelance
Application Developer - Nantes (44)

Signe +
Publiée le
Apache Kafka
Apache Spark
Hadoop

90 jours
100 €
Nantes, Pays de la Loire

Notre client nous soumet une de mande de prestation de DATA ENGINEERING Taches réalisées : - Développer les cas d'usages Data - Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) - Mettre en œuvre les tests unitaires et automatisés - Déployer le produit dans les différents environnements - Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents - Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code

Freelance

Mission freelance
Data Scientist (H/F) – Paris

Espace Freelance
Publiée le
Databricks
Python

12 mois
100-560 €
Paris, France

Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : un Data Scientist (H/F) – Paris Mission à pourvoir en régie sur Paris Présence sur site : 3 jours / semaine Compétences obligatoires : Databricks ; Machine Learning ; Forecast ; Python ; Anglais ; Spark Votre mission : · Concevoir et mettre en œuvre la trajectoire des produits pour de nouveaux usages. · Soutenir la vision globale de l’IAM via une approche user, market, tech et corporate. · Définir la feuille de route des fonctionnalités attendues à court et moyen terme. · Imaginer et prioriser, avec la squad, de nouvelles fonctionnalités et améliorer les existantes. · Co-construire et animer les OKR avec la squad, le Group Product Manager et l'Engineering Manager. · Gérer et piloter le budget du produit. · Raffiner les initiatives produits et rédiger les epics et user stories pour la backlog. · Organiser des sprints pour livrer de la valeur rapidement. · Construire une communauté d’utilisateurs pour recueillir leurs feedbacks. · Accompagner les autres Product Managers en partageant bonnes pratiques et méthodes. REF : EFP/UNXX/ODVB Plus d’offres sur :

Freelance

Mission freelance
Expert Data et BI

SKILLWISE
Publiée le
Azure Data Factory
Databricks
PySpark

3 mois
100-1k €
Paris, France

L’équipe utilise actuellement une architecture basée sur Databricks, Azure Blob Storage, Azure Data Factory et Azure Analysis Services pour traiter et analyser des données financières. Le client cherche à optimiser les processus de traitement de ces données, en particulier le rafraîchissement des données, pour améliorer la performance et la qualité des analyses. Dans ce cadre, nous recherchons un expert en BI et Data pour une mission de 3 mois. L'objectif est d'optimiser le Temps de traitement et de rafraichissement des données. Objectifs de la mission L'expert BI et Data sera chargé de : Optimiser le traitement des données du projet, en se concentrant principalement sur le processus de rafraîchissement des données entra la zone gold et le cube de données. Optimiser l'utilisation de Azure Analysis Services (modèle Tabulaire) pour les rapports et les analyses. Technologies utilisées L'expert devra maîtriser les technologies suivantes : Databricks (en particulier avec PySpark). Azure Analysis Services (modèle Tabulaire). SQL Git et Azure DevOps pour la gestion des versions et l'intégration continue Livrables attendus Les livrables de la mission incluent : Mise en œuvre des optimisations dans Databricks et Azure Analysis Services. Documentation détaillée des modifications apportées et des bonnes pratiques mises en place. Transfert de connaissances aux équipes internes pour garantir une gestion continue des processus optimisés.

410 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous