Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 337 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Développeur fullstack

ICSIS
Publiée le
Angular
Apache Kafka
Google Cloud Platform

3 ans
350-500 €
Lille, Hauts-de-France

La mission consiste à : - Mise à jour de l’architecture et travaux de conception - Rédaction des documentations techniques, étude des US - Développement de nouvelles fonctionnalités/features/APIs - Analyse et amélioration des performances du SI - Revue de code et accompagnement des membres de l’équipe - Missions basées en métropole lilloise avec présence sur site obligatoire 3j/semaine Compétences demandées : - Min. 3 ans d’expérience en développement (hors stage et alternance) - Java 11+, SpringBoot, Vue JS, Angular JS, Javascript, API, Kafka, BDD relationnelles et non relationnelles... - Intégration continue - Culture Devops, connaissances Docker et Kubernetes - Environnement GCP - Maîtrise et pratique de l’Agile - Anglais un +

Freelance

Mission freelance
Développeur back Java

ICSIS
Publiée le
Apache Kafka
Google Cloud Platform
Java

3 ans
350-500 €
Lille, Hauts-de-France

La mission consiste à : - Contribuer à la définition des spécifications générales - Réaliser l’analyse technique et l’étude détaillée - Développer les modules (objets et composants logiciels) - Elaborer les jeux d’essai pour les tests unitaires d’intégration et effectuer les tests - Préparer les mises en production - Mission basée en métropole lilloise avec présence sur site client de 3j/semaine Compétences demandées : - 3 ans min. d’expérience en développement Java EE et environnement Cloud - Java (11+), SpringBoot, NoSQL... - API Rest / Kafka - Environnement Cloud (GCP) - Outils de CI/CD, culture devops - Maîtrise et pratique de l’Agile - Anglais un+

Freelance

Mission freelance
Ingénieur Linux & Supervision (Ubuntu, Centreon)

MEETSHAKE
Publiée le
Ansible
Centreon
Linux Ubuntu

6 mois
500-550 €
Clichy, Île-de-France

> CONTEXTE DE LA MISSION : Au sein de la Direction des Bureaux Techniques et Supports Informatiques, le département Infrastructure et Réseaux recherche un ingénieur Linux et Supervision. Vous serez directement rattaché au chef de département infrastructure et réseau. Vous interviendrez principalement sur l’exploitation des solutions suivantes : Centreon, Ubuntu Vos principales missions : · Exploitations & Evolutions Centreon - Mise à niveau applicative - Intégration de nouveau contenue - Gestion de la relation avec le support Centreon · Exploitation & Evolutions Ubuntu Vos missions secondaires : · Développement de playbook Ansible · Développement de script d’exploitation Python, KS > VOS PRINCIPALES MISSIONS : · Exploitation et évolution Centreon - Exploitation au quotidien des incidents\demandes. - Monitoring de la solution. - Création de nouveau rapport, Business Activity … - Rédaction DEX - Amélioration continue/contrôle. · Exploitation et évolution Ubuntu - Exploitation au quotidien des incidents\demandes. - Amélioration continue/contrôle. - Rédaction DEX · Développement de script d’exploitation Python, KSH - Exploitation au quotidien des incidents\demandes. - Amélioration continue/contrôle. · Développement de playbook Ansible - Gestion des playbook. - Amélioration continue/contrôle > + INFOS : Date d’entrée en fonction souhaitée : ASAP Type de contrat : freelance ou portage Durée : mission longue Situation géographique : Clichy (2 jours présence sur site et 3 jours de télétravail)

CDI
CDD

Offre d'emploi
Expertise ingénierie - campagnes de Performance

CAPEST conseils
Publiée le
Apache Kafka
Grafana
Linux

3 mois
10k-187k €
Vitrolles, Provence-Alpes-Côte d'Azur

Nous recherchons un futur salarié Capest pour cette mission. Notre client n'accepte pas d'indépendant pour cette mission. Contexte de la mission Dans ce contexte technologique, il est critique de garantir l’atteinte d’un Référentiel de Performance : cela se traduit en réalisant des campagnes de Performance et étant force de proposition d’évolution(s) qui permettrai(en)t de l’atteindre. Dans ce cadre, une part importante de l’activité consiste, en amont de la Mise en Production des solutions SI délivrées par les projets, à définir et valider le Référentiel de Performance à atteindre, réaliser la conception, l’exécution, le reporting et l’analyse des résultats des campagnes de Performance, ainsi que la formalisation des anomalies, incidents et recommandations d’amélioration. Intervenir dans la modélisation des documents de référence, la planification et la réalisation des tests de performance sur plate-forme HP ALM ou Jmeter en accord avec les objectifs des projets Métiers et ceux de la Production ; Assurer le suivi et la mise en place en place de la méthodologie des tests de performance dans les projets Métiers ; Accompagnement à la définition des solutions et des politiques techniques de métrologie, de monitoring et de supervision des infrastructures composant le système d’information, en particulier sur l’environnement technique des Campagnes de Performance ; Accompagnement à déployer, configurer et maintenir les outils et applications de métrologie utilisées pour surveiller le fonctionnement des infrastructures installées dans le datacenter ; Maintenir à jour le patrimoine documentaire associé, en particulier, les référentiels de Performance et les Métriques atteintes en Performance, lors des campagnes, et en Production lors des journées remarquable. Compétences demandées APM, Grafana, Graphite, Prometheus, jmxtrans, collectD, Telegraph Zookeeper Kafka Tomcat, java (jvm) Oracle 11.g, PostgrèSQL Linux Windows dont VMware Perf Center, Gatling, jmeter Apache, nginx type ELK, Nifi, Web : http, https, API REST Hazelcast

Freelance
CDI

Offre d'emploi
Ingénieur Big Data / Data

featway
Publiée le
Apache Airflow
GraphQL
Hadoop

2 ans
10k €
Paris, France

Je suis à la recherche d'un(e) Ingénieur(e) Big Data / Data, pour le compte de notre client qui opère dans le secteur de l'Energie; - Maîtrise de Hadoop et HQL - Compétences en SQL - Compétences et maitrise de Oozie/Airflow - Expérience avec Talend ETL - 5+ ans d’expérience en gestion de données - Expérience en migration de plateformes Big Data - Interventions régulières d’expertise, de conseil et de recommandation - Connaissance d’Oracle (Exadata)

CDI
Freelance

Offre d'emploi
Développeur Open et Mainframe

Deodis
Publiée le
Apache Kafka
API REST
Architecture

6 mois
35k-41k €
Montpellier, Occitanie

La Squad que vous intégrerez est en charge de la modernisation d'un autre socle de notre client. Ce Socle est un ensemble de ressources et services mis à disposition des parcours de gestion Conseiller et des différents parcours Client accessibles via les canaux web et mobile de notre client. Missions : Assurer la conception, l'intégration et le développement des projets et solutions ainsi que les maintenances correctives et évolutives Préparer la mise en production avec les équipes expertes Gérer et maintenir la documentation fonctionnelle et technique Assurer l'assistance à l'utilisation des applications Assurer le diagnostic et la résolution des dysfonctionnements Tout au long du cycle de vie produit, vous fabriquez les solutions nécessaires aux évolutions et au bon fonctionnement des produits de la squad, en respectant les normes, procédures et les ambitions de l'entreprise (TTM, UX, ROI, Qualité first).

Freelance

Mission freelance
Devops H/F

SMARTPOINT
Publiée le
Ansible
Apache Kafka
Kubernetes

3 mois
100-500 €
Châtillon, Île-de-France

Au sein de la Direction des opérations et des technologies, et plus précisément au sein du Domaine Services Techniques et Industrialisation, vous intégrerez l'équipe en charge de l’optimisation et l’industrialisation des services et des outils de la chaine CI/CD sur des environnements Cloud (GCP) ou On Premise, en lien avec les équipes techniques de production et les développeurs. En tant qu’Expert technique H/F, vous serez rattaché(e) au manager du pôle et ferez partie d'une équipe projet composée de 10 collaborateurs. L’objectif est de déployer ET de maintenir les outils de notre usine logiciel, définir ET implémenter les normes et les standards associés, industrialiser leurs déploiements et le MCO de ces outils en intégrant les nouveaux concepts IT (Devops, agile, CI/CD, Infra as code, automatisation, ITSM) ET accompagner les équipes dans l’appropriation de ces outils. Vos missions Conception de Solutions d'Automatisation : Concevoir des solutions d'automatisation pour les processus manuels et répétitifs, en utilisant des outils et des technologies appropriés - Focus déploiement de flux (composants plateforme d'intégration : KAFKA, BOOMI, SOLACE, MFT, API GATEWAY) Développement de Scripts et de Code : Écrire des scripts, du code et des programmes pour automatiser les tâches, en veillant à la qualité, à la fiabilité et à la sécurité du code. Intégration avec des Outils d'Automatisation : Intégrer, déployer et maintenir des outils d'automatisation, tels que des outils de gestion de configuration, d'orchestration. Optimisation des Processus : Identifier et analyser les processus existants, puis proposer et mettre en œuvre des améliorations d'automatisation pour accroître l'efficacité opérationnelle. Collaboration en Équipe : Travailler en étroite collaboration avec les équipes de développement logiciel, d'opérations, de sécurité et d'ingénierie pour assurer l'intégration réussie des solutions d'automatisation. Tests et Déploiement : Effectuer des tests approfondis des solutions d'automatisation et les déployer de manière efficace, en minimisant les interruptions. Formation : Former les membres de l'équipe et les utilisateurs finaux à l'utilisation des solutions d'automatisation. Documentation : Maintenir une documentation complète des solutions d'automatisation, des configurations et des procédures.

Freelance
CDI
CDD

Offre d'emploi
TechLead/Architect Cloud (MLOPS/DataOps)

bdevit
Publiée le
Ansible
Apache Kafka
AWS Cloud

36 mois
55k-65k €
Île-de-France, France

Dans le cadre de ces développements, le DataLab souhaite confier à un expert Cloud, venant en renforcement de son équipe usine logicielle la mission suivante : - Travailler sur des sujets de migration de solution "On Premise" vers le Cloud ; - Mettre en place l'outillage nécessaire à l'implémentation d'une méthodologie DevSecOps ; - Assurer l'intégration dans les architectures cibles : Configurer les plateformes, Industrialiser les architectures, Définir es accès aux ressources et les optimiser ; - Assister à l'élaboration de solutions et leurs optimisations ; - Rédiger les documents techniques et les livrables projets ; - Améliorer l'architecture actuelle ; - Transférer la connaissance et la compétence aux internes du DataLab. Résultats Attendus Des Livrables : Le DevOps sera accompagné par l'équipe Usine Logicielle. Il devra par ailleurs, fournir les livrables suivantes : - Une documentation conforme aux exigences du DataLab ; - Un support de l'ensemble des applications gérées en interne ; - Un support de l'ensemble des applications des entités déployées ; - Codes Sources commentés et "reviewés" ; - Intégration de tests unitaires des fonctionnalités développées ; - Présentation et partage des travaux.

Freelance

Mission freelance
Developpeur BI frontend (H/F)

OCTOGONE
Publiée le
Data visualisation
SQL

6 mois
410-550 €
Massy, Île-de-France

Voici les activités de cette mission : Prendre en main l’architecture existante, Participer aux activités de corrections des Faits Techniques pouvant être identifiés en PROD Discuter avec les experts Maximo pour définir les données nécessaires et maitriser leur rafraichissement pour afficher des indicateurs clairs, Documenter et réaliser la mise en oeuvre du pipeline de données avec les technologies imposées (Qlik, API maximo, Kafka), Participer à la définition de la refonte de cette architecture de données avec les équipes projet

Freelance
CDI

Offre d'emploi
TECH LEAD OPS

HAYS MEDIAS
Publiée le
Apache Kafka
CI/CD
DevOps

6 mois
10k-58k €
Nantes, Pays de la Loire

Vos missions principales seront les suivantes : Identifier les opportunités d'amélioration continue et proposer des solutions innovantes pour optimiser nos processus et nos outils. Assurer la stabilité, la performance et la sécurité de nos plateformes, tout en favorisant la croissance et le développement des membres de l'équipe. Servir de point de contact principal pour toutes les questions techniques relatives aux socles en fournissant un soutien et une expertise technique aux utilisateurs des plateformes (support aux autres Développeurs ou Tech Lead de l’entreprise) Assurer une veille technologique afin de monter en compétence en continu Elaborer et mettre à jour de la documentation

Freelance

Mission freelance
DATA Engineer

STHREE SAS pour COMPUTER FUTURES
Publiée le
Azure Data Factory
Git
Snowflake

1 an
100-400 €
Île-de-France, France

Nous recherchons pour un de nos clients basés en IDF, un consultant Data pour une mission freelance (longue visibilité) Notre client recherche des consultants Data expérimenté (Front et Back Office) afin de mener les nouveaux projets de transformations démarrant en T4-2024 : Concevoir, réaliser, maintenir et faire évoluer les services et contenus de la PDA Mettre à disposition la donnée de tous les domaines de l’entreprise aux utilisateurs Modéliser les solutions applicatives selon les besoins métiers de l’entreprise Accompagner et développer avec les métiers des reporting et datasets à haute valeur ajoutée. Les environnements techniques et compétences obligatoire pour les 4 profils sont : SQL et T-SQL (SQL server 2017+ et SGBD PaaS : SMI & Synapse Azure) GIT Snowflake Cube tabulaire (PaaS) MS Azure Data Factory (Kafka envisagé aussi à terme pour gérer les flux stream…) Power BI (DAX, M) Power BI Reporting Services / Paginated Reports Streamlit

Freelance
CDI

Offre d'emploi
skiils se renforce et cherche son Data engineer confirmé

skiils
Publiée le
Apache Airflow
Apache Spark
AWS Cloud

12 mois
10k-45k €
Hauts-de-France, France

Data Engineer maitrisant(e) pyspark et airflow qui aidera le client à construire de nouveaux indicateurs et à les fiabiliser. L"équipe Forecast a pour mission de mettre à disposition dans le Datalake , les datasets qui concernent les prévisions de ventes. Pour remplir à bien sa mission, le Data Engineer devra : - Comprendre un modèle de données et s'en servir, - Aider l'équipe à faire les meilleurs choix techniques, - Apporter une expertise sur la conception des indicateurs, - Maîtriser les bases de données et les outils de transformation, - Etre capable de transformer une donnée brute en un indicateur

Freelance

Mission freelance
Développeur Fullstack Confirmé avec un vernis IA

Freelance.com
Publiée le
Angular
Apache Kafka
DevOps

3 ans
100-510 €
Maisons-Alfort, Île-de-France

Pour notre client dans le secteur bancaire, nous recherchons plusieurs développeurs fullstack Java et Angular Confirmé avec plus de 5 ans d'expérience. Prérequis de notre client : Vernis IA, au minimum avoir déjà manipulé l'IA dans le cadre de projets personnels. Avoir déjà travaillé sur des gros projets de migration. Expérience dans le secteur bancaire Solides connaissances sur Java, Angular et Git Hub. 3 jours de télétravail 2 jours sur site Aisance relationnelle + travail en équipe Agilité L’objet de cette consultation est une prestation d’assistance technique pour un développeur JAVA JEE expert de notre client qui mène à bien les projets informatiques. La mission se déroulera au sein des équipes Agiles en charge des applications du SI de XXX. Cette prestation d’assistance technique JAVA sera supervisée par le Scrum Master de l’équipe et le responsable du train SAFe. Il interviendra sur le périmètre Applications Métier (APM) sur la mise en place et les développements des éléments nécessaires à la transformation DevSecOps. La mission s’exercera au sein de l’équipe de projets dédiée mais pourra être amenée à évoluer au sein d’autres équipes du même groupe de projets ou sur des sujets complémentaires selon les besoins.

Freelance
CDI

Offre d'emploi
skiils se renforce et cherche son Data scientist sénior

skiils
Publiée le
Big Data

12 mois
10k-75k €
Lille, Hauts-de-France

Nous recherchons notre expert dans le développement de modèles et plus particulièrement dans les méthodes d'inférence statistique (eg, causal inference, synthetic control), afin de définir et implémenter la mesure de performances de notre solution d'optimisation de l'assortiment produit. Poste destiné en priorité aux CDI Méthodes d'inférences statistiques Modélisation et développement d'un framework de mesure de la performance. Expertise approfondie du Machine Learning et en particuliers des statistiques Production de code “robuste” permettant l’industrialisation, le passage à l’échelle et le maintien de la solution IA Maîtrise indispensable de Python et de ses librairies Data Science Maîtrise des outils permettant de gérer les gros volumes de données (stockage HDFS, calcul distribué, …) via Spark. Maîtrise des pratiques de packaging ML et de mise en place des architectures AI avancées. Maîtrise des environnements de développement sur le Cloud (ex : AWS, SageMaker, DataBricks, etc.). Maîtrise des outils de développement : Git, Github, CI/CD, VSCode/Pycharm, Terminal. Maîtrise de l’Anglais indispensable.

Freelance

Mission freelance
Data Engineer F/H

CELAD
Publiée le
Apache Spark
Google Cloud Platform
Scala

12 mois
480 €
Paris, France

Nous poursuivons notre développement et recherchons actuellement un.e Data Engineer pour intervenir chez un de nos clients du secteur bancaire. Contexte / Objectifs : Récupérer les données issues de sources externes Utiliser la puissance du Datalake Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. Mise en œuvre de la chaîne : d’ingestion de données, de validation de données, de croisement de données, de déversement dans le datalake des données enrichies Développer dans le respect des règles d’architecture définies Développer et documenter les user stories avec l’assistance du Product Owner. Produire les scripts de déploiement Prioriser les corrections des anomalies Assister les équipes d’exploitation Participer à la mise en œuvre de la chaîne de delivery continue Automatiser les tests fonctionnels

Freelance
CDI

Offre d'emploi
Data Engineer H/F

Atlanse
Publiée le
Azure Data Factory
Azure DevOps Server
Databricks

3 ans
10k-62k €
Châtillon, Île-de-France

Analyser des données en temps réel avec Azure Stream Analytics Collecter des données via des flux entre les bases de référence et Azure Afficher des données entrantes avec Event Hub Développer des programmes en Spark Scala Créer un pipeline Azure Data Factory pour exécuter Databricks notebook afin de traiter les données Traiter en batch des données Stocker des données dans le Datalake Azure Créer des projets et stocker du code sur Azure DevOps Réaliser la documentation avec Confluence (source des données, technos utilisées : Databricks, Azure Data Factory, Azure DevOps..., destination des données, stockage, monitoring…)

337 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous