Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 369 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Devops/développeur Java

VISIAN
Publiée le
AWS Cloud
Azure
Databricks

1 an
100-700 €
Bagneux, Île-de-France

Contexte L’équipe Infrastructure au sein de la Direction des Systèmes d’Information du client recherche un(e) profil DevOps/Developpeur Full Stack pour la gestion opérationnelle de ses infrastructures. • Une infrastructure MultiCloud (AWS – 90%, Azure, GCP) • L’hébergement de Portails Web (10 portails) et Services Backend (+200 applications dockerisées) • L’hébergement d’une Factory DevOps (CICD/Testing/Monitoring) • L’hébergement d’une plateforme Data Analytics, DataViz, • L’hébergement d’une plafeforme d’Echange (Serveurs de fichiers, ETL, Bases de données) Principaux périmètres pour cette mission : Mise en place d'un portail de Self Service Infrastructure avec API AWS (gestion du frontend et backend) Participation à la mise en place d’une Landing Zone AWS en remplacement de deux comptes historiques Migration/Création de l’infrastructure de micro-services java, nodejs, php vers Landing zone Réalisations de nouvelles infrastructures pour les demandes des équipes applicatives Intégration des applications sur ECS, dockerisation, déploiement Intégration des applications dans l’écosystème DevOps (CI/CD, Monitoring, Testing) Création de pipelines CI/CD sur Jenkins et Gitlab CI Infrastructure as code avec Terraform Provisioning de l’Infrastructure avec Ansible Support aux équipes applicatives et troubleshooting sur les anomalies Gestion du RUN et des incidents de production Environnement technique: • Cloud : AWS (EC2, ECS, RDS, S3, EKS, ELK, …) / Azure / GCP • Langage applicatif : JBOSS, Widlfly, Spring, NodeJS, PHP, • IAC : Docker, Terraform, Ansible, • FACTORY : Jenkins, Okta, Grafana, Splunk, Gitlab, Kubernetes, Jira, Confluence, API Management • DATA : TIDB, Databricks, Informatica, MS-BI, Oracle GoldenGate, Hadoop, Spark, EMR, SAS, • DataBase : MySQL, SQL Server, MariaDB, MongoDB, ORACLE

Freelance

Mission freelance
Senior Data Engineer

KatchMe Consulting
Publiée le
Databricks

3 mois
100-500 €
Paris, France

• Mise en place et exécution du framework et des pipelines de traitement de données : o Connectez-vous à diverses sources de données brutes (API internes/externes, lacs de données cloud, bases de données) pour ingérer des données dans Databricks o Mettre en œuvre des transformations de données à grande échelle pour automatiser la création de nouvelles données à des fins d'analyse o Créer et gérer des bases de données et des solutions de stockage de données efficaces (SQL/NoSQL) pour organiser les données structurées et non structurées. o Exposition de données via des API, Datamarts, SQL Endpoints, solutions de Dashboarding o Assurer la qualité, la cohérence et la sécurité des données, conformément aux normes de l'industrie. • Développer des API REST à l'aide d'un framework Web Python tel que FastAPI • Rejoignez une équipe projet multidisciplinaire et multiculturelle, travaillant en collaboration avec DevOps, Data Scientists, Project Managers • Documentez les flux de travail, les modèles de données et les configurations de pipeline pour garantir la transparence et la facilité d'utilisation pour les analystes et les parties prenantes

CDI

Offre d'emploi
Databricks Architect

KOMEET TECHNOLOGIES
Publiée le
AWS Cloud
Azure
Databricks

52k-85k €
Paris, France

Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP

Freelance
CDI

Offre d'emploi
Data Engineer (F/H)

NOSCO
Publiée le
Apache Spark
Java
Oracle

2 ans
10k-50k €
Lyon, Auvergne-Rhône-Alpes

Poste basé à Lyon avec 50% de télétravail maximum Activité principale : Ses missions tournent autour de 4 axes : o Apporter une expertise en Big Data (Spark) pour faciliter la manipulation des données o Définir les solutions techniques permettant le traitement massif de données o Mettre en place des solutions de stockage de données (SQL, NoSQL, etc.) o Veiller la sécurisation et la clarté des pipelines de données pour faciliter l’analyse et la transformation Il s’appuie si nécessaire sur les référents techniques des diverses briques si ces dernières sortent du cadre de sa mission. Il met en avant ses qualités pour mener à bien ses missions : o Autonomie, rigueur et force de proposition o Capacités d'analyse et de synthèse. o Esprit d’équipe

Freelance

Mission freelance
Expert Cyberdéfense OT

AVALIANCE
Publiée le
Cybersécurité
SCADA
SOC (Security Operation Center)

1 an
700-750 €
Charleroi, Hainaut, Belgique

Nous recherchons un Expert en Cyberdéfense OT pour faire un inventaire complet de la situation industrielle, analyser la sécurité de la partie industrielle, établir une stratégie 2025 – 2030, identifier les projets à lancer, définir les outils à avoir (type d’outils) et établir une méthode de travail (processus, supervision). Vous travaillerez au sein de l’équipe dédiée à la protection des systèmes industriels et infrastructures critiques, garantissant la continuité des opérations tout en minimisant les risques cyber.

Freelance
CDI

Offre d'emploi
Data Engineer Apache Flink

UCASE CONSULTING
Publiée le
Apache
Java
Scala

6 mois
10k-176k €
Paris, France

Bonjour à tous, Je recherche pour un de mes clients dans le domaine de la Banque/Finance un consultant Data Engineer. Développement de pipelines de traitement de données en temps réel : Concevoir, implémenter et maintenir des pipelines de données en utilisant Apache Flink sur AWS. Optimisation de performances : Identifier et résoudre les problèmes de performance, optimiser le traitement des données pour assurer une faible latence et une haute disponibilité. Collaboration avec les équipes produits : Travailler en partenariat avec les équipes produits pour comprendre les besoins en matière de données et développer des solutions qui répondent à ces exigences. Documentation : Rédiger des documentations techniques pour les processus de développement et de déploiement. Veille technologique : Rester à jour sur les évolutions des technologies Big Data, Apache Flink, AWS et Java. Compétences Attendues : Apache Flink / AWS / JAVA/ Scala Expérience attendue : 4-5 ans ou deux projets menés sur les technologies citées ci-dessus.

Freelance

Mission freelance
Ingénieur Data confirmé

Management Square
Publiée le
Apache Hive
Apache Kafka
Cloudera

1 an
310-400 €
Vannes, Bretagne

Nous cherchons un ingénieur Data confirmé avec au moins 4 ans d'expérience pour un client à Vannes dans la région Bretagne. Les taches principales: Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) Développer les solutions de collecte et de stockage des données (provenant de multiples sources) afin de les rendre disponibles pour les usages métiers Mettre en œuvre les tests unitaires et automatisés Déployer le produit dans les différents environnements Garantir le bon fonctionnement du produit en production et assurer le suivi, l'assistance et la gestion des incidents Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code

CDI
Freelance

Offre d'emploi
Data Engineer Python / SQL / Azure

Signe +
Publiée le
Azure
Big Data
engineer

24 mois
25k-30k €
Rennes, Bretagne

Profil : Experienced Data Engineer • good technical skills o Python 3.7, o Flask/Fast API (Librairie API pour python), o SQL o Modelisation (MCD, MLD, MPD) , o Azure Functions, Azure Tables, Azure Data Explorer, o API Rest / API Management. • Technical specifications and OPEN API Specifiction writing • Functionnel Specification writing Activités : Specification, Development, Correction d'anomalies.

CDI

Offre d'emploi
Administrateur Systèmes et Réseaux (H/F)

Jane Hope
Publiée le
Administration linux
Apache
HAProxy

35k-40k €
Montpellier, Occitanie

Notre client, une centrale d’achat basé à Montpellier (34) est à la recherche d’un Administrateur Systèmes et Réseaux (H/F) en CDI pour compléter ses équipes ! Notre client est spécialisé dans l’externalisation des achats et des approvisionnements de produits non stratégiques dans les grands groupes industriel (70% de nos clients font partie du CAC40). Créée en 1994, notre client est désormais le leader français sur son marché et connaît un développement important, à la fois en termes de croissance et de compétences métier. Le service IT est une vraie équipe composée de 6 personnes ! Et elle va continuer à grandir et s'étoffer sur les prochaines années. L’équipe intervient sur plusieurs projets différents (développement d'une Marketplace, digitalisation des outils, développement de la BI ...) et cherche donc à se renforcer avec de nouvelles compétences ! MISSIONS Vous serez responsable de la maintenance, du support et de l'optimisation des infrastructures Linux. Vos principales missions seront : · Superviser les performances, analyser les anomalies et corriger les pannes de l'infrastructures informatique. · Assurer le bon fonctionnement et l'optimisation des systèmes, des réseaux et des bases de données. · Assurer le maintien à niveau des infrastructures informatiques et anticiper les risques en proposant des solutions · Installer et configurer les systèmes de gestion des bases de données. · Assurer le support niveau 2 des incidents/demandes d'utilisateurs en fournissant des solutions rapides et efficaces. · Conduire les projets IT tout en respectant des délais / qualités / coûts. · Réaliser des audits réguliers des systèmes pour identifier et corriger les vulnérabilités.

Freelance

Mission freelance
Data Engineer GCP Finance

HIGHTEAM
Publiée le
Apache Spark
BigQuery
Google Cloud Platform

3 ans
400-550 €
Île-de-France, France

Dans ce cadre, nous recherchons un développeur Full Stack, ayant une solide expérience dans le Cloud GCP Récupérer les données issues de sources externes • Utiliser la puissance du Data Lake • Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le data Lake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner. • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels • Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise • Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent • Acheminement de la donnée • Mise à disposition de la donnée aux équipes utilisatrices • Mise en production de modèles statistiques • Suivi de projet de développement • Développement job spark • Traitement et ingestion de plusieurs formats des données • Développement des scripts • Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données • Développement des moyens de restitution via génération de fichier et ou API & Dashboarding • Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers • Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des Spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) • Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP • Participer à la conception, mise en place et administration de solutions Big Data • Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data Lake via des topics Kafka • Normalisation et agrégation des données afin de produire les rapports sous forme de Business View

Freelance

Mission freelance
DBA - Administrateur base de données

Comet
Publiée le
AWS Cloud
Azure
Base de données

44 jours
100-460 €
Boulogne-Billancourt, Île-de-France

Tâches de la mission : - Intégrer les projets applicatifs - évolutions de version, de migration sur les applications - Proposer des solutions techniques, proposer des architectures data - Réaliser les scripts, participer la mise en œuvre - Former / accompagner les membres de l’équipe à la montée en compétence sur databrick Ex de projet : - Migrer les Databrick en privé - Mettre en place la sécurité à travers Unity Catalogue - Conseil sur le design des catalogues - Le requêtage à travers les EndPoint SQL - Support prod sur des incidents de performance essentiellement (Bases de données classiques et Databrick ) - Savoir trouver la ou les requêtes qui sont longues sur la base - Savoir trouver le plan d’exécution en cours, le comprendre et l’analyser - Bien connaitre le fonctionnement du moteur base de données, la gestion de la mémoire, l’exploitation des tables systèmes - Scripter / automatiser : Powershell ou scripts dans Databrick - Contrôle / supervision / remédiation sur des actions d’administration classique - Rédaction de Roadbook de résolution - Rédaction de procédures (how to do)

Freelance

Mission freelance
Architecte data azure senior

UCASE CONSULTING
Publiée le
Azure
Databricks

3 ans
210-1 940 €
Paris, France

Bonjour, Pour le compte de notre client, nous recherchons actuellement un Architecte data cloud Azure. Livrable n°1 : Cadrage et chiffrage des projets Accompagnement au cadrage du besoin auprès de nos clients Réalisation d’études et formalisation des architectures envisagées en appui sur les solutions cloud adaptées au besoin Lot 3 : Contribution au chiffrage global du projet Lot 4 : Réalisation éventuelle de Proof Of Technologies le cas échéant Livrable n°2 : Conception technique de la solution Formalisation des documents standards (DAL, DAT) Lot 2 : Veiller à la conformité de la solution sur les plans standards technologiques et en phase à la politique de sécurisation du SI client. Livrable n°3 : Accompagner la prise en charge du build projet Assurer une passation aux équipes de réalisation Le cas échéant, apporter de l’expertise lors de la phase de build (automatisation…). Accompagner à la mise en robustesse et à l’identification des optimisations financières et techniques tout au long du projet.

Freelance

Mission freelance
Architecte Data / Databricks / PowerBI / Dataiku

VISIAN
Publiée le
Databricks
Dataiku
Microsoft Power BI

1 an
100-650 €
La Défense, Île-de-France

VISIAN est une société de conseil spécialisée autour de l'innovation, la conception produit, le développement et la data. Dans le cadre de nos projets clients, nous recherchons un Architecte Data avec une bonne connaissance de Databricks. Dans le cadre du développement de leur Data Platform, le client souhaite renforcer son équipe data, challenger son architecture et les aider dans le développement de la plateforme. Il doit également avoir connaissance de tous les aspects de l'architecture type modern data plateform : ingestion, chargement, exposition, visualisation Le profil doit être en mesure d'interagir avec l'architecture d'entreprise du client, cadrer les enablers globaux, définir les scénarios de mise en oeuvre pour les différentes équipes

Freelance

Mission freelance
Ingénieur développement logiciel Unreal Engine maitrisant le C / C++

CELAD
Publiée le
Microsoft Windows
Unreal Engine

5 mois
350-400 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Mission : Au sein d’un petit bureau d’étude, vous prendrez en charge le développement Unreal Engine en C/C++ sous Windows d’une application de simulation de pilotage d’un robot volant. L’objectif de la mission consistera dans un 1ier temps à mettre à jour le logiciel créé en environnement Unreal Engine 4 avec le moteur Microsoft AirSim, puis y apporter des correctifs, et enfin ajouter des fonctionnalités au simulateur. Selon votre niveau de compétences vous pourriez également prendre en charge le portage de l’application vers Unreal Engine 5 et développer ensuite de nouvelles autres fonctionnalités.

Freelance

Mission freelance
Architecture technique - Orléans (45)

Signe +
Publiée le
Apache Maven
Apache Spark
Java

240 jours
360-400 €
Orléans, Centre-Val de Loire

Description détaillée L’objectif de cette prestation est de sécuriser un projet important en accompagnant le chef de projet Les attendus de cette prestation sont les suivants : le prestataire ➔ devra remplacer à la demande le chef de projet informatique sur les aspects techniques, notamment dans les réunions du comités technique et du comité stratégique; ➔ prendra en charge l’IAC, l’automatisation des déploiements sur Kubernetes et documenter en vue de faciliter le passage en maintenance à l’automne 2025 ; ➔ sur la base de l’évaluation craft réalisée en juin 2024, prendra en charge le suivi des axes d’améliorations identifiés, éventuellement en proposer de nouveaux, notamment sur l’observabilité ; ➔ documentera l’architecture actuelle via des ADRs et des diagrammes (flux, applicatif, infrastructure) ; ➔ rédigera d’ici fin 2024 une note d’observation critique sur les architectures (infrastructure, applicative, logicielle) mises en œuvre ; ➔ assistera le chef de projet informatique sur les questions de sécurité ; ➔ mettra en place un process efficace de gestion des connaissances, notamment une organisation documentaire. Formera les parties prenantes à son utilisation et sa mise à jour ; ➔ établira une cartographie des compétences et savoir-faire nécessaires pour le MCO-MCS du produit. Les développements sont réalisés en grande partie dans l’écosystème Kubernetes Les versions utilisées sont : - Java : 17 - Maven : 3.X.X - PostgreSQL : 14.X - Spark : 3.2.X - Spring Boot : 3.X.X - Spring Batch : 5.X.X - Hibernate : 6.X.X - Cucumber : 7.X.X Date de début : asap à voir suivant disponibilité de l’intervenant Durée de la prestation : 6 mois pour commencer avec une reconduction possible sur la durée restante du projet soit jusque septembre 2025. La prestation se déroulera dans les locaux d’Orléans. Une organisation du travail en mode hybride est possible après une phase d’intégration : - 3 jours de présence du prestataire - 2 jours de distanciel. Compétences requises - Compétences techniques : Développement java sénior, maîtrise des architectures big data ( spark), applicative ( java et écosystème, postgresql) et infrastructure ( kubernetes et écosystème), gitlab, Notions avancées de sécurité applicative et infrastructure. - compétences humaines : adaptabilité et capacité à collaborer, organisé, capacité à mettre en place un fonctionnement pérenne dans une équipe, esprit critique et argumenté. - connaissances de l’agilité Instances de suivi de la prestation - au sein des cérémonies agile du projet pour les réalisations - point hebdomadaire avec le chef de projet informatique et/ou ses responsables hiérarchique et l’intervenant

Freelance

Mission freelance
Data analyst

Comet
Publiée le
Databricks
MySQL
Python

120 jours
500-550 €
Lille, Hauts-de-France

Les missions à pourvoir sont multiples : -Challenger les dashboards et les datasources existants. (accompagner du leader et ingénieur DATA) -S’appuyer sur les sources de données déjà existantes -Recueillir le besoin avec les équipes métiers -Construire si nécessaire les maquettes des dashboards pour validation avec nos utilisateurs clés -Construire et mettre à disposition les dashboards -Etre à l’écoute des nos utilisateurs afin d’adapter / corriger les dashboards mis à dispositions au fil du projet

369 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous