Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 157 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Data Engineer GCP H/F

LeHibou
Publiée le
Google Cloud Platform

6 mois
500-600 €
Charenton-le-Pont, Île-de-France

Notre client dans le secteur Banque et finance recherche un/une Data Engineer GCP H/F Description de la mission: Contexte / Objectifs : Récupérer les données issues de sources externes • Utiliser la puissance du Datalake • Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le datalake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner. • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels Description : • Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise • Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent Activités et tâches : • Acheminement de la donnée • Mise à disposition de la donnée aux équipes utilisatrices • Mise en production de modèles statistiques • Suivi de projet de développement • Développement job spark • Traitement et ingestion de plusieurs formats des données • Développement des scripts • Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données • Développement des moyens de restitution via génération de fichier et ou API & Dashboarding • Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers • Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) • Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP • Participer à la conception, mise en place et administration de solutions Big Data • Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka • Normalisation et agrégation des données afin de produire les rapports sous forme de Business View Compétences / Qualités indispensables : Plateforme et environnement GCP (indispensable), • Environnement GKE, • Stockage : HDFS / GCS, • Traitement: Maitrise de l’écosystème Spark / Kafka / Scala, • Planification : Airflow / Composer, • DWH : SQL, BigQuery, BigTable, • Delivery : Git, Ansible, Docker, Terraform, Jenkins / Cloud Build Informations concernant le télétravail : 2 jours

Freelance

Mission freelance
Data Engineer GCP Finance

HIGHTEAM
Publiée le
Apache Spark
BigQuery
Google Cloud Platform

3 ans
400-550 €
Île-de-France, France

Dans ce cadre, nous recherchons un développeur Full Stack, ayant une solide expérience dans le Cloud GCP Récupérer les données issues de sources externes • Utiliser la puissance du Data Lake • Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le data Lake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner. • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels • Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise • Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent • Acheminement de la donnée • Mise à disposition de la donnée aux équipes utilisatrices • Mise en production de modèles statistiques • Suivi de projet de développement • Développement job spark • Traitement et ingestion de plusieurs formats des données • Développement des scripts • Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données • Développement des moyens de restitution via génération de fichier et ou API & Dashboarding • Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers • Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des Spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) • Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP • Participer à la conception, mise en place et administration de solutions Big Data • Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data Lake via des topics Kafka • Normalisation et agrégation des données afin de produire les rapports sous forme de Business View

CDI

Offre d'emploi
Senior Data Engineer GCP

Tenth Revolution Group
Publiée le

60k-70k €
Île-de-France, France

???? Contexte : Rejoignez un leader mondial dans le secteur agroalimentaire, où votre rôle sera essentiel à la fois au déploiement de la Data Platform du Groupe et aussi au pilotage d'une équipe de développeurs technique, à taille humaine. ???? Principales missions : • Encadrer et animer une équipe de data engineering en Agile/DevOps. • Construire et optimiser des pipelines de données. • Garantir la qualité du code produit. • Anticiper les risques potentiels. • Valider les réalisations des développeurs. • Superviser les systèmes d'alerting et de monitoring. • Assurer la production de livrables • Contribuer à la roadmap et maintenir une communication fluide avec les parties prenantes. ???? Stack technique : • GCP (BigQuery, Composer, Cloud Run, Cloud Scheduler, Log Analytics, Vertex AI…) • DBT • DevOps CI/CD • Terraform ????????? Profil recherché : • Ingénieur Bac+5, passionné(e) par la Data, avec plus de 5 ans d'expérience en tant que Senior Data Engineer. • Vous maîtrisez GCP, DBT, DevOps, Terraform, et parlez couramment anglais. • Vous êtes également capable de partager vos compétences avec votre équipe. Candidatures confidentielles

CDI

Offre d'emploi
Tech Lead Data Engineer GCP

Tenth Revolution Group
Publiée le

70k-90k €
Suresnes, Île-de-France

FRG Consulting recrute un Tech Lead Data Engineer GCP talentueux et expérimenté pour rejoindre une équipe dynamique au sein d'un grand groupe industriel français. Directement rattaché au Head of Data, vous serez le leader technique et managérial d'une équipe de 4 data engineers, avec pour mission de superviser, encadrer et faire grandir cette équipe. Vos missions :Leadership & Management : Mentorer une équipe de 4 personnes et l'accompagner dans son développement. Encadrer et animer l'équipe data engineering dans un environnement Agile/DevOps en accord avec la priorisation communiquée par le responsable de la Data Plateforme. Garantie de la Qualité et du Delivery : Être le garant du delivery des projets data. Assurer le code review et agir en tant que référent technique sur GCP. Contrôler et valider les réalisations des développeurs et y apporter des ajustements le cas échéant. Architecture & Stratégie : Collaborer avec les architectes et les experts pour formuler et documenter l'architecture GCP la plus appropriée. Superviser et appliquer les stratégies d'alerting, monitoring et d'access management de la data plateforme. Optimiser l'architecture existante pour une performance maximale. Développement et Intégration : Construire les pipelines de données en s'appuyant sur le process existant d'intégration des données, dans le respect des meilleures pratiques (CI/CD, qualité du code, couverture des tests, etc.). Développer des features robustes et évolutives, de l'ingestion des données jusqu'à la livraison des dashboards. Promouvoir et garantir la production d'un code de qualité, robuste, maintenable et évolutif. Qualité et Performance des Données : Assurer la qualité des données à chaque étape du pipeline de données. Définir et mettre en œuvre les meilleures pratiques pour le data engineering. Compétences requises :Technologies : Expertise sur Google Cloud Platform (GCP), notamment BigQuery. Maîtrise des outils dbt, Composer, et Airflow. Expérience : Minimum 8 ans d'expérience professionnelle, dont idéalement 5 ans sur GCP. Compétences additionnelles : Excellentes compétences en leadership et management d'équipe. Solides capacités d'analyse et de résolution de problèmes. Bonne compréhension des environnements Agile/DevOps. Compétences en architecture de données et en design de pipeline.

CDI

Offre d'emploi
Tech Lead Data Engineer GCP - End User - Paris 75000

Tenth Revolution Group
Publiée le

Île-de-France, France

Leadership & Management : Mentor et encadrement d'une équipe de 4 data engineers, en les accompagnant dans leur développement. Pilotage et animation de l'équipe data engineering dans un environnement Agile/DevOps, en accord avec les priorités définies par le responsable de la Data Plateforme. Garantie de la Qualité et du Delivery : Garantir le succès et la qualité des livrables des projets data. Assurer la revue de code et agir en tant que référent technique sur GCP. Contrôler et valider les travaux des développeurs, en apportant les ajustements nécessaires. Architecture & Stratégie : Collaborer avec les architectes et experts pour concevoir et documenter l'architecture GCP la plus adaptée. Superviser et mettre en œuvre les stratégies d'alerting, de monitoring et de gestion des accès sur la data plateforme. Optimiser l'architecture existante pour en maximiser la performance. Développement et Intégration : Construire des pipelines de données en s'appuyant sur les processus d'intégration existants, dans le respect des meilleures pratiques (CI/CD, qualité du code, couverture des tests, etc.). Développer des fonctionnalités robustes et évolutives, de l'ingestion des données à la livraison des dashboards. Promouvoir et garantir la production d'un code de qualité, robuste, maintenable et évolutif. Qualité et Performance des Données : Assurer la qualité des données à chaque étape du pipeline. Définir et mettre en place les meilleures pratiques en matière de data engineering.

CDI

Offre d'emploi
Tech Lead Data Engineer GCP - End User - Paris 75000

Tenth Revolution Group
Publiée le

Île-de-France, France

Leadership & Management : Mentor et encadrement d'une équipe de 4 data engineers, en les accompagnant dans leur développement. Pilotage et animation de l'équipe data engineering dans un environnement Agile/DevOps, en accord avec les priorités définies par le responsable de la Data Plateforme. Garantie de la Qualité et du Delivery : Garantir le succès et la qualité des livrables des projets data. Assurer la revue de code et agir en tant que référent technique sur GCP. Contrôler et valider les travaux des développeurs, en apportant les ajustements nécessaires. Architecture & Stratégie : Collaborer avec les architectes et experts pour concevoir et documenter l'architecture GCP la plus adaptée. Superviser et mettre en œuvre les stratégies d'alerting, de monitoring et de gestion des accès sur la data plateforme. Optimiser l'architecture existante pour en maximiser la performance. Développement et Intégration : Construire des pipelines de données en s'appuyant sur les processus d'intégration existants, dans le respect des meilleures pratiques (CI/CD, qualité du code, couverture des tests, etc.). Développer des fonctionnalités robustes et évolutives, de l'ingestion des données à la livraison des dashboards. Promouvoir et garantir la production d'un code de qualité, robuste, maintenable et évolutif. Qualité et Performance des Données : Assurer la qualité des données à chaque étape du pipeline. Définir et mettre en place les meilleures pratiques en matière de data engineering.

Freelance

Mission freelance
Data Engineer JAVA & GCP

IDEMYS
Publiée le
BigQuery
Google Cloud Platform
Java

1 an
100-550 €
Hauts-de-Seine, France

Nous recherchons pour notre client, une entreprise de premier plan, un Data Engineer expérimenté avec une expertise en Cloud, de préférence sur Google Cloud Platform (GCP). Maîtrise de Java, Spring Boot, et Maven Expertise en BigQuery Expérience solide avec Apache Airflow Connaissance approfondie du SQL Maîtrise de Dataflow Expertise en BigQuery Expérience avec Apache Airflow Utilisation de Cloud Run Connaissance de Terraform Comprendre et mettre en œuvre les besoins fonctionnels Saisir les enjeux commerciaux de l’entreprise Travailler en étroite collaboration avec les Data Engineers et les autres squads métiers Une expérience dans le secteur du Retail serait un atout majeur Nous recherchons un profil autonome, capable de s’adapter rapidement à de nouvelles technologies, et doté d’excellentes compétences relationnelles.

Freelance

Mission freelance
Data Engineer senior Hadoop / Hive + ELK + Kafka

Signe +
Publiée le
Apache Hive
Apache Kafka
Big Data

24 mois
175-200 €
Nantes, Pays de la Loire

Profil : Data Engineer Senior ou Tech Lead A l'aise avec le CICD, aguerri aux technologies Java et en solutions conteneurisées (ELK, Kafka, etc ..) Administration des bases de données (Famille) Conception événementielle (Kafka, rabbitMQ, CREM …) Hadoop Java / Spark Nifi Hive Kotlin Principes d'intégration continue SQL Site : Nantes en priorité, possible sur Aix sinon à étendre à d'autres localisations Nature du besoin : remplacement d'un profil senior actuellement en mission Type de projet : (TT possible 2 j / semaine) Service public de l'emploi

Freelance

Mission freelance
Ingénieur développement logiciel Unreal Engine maitrisant le C / C++

CELAD
Publiée le
Microsoft Windows
Unreal Engine

5 mois
350-400 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Mission : Au sein d’un petit bureau d’étude, vous prendrez en charge le développement Unreal Engine en C/C++ sous Windows d’une application de simulation de pilotage d’un robot volant. L’objectif de la mission consistera dans un 1ier temps à mettre à jour le logiciel créé en environnement Unreal Engine 4 avec le moteur Microsoft AirSim, puis y apporter des correctifs, et enfin ajouter des fonctionnalités au simulateur. Selon votre niveau de compétences vous pourriez également prendre en charge le portage de l’application vers Unreal Engine 5 et développer ensuite de nouvelles autres fonctionnalités.

CDI
Freelance

Offre d'emploi
Data Engineer Python / SQL / Azure

Signe +
Publiée le
Azure
Big Data
engineer

24 mois
25k-30k €
Rennes, Bretagne

Profil : Experienced Data Engineer • good technical skills o Python 3.7, o Flask/Fast API (Librairie API pour python), o SQL o Modelisation (MCD, MLD, MPD) , o Azure Functions, Azure Tables, Azure Data Explorer, o API Rest / API Management. • Technical specifications and OPEN API Specifiction writing • Functionnel Specification writing Activités : Specification, Development, Correction d'anomalies.

CDI

Offre d'emploi
Administrateur Systèmes et Réseaux (H/F)

Jane Hope
Publiée le
Administration linux
Apache
HAProxy

35k-40k €
Montpellier, Occitanie

Notre client, une centrale d’achat basé à Montpellier (34) est à la recherche d’un Administrateur Systèmes et Réseaux (H/F) en CDI pour compléter ses équipes ! Notre client est spécialisé dans l’externalisation des achats et des approvisionnements de produits non stratégiques dans les grands groupes industriel (70% de nos clients font partie du CAC40). Créée en 1994, notre client est désormais le leader français sur son marché et connaît un développement important, à la fois en termes de croissance et de compétences métier. Le service IT est une vraie équipe composée de 6 personnes ! Et elle va continuer à grandir et s'étoffer sur les prochaines années. L’équipe intervient sur plusieurs projets différents (développement d'une Marketplace, digitalisation des outils, développement de la BI ...) et cherche donc à se renforcer avec de nouvelles compétences ! MISSIONS Vous serez responsable de la maintenance, du support et de l'optimisation des infrastructures Linux. Vos principales missions seront : · Superviser les performances, analyser les anomalies et corriger les pannes de l'infrastructures informatique. · Assurer le bon fonctionnement et l'optimisation des systèmes, des réseaux et des bases de données. · Assurer le maintien à niveau des infrastructures informatiques et anticiper les risques en proposant des solutions · Installer et configurer les systèmes de gestion des bases de données. · Assurer le support niveau 2 des incidents/demandes d'utilisateurs en fournissant des solutions rapides et efficaces. · Conduire les projets IT tout en respectant des délais / qualités / coûts. · Réaliser des audits réguliers des systèmes pour identifier et corriger les vulnérabilités.

Freelance

Mission freelance
Ingénieur Linux & Supervision (Ubuntu, Centreon)

MEETSHAKE
Publiée le
Ansible
Centreon
Linux Ubuntu

6 mois
500-550 €
Clichy, Île-de-France

> CONTEXTE DE LA MISSION : Au sein de la Direction des Bureaux Techniques et Supports Informatiques, le département Infrastructure et Réseaux recherche un ingénieur Linux et Supervision. Vous serez directement rattaché au chef de département infrastructure et réseau. Vous interviendrez principalement sur l’exploitation des solutions suivantes : Centreon, Ubuntu Vos principales missions : · Exploitations & Evolutions Centreon - Mise à niveau applicative - Intégration de nouveau contenue - Gestion de la relation avec le support Centreon · Exploitation & Evolutions Ubuntu Vos missions secondaires : · Développement de playbook Ansible · Développement de script d’exploitation Python, KS > VOS PRINCIPALES MISSIONS : · Exploitation et évolution Centreon - Exploitation au quotidien des incidents\demandes. - Monitoring de la solution. - Création de nouveau rapport, Business Activity … - Rédaction DEX - Amélioration continue/contrôle. · Exploitation et évolution Ubuntu - Exploitation au quotidien des incidents\demandes. - Amélioration continue/contrôle. - Rédaction DEX · Développement de script d’exploitation Python, KSH - Exploitation au quotidien des incidents\demandes. - Amélioration continue/contrôle. · Développement de playbook Ansible - Gestion des playbook. - Amélioration continue/contrôle > + INFOS : Date d’entrée en fonction souhaitée : ASAP Type de contrat : freelance ou portage Durée : mission longue Situation géographique : Clichy (2 jours présence sur site et 3 jours de télétravail)

CDI

Offre d'emploi
Ingénieur Réseaux Datacenter (H/F)

CELAD
Publiée le
Data Center

40k-45k €
Lyon, Auvergne-Rhône-Alpes

🌟 Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un(e) Ingénieur Réseaux Datacenter pour intervenir chez un de nos clients afin de renforcer l’équipe sur les nombreux projets en cours. 💻💼 Contexte : Déploiement de nouveaux datacenters, remplacement de fabric EVPN, upgrade, migration vers nouvel OS F5, migration d’outillage python 2 vers python 3, segmentation, hardening. Voici un aperçu détaillé de vos missions 🎯 : - Gestion des incidents réseaux de production, - Analyse des besoins, - Production de design et déploiement, - Organisation et suivi de projets complexes, - Test et évaluation de nouvelles solutions, - Gestion des vulnérabilités (CVE) - Gestion d’opérations techniques impliquant de multiples équipes.

Freelance

Mission freelance
Chef de projet Technico Fonctionnel BIG DATa senior

BI SOLUTIONS
Publiée le
Architecture
Big Data

2 ans
490-600 €
Île-de-France, France

Chef de projet Technico Fonctionnel BIG DATA 10 ans d'expériences En étroite collaboration avec le Chef de Service et les architectes fonctionnels, le chef de projet expert Data aura pour mission de piloter le projet Benchmark. Ses missions seront : Finaliser de l'étude (comparatif interne) Architecture Préparer les éléments en vue des différentes présentations Apporter l'expertise et la connaissance du marché pour apporter les compléments au dossier Participer, voire réaliser, certaines présentation dans des instances internes ou clientes 600 e

Freelance

Mission freelance
data sciente / IA

CJI Paris
Publiée le
AWS Cloud
Data science

1 an
100-600 €
Puteaux, Île-de-France

En tant que Data Scientist/ML engineer, vous serez responsable de concevoir, développer et mettre en oeuvre des composantes/modèles de ML/DL pour améliorer la personnalisation et le système de recommandation de Canal+ . Vous serez amené à participez aux différentes étapes d’un projet de la conception au déploiement (idéation, PoC, conception des pipelines MLOps, gestion du cycle de vie des modèles en production...). Au quotidien : o GIT est votre meilleur ami o Vous développez, testez et optimisez des solutions en utilisant Python sur votre IDE préféré. o Vous travaillez en étroite collaboration avec les équipes DevOps et data ingénieurs pour garantir une mise en production efficace des solutions. o Vous participez aux rituels de l’équipe (suivi de projet KANBAN, sessions de partage de connaissance, veille continue, pair programming) Compétences et qualités attendues : Diplômé en informatique, en science des données ou en ingénierie, passioné par l'IA, vous justifiez d’une expérience de 3 ans dans la mise en production de projets de ML/DL idéalement dans un environnement cloud AWS.

Freelance

Mission freelance
DEVIENS #AUTEUR Nginx

Editions ENI
Publiée le
Nginx
Serveur web

8 mois
100-300 €
Saint-Herblain, Pays de la Loire

Nous recherchons un(e) professionnel(le) de l'IT pour la prochaine publication de notre ouvrage qui portera sur Nginx. "Pourquoi pas moi ? Je suis formateur(trice), administrateur(trice) système et réseaux, développeur(euse)... et Nginx n'a aucun secret pour moi. J’ai envie de partager mon expertise et mon expérience au plus grand nombre ! Ecrire un livre me permettra de renforcer ma crédibilité et de mettre à profit mes connaissances." Notre équipe éditoriale t’accompagnera à chaque étape de la conception du livre en partageant avec toi leur savoir-faire et leur expérience dans la création de livres en informatique.

157 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous