Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 145 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

CDI

Offre d'emploi
Administrateur Sytèmes et réseaux (H/F)

Amiltone
Publiée le
administrateur
et
h-f

25k-30k €
Nice, Provence-Alpes-Côte d'Azur

Vos missions ? 🌐 Afin de renforcer notre pôle Systèmes et Réseaux, nous recherchons un Administrateur Système et Réseau (H/F). Vous avez en charge les missions suivantes : · Assister les équipes dans l'analyse des besoins des clients dans le cadre de migration d'OS et/ou de base de données. · Contribuer à l'élaboration des solutions techniques efficaces. · Participer aux activités de développement, d'intégration et de validation des projets. · Réaliser au sein des services d'infrastructures, l'intégration et la qualification des applications afin de les rendre exploitables dans l'environnement de production. · Mettre en place et maintenir l'exploitabilité des applications et en assurer le support Niveau 3. · Industrialiser les procédures d'installations applicatives pour qu'elles soient automatisables. Compétences techniques : · Linux · Windows client et serveur · Gestion et configuration des switchs (Routage, VRRP...) · VMWARE

CDI

Offre d'emploi
Développeur Java/Angular (H/F)

Amiltone
Publiée le
développeur
h-f
java angular

35k-40k €
Nice, Provence-Alpes-Côte d'Azur

Vos missions ? En tant que Développeur Java / Angular (H/F), vous assurez les missions suivantes : Le développement des tâches qui vous sont assignées en respectant les spécifications Le Code Review avec les autres développeurs du projet L'écriture de tests unitaires et fonctionnels durant vos développements L'industrialisation de vos développements via notre PIC (Jenkins) La participation au Daily Scrum Meeting, Sprint Revue, Rétro de Sprint et Planning Poker La stack technique Front End : Angular 2+ à 17 / Angular JS (apprécié) / Html/CSS Backend : Java/JEE/Spring (impératif) BDD : MongoDB ou PostGreSQL Outils : Git, Jenkins, Jira

CDI

Offre d'emploi
Développeur Angular H/F

Amiltone
Publiée le
Angular
développeur
h-f

35k-40k €
Dijon, Bourgogne-Franche-Comté

Les missions d'un Amiltonien En tant que développeur Angular 2 ou ultérieur (H/F), vous avez en charge : - Le développement des tâches qui vous sont assignées en respectant les spécifications - Le Code Review avec les autres développeurs du projet - L'écriture de tests unitaires et fonctionnels durant vos développements - L'industrialisation de vos développements via notre PIC (Jenkins) - La participation au Daily Scrum Meeting, Sprint Revue, Rétro de Sprint et Planning Poker La stack technique - Front End : Html/CSS Angular 2+ - BDD : MongoDB ou PostGreSQL - Outils : Git, Jenkins, Jira

Alternance

Offre d'alternance
Ingénieur avant-vente en alternance (H/F)

Amiltone
Publiée le
Alternance
Avant vente
en

12 mois
15k-20k €
Villeurbanne, Auvergne-Rhône-Alpes

Le poste ? Intégré à notre pôle commerce Factory, vous aurez pour rôle d'identifier les besoins de nos clients afin de leur apporter une réponse adaptée. La Factory Amiltone est le centre d'expertise en transformation numérique qui accompagne nos clients dans la réalisation de leur projet de la définition du besoin à la réalisation et à la maintenance. La Factory est composée des pôles Web, Mobile, Data, Studio Design, QA et Gestion de projet. En interaction avec les équipes techniques et commerciales vous assurez les missions suivantes : - Accompagnement des ingénieurs d'affaires dans leur action de prospection - Analyse du besoin client - Rédaction de propositions commerciales - Réponse aux appels d'offres publics et privées - Commercialisation d'une offre complète et complexe - Participation aux salons et évènements commerciaux - Promotion des valeurs, de l'expertise et du savoir-faire Amiltone Recrutement : - Travailler en étroite collaboration avec l'équipe de chargés de recrutement - Identifier les meilleurs profils et réaliser les entretiens de recrutement

CDI
Freelance

Offre d'emploi
Business Analyst Efront H/F

BK CONSULTING
Publiée le
analyst
Business
eFront

24 mois
65k-70k €
Paris, France

En tant que Business Analyst eFront, vous intervenez afin d'apporter votre expertise de la solution eFront Invest, votre connaissance des produits financiers. À ce titre, en collaboration étroite avec l'équipe de maitrise d'ouvrage , vous aurez pour missions : - Spécifier, réaliser, tester et valider les reportings et les extractions nécessaires à des fins spécifiques à la gestion des fonds dans FIA - Participer à la mise en place de workflows automatisés (eFront). Afin de mener à bien l'intégralité de la mission, vous disposez des compétences et savoir-faire suivants : - Les sujets " métiers " sur lesquels il est demandé des compétences spécifiques sont les suivants : - Connaissance des marchés financiers - Connaissance de la comptabilisation de ces produits Les environnements informatiques et méthodologiques sur lesquels il est demandé des compétences spécifiques sont les suivantes : - Expérience des outils d'eFront indispensable - Expérience de description de processus, d'élaboration de cartographie fonctionnelle et applicative dans le domaine de la finance de marché

Freelance

Mission freelance
EXPERT HADOOP F/H | BORDEAUX (33)

HIGHTEAM GRAND SUD
Publiée le
Apache Spark
Cloudera
Hadoop

3 ans
100-500 €
Bordeaux, Nouvelle-Aquitaine

VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez notre client et serez en charge de : Assurer la MCO des socles Hadoop Cloudera Hors-Prod et Prod Piloter et mettre en oeuvre les travaux de fiabilisation et de stabilisation des socles Hadoop pour limiter les incidents récurrents et accroître la disponibilité pour les utilisateurs Mettre en place et rédiger des procédures d'administration et d'exploitation Assurer l'ntégration avec l'outillage de l'écosysteme DSI : ordonnanceur IWS, sauvegarde HDPS, supervision Prometheus / Grafana, ... Suivre le consommé des ressources infra : stockage, cpu... Mettre en place l'outillage et les procédures nécessaires pour assurer le suivi Mettre en place les principes de sécurité : outillage, procédures, reporting Vérifier la bonne application des normes et des standards Participer à la configuration du cluster Cloudera en fonction des besoins identifiés Optimiser les chargements de données et maintenir le niveau de sécurité Accompagner les équipes d'administration N2 et d'exploitation Coordonner et piloter des chantiers en collaboration avec les différents services DSI Environnement Technique : Hadoop, Cloudera CDP, Shell, Python, Spark, SQL, Hive, Impala, Linux, ETL Datastage, PowerBI, SAS, Teradata, PostgreSQL, HDFS, YARN, Zeppelin, Ranger, Knox, Zookeeper Le poste est basé à Bordeaux (33). Dans le cadre de vos fonctions, vous pourrez bénéficier de 2 jours de télétravail par semaine.

Freelance

Mission freelance
Architecte BIG DATA / HADOOP Confirmé H/F

Reactis
Publiée le
Big Data
Cloudera
Hadoop

2 ans
650-700 €
Paris, France

Vous rejoignez le service en charge d’accompagner les équipes dans la définition d'architectures Techniques, de concevoir les modèles de données, d’administrer les bases et les moteurs de bases de données et construire les socles SGBD, décisionnel et Bigdata. Vous interviendrez sur l'architecture en environnement Hadoop / Big data de technologie Cloudera et vous mettrez en œuvre des compétences en développement autour des langages propres au domaine BigData, tels que Python, Saprk, Hive, impala Une première plate-forme Big Data s’appuyant sur la technologie Hadoop a été mise en place pour répondre à des cas d’usage non couverts par le Système Décisionnel initial et nécessitant plus d’agilité pour explorer, croiser les données et manipuler de gros volumes de données. Le SI « BigData / Hadoop » a pour objectif de centraliser différentes sources de données hétérogènes sur un même socle technique pour manipuler de gros volumes de données, permettre de réaliser du requêtage croisé entre différentes sources de données hétérogènes et fonctionnellement pouvoir répondre à différents cas d’usages. Vos principales missions sont notamment : - Pilotage et mise en oeuvre opérationnelle des travaux de fiabilisation des socles Hadoop pour répondre aux exigences de performances attendues par les cas d'usages fonctionnels. - Evolution des architectures techniques : Mise en place des principes directeurs sur l’utilisation du cluster Cloudera ; Vérification de la bonne application des normes et des standards ; Force de proposition, étude, analyse et mise en œuvre de solutions pour améliorer : l'outillage utilisateurs, optimiser les performances et la résilience du cluster ; Etude d'impact et réalisation opérationnelle des montées de version Cloudera et outils Hadoop ; Prise en compte de l'écosystème DSI client : ordonnanceur IWS, sauvegarde HDPS, supervision Prometheus / Grafana, ... ; - Expertise Hadoop de niveau 3 : Configuration du cluster Cloudera en fonction des besoins identifiés ; Optimisation des traitements ; - Support : Accompagnement des équipes de développement ; Assistance auprès des équipes : Optimisation des traitements, Prise en main de l’outillage mis à disposition, Chargement des données ; - Transmission du savoir-faire via la rédaction de documentations et transfert de connaissances.

Freelance

Mission freelance
Architecte BIG DATA / HADOOP Confirmé H/F

Reactis
Publiée le
Big Data
Cloudera
Hadoop

2 ans
650-700 €
Bordeaux, Nouvelle-Aquitaine

Vous rejoignez le service en charge d’accompagner les équipes dans la définition d'architectures Techniques, de concevoir les modèles de données, d’administrer les bases et les moteurs de bases de données et construire les socles SGBD, décisionnel et Bigdata. Vous interviendrez sur l'architecture en environnement Hadoop / Big data de technologie Cloudera et vous mettrez en œuvre des compétences en développement autour des langages propres au domaine BigData, tels que Python, Saprk, Hive, impala Une première plate-forme Big Data s’appuyant sur la technologie Hadoop a été mise en place pour répondre à des cas d’usage non couverts par le Système Décisionnel initial et nécessitant plus d’agilité pour explorer, croiser les données et manipuler de gros volumes de données. Le SI « BigData / Hadoop » a pour objectif de centraliser différentes sources de données hétérogènes sur un même socle technique pour manipuler de gros volumes de données, permettre de réaliser du requêtage croisé entre différentes sources de données hétérogènes et fonctionnellement pouvoir répondre à différents cas d’usages. Vos principales missions sont notamment : - Pilotage et mise en oeuvre opérationnelle des travaux de fiabilisation des socles Hadoop pour répondre aux exigences de performances attendues par les cas d'usages fonctionnels. - Evolution des architectures techniques : Mise en place des principes directeurs sur l’utilisation du cluster Cloudera ; Vérification de la bonne application des normes et des standards ; Force de proposition, étude, analyse et mise en œuvre de solutions pour améliorer : l'outillage utilisateurs, optimiser les performances et la résilience du cluster ; Etude d'impact et réalisation opérationnelle des montées de version Cloudera et outils Hadoop ; Prise en compte de l'écosystème DSI client : ordonnanceur IWS, sauvegarde HDPS, supervision Prometheus / Grafana, ... ; - Expertise Hadoop de niveau 3 : Configuration du cluster Cloudera en fonction des besoins identifiés ; Optimisation des traitements ; - Support : Accompagnement des équipes de développement ; Assistance auprès des équipes : Optimisation des traitements, Prise en main de l’outillage mis à disposition, Chargement des données ; - Transmission du savoir-faire via la rédaction de documentations et transfert de connaissances.

CDI
Freelance

Offre d'emploi
CDI Ingénieur d'affaires IT (H/F)

Signe +
Publiée le
CDI
h-f
ingenieur

24 mois
30k-35k €
Toulouse, Occitanie

Mais nous recherchons également des soft skills : Entreprenant(e) Sens du relationnel, à l'aise à l'oral Force de proposition Bienveillance, éthique vis à vis des clients / consultants Amener des croissants le matin Le candidat : Une Connaissance du milieu IT/ Data / Business Intelligence sera très fortement appréciée. L'anglais niveau B2 / C1 apprécié Le candidat sera amené à travailler sur un nouveau projet commercial, mais aussi sur des missions transverses. Il (elle) évoluera dans nos bureaux (hyper centre de Toulouse). Un système de rémunération variable est mis en place Nous sommes à l'écoute de toutes vos candidatures !! A très vite ! Alexis Dardaine X X X X X X X

Freelance

Mission freelance
Data Engineer / Architect (H/F)

OctopusGroup
Publiée le
Apache Hive
Apache Kafka
Apache Spark

3 mois
100-650 €
Paris, France

Nous recherchons pour le compte de notre client dans le domaine bancaire, un data Engineer senior/ architecte big data, expert sur la conception de solutions sur la stack Hadoop, (HDFS, Hive, Spark, Kafka, Hbase, iceberg) et la maîtrise des architectures API vous avez une expérience confirmée en architecture et technologies Big Data ainsi qu’une expérience pratique et concrète de choix de solutions Data (logiciels libres et éditeurs), de conception d'architecture Big Data sur les plans fonctionnel, logique, applicatif et technique et la mise en œuvre de socle Big Data Maitrise et expériences de conception de solution sur hadoop Expertise sur la stack Hadoop hdfs, hive , spark kafka hbase iceberg… Maitrise des architectures APIs

Freelance

Mission freelance
DEV Vue.JS

KN CONSULTING
Publiée le
Docker
Gitlab
Hadoop

6 mois
100-450 €
Paris, France

Objet de la prestation : développement collaboratif Pour répondre aux besoins métier d’analyse et de restitution de données opérationnelles, certains acteurs métier ont développé des solutions avec des langages informatiques telles que R, Python, Excel Visual Basic. Soucieux de maîtriser les risques inhérents à ces pratiques éparses et tout en souhaitant conserver une dynamique pour améliorer le traitement des données du SI de la DOAAT, le projet Développement Collaboratif alias « DevCo » a été lancé. L’ambition du projet est de définir l’organisation, la gouvernance et les éléments technologiques pour offrir : · un cadre plus maitrisé aux développements métiers · une meilleure capacité d’intégration et d’industrialisation des cœurs de data-science et des développements métiers dans le SI · une capacité à réaliser des développements plus rapides et à coûts réduits sur une plateforme bénéficiant d’un niveau de service moindre. Pour réussir ce projet, une communauté « DevCo » a été constituée avec différents profils: 4 · Un animateur (équivalent « Product Owner ») pour aider à constituer la liste des réalisations prioritaires - Un référent technique / expert développement et déploiement continu · Un architecte d’entreprise pour orienter les choix de conception et accompagner les différentes équipes dans la mise en œuvre (DevCo, équipes de developpment SIME, BigDATA, …) · Des développeurs des équipes métier · Des Data Engineers · Des Data Scientists

CDI

Offre d'emploi
Ingénieur Data - Python

AGH CONSULTING
Publiée le
Docker
Flask
Gitlab

10k-60k €
Saint-Denis, Île-de-France

AGH Consulting recherche pour un de ses clients un Ingénieur Data. La mission vise à : • Contribution aux Guidelines (utilisation de la plateforme et pratiques de développement et de déploiement) • Conception et réalisation de solutions (développement) pour répondre aux besoins prioritaires (de type analyse et restitution de données) • Rédaction des Dossiers de conception et d’exploitation des solutions délivrées • Veille technologique et proposition de solutions innovantes pour exploiter les données

Freelance

Mission freelance
Ingénieur Data Senior / Leader Technique (Expert Data Vault)

Phaidon London- Glocomms
Publiée le
Apache Hive
Apache Kafka
ETL (Extract-transform-load)

12 mois
600-700 €
Île-de-France, France

Titre du poste : Ingénieur Data Senior / Leader Technique (Expert Data Vault) Lieu : Paris, France (Hybride : 3 jours de télétravail par semaine) Langue requise : Français courant Nous recherchons un Ingénieur Data Senior / Leader Technique avec une vaste expérience en Data Vault pour diriger un projet de migration de données important à Paris. Le candidat retenu ne se contentera pas de guider les efforts de migration, mais jouera également un rôle clé dans la constitution et le mentorat d'une équipe de data engineers performante. Responsabilités principales : Diriger et exécuter la migration de systèmes de données complexes Concevoir des solutions de données en utilisant la méthodologie Data Vault Construire et gérer une équipe d'ingénieurs de données, en favorisant un environnement collaboratif et innovant Collaborer avec des équipes transversales pour fournir des plateformes de données évolutives et efficaces Superviser et optimiser les flux de données dans Hadoop , HDFS , et Kafka Assurer les meilleures pratiques dans les processus ETL et l'ingénierie des données Exigences : Expérience avérée avec Data Vault Maîtrise de PySpark, Hive, Hadoop, HDFS, Kafka, SQL, outils ETL Français courant (à l'oral et à l'écrit) Expérience dans la gestion de projets de migration de données Compétences solides en constitution et en gestion d'équipe Les entretiens commenceront cette semaine. Postulez dès maintenant pour diriger un projet de migration transformateur et façonner l'avenir de l'ingénierie des données avec nous.

Freelance
CDI

Offre d'emploi
Data Engineer Finance

VISIAN
Publiée le
Agile Scrum
Ansible
Apache Airflow

2 ans
10k-65k €
Charenton-le-Pont, Île-de-France

Récupérer les données issues de sources externes • Utiliser la puissance du Datalake • Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le datalake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner. • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels Aspects Humains : • Grande capacité à travailler dans une équipe, en mode Scrum / Kanban. • Bonnes compétences relationnelles et grand sens de la communication (capacité à entrer dans le détail). • Sensible et informé des évolutions technologiques sur les piles logicielles pratiquées.

Freelance

Mission freelance
Data Engineer Expérimenté - Vannes

CAT-AMANIA
Publiée le
Agile Scrum
Apache Hive
Apache Kafka

6 mois
350-490 €
Vannes, Bretagne

Dans le cadre de l'intervention pour le compte du Chapitre Data à Vannes : Le Chapitre Data intervient en transverse au sein de l'entreprise. Il recueille et fabrique les cas d'usages Data des différentes Squads de l'entreprise, sur des domaines métiers différents. Vous serez ainsi amené à travailler pour le compte de différentes Squads avec des interlocuteurs possiblement changeants. Vous serez également amené à échanger avec les autres membres du Chapitre du site de Vannes mais aussi ceux des autres sites France. Attendu : 1 - Contribuer à la Fabrication des Produits des Squads de l'Entreprise dans un environnement Cloudera - en utilisant un framework interne entreprise (sur des activités Big Data) 2 - Etre force de proposition et expertise au sein du Chapitre sur les techno manipulées Nous recherchons un Data Engineer expérimenté capable de : - Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) - Développer les solutions de collecte et de stockage des données (provenant de multiples sources) afin de le rendre disponibles pour les usages métiers - Mettre en œuvre les tests unitaires et automatisés - Déployer le produit dans les différents environnements - Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents - Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code

CDI
Freelance

Offre d'emploi
Support Hadoop

Datapy Group
Publiée le
Hadoop
HDFS (Hadoop Distributed File System)

3 ans
10k-55k €
Fontenay-sous-Bois, Île-de-France

Au sein du groupe, l’administrateur Hadoop sera responsable de l’intégration et du support technique du Big Data, en dehors des divisions ITIM et SU. Le rôle est centré sur l’exploitation technique des infrastructures Hadoop et le support aux équipes en place. Administration et Exploitation Hadoop : Support de Niveau 1 et occasionnellement Niveau 2 des infrastructures Hadoop. Surveillance, maintenance, et optimisation des clusters Hadoop. Gestion des incidents en collaboration avec d'autres équipes. Développement de Scripts d'Automatisation : Développement et maintenance de scripts d’automatisation en Python et Shell pour réduire les interventions manuelles. Automatisation des tâches récurrentes et des workflows. Support Technique : Assurer le support technique des infrastructures Big Data pour les équipes internes. Intervenir en cas de problème technique lié à l’infrastructure Hadoop. Collaboration avec l’équipe en charge de la gestion des incidents.

145 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous