Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 434 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Chef de projet ERP

TEOLIA CONSULTING
Publiée le
Big Data
Gestion de projet

8 mois
100-700 €
Paris, France

Nous recherchons pour l'un de nos clients (dans le secteur de la distribution d'alcool) un Chef de Projet spécialisé en cadrage et pilotage de projet ayant un bagage solide dans l ’intégration systèmes . Missions : piloter la migration de l'ancien ERP vers le nouvel ERP + reconstruction de la plateforme data. TMA sur la plateforme digital client (CRM/ PIM DAM) Réalisations : Comprendre les métiers et leurs besoins (fonctionnel data) Spécification des échanges de données fonctionnels, API, gestion de projet en intégration systèmes, Formalisation et tenue du planning, Suivi des livrables et Coordination efficace des intégrateurs pour reconnecter l'ERP à tous les systèmes de la plate-forme clients (CRM, Pim-DAM, extranet client, eshops..) et la nouvelle Plateforme Data qui sert aussi d’API management, Animation des ateliers métiers; aide aux arbitrages fonctionnels et techniques; aide à la rédaction et validation des spécifications par l’intégrateur. Réalisation de la documentation interne DSI : process et modèle métier, les flux data cible et les schémas d’architecture fonctionnels SI Définition de la stratégie de tests, du cahier et des jeux de données de tests, et animation de la réalisation des tests pour garantir le bon fonctionnement à la mise en production. Accompagner la conduite du changement, et la montée en compétences des utilisateurs (animer formations, manuels, forums,..)

CDI

Offre d'emploi
Data Analyst (H/F)

Amiltone
Publiée le
analyst
Big Data
h-f

40k-45k €
Orange Lyon Lumière, Auvergne-Rhône-Alpes

Les missions d'un Amiltonien : En tant que Data Analyst (H/F), vous serez en charge des missions suivantes : - Cadrer et challenger les besoins de nos métiers - Elaborer la stratégie, analyser, concevoir et développer les traitements de données - Optimiser les flux existants - Contrôler la qualité des données - Analyser les incidents de production et apporter des solutions La stack technique : - Technologies : ETL ODI / Sql et PL SQL (Oracle) - Référentiels : JIRA / Service Now - Maitrise Data Visualisation (Power BI)

Freelance
CDI
CDD

Offre d'emploi
Cloud Architect (DataOPS/MLOPS)

bdevit
Publiée le
AWS Cloud
Azure
Gitlab

36 mois
50k-60k €
Île-de-France, France

Dans le cadre de son désir de développer de nouveaux cas d'usage de l'IA dans le cloud, le DataLab Group souhaite exploiter toute la puissance du cloud pour tirer parti des capacités des modèles d'IA propriétaires et open-source. Objectif : - Aborder les sujets liés à l'IA générative en lien avec les offres AWS (Bedrock, SageMaker, etc.), en mettant l'accent sur les concepts clés (LLM, RAG) et les défis actuels tels que la scalabilité, les coûts et les optimisations ; - Superviser l'intégration fluide de ces modèles d'IA avancés dans notre infrastructure cloud ; - Optimiser l'utilisation des ressources, l'assurance de l'évolutivité et la promotion de la collaboration entre les équipes de développement et d'exploitation. Responsabilités : - Accompagner l'équipe technique dans les meilleures pratiques de développement et d'intégration continue ; - Collaboration avec les parties prenantes : Établir et maintenir des canaux de communication efficaces avec divers acteurs, y compris les dirigeants, les clients et les équipes internes ; - Mise en place d'une architecture permettant le déploiement continu de modèles d'apprentissage automatique ; - Travailler en étroite collaboration avec les équipes de développement pour intégrer les pratiques DevOps dans le cycle de développement ; - Créer des POC (Proof of Concept) de tests d'intégration dans Kubernetes, démontrant le potentiel des pipelines de déploiement automatisés et efficaces ; - Concevoir l'architecture des composants AWS responsables du stockage et de l'intégration des données ; - Gérer et maintenir l'infrastructure as code, en utilisant des outils tels que Docker, Kubernetes et Terraform ; - Optimiser les flux de travail existants en identifiant les goulets d'étranglement et en proposant des solutions d'amélioration ; - Surveiller les performances du système, l'efficacité des processus et la disponibilité des services en implémentant des métriques et des outils de monitoring.

Freelance

Mission freelance
Product Owner Backend - OMS (H/F)

Byrongroup
Publiée le
Back office

6 mois
100-510 €
Neuilly-sur-Seine, Île-de-France

Nous recherchons pour un de nos clients grands comptes dans le secteur du retail un Product Owner Backend - OMS (H/F) TT : 3 jours par semaine Missions : Identifier des attentes business et des enjeux de valeur client Décliner sur votre domaine de responsabilité la roadmap globale produit Alimenter et prioriser votre Product Backlog Rédiger les user stories et définir les critères d'acceptation Formaliser les processus des parcours impactés Contribuer à l'animation Agile de l'équipe Suivre les indicateurs de performance de votre périmètre pour adapter les évolutions produit Porter la vision produit auprès de l'équipe

CDI

Offre d'emploi
Chef de projet Data (H/F)

Amiltone
Publiée le
Big Data
chef
De

40k-45k €
Marseille, Provence-Alpes-Côte d'Azur

Au sein de l'équipe déjà existante, vous avez en charge les missions suivantes : - La gestion et le pilotage de projet - Gestion des équipes et des plannings - Reporting des activités et des tableaux de bord - Rédaction de procédures et modes opératoires - Formaliser les besoins implicites et explicites des clients - Participer au choix des différentes solutions Alors ? Prêt à devenir Amiltonien ? 🎉 N'hésitez pas à postuler si vous vous reconnaissez ! De formation supérieure BAC+5 (Master ou école d'ingénieur) spécialisé dans l'informatique, vous justifiez d'au moins 3 ans d'expérience dans un poste similaire. Vous maitrisez la gestion de projet car vous avez expérimenté la gestion de projet de bout en bout. Vous avez des connaissances techniques, notamment en BDD Oracle (SQL). Vous disposez d'une aisance relationnelle et d'une excellente communication orale et écrite. Outre vos compétences techniques, nous nous intéressons également à votre potentiel et votre motivation. Nos postes sont ouverts aux personnes en situation de handicap.

Freelance

Mission freelance
Lead Data Engineer Senior

PROPULSE IT
Publiée le
Big Data
engineer
lead

24 mois
450-900 €
Paris, France

PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code

CDI

Offre d'emploi
Responsable d'applications/AMOA

Hexateam
Publiée le
.NET
Analyse
BI

40k-60k €
Paris, France

Rôle : Accompagner les métiers sur la mise en place et les évolutions, le pilotage des interfaces d'une application Description détaillée : Vous assurer en binôme le suivi des projets, évolutions fonctionnelles, et interfaces sur l'application Le responsable de l'application métier assure, en binôme, une mission d'AMOA vis à vis des référents métier. Il intervient sur des applications en Run ou sur des projets. Il assiste et challenge le métier dans l'expression de ses besoins en cohérence avec les processus métier . Il est le garant de la spécification et de la qualité des réalisations. Il s'assure de l'accompagnement des utilisateurs et de la gestion du changement dans la mise en oeuvre des évolutions ou des projets. Pour cela et en fonction du niveau des dossiers, il peut être amené à faire ou faire faire - la rédaction de cahier des charges/ expression des besoins - la contribution à des AO et à l'analyse des solutions - la rédaction / validation de spécifications - la construction de stratégie de recette, l'écriture des cahiers de tests , la réalisation des tests - La construction de la stratégie de déploiement et d'accompagnement ( formation ,communication, assistance) - La formation/information des utilisateurs et des référents métiers - La MCO des interfaces en collaboration avec le métier Par ailleurs , - il développe une relation de confiance avec la filière métier et contribue aux instances de suivi de l'activité des applications - il suit et rapporte l'avancement de son activité et remonte les alertes ou nouveaux besoins au responsable de pôle - Il communique régulièrement avec les référents métier - il contribue au partage de connaissance avec les autres RAM au sein du pôle - il travaille en étroite collaboration avec les Pilotes Opérationnels d'Application en charge du RUN pour s'assurer de la performance des applications

CDI
Freelance

Offre d'emploi
Senior Technical Analyst - Expert Calypso H/F

Scalesys
Publiée le
CI/CD

3 ans
40k-50k €
Île-de-France, France

Imaginez-vous au cœur de l’action, travaillant pour l’un des géants du CAC40 ! Dans le cadre d’un renfort d’activité, nous recherchons un Senior Technical Analyst Calypso H/F en CDI ou en freelance, spécialisé dans les projets de grande envergure et maîtrisant la version 16 de Calypso. Vous serez rattaché à la direction Global IT et jouerez un rôle clé dans la gestion des applications Calypso dont Casa UK. Mais ce n’est pas tout ! Vous évoluerez dans un environnement dynamique où vous serez amené à accomplir des missions telles que : Fournir des estimations de charge et des plannings de réalisation Proposer des solutions en collaboration avec les architectes Suivre les développements et accompagner les tests UAT Documenter les solutions techniques et réaliser les développements nécessaires Créer des cahiers de tests techniques Accompagner la livraison en Production Participer activement aux processus de maintenance release Calypso et à la mise en place de CI/CD Mener des études importantes dans le SI de l’entité, incluant : Des études et comparaisons des différentes solutions Des estimations de charges infrastructures et de coûts humains Un planning détaillé et des stratégies d’implémentation

Freelance

Mission freelance
Ingénieur DevOps

STHREE SAS pour COMPUTER FUTURES
Publiée le
API REST
CI/CD
Gitlab

6 mois
100-350 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Nous recherchons un Ingénieur DEVOPS, pour un de nos clients basé à Aix en Provence, pour une mission freelance (longue visibilité) Les principales missions sont : • Votre maitrise des chaînes CI/CD contribuera à la qualité de la construction et du déploiement de nos systèmes applicatifs • Votre expertise technique vous permettra d’éprouver le système et de participer à son amélioration • Vous participerez à l’intégration technique du système applicatif déployé et à la mise en place des bonnes pratiques depuis l'environnement de développement jusqu'à l’exploitation • Intégrer, configurer et déployer les applications PSPDV dans un contexte de DEV et Intégration SI • Modifier, optimiser les configurations des différents environnements (DEV / INT / PERF) • Gérer une dizaine de composants et leurs versions à travers les chaines CI/CD • Suivies des anomalies dans l’outil de suivi du client Autres compétences: • Bon sens, factuel, pragmatique • Organisé • Très bon relationnel • Agilité • Reporting de son activité Techno: • CI/CD, Rancher, Kubernetes, Gitlab • Unix • Requêtes SQL Oracle • Kafka (notions) • API Rest

Freelance

Mission freelance
Data Ops Engineer

WHEEL OF WORK
Publiée le
BigQuery
CI/CD
DevOps

12 mois
400-510 €
Lille, Hauts-de-France

Mission : Le DataOps Engineer a pour rôle clé de concevoir et optimiser des infrastructures fiables et scalables pour répondre aux besoins de l'entreprise. Il accompagne le cycle complet de delivery, en veillant à la qualité des livrables tout en animant et encadrant les équipes dans un environnement Agile/DevOps. Il met en place des pipelines de données et automatise les processus de développement (CI/CD) afin de garantir l'efficacité et la fluidité des opérations. En collaboration avec les experts métiers, il participe à l’estimation des charges de travail, au suivi du backlog et à la planification des sprints. En plus de superviser la qualité du code, il contribue à l'acculturation des bonnes pratiques DevSecOps et Data Engineering, tout en assurant le support technique pour résoudre des problématiques complexes et former les nouveaux arrivants.

Freelance

Mission freelance
Consultant TMA - SAP APO/BW

Focustribes
Publiée le
APS
SAP
SAP BW

6 mois
600-1 200 €
Île-de-France, France

Projet: En tant que Consultant Senior SAP APO , vous interviendrez sur les responsabilités suivantes : • Participer à la définition de la stratégie Supply Planning en étroite collaboration avec les équipes métier et IT. • Contribuer aux travaux de sélection et à la réalisation de Proofs of Concept (POC) pour les solutions APS identifiées. • Analyser les processus existants et rechercher des opportunités de convergence et d’amélioration. • Assurer la gestion des projets de déploiement SAP APO (planification, suivi budgétaire et livrables). • Être le garant des bonnes pratiques SAP et de l’implémentation des solutions conformes au Core Model. • Proposer des solutions adaptées pour les équipes Supply Chain et documenter les évolutions et les améliorations continues.

Freelance

Mission freelance
Expert Hadoop

SCC France SAS
Publiée le
Big Data
Cloudera
Python

18 mois
100-600 €
Paris, France

-Pilotage et mise en œuvre opérationnelle des travaux de fiabilisation des socles Hadoop -Vérification de la bonne application des normes et des standards -Force de de proposition, étude, analyse et mise en œuvre de solutions pour améliorer l’outillage utilisateurs, optimiser les performances et la résilience du Duster -Etude d’impact et réalisation opérationnelle des montées de version Cloudera et outils Hadoop, -Prise en compte de l’écosystème : ordonnanceur IWS, sauvegarde HDPS, supervision Prometheurs/Grafana Expertise Hadoop de niveau 3 : -Configuration du Cluster Cloudera en fonction des besoins identifiés -Optimisation des traitements Support : -Accompagnement des équipes de développement -Assistance auprès des équipes : optimisation des traitements, Prise en main de l’outillage mis à disposition, chargement des données -Transmission de savoir-faire via la rédaction de documentations et transfert de connaissances Savoir être : -Coordination et pilotage des chantiers en collaboration avec les différents services DSI -Autonomie pour la prise en charge des sujets et travail en équipe -Capacité à s’adopter en fonction des différents interlocuteurs

Freelance
CDI

Offre d'emploi
ingénieur DevOps cloud expérimenté Google Cloud Platform et Azure

FREELANCE VISION
Publiée le
Azure
Bash
DevOps

12 mois
30k-200k €
Paris, France

Dans le cadre du développement vers le cloud public de notre client, nous sommes à la recherche d'un ingénieur cloud expérimenté sur Google Cloud Platform et Azure. Le but de cette mission sera d'implémenter, sur la base de scripts terraform, les architectures techniques définies par nos architectes, participer à la gestion du catalogue de service et suivre le backlog des tickets affectés au centre d'excellence cloud. La mission s'oriente autour de 3 axes : Suivi des tickets Gestion du catalogue de service Création/maintenance de modules terraform / pipeline CI/CD dans le cadre de nos déploiements "Infrastructure as Code" ou du déploiement d'applications Le premier use-case défini est la mise en place automatisée du provisionning de VM dans le Cloud au sein de notre Catalogue de Services BUILD Pilote les demandes et la réalisation sur le périmètre technique Propose des évolutions sur les outils Gestion du backlog interne qui recense les évolutions à venir Promotion/explication/accompagnement sur les différents services du catalogue vis-à-vis des différents interlocuteurs de la DSI Accompagnement des projets (chefs de projets, développeurs, partenaires etc.) sur l'utilisation des modules existants ou la définition du besoin pour la modification/création de nouveaux modules RUN Collabore au point production quotidien Assurer un suivi quotidien des incidents, tâches et changes affectés au centre d'excellence (suivi, affectation, réalisation, mise à jour du statut quotidien, routage etc.) Réaliser un reporting hebdomadaire de l'activité Travaille avec les équipes Architectures et opérateurs de services managés pour mettre en œuvre les mises à jour, les correctifs ou le dépannage nécessaires à la résolution des problèmes sur la chaine CI/CD Participe à l'analyse et à la résolution des incidents et des problèmes du périmètre technique Déploiement d'infrastructures sur GCP et Azure sur la base des architectures définies par nos équipes Scripting terraform pour le déploiement ou la mise à jour des plateformes Intégration des scripts de déploiement de l'infra as code dans notre Gitlab CI Documentation (Low Level Design) des plateformes déployées Mise à jour des tickets (incidents, tâches et changes) Objectifs de la mission et tâches Mettre en place les bonnes pratiques d’exploitation avec notre opérateur de Service managés Apporter l’expertise sur les outils d’exploitation (CI/CD, Terraform, Monitoring, …) Plateformes déployées et opérationnelles Production de la documentation d'implémentation et d'exploitation Automatiser partout ou c’est possible

CDI

Offre d'emploi
Data Engineer H/F

AMD Blue
Publiée le
Apache Hive
Big Data
Cloudera

56k-66k €
Auvergne-Rhône-Alpes, France

Notre client recherche un Développeur Big Data senior pour l’accompagner dans l'organisation et la mise en œuvre d'une solution Cloudera au sein de son dispositif technique. L'équipe est actuellement composée de 3 personnes pour le POC, qui devrait être terminé fin septembre, mais il y a des retards techniques : La possibilité de faire des mises à jour par rapport à Teradata Hadoop est plus permissif Trouver une solution de requêtage facile pour les statisticiens Descriptif de la mission : Rattaché au responsable Fabrication Décisionnel & Big Data, vous aurez pour principales missions : Concevoir techniquement les traitements dans le respect de l'architecture mise en place des exigences du client. Codifier les traitements des applications et rédiger la documentation technique dans le respect des normes de développement et des processus établis à notre client. Prendre en charge les maintenances correctives (modification d'une application existante pour corriger des erreurs techniques ou fonctionnelles) Réaliser les tests unitaires pour chaque composant : nouvelle fonctionnalité et non-régression, dans le cas de la maintenance ; Réaliser les tests d'assemblage des composants décrivant une fonction applicative : nouvelle fonctionnalité et non-régression, dans le cas de la maintenance ; premier niveau de vérification des performances et de l'exploitabilité. Transformation du SI BI : Passage de Datastage / Cognos à Hadoop / Power BI.

Freelance

Mission freelance
Architecte BIG DATA / HADOOP Confirmé H/F

Reactis
Publiée le
Big Data
Cloudera
Hadoop

2 ans
650-700 €
Paris, France

Vous rejoignez le service en charge d’accompagner les équipes dans la définition d'architectures Techniques, de concevoir les modèles de données, d’administrer les bases et les moteurs de bases de données et construire les socles SGBD, décisionnel et Bigdata. Vous interviendrez sur l'architecture en environnement Hadoop / Big data de technologie Cloudera et vous mettrez en œuvre des compétences en développement autour des langages propres au domaine BigData, tels que Python, Saprk, Hive, impala Une première plate-forme Big Data s’appuyant sur la technologie Hadoop a été mise en place pour répondre à des cas d’usage non couverts par le Système Décisionnel initial et nécessitant plus d’agilité pour explorer, croiser les données et manipuler de gros volumes de données. Le SI « BigData / Hadoop » a pour objectif de centraliser différentes sources de données hétérogènes sur un même socle technique pour manipuler de gros volumes de données, permettre de réaliser du requêtage croisé entre différentes sources de données hétérogènes et fonctionnellement pouvoir répondre à différents cas d’usages. Vos principales missions sont notamment : - Pilotage et mise en oeuvre opérationnelle des travaux de fiabilisation des socles Hadoop pour répondre aux exigences de performances attendues par les cas d'usages fonctionnels. - Evolution des architectures techniques : Mise en place des principes directeurs sur l’utilisation du cluster Cloudera ; Vérification de la bonne application des normes et des standards ; Force de proposition, étude, analyse et mise en œuvre de solutions pour améliorer : l'outillage utilisateurs, optimiser les performances et la résilience du cluster ; Etude d'impact et réalisation opérationnelle des montées de version Cloudera et outils Hadoop ; Prise en compte de l'écosystème DSI client : ordonnanceur IWS, sauvegarde HDPS, supervision Prometheus / Grafana, ... ; - Expertise Hadoop de niveau 3 : Configuration du cluster Cloudera en fonction des besoins identifiés ; Optimisation des traitements ; - Support : Accompagnement des équipes de développement ; Assistance auprès des équipes : Optimisation des traitements, Prise en main de l’outillage mis à disposition, Chargement des données ; - Transmission du savoir-faire via la rédaction de documentations et transfert de connaissances.

Freelance
CDI
CDD

Offre d'emploi
DBA SQL Server et MSBI

LOMEGARD
Publiée le
API
Microsoft Analysis Services (SSAS)
Microsoft Power BI

1 an
10k-100k €
Île-de-France, France

Assurer l'évolution et la gestion de l'obsolescence des infrastructures SQL Server et MSBI Administrer et faire évoluer l’offre IaaS/DBaaS on premise, incluant MS SQL Engine, SSIS, SSAS, SSRS et PowerBI RS Participer à l'automatisation et à la fiabilisation des processus, notamment via l’utilisation d’API et de déploiement DSC/AWX Contribuer au développement et à la maintenance de l'outil interne d’inventaire des bases de données Réaliser des présentations techniques Assurer le support technique de niveau 3 pour les équipes de RUN basées à l'étranger (maîtrise de l'anglais est donc essentielle) Rédiger des dossiers techniques, des avis, ainsi que des feuilles de route pour les chefs de projet et les équipes opérationnelles. La mission pourra inclure des astreintes et des opérations ponctuelles en HNO

434 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous