Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 871 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

CDI

Offre d'emploi
Data Analyst (H/F)

Amiltone
Publiée le
analyst
Big Data
h-f

40k-45k €
Orange Lyon Lumière, Auvergne-Rhône-Alpes

Les missions d'un Amiltonien : En tant que Data Analyst (H/F), vous serez en charge des missions suivantes : - Cadrer et challenger les besoins de nos métiers - Elaborer la stratégie, analyser, concevoir et développer les traitements de données - Optimiser les flux existants - Contrôler la qualité des données - Analyser les incidents de production et apporter des solutions La stack technique : - Technologies : ETL ODI / Sql et PL SQL (Oracle) - Référentiels : JIRA / Service Now - Maitrise Data Visualisation (Power BI)

CDI

Offre d'emploi
Data Engineer (H/F)

Amiltone
Publiée le
Big Data
engineer
h-f

35k-40k €
Lille, Hauts-de-France

Vos missions ? Intégré à nos équipes sur nos projets en Factory ou chez nos clients vous interviendrez en tant que data Engineer. En tant que data Engineer (H/F), vous assurez les missions suivantes : Conception de solutions permettant le traitement de volumes importants de pipelines données. Ceux-ci doivent être suffisamment sécurisés et lisibles pour les Data Analysts et Data Scientists. Animation d'une équipe de professionnels de la Data sur toutes les étapes du traitement de la donnée. Mise à jour permanente sur les technologies et langages utilisés dans le but de partager ses connaissances et aider à l'avancement du projet.

CDI

Offre d'emploi
Data Engineer (H/F)

Amiltone
Publiée le
Big Data
engineer
h-f

35k-40k €
Dijon, Bourgogne-Franche-Comté

Les missions d'un Amiltonien : En tant que Data Engineer (H/F), vous serez en charge des missions suivantes : - Concevoir et développer les futures fonctionnalités de la plateforme Big Data sous Azure. - Concevoir les flux d'alimentation et les tables (structure de donnée). - Automatiser et industrialiser les flux. - Assurer le run applicatif, le cas échéant. La stack technique : o Maîtrise des langages suivants : Azure, Python, GitFlow, Scala, ElasticSearch Le profil d'un Amiltonien : Diplômé Bac+4/5 (Ecole d'ingénieur/Master), vous disposez de minimum 4 années d'expérience dans le développement de data. Toujours sur le qui-vive des nouveautés technologiques, vous êtes force de proposition sur des technos, des outils ou des process qui permettent d'améliorer la qualité du code et la stabilité de nos applications. Outre vos compétences techniques, nous nous intéressons également à votre potentiel et votre motivation. Nos postes sont ouverts aux personnes en situation de handicap.

Freelance

Mission freelance
INGENIEUR DATA BI - CLOUD AZURE

PROPULSE IT
Publiée le
Azure
BI
Big Data

24 mois
200-400 €
Paris, France

Pour l'un de nos clients, nous recherchons un(e) Ingénieur DATA BI & Cloud Azure pour renforcer leurs équipes IT. Votre poste et vos missions Membre de l'équipe IT & Digital, vous intervenez au cœur des différents projets de développement du Groupe sur un périmètre international. Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Mise en place d'une vraie démarche data-driven au niveau technique - Apporter votre expertise technique et vos idées lors de la mise en place de projets concernant les développement données / BI - Force de proposition sur des nouvelles architectures et solutions d'intégration des données - Connaissances des principes big data et IoT - Connaissances avancées en datawarehouse et modèles de gouvernance des données - Connaissances des API Data pour le temps réel

CDI
Freelance

Offre d'emploi
Data Engineer Python H/F

Proelan
Publiée le
Big Data
engineer
h-f

24 mois
45k-50k €
Valbonne, Provence-Alpes-Côte d'Azur

Proelan recrute pour un de ses clients basés à Sophia Antipolis, un(e) Data Engineer Pyhton. Dans le cadre de la modernisation du Système d'Information et des projets centrés sur la data et le décisionnel du client, tu seras rattaché(e) à un Chef de Projet au sein d'une équipe collaborative et engagée. Tes principales missions seront : - Concevoir et améliorer des scripts pour le traitement et la transformation des données - Automatiser les processus de traitement et de supervision des données - Développer en respectant les standards de qualité et de performance - Contribuer à la validation des livrables et à leur ajustement si nécessaire - Participer activement aux rituels et aux pratiques agiles (Scrum/SAFe) - Rédiger et maintenir la documentation logicielle associée aux projets - Assurer le maintien en condition opérationnelle des applications - Garantir le respect des Politiques de Sécurité du SI et des exigences RGPD. Ta stack technique : - Python orienté Data, PySpark, SQL - Git, Jenkins, Sonar - Expérience en méthodologies agiles, notamment Scrum et SAFe - Connaissances en ETL, en particulier Semarchy xDI, appréciées - Expertise en optimisation des performances des systèmes de données souhaitée.

Freelance

Mission freelance
Data engineer

SILKHOM
Publiée le
Big Data
Snowflake
Talend

3 mois
100-550 €
Lyon, Auvergne-Rhône-Alpes

Notre client, est un acteur majeur dans le domaine de l'éducation supérieure et de la recherche, avec une forte spécialisation en gestion et en management. Son histoire et sa réputation lui permettent de se distinguer par une approche innovante et tournée vers l'avenir, notamment en matière de transformation numérique et de gestion de la donnée. Dans ce cadre, notre client un Architecte DATA visant à optimiser les infrastructures de gestion et d'analyse des données pour soutenir son évolution technologique et assurer une prise de décision basée sur des données fiables et précises. Directement rattaché à la direction générale, vous intégrerez un data office constitué de deux pôles, digital et métier, représentant une équipe d’une dizaine de personnes.

Freelance

Mission freelance
Chef de projet CRM / Data

TEOLIA CONSULTING
Publiée le
Big Data
Gestion de projet

8 mois
100-700 €
Paris, France

Nous recherchons pour l'un de nos clients (dans le secteur de la distribution d'alcool) un Chef de Projet spécialisé en cadrage et pilotage de projet Data ayant un bagage solide dans l ’intégration systèmes . Missions : piloter la migration de l'ancien ERP vers le nouvel ERP + reconstruction de la plateforme data. TMA sur la plateforme digital client (CRM/ PIM DAM) Réalisations : Comprendre les métiers et leurs besoins (fonctionnel data) Spécification des échanges de données fonctionnels, API, gestion de projet en intégration systèmes, Formalisation et tenue du planning, Suivi des livrables et Coordination efficace des intégrateurs pour reconnecter l'ERP à tous les systèmes de notre plate-forme clients (CRM, Pim-DAM, extranet client, eshops..) et la nouvelle Plateforme Data qui sert aussi d’API management, Animation des ateliers métiers; aide aux arbitrages fonctionnels et techniques; aide à la rédaction et validation des spécifications par l’intégrateur. Réalisation de la documentation interne DSI : process et modèle métier, les flux data cible et les schémas d’architecture fonctionnels SI Définition de la stratégie de tests, du cahier et des jeux de données de tests, et animation de la réalisation des tests pour garantir le bon fonctionnement à la mise en production. Accompagner la conduite du changement, et la montée en compétences des utilisateurs (animer formations, manuels, forums,..)

Freelance

Mission freelance
Architecte BIG DATA / HADOOP Confirmé H/F

Reactis
Publiée le
Big Data
Cloudera
Hadoop

2 ans
650-700 €
Bordeaux, Nouvelle-Aquitaine

Vous rejoignez le service en charge d’accompagner les équipes dans la définition d'architectures Techniques, de concevoir les modèles de données, d’administrer les bases et les moteurs de bases de données et construire les socles SGBD, décisionnel et Bigdata. Vous interviendrez sur l'architecture en environnement Hadoop / Big data de technologie Cloudera et vous mettrez en œuvre des compétences en développement autour des langages propres au domaine BigData, tels que Python, Saprk, Hive, impala Une première plate-forme Big Data s’appuyant sur la technologie Hadoop a été mise en place pour répondre à des cas d’usage non couverts par le Système Décisionnel initial et nécessitant plus d’agilité pour explorer, croiser les données et manipuler de gros volumes de données. Le SI « BigData / Hadoop » a pour objectif de centraliser différentes sources de données hétérogènes sur un même socle technique pour manipuler de gros volumes de données, permettre de réaliser du requêtage croisé entre différentes sources de données hétérogènes et fonctionnellement pouvoir répondre à différents cas d’usages. Vos principales missions sont notamment : - Pilotage et mise en oeuvre opérationnelle des travaux de fiabilisation des socles Hadoop pour répondre aux exigences de performances attendues par les cas d'usages fonctionnels. - Evolution des architectures techniques : Mise en place des principes directeurs sur l’utilisation du cluster Cloudera ; Vérification de la bonne application des normes et des standards ; Force de proposition, étude, analyse et mise en œuvre de solutions pour améliorer : l'outillage utilisateurs, optimiser les performances et la résilience du cluster ; Etude d'impact et réalisation opérationnelle des montées de version Cloudera et outils Hadoop ; Prise en compte de l'écosystème DSI client : ordonnanceur IWS, sauvegarde HDPS, supervision Prometheus / Grafana, ... ; - Expertise Hadoop de niveau 3 : Configuration du cluster Cloudera en fonction des besoins identifiés ; Optimisation des traitements ; - Support : Accompagnement des équipes de développement ; Assistance auprès des équipes : Optimisation des traitements, Prise en main de l’outillage mis à disposition, Chargement des données ; - Transmission du savoir-faire via la rédaction de documentations et transfert de connaissances.

Freelance
CDI

Offre d'emploi
Expert dynatrace

VISIAN
Publiée le
Big Data
Infrastructure

1 an
10k-43k €
Rueil-Malmaison, Île-de-France

Dans le cadre de la mission votre objectifs sera de réaliser un déploiement massif de monitoring sur un périmètre applicatif et technique Organiser la migration Réaliser la migration Etre moteur pour embarquer les équipes sur cette nouvelle plateforme Troubleshooting et Apport de solution en cas d'incident Organiser la migration Réaliser la migration Etre moteur pour embarquer les équipes sur cette nouvelle plateforme Troubleshooting et Apport de solution en cas d'incident Organiser la migration Réaliser la migration Etre moteur pour embarquer les équipes sur cette nouvelle plateforme Troubleshooting et Apport de solution en cas d'incident

Offre premium
Freelance

Mission freelance
Architecte Cloud Data h/f à Lille

ITS GROUP
Publiée le
AWS Cloud
Azure Data Factory

12 mois
500-550 €
Lille, Hauts-de-France

Expertise permettant de couvrir les besoins en expertises d’Ingénierie Cloud sur les sujets et produits liés aux données : administration bases de données, expertise data, architecture cloud data, etc. Automatisation et réalisation de modules Terraform pour le provisionnement Expertise et accompagnement projet (DSM ou DSI) sur un périmètre de PaaS comme : poc, architecture, aide à l’utilisation, paramétrage spécifique, optimisation, etc. Proposer une vision bout-en-bout et end-user sur un périmètre PaaS Définir et mettre en œuvre des meilleures pratiques associées à l’optimisation de la consommation des services PaaS – FinOps et GreenIT. Assurer une veille technologique constante : étude d’opportunité, analyse des nouveaux modèles d'utilisation pour faire évoluer les services existants, proposer de nouveaux produits et fonctionnalités. Assurer le BUILD et le RUN d’un périmètre PaaS.

Freelance

Mission freelance
Data et ML Ops - secteur bancaire CIB - 7 - 10 ans d'expérience

Archytas Conseil
Publiée le
AWS Cloud
Azure
CI/CD

12 mois
100-660 €
Île-de-France, France

L'entreprise cherche à renforcer ses équipes techniques dans le cadre de projets d'innovation en Intelligence Artificielle (IA) Générative et MLOps. L'objectif est de moderniser les systèmes d'information, particulièrement pour le département Capital Markets, en intégrant des solutions basées sur des modèles d'IA performants. L'équipe IT globale est responsable de la conception, du développement et de la production des infrastructures techniques. Un focus particulier est mis sur la mise en place de solutions MLOps pour améliorer l'efficacité et la scalabilité des processus d'apprentissage automatique. Les projets IA Générative et MLOps sont au cœur de la transformation numérique de l'entreprise. Ils visent à exploiter les données des marchés financiers pour fournir des solutions innovantes, et alignées avec les objectifs stratégiques de l'organisation. Conception, développement et optimisation de modèles IA, y compris des modèles d'IA Générative pour répondre à des problématiques spécifiques des marchés financiers. Mise en œuvre des meilleures pratiques MLOps (intégration continue/déploiement continu, automatisation des pipelines de données) via des outils tels que GitLab, Docker, Kubernetes, CI/CD. Sélection des modèles IA les plus adaptés pour répondre aux besoins métiers spécifiques, incluant le traitement des données des marchés financiers. Supervision de la scalabilité et de l'efficacité des modèles IA déployés, en assurant leur performance dans des environnements à grande échelle. Mise en place de processus de monitoring avancé pour suivre les performances des modèles et réagir rapidement aux anomalies. Documentation des solutions IA et MLOps et formation des équipes internes pour garantir une utilisation et une maintenance adéquates des systèmes. Collaboration avec les équipes métiers et IT pour comprendre les enjeux spécifiques et proposer des solutions techniques adaptées. Support des solutions mises en place pour garantir leur alignement avec les objectifs stratégiques de l'entreprise et des besoins métiers.

Freelance
CDI

Offre d'emploi
Bigdata Engineer Cloud

Digistrat consulting
Publiée le
Apache Kafka
Big Data

3 ans
40k-60k €
Paris, France

💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket

Freelance

Mission freelance
INGENIEUR DATA BI EXPERIMENTE

PROPULSE IT
Publiée le
BI
Big Data
ingenieur

24 mois
250-500 €
Paris, France

Nous recherchons un(e) ingénieur Data BI expérimenté Contexte Au sein d'une Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté, une expérience dans le secteur du e-commerce serait apprécié. La Data Factory de notre client joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Elle se concentre sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour les équipes. Description • Participe à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Rédaction des documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de la stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe Livrables Spécifications Techniques, Cahier de recette Technique, Document d'exploitation Reporting d'avancement des travaux Programme développés

Freelance

Mission freelance
Chef de projets Data Management & IA (H/F)

HAYS MEDIAS
Publiée le
Data science
Intelligence artificielle

4 mois
150-1 010 €
Levallois-Perret, Île-de-France

Objectifs du poste : En tant que Chef de Projet Données et Intelligence Artificielle, vous aurez pour mission de piloter et coordonner les projets liés à la valorisation des données et au déploiement de solutions d'IA au sein de la DSI. Vous serez en charge de transformer les besoins métiers en solutions techniques adaptées et de garantir la bonne intégration des solutions IA dans les processus de l'entreprise. Les missions principales : •Analyse des besoins métiers : oRecueillir et analyser les besoins des différents pôles (construction, énergie, promotion immobilière, ligne de services) en matière de gestion et d'exploitation des données ; oIdentifier les opportunités de création de valeur par la mise en oeuvre de solutions IA. •Conception et pilotage de projets : oÉlaborer des plans de projet, définir les étapes clés, les livrables, les budgets et les délais ; oAssurer la coordination des différents acteurs (internes et prestataires externes) ; oVeiller au respect des délais, du budget, et de la qualité des livrables ; oCadrer et déployer les premières briques de data gouvernance. •Gestion de la donnée : oContribuer à la mise en place de la gouvernance des données (qualité, sécurité, conformité RGPD) ; oStructurer et mettre en oeuvre des solutions de collecte, de stockage et d'analyse des données (Data Lake, Data Warehouse) ; oPromouvoir les bonnes pratiques en matière de gestion et de valorisation des données auprès des utilisateurs métiers. •Développement de solutions IA : oParticiper à la conception et à la modélisation de solutions IA adaptées aux enjeux de l'entreprise (prévision des besoins, optimisation de la chaîne logistique, maintenance prédictive, etc.) ; oCollaborer avec les data scientists pour le développement de modèles de machine learning, de deep learning, et de traitement automatique du langage ; oSuperviser les phases de test et de validation des modèles. •Accompagnement au changement : oAccompagner les équipes métiers dans la prise en main des nouvelles solutions ; oAnimer des formations et ateliers pour favoriser la compréhension et l’adoption des outils IA ; oAssurer la communication autour des projets pour valoriser les résultats et démontrer les gains obtenus.

Freelance

Mission freelance
Un Data Ingénieur ( Spark ,spark streaming, batch, Kafka, Java, Stack Hadoop Cloudera)sur Nantes

Smarteo
Publiée le
Apache Kafka
Apache Spark
Big Data

3 mois
100-400 €
Nantes, Pays de la Loire

Smarteo recherche pour l'un de ses clients, Un Data Ingénieur(Spark,spark streaming,batch, Kafka,Java,Stack Hadoop Cloudera)sur Nantes Descriptif: Notre client nous soumet une de mande de prestation de DATA ENGINEERING Taches réalisées : - Développer les cas d'usages Data - Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) - Mettre en ?ouvre les tests unitaires et automatisés - Déployer le produit dans les différents environnements - Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents - Accompagner l'évolution des pratiques de l'équipe dans une logique d'amélioration continue de la qualité du code Compétences techniques attendues : - Spark (spark streaming et batch), Kafka, Java - Stack Hadoop Cloudera - Hdfs, Hive, Hbase, Phoenix, MongoDB - DEVOPS : GIT, Jenkins, Artifactory, XL Release, ELK, Grafana - Scrum (cadre agile entreprise) La mission nécessite de l'autonomie, de l'adaptabilité et une bonne communication (lien direct avec les Squads : PO ou DEV), Si vous êtes disponible et intéressé, merci de me faire parvenir votre TJM ainsi que votre CV à jours en format word.

Freelance

Mission freelance
Développeur Data Innovation (Fullstack) Python / SQL

Onetribe SAS
Publiée le
AWS Cloud
Big Data
Python

3 ans
100-530 €
Paris, France

Recherche d’un prestataire Développeur Fullstack pour rejoindre une équipe d'innovation. Le prestataire sera rattaché au responsable de l’Innovation au sein de la direction Stratégie Digitale et Innovation (de la DSI). De la conception au développement/déploiement, le prestataire sera le référent technologique sur les projets Innovation dont il aura la charge. Il garantira leur faisabilité, les développera et assurera leur industrialisation et leur intégration avec les systèmes d’information et les équipes de la DSI. • Contribuer aux phases d’idéation et de définition de nouveaux concepts innovants, notamment en évaluant leur faisabilité technique. • Développer des Proofs of Concept (POC) et des prototypes pour matérialiser ces concepts et les tester auprès d’utilisateurs finaux. • Prendre une part active aux choix techniques et technologiques des projets innovation de son portefeuille. • Évaluer les solutions technologiques proposées par des acteurs externes (startups, ...) qui permettraient de réaliser les projets en Open Innovation. • Veiller à ce que les prototypes et projets réalisés puissent être transmis à d’autres équipes de la DSI et industrialisés avec un effort minimum. • S’assurer que les projets innovation respectent les bonnes pratiques technologiques et de sécurité de l’environnement SI • Effectuer les ateliers de passation vers d’autres équipes, réaliser le support le cas échéant. • Effectuer une veille sur les nouvelles technologies et solutions logicielles pertinentes dans le cadre des priorités du Lab. • Participer à la définition et à l’amélioration des processus du Lab.

871 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous