Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 241 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

CDI

Offre d'emploi
Customer Success Manager F/H

XELIANS
Publiée le
Data mining
Microsoft Access
Microsoft Excel

40k-50k €
Villeneuve-la-Garenne, Île-de-France

Envie d’évoluer dans un environnement technique riche ? Envie d’allier la technique au relationnel ? Sens du service et satisfaction client te définissent ? Si tu réponds OUI à ces 3 questions, c’est que tu es fait(e) pour nous rejoindre ! Ta mission , si tu l’acceptes, sera d’intégrer la Direction des Opérations d’Archivage Electronique afin de développer l’usage de nos solutions d’archivage électronique et d’être le garant de la satisfaction client. Ton quotidien sera rythmé par : L’accompagnement des clients et notamment grands comptes en développant les usages La mise en place du reporting de ton activité avec la réalisation d’un plan d’action et le suivi de ses indicateurs de performance (KPI) L’animation des comités de suivis des prestations prévus dans les contrats La fidélisation de l’ensemble de la base client en veillant à leur satisfaction sur les services & produits vendus tout en s’assurant qu’il n’y ait pas de réclamations Le suivi de la mise en œuvre des actions vendues au client en coordonnant les équipes Xelians (administration fonctionnelle, chefs de projets BUILD, DSI, commerce…) La stimulation de la vente de nouveaux services/modules/fonctionnalités (up-selling) et nouveaux produits (cross-selling) pour augmenter la satisfaction client La remontée aux CPO des besoins de nouvelles fonctionnalités La collaboration avec le Responsable Support et Data dans la structuration de l’activité de supervision du RUN

Freelance

Mission freelance
Data Engineer

INSYCO
Publiée le
Gitlab
GitLab CI
Google Cloud Platform

15 mois
450-600 €
Paris, France

Nous recherchons pour notre client grand compte, secteur médias, un Data Engineer répondant au besoin ci-dessous. Nous étudions uniquement les candidatures qui nous sont adressées par MAIL [à freelance à insyco . fr] avec les informations suivantes : - Argumentaire écrit répondant de façon ciblée au besoin - CV à jour (format Word) - Date de prochaine disponibilité - Tarif journalier - Merci d’indiquer la référence VSE/DATA/4525 en objet du mail La Direction Technique du Numérique de notre client mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction Data a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l’expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d’aide à la décision. Avec pour objectif d’accélérer dans le déploiement de la Gouvernance des données au sein de notre plateforme Data, nous souhaitons constituer une nouvelle équipe en charge de déployer les différents datasets organisés par domaine de données. Cette équipe est composée d’un product owner, d’un data steward et d’un data ingénieur. Notre stack technique est principalement constituée de Python, Spark, SQL, dbt, BigQuery et Airflow pour l’orchestration des traitements. La stack inclut aussi d’autres services de la Google Cloud Platform. Missions de cette équipe : 1- Déployer les datasets normés sur un ou plusieurs des data domain suivants : Utilisateurs, Comportements et Référentiels 2- Accompagner les utilisateurs dans leurs usages 3- Mettre en place le contrôle qualité sur ces datasets Prestation attendue pour les 2 lots En interaction avec les membres de l’équipe, la prestation consistera à - Construire et maintenir de pipelines data robustes et scalables - Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données - Organiser et structurer le stockage des données - Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données - Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité des données - Construire et maintenir les workflows de la CI/CD centrés données - Collaborer avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur - Participer à la guilde des data ingénieurs - Assurer l’évolutivité, la sécurité, la stabilité des environnements - Contribuer et veiller à la mise à jour de la documentation - Faire de la veille technologique active dans le domaine - Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe

Freelance

Mission freelance
Ingénieur DevOps / BIG DATA

Management Square
Publiée le
Apache Hive
Apache Kafka
Apache Spark

2 ans
100-480 €
Paris, France

Nous recherchons un ingénieur data et intégration pour une mission basée à Paris, France. Le profil recherché doit être orienté data ingénieur avec des compétences réparties de manière à ce que la moitié de ses compétences concerne la data et l'autre moitié concerne les aspects intégration/exploitation/puppet. Maintien en condition opérationnelle de l’environnement BIG DATA d'une application Administration de l’environnement DATA Gestion des mises à jour et évolutions d’architecture applicative Assurer une continuité des activités liées au périmètre en palliant l'absence du data ingénieur déjà en place

Freelance

Mission freelance
Développeur Back-End Java (Big Data) - Toulouse (H/F)

LeHibou
Publiée le
Big Data
BigQuery
DevOps

6 mois
320-420 €
Toulouse, Occitanie

Dans le cadre du développement de ses activités, notre client va rechercher un freelance expérimenté sur la partie Back-end dans un environnement Big Data. Vous participerez à la réalisation et à la maintenance de nos différentes applications commercialisées en mode SaaS, et à nos applications mobiles à destination de nos clients. Vous travaillerez selon la méthodologie Agile (ShapeUp) et avec un état d’esprit DevOps. Vos activités seront les suivantes : Concevoir et développer de nouveaux modules ou fonctionnalités pour notre logiciel, en utilisant Java et les dernières technologies Back-End. Vous serez en charge de concevoir et développer des solutions de traitement de données en mode batch et en temps réel (streaming). Vous contribuerez à la collecte, à l’agrégation et à l’analyse de données critiques, permettant ainsi d’extraire des informations précieuses pour notre solution logicielle. Vous jouerez un rôle essentiel dans la compilation et l’analyse de données complexes . Vous assurerez également la maintenance de la solution actuelle en production, offrant un support technique à plus de 60 clients à travers le monde. Examiner et évaluer les processus et le code existants pour proposer des solutions d’optimisation et garantir une meilleure efficacité opérationnelle. Poste disponible à Toulouse 3 jours de présentiel sur site Anglais courant / écrit est obligatoire

CDI

Offre d'emploi
Technicien Telecom Datacenter

OBJECTWARE MANAGEMENT GROUP
Publiée le
Data Center

29k-30k €
Île-de-France, France

Réalisation des gestes de Proximité Telecom en Datacenter avec déplacements possibles inter -DCs. Réaliser du cablage LAN (étude, réalisation, validation) Réaliser du cablage SAN (étude, réalisation, validation) Réaliser testing liens fibre, cuivre : photométrie, réflectométrie lire et comprendre un plan de frettage comprendre les plans d'urbanisation réseau d'un DC Connaitre les différentes technologies FO Savoir configurer des cartes type IDRAC,ILO ... Réalisation des gestes de Proximité Telecom en Datacenter

Freelance

Mission freelance
Développeur Data

COEXYA
Publiée le
API REST
Azure Data Factory
Databricks

1 an
100-560 €
Clermont-Ferrand, Auvergne-Rhône-Alpes

MISSIONS: Développer et maintenir des pipelines de données avec Azure Data Factory. Créer et gérer des rapports et tableaux de bord avec Power BI. Concevoir et optimiser des bases de données SQL. Travailler avec Databricks pour le traitement et l’analyse des données. Développer des scripts en Python pour automatiser les processus de données. Gérer et intégrer des API REST. Utiliser les services SSIS de SQL pour les processus ETL. COMPETENCES: Expérience avec les technologies Azure Data (Data Factory, Power BI, SQL, Databricks). Compétences en développement Python. Connaissance des API REST. Expérience avec les services SSIS de SQL.

CDI
Freelance

Offre d'emploi
Data Engineer AZURE Databricks, Datafactory, Scala et SQL.

4 Impact
Publiée le
Azure Data Factory
Azure DevOps Server
Databricks

12 mois
48k-60k €
Hauts-de-Seine, France

Expérience dans le secteur du média souhaitée. Notre client recherche un Data Engineer AZURE Databricks, Datafactory, Scala et SQL H/F. Contexte client : Le Pôle Data est responsable de la gestion des projets et des outils I.T. de la régie publicitaire d’un grand groupe média. Pour accompagner la refonte du système d'information dédié aux audiences et l'impact des projets transactionnels sur notre produit Tech Datahub, notre client recherche un(e) Data Engineer. Le système d'information audiences intègre, enrichit et expose les données d'audience aux différents consommateurs internes et partenaires externes. Notre client a lancé un programme de refonte et de modernisation de ce système et des divers outils métiers internes afin d'assurer la fiabilité des données et d'améliorer l'expérience des utilisateurs métiers. Dans ce cadre, notre client souhaite renforcer son équipe de développement avec une approche axée sur la donnée. Mission : Au quotidien, vous serez chargé(e) de la conception et du développement de nouvelles pipelines de donnée s en étroite collaboration avec les autres membres de l'équipe. Vous serez, avec l'équipe Tech, garant(e) de la bonne réalisation et maintenance des différents outils du système d'information . Vous travaillerez également en collaboration avec les autres équipes du Pôle pour garantir la bonne exécution des développements Datahub nécessaires aux projets transverses de la régie. Vous êtes familier(ère) avec le développement en environnement Agile, notamment selon la méthode Scrum, et vous accordez une grande importance à l'esprit d'équipe.

Freelance

Mission freelance
Data Analyste GCP / SQL / Big Query / Expertise métier en grande distribution

HIGHTEAM
Publiée le
BigQuery
Data visualisation
Google Cloud Platform

3 ans
500-550 €
Île-de-France, France

Une offre de solutions de data analyse et de collaboration destinée à nos partenaires industriels ainsi qu’aux directions internes , à l’échelle internationale ainsi qu’à l’échelle nationale dans chaque pays, L’ambition de cette plateforme est de permettre une collaboration forte et transparente sur toute la chaîne de valeur. Description du poste Ce poste est rattaché à la Directrice Data Links. Au sein d'une équipe composée de data analystes intégrée aux rituels Product, vous participez à l'évolution fonctionnelle et technique de nos produits data en environnement Agile. Vous aurez l’opportunité de collaborer avec l’ensemble des équipes product, tech et métiers autour des missions suivantes : Explorer et analyser les données du Data Lake du groupe ; Participer au cadrage des nouvelles fonctionnalités ; Organiser des master-class pour partager ses connaissances métiers à son équipe Designer les nouveaux Dashboard de nos produits insights (chemins d’analyse, KPIs, représentation graphique, etc) ; Ecrire les spécifications des nouvelles fonctionnalités ; Réaliser les tests post développement, puis automatiser les recettes ; Être force de proposition pour améliorer les solutions développées et identifier des opportunités de nouvelles analyses, pour répondre aux besoins de nos utilisateurs Notre stack data : GCP, BigQuery, Looker Studio

Freelance

Mission freelance
Ingénieur Système et Data Center - H/F

Zenith Rh
Publiée le
Active Directory
Azure
Data Center

6 mois
300-600 €
La Défense, Île-de-France

Vos missions et activités principales : • Gestion des serveurs de fichiers : administration, maintenance et optimisation. • Gestion de l'environnement Windows : administration des systèmes Windows, Scripting (PowerShell), clustering, Patching et gestion des incidents. • Gestion du logiciel d'impression HP Advance : configuration, maintenance et support. • Administration du Data Center (DC) : supervision, gestion des équipements et optimisation de l'infrastructure. • Gestion de l'ordonnanceur OpCon : configuration, surveillance et optimisation des flux de travail automatisés. • Capacity Planning et gestion des licences : planification des capacités nécessaires pour les infrastructures • Gestion des licences : suivi des licences sur le périmètre attribué et participation aux exercices de True-Up. • MCO (Maintien en Conditions Opérationnelles) : assurer la disponibilité, la sécurité et les performances des systèmes. • Architecture : participation à la conception et à l'évolution de l'infrastructure IT. • Gestion et analyse des incidents : prise en charge des problèmes techniques de niveau 2 et 3, analyse des causes racines, proposition de solutions pérennes et suivi de leur mise en œuvre. • Gestion des changements et des CI : pour assurer la traçabilité et la gestion du cycle de vie des actifs IT. • Rédaction de documentation : formalisation et mise à jour des documents techniques liés aux services de son domaine, aux plans de reprise d’activité (PRA), etc. • Veille technologique : assurer une veille continue sur les nouvelles technologies et tendances afin de proposer des améliorations. • Participation aux projets d’évolution et projets transverses : implication dans des projets d’infrastructure en collaboration avec les équipes virtualisation et réseaux, ainsi que d'autres départements. • Piloter des projets dans le cadre de migrations ou de déploiement des infrastructures Former un binôme avec l’ingénieur Virtualisation, stockage et sauvegarde

Freelance

Mission freelance
Développeur Big Data

CAT-AMANIA
Publiée le
Apache Kafka
Big Data
Scala

36 mois
430-480 €
Île-de-France, France

Dans le cadre de notre développement, nous recherchons pour un client grand compte un développeur Big Data. Les missions seront les suivantes : Mettre en production des modèles statistiques Acheminer et mettre à disposition les données pour les équipes Suivre les projets de développement Développer des jobs Spark pour le traitement des données Gérer l’ingestion de divers formats de données Concevoir et implémenter des scripts pour la collecte, le traitement et le mapping des données Développer des moyens de restitution comme des fichiers, API et tableaux de bord Concevoir des pipelines pour l'ingestion de données en streaming et en batch, ainsi que des jobs Spark pour le prétraitement et le calcul des indicateurs de performance (KPI) Développer des API pour l'ingestion et le traitement des données dans un environnement Hadoop Participer à la conception et à l'administration de solutions Big Data Installer et configurer des clusters Hadoop Développer des services en Spring Boot pour extraire des données de systèmes existants et les envoyer au Datalake via Kafka Normaliser et agréger les données pour produire des rapports de type Business View

Freelance
CDI

Offre d'emploi
Data engineer (H/F)

ALLEGIS GROUP
Publiée le
Azure
Big Data

12 mois
13k-200k €
Hauts-de-Seine, France

Teksystems recherche un(e) Data engineer (H/F) En tant que Data Engineer, votre rôle principal dans l'organisation est de construire et de mettre en place des solutions de données. En tant que membre d'une équipe de données, vous suivrez les directives et les pratiques en matière d'architecture et de sécurité informatiques, et serez responsable de la création de flux de données et de processus dédiés pour : Ingérez des données dans la plateforme de données de l'entreprise Améliorez la qualité des données en suivant les principes de gouvernance des données Assurer le respect de la loi sur la protection des données Automatiser les calculs de données (à des fins de Business Intelligence et de Machine learning) Système opérationnel de flux utilisé par les utilisateurs finaux (Marketing, CRM, solutions commerciales) En tant que spécialiste data, vous mettrez en œuvre des jobs data rentables et industrialisés sur une infrastructure hybride (on-premise / cloud) mélangeant plusieurs technologies : API Rest, bases de données SQL & NoSQL, batch, et fichiers... avec différentes latences (du lot au temps réel). En tant que membre de la communauté mondiale des données, vous devrez participer activement à des projets mondiaux impliquant votre pays : conception et évolution de plateformes de données mondiales, processus de remontée des données des filiales, réunions de suivi et de coordination des fonctionnalités de l'équipe agile, et stand-up.

CDI

Offre d'emploi
Architecte Data & Solution

Inventiv IT
Publiée le
Amazon Elastic Compute Cloud (EC2)
Amazon S3
AWS Cloud

95k-119k €
Paris, France

🎯 Inventifs Wanted En tant qu' Architecte Data chez Inventiv IT , vous êtes au premier plan de la transformation digitale. Vous êtes un leader doté d'une expertise en architecture des données, en chiffrage et en cadrage de projets Big Data, et méthodologies Agile. Travaillant sur plusieurs projets Plateform Data (orienté Architecture & Ingénierie de données) Cadrage et chiffrage des divers projets Big Data au sein de la galaxie. Définition des solutions d’architecture Big Data dans le Cloud Azure & AWS répondant aux besoins et exigences du client et aux bonnes pratiques des standards attendus. Garantir la cohérence technique et la pérennité du système d’information. Participation à la définition et à l'amélioration du Socle Big Data : Architectures types, stacks techniques, outils, règles de gouvernance et best practices. Mise en place de l'architecture des projets Big Data sur le Cloud Azure & AWS, en rédigeant des Dossiers d’Architecture Logiciels (DAL) et en validant des Dossiers d’Architecture Technique (DAT). Migration des projets dans des nouvelles architectures (HDI vers AKS, Datalake Gen1 ver Gen2, AKS 1.19 vers AKS 1.) et concevoir de nouvelles solutions avec un monitoring de PaaS et une synchronisation des données de Prod et Hprod. Participation à des instances de : Design Authority, CoArch avec les Architectes Techniques, CAO (Comité d'Architecture Opérationnel), Validation de l'architecture du Product Incrément, à des réunions de qualification / validation avec le RSSI et au suivi de chantiers de résilience et de suivi FinOps. Architecture & Ingénierie Databricks Maîtrise de Spark / Scala Arsenal Technologique : Votre maîtrise de Microsoft, Databricks, Datadog, Dataglaxy, Spark, Azure Kubernetes Services, Event Hub, Azure DataLake Gen1/Gen2, Azure Data Factory,PowerBI, PostgreSQL Harbor, DatadogAzure, et plus encore, est l'arsenal qui nous propulse dans cette aventure. Chaque outil, chaque langage, est une étoile dans la galaxie de vos compétences, illuminant notre chemin vers l'avant-garde technologique.

Freelance

Mission freelance
Data Analyst Power BI – Lyon (H/F)

KUBE Partners S.L. / Pixie Services
Publiée le
Data analysis

6 mois
450-550 €
Lyon, Auvergne-Rhône-Alpes

Bonjour, Nous recherchons pour l'un de nos clients basé à Lyon, un(e) Data Analyst spécialisé(e) sur Power BI pour une mission de 6 mois minimum . Vos missions principales : Collecter, analyser et interpréter les données afin d’aider à la prise de décision. Créer et maintenir des tableaux de bord et des rapports via Power BI . Collaborer avec les équipes métiers pour identifier leurs besoins en données et fournir des solutions adaptées. Participer à l'amélioration continue des processus de traitement et d'analyse des données. Assurer la qualité et la fiabilité des données utilisées.

CDI

Offre d'emploi
Ingénieur DevOps BigData

nextSourcia
Publiée le
Apache Kafka
Big Data
DevOps

10k-50k €
Toulon, Provence-Alpes-Côte d'Azur

Notre client, acteur majeur du secteur de la défense, participe à l'innovation et à la sécurisation des systèmes d'information critiques. Dans le cadre de l'amélioration de ses capacités de gestion des données, il développe des solutions avancées pour la collecte, l'indexation et l'exploitation des informations stratégiques au sein de son infrastructure Big Data. Mission : Vous serez responsable de la mise en œuvre et de l’exploitation des solutions de gestion de données au sein des systèmes d’information. Vous interviendrez sur l’ensemble du cycle de vie des plateformes Big Data en utilisant les technologies ElasticSearch, Logstash et Cloudera CDP. Responsabilités : - Assurer la mise en œuvre et l’exploitation des solutions de collecte, d’indexation et de recherche de données (ElasticSearch/OpenSearch, Logstash, Kafka). - Gérer et maintenir les plateformes basées sur Cloudera CDP. - Effectuer le Maintien en Condition Opérationnelle (MCO) des composants de la plateforme Datalake. - Garantir la disponibilité et la performance des infrastructures Big Data en exploitant les clusters associés. - Superviser et analyser les performances via des outils comme Kibana et Grafana.

CDI

Offre d'emploi
Intégrateur DevOps - F/H - Vitrolles

ENGIT
Publiée le
Apache Kafka
API REST
CI/CD

38k-40k €
Vitrolles, Provence-Alpes-Côte d'Azur

Les principales missions sont : Votre maitrise des chaînes CI/CD contribuera à la qualité de la construction et du déploiement de nos systèmes applicatifs Votre expertise technique vous permettra d’éprouver le système et de participer à son amélioration Vous participerez à l’intégration technique du système applicatif déployé et à la mise en place des bonnes pratiques depuis l'environnement de développement jusqu'à l’exploitation Intégrer, configurer et déployer les applications PSPDV dans un contexte de DEV et Intégration SI Modifier, optimiser les configurations des différents environnements (DEV / INT / PERF) Gérer une dizaine de composants et leurs versions à travers les chaines CI/CD Suivies des anomalies dans l’outil de suivi

Freelance
CDI

Offre d'emploi
PMO - CRM - DATA

Amontech
Publiée le
BI
Data Warehouse

365 jours
10k-92k €
Île-de-France, France

PMO qui a une dizaine d’années d’expériences qui a travaillé sur des sujets d’entrepôts de données dont BI, datawarehouse, contexte internationnal, doit être bilingue en anglais contact avec des équipes au canada et en chine entre autre. Rythme de télé travail : 3 jours au bureau, 2 jours en TT. PMO qui a une dizaine d’années d’expériences qui a travaillé sur des sujets d’entrepôts de données dont BI, datawarehouse, contexte internationnal, doit être bilingue en anglais contact avec des équipes au canada et en chine entre autre. Rythme de télé travail : 3 jours au bureau, 2 jours en TT.

241 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous