Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 274 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI

Offre d'emploi
Data & Analytics engineer H/F

AMD Blue
Publiée le
Apache Airflow
AWS Cloud
PySpark

2 ans
50k-60k €
Paris, France

Qui sommes-nous ? Chez AMD Blue, l'innovation est notre passion, et nous sommes fiers de présenter Blue Data, notre Tribu spécialisée dans le domaine de la Data. Avec une présence établie sur l'ensemble du territoire français et une récente expansion aux États-Unis et au Canada, nous sommes résolument tournés vers l'avenir. Dans le cadre d’un besoin client, nous avons l'opportunité d'accueillir un nouveau membre au sein de notre Tribu Blue Data. Contexte de la mission : Pour notre client la connaissance de ses utilisateurs afin de personnaliser leurs expériences constitue un facteur clé de réussite dans la réalisation de sonambition. C’est pourquoi, le rôle majeur de l’équipe est de contribuer à l’accroissement de sa connaissance utilisateur en détectant et enrichissant le profil de chacun de ses utilisateurs . L’équipe travaille également à fournir la recommandation des produits et services les plus intéressants pour les clients afin de les accompagner au mieux dans leur parcours. L’équipe est actuellement constituée de: · 2 Product Managers · 2 Data Engineers · 4 Data Scientists Détail de la mission : En tant que Data & Analytics Engineer au sein de l’équipe User Intelligence, vous serez amené à travailler sur plusieurs produits gérés par l’équipe: · La Customer Lifetime Value (CLV) · Les member affinities · La recommandation produits et services · La customer behavior segmentation · Le purchasing channel mix Vous interviendrez également auprès de l’équipe Analytics pour aider à l’implémentation de leurs modèles DBT. Vos responsabilités: · Implémenter des solutions, à partir des règles fonctionnelles établies par le Product Manager / Data Owner · Vous documentez les règles de qualités décrites dans Collibra au préalable pour valider les datasets. · Vous partez des templates génériques pour construire des pipelines scalables de données structurées · Transformez la stack legacy vers la nouvelle stack recommandée par les équipes de la Data Platform · Répondre aux questions des utilisateurs ainsi que l’équipe de datavisualisation sur les données mises à disposition · Etre capable d’intervenir sur l’ensemble des flux de l’équipe · Documenter les flux implémentés. · Contribuer à l’amélioration des bonnes pratiques de développement au sein de l’équipe (Mob programming, Test Driven Development,..). · Contribuer à notre communauté de data & analytics engineers.

Freelance

Mission freelance
Développeur full stack C# .Net Core MVC

HIGHTEAM
Publiée le
Angular
ASP.NET
Azure DevOps Server

3 ans
400-550 €
Île-de-France, France

Mettre en œuvre tous les aspects de la conception d'une application – Traduire les cas d'utilisation d'application en applications fonctionnelles, conception, codage, sécurité, journalisation des erreurs, débogage, évolutivité, révisions de code, configuration de l'environnement de développement, livraison et tests. • Concevoir, créer et maintenir un code efficace, réutilisable et fiable, conformément aux normes élevées de qualité logicielle, aux principes de conception et de test de l'équipe, tout en fournissant des solutions dans les délais et dans les limites du budget. • Fournir des estimations de la charge de travail • Travailler en étroite collaboration avec les parties prenantes/utilisateurs de l'entreprise et les analystes commerciaux, les architectes et les autres équipes de développement informatique. • Fournir une communication efficace et opportune à toutes les équipes concernées

CDI

Offre d'emploi
Chef de projet CRM & ATS

INFOGENE
Publiée le
BI
CRM
ERP

60k-65k €
Neuilly-sur-Seine, Île-de-France

Sous la responsabilité du responsable du domaine applicatif, vous intégrerez l'équipe en charge des applications CRM & ATS du Groupe basées sur Salesforce. Vos responsabilités seront les suivantes: ◾Assurer l’interface entre les équipes métier (Business, recrutement, RH, QHSE...) et la DSI sur les périmètres CRM & ATS pour la définition et la mise en œuvre de la roadmap produit ◾Piloter les projets de déploiement des solutions CRM & ATS Groupe au sein des nouvelles filiales (France et international) ◾Gérer la roadmap produit à l’aide de l’équipe développement et support dédiée (dont vous prendrez la responsabilité) et si besoin de prestataires externes ◾Piloter la relation contractuelle avec les fournisseurs (éditeurs et intégrateurs) ◾Coordonner les évolutions du produit dans une roadmap SI globale, en prenant en compte les impacts sur les interfaces avec les systèmes tiers et sur la BI ◾Animer la relation avec la communauté des utilisateurs via la mise à disposition de la documentation produit (release notes, modes opératoires, supports de formation, ...) ◾Analyser les activités des équipes support (réponses aux demandes et aux incidents remontés par les utilisateurs) et proposer des pistes d’amélioration des outils. ◾Organiser ou contribuer à des ateliers de compréhension de besoins utilisateurs avec les utilisateurs des produits Vous bénéficierez d’un environnement de travail agile et dynamique, dans un contexte international, impliquant les principales composantes de la société (Opérations, Ressources Humaines, Recrutement, Qualité) et intégrant de fortes dimensions humaines et de conduite du changement.

Freelance

Mission freelance
Architecte .NET

Management Square
Publiée le
.NET
.NET CORE
ASP.NET

1 an
350-600 €
Grenoble, Auvergne-Rhône-Alpes

Nous recherchons un Architecte .Net avec au moins 6 ans d'expérience dans un poste similaire, pour un client dans le domaine de l'industrie basé à Grenoble, pour une mission freelance de longue durée. Contexte : Intégration d'une équipe en place depuis 2 ans, constituée d'une trentaine de prestation au global dans un contexte de développement et maintenance applicative. Responsable technique : activités d'architecture, d'urbanisation, de sécurité, pilotage démarche DevSecOps, participation aux chiffrages complexes, élaboration et suivi de déploiements des stratégies de testing, d'architecture logicielles, containerisation, comités clients.

Freelance
CDI

Offre d'emploi
Ingénieur DevOps AWS

Hydrochain
Publiée le
AWS Cloud
GitLab CI
Grafana

1 an
10k-75k €
Île-de-France, France

Nous recherchons un ingénieur DevOps AWS, responsable de la gestion, de l'automatisation et de l'optimisation des infrastructures cloud sur AWS. Missions principales : Résumé : Gestion des Infrastructures Cloud : Conception, déploiement et gestion des infrastructures sur AWS (EC2, S3, RDS, VPC, EKS, etc.). Automatisation : Développement de scripts d'automatisation pour le déploiement des infrastructures, la gestion des configurations et les mises à jour (Terraform). CI/CD : Mise en place et optimisation des pipelines CI/CD pour des déploiements fréquents et sûrs ( GitLab CI, AWS CodePipeline). Monitoring & Performance : Mise en place de solutions de monitoring et de logging (CloudWatch, Prometheus, Grafana), analyse des performances et optimisation des coûts. Sécurité : Implémentation des meilleures pratiques de sécurité sur AWS. Collaboration : Travailler en étroite collaboration avec les développeurs et l’équipe Sysops pour s'assurer que les applications sont correctement intégrées dans l'infrastructure et fonctionnent de manière optimale. Résolution de problèmes : Répondre rapidement aux incidents et résoudre les problèmes liés à l'infrastructure et aux applications hébergées sur AWS. Technologies : Cloud AWS Prometheus/Grafana Kubernetes - EKS Base de données : Redis, PostgreSQL, mongoDB Message Broker : RabbitMQ ETL : FME Flow (un plus) IaC : Terraform Gitlab Jira/Confluence Réseau AWS : VPC, ALB, WAF, NFW, etc. / Infra AWS : S3, EC2, etc

Freelance

Mission freelance
Data Analyste GCP / SQL / Big Query / Expertise métier en grande distribution

HIGHTEAM
Publiée le
BigQuery
Data visualisation
Google Cloud Platform

3 ans
500-550 €
Île-de-France, France

Une offre de solutions de data analyse et de collaboration destinée à nos partenaires industriels ainsi qu’aux directions internes , à l’échelle internationale ainsi qu’à l’échelle nationale dans chaque pays, L’ambition de cette plateforme est de permettre une collaboration forte et transparente sur toute la chaîne de valeur. Description du poste Ce poste est rattaché à la Directrice Data Links. Au sein d'une équipe composée de data analystes intégrée aux rituels Product, vous participez à l'évolution fonctionnelle et technique de nos produits data en environnement Agile. Vous aurez l’opportunité de collaborer avec l’ensemble des équipes product, tech et métiers autour des missions suivantes : Explorer et analyser les données du Data Lake du groupe ; Participer au cadrage des nouvelles fonctionnalités ; Organiser des master-class pour partager ses connaissances métiers à son équipe Designer les nouveaux Dashboard de nos produits insights (chemins d’analyse, KPIs, représentation graphique, etc) ; Ecrire les spécifications des nouvelles fonctionnalités ; Réaliser les tests post développement, puis automatiser les recettes ; Être force de proposition pour améliorer les solutions développées et identifier des opportunités de nouvelles analyses, pour répondre aux besoins de nos utilisateurs Notre stack data : GCP, BigQuery, Looker Studio

Freelance
CDI

Offre d'emploi
Data Engineer (H/F)

Pickmeup
Publiée le
AWS Cloud

1 an
45k-80k €
Paris, France

NOTRE CLIENT Pionnier dans le domaine des solutions de plateforme, notre client offre une suite innovante permettant aux sociétés de transformer leur e-commerce pour accélérer leur croissance de manière durable et rentable. Depuis le début des années 2010, il accompagne les entreprises B2C et B2B en leur fournissant des technologies avancées, sécurisées et évolutives pour digitaliser leur activité, étendre leur offre via la marketplace ou le dropship, optimiser la gestion des catalogues et paiements de fournisseurs, offrir une expérience d'achat personnalisée à leurs clients, et augmenter leurs profits grâce au retail media. En tant que Data Engineer (Senior) au sein de l'équipe Data, vos principales missions consisteront à : - Contribuer à l'enrichissement de la plateforme de données (ETL). - Améliorer la robustesse des pipelines de production pour les applications de - - Machine Learning (inférence en temps réel, etc.). - Intégré(e) dans une équipe de spécialistes en données (data engineers, machine - learning engineers, data scientists, data analysts), vous jouerez un rôle clé pour garantir la position dominante de la solution sur son marché. STACK ET OUTILS Technologies : Apache Spark, Kafka, AWS, Databricks, Python, Airflow, Mlflow, TensorFlow, Delta Lake, Superset, Kubernetes, Redshift, SQL, Terraform, Ansible. LES MISSIONS - Concevoir et implémenter une architecture performante, robuste, scalable et avec des coûts maîtrisés pour les applications Spark ainsi que pour les pipelines de production de Machine Learning (évaluation des feature stores, refactoring de DAG Airflow). - Accompagner les Data Scientists lors de la mise en production (relecture de code, pair programming) et établir les meilleures pratiques. - Optimiser et améliorer la CI/CD de l'équipe en collaboration avec l'équipe SRE. - Assurer la montée en compétences des membres de l’équipe sur les sujets de MLOps et Data Engineering. - Explorer les meilleures façons d'intégrer les données Google Analytics dans la plateforme de données. - Partager vos connaissances et présenter les travaux devant toutes les équipes techniques.

Freelance
CDI

Offre d'emploi
CHEF DE PROJET

MSI Experts
Publiée le
Méthode Agile
Salesforce Sales Cloud

1 an
28k-200k €
Lyon, Auvergne-Rhône-Alpes

Nous recherchons un Chef de Projet SalesForce . Vous jouerez un rôle clé dans la planification, la coordination et le déploiement de solutions SalesForce, en assurant la satisfaction des parties prenantes et en veillant à la réussite des projets. Vos principales missions incluront : Pilotage des projets SalesForce, portails et communautés : Vous serez en charge de définir les priorités, organiser les lots, et assurer le bon déroulement des projets depuis le cadrage jusqu'au déploiement des fonctionnalités. Vous assurerez une communication fluide entre les différents acteurs. Vous anticiperez et minimiserez les risques liés aux projets pour garantir leur réussite. Vous veillerez à la maîtrise des coûts et au respect des échéances. Vous réaliserez des comptes-rendus réguliers ainsi que des reportings clairs pour suivre l’avancement des projets. Vous orchestrerez le lancement des différentes phases des projets en coordonnant les équipes internes et externes.

Freelance
CDI

Offre d'emploi
Développeur(se) Python/Flask / React

HIGHTEAM
Publiée le
AWS Cloud
Flask
Pandas

3 ans
10k-70k €
Île-de-France, France

Description du poste : Nous recherchons un(e) Développeur(se) Python pour rejoindre une équipe en charge du développement des applications logicielles chez notre client. Vous travaillerez en étroite collaboration avec l'équipe de business analysts pour gérer le backlog applicatif, rédiger, suivre et tester les user stories, et définir les priorités. Missions principales : Développer et maintenir les applications en Python, en utilisant Flask, SQLAlchemy, Pandas, et PostgreSQL. Participer à la conception, la réalisation et la mise en place de tests unitaires, de recettes, et de déploiements en production. Contribuer au développement front-end en utilisant des frameworks comme React. Travailler sur l'hébergement et la gestion des applications sur AWS. Suivre et documenter les livrables tels que le suivi mensuel du temps (Monthly Time Track), le rapport d'activité, le tableau de bord des KPI, etc. Collaborer efficacement avec les différentes équipes pour assurer la bonne gestion des projets en mode Agile.

Freelance

Mission freelance
Ingénieur Système & Cloud H/F

ODHCOM - FREELANCEREPUBLIK
Publiée le
Active Directory
AWS Cloud
Azure

1 an
350-510 €
Lestrem, Hauts-de-France

L’ingénieur technique est en charge du déploiement des solutions d’infrastructure système & cloud, en intégrant les exigences de service, les limites et contraintes d’exploitabilité. Il est le garant du niveau de disponibilité des solutions par la mise en place d’un suivi proactif, afin de prévenir le risque de défaillance du service ou de dégradation de l’expérience utilisateur. Il participe au diagnostic et à la résolution des incidents complexes et/ou des problèmes remontés par les équipes de niveau 2 et 3. Il est en charge de la définition du plan d’obsolescence et collabore avec les architectes techniques dans la construction de la roadmap projet (modernisation et obsolescence de l'infrastructure). Les principales missions seront : Activités BUILD (projets) : - Délivre les documentations détaillés (LLD) et autres référentiels. - Participe activement aux phases de livraison des projets et aux périodes d'hypercare en tant qu'expert technique. - Gère l'acceptation finale de la mise en œuvre de nouvelles solutions dans l'environnement de production avec des fournisseurs de services tiers. - Alerte la direction du projet en cas de déviation du champ d'application ou de problèmes/manques techniques. Activités RUN : - Apporter son expertise et son soutien aux équipes de niveau 2 et 3 en cas d'incidents et de problèmes complexes. - Assurer l’administration des solutions opérationnelles et des services de support de niveau 3. - Surveiller et analyser les performances des solutions informatiques et mettre en œuvre des mesures susceptibles d’améliorer la qualité, la stabilité et/ou la productivité de toutes les solutions informatiques. - Être une source de propositions dans l’amélioration permanente des solutions et répondre aux problèmes remontés par les métiers. - Jouer un rôle important dans la structure de support dans le cadre du processus d’escalade, en fournissant une expertise ainsi qu’en assurant une traçabilité complète des incidents, des changements et des problèmes auxquels il a été affecté. - Participer activement à la période « d’hypercare » et gérer l’acceptation finale pour la mise en œuvre d’une nouvelle solution dans l’environnement de production. - Contribuer à la définition des roadmaps des solutions sur lesquelles il est responsable. - Gestion opérationnelle des fournisseurs de services tiers en collaboration avec l'équipe de gestion des performances - Il gère le plan de maintenance de ses propres solutions et veille à ce qu'il soit correctement exécuté par les fournisseurs de services tiers. - Gère la feuille de route d'obsolescence avec les architectes techniques. - Conformément à la feuille de route d'obsolescence, il planifie et exécute les actions nécessaires pour assurer le support complet de ses propres solutions. - Participe à la veille technologique des solutions avec les architectes techniques. - Contribuer au respect du budget en mettant en œuvre tous les plans d'optimisation possibles

Freelance

Mission freelance
Data Engineer GCP H/F

LeHibou
Publiée le
Google Cloud Platform

6 mois
500-600 €
Charenton-le-Pont, Île-de-France

Notre client dans le secteur Banque et finance recherche un/une Data Engineer GCP H/F Description de la mission: Contexte / Objectifs : Récupérer les données issues de sources externes • Utiliser la puissance du Datalake • Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le datalake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner. • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels Description : • Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise • Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent Activités et tâches : • Acheminement de la donnée • Mise à disposition de la donnée aux équipes utilisatrices • Mise en production de modèles statistiques • Suivi de projet de développement • Développement job spark • Traitement et ingestion de plusieurs formats des données • Développement des scripts • Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données • Développement des moyens de restitution via génération de fichier et ou API & Dashboarding • Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers • Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) • Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP • Participer à la conception, mise en place et administration de solutions Big Data • Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka • Normalisation et agrégation des données afin de produire les rapports sous forme de Business View Compétences / Qualités indispensables : Plateforme et environnement GCP (indispensable), • Environnement GKE, • Stockage : HDFS / GCS, • Traitement: Maitrise de l’écosystème Spark / Kafka / Scala, • Planification : Airflow / Composer, • DWH : SQL, BigQuery, BigTable, • Delivery : Git, Ansible, Docker, Terraform, Jenkins / Cloud Build Informations concernant le télétravail : 2 jours

Freelance

Mission freelance
Data steward

CAT-AMANIA
Publiée le
Google Cloud Platform
Gouvernance

6 mois
100-500 €
Lille, Hauts-de-France

Le service observabilité est une entité transverse de la direction du système d’information et du Digital, au service des Directions Métiers et de la DSID. Sa mission est de définir et de mettre en œuvre les solutions de supervision techniques, applicatives et fonctionnelles. Dans le cadre d'un nouveau programme, nous devons renforcer la capacité du produit observabilité à déployer de nouvelles solutions. MAITRISER ET DOCUMENTER LA DONNEE METIER • Apporte un conseil personnalisé répondant aux problématiques des acteurs de la donnée • Qualifie et enrichie la donnée en s’assurant que l’utilisateur dispose du plus grand nombre d’informations (catalogue de données, validation de la définition de la donnée) • Accompagne la cartographie de la donnée • Optimise la prise en main et l’utilisation et de la donnée en facilitant sa compréhension • Accompagne les acteurs de la donnée dans le maintien de la connaissance de la donnée (dictionnaire, référentiels de contrôle) GARANTIR LA METHODOLOGIE ET LE MAINTIEN DE LA QUALITE DES DONNEES • Accompagne les acteurs de la donnée dans le respect des règlementations en vigueur (RGPD, …) et des règles d’éthique définies au sein du Groupe. • Apporte un conseil pour fiabiliser la provenance de la donnée afin d’en maitriser son usage (cycle de vie) • Accompagne les acteurs de la donnée dans la maitrise de la qualité de leurs données : diagnostic, suivi de leur procédure de qualité • Déployer et pérenniser les procédures de détection et de correction des problèmes de qualité des données

Freelance

Mission freelance
Data Engineer GCP Finance

HIGHTEAM
Publiée le
Apache Spark
BigQuery
Google Cloud Platform

3 ans
400-550 €
Île-de-France, France

Dans ce cadre, nous recherchons un développeur Full Stack, ayant une solide expérience dans le Cloud GCP Récupérer les données issues de sources externes • Utiliser la puissance du Data Lake • Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le data Lake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner. • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels • Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise • Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent • Acheminement de la donnée • Mise à disposition de la donnée aux équipes utilisatrices • Mise en production de modèles statistiques • Suivi de projet de développement • Développement job spark • Traitement et ingestion de plusieurs formats des données • Développement des scripts • Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données • Développement des moyens de restitution via génération de fichier et ou API & Dashboarding • Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers • Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des Spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) • Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP • Participer à la conception, mise en place et administration de solutions Big Data • Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data Lake via des topics Kafka • Normalisation et agrégation des données afin de produire les rapports sous forme de Business View

Freelance

Mission freelance
Architecte Technique AWS - Leader du Digital et de l'Innovation - Paris (H/F)

EASY PARTNER
Publiée le
Architecture
AWS Cloud

3 mois
100-600 €
Paris, France

Au cœur de la transformation numérique, notre entreprise, pionnière dans le déploiement de solutions digitales et technologiques, recherche un Architecte Technique AWS. Situés dans la région parisienne, nous nous inscrivons dans une dynamique de croissance durable et d'innovation continue. Ce poste est ouvert afin de renforcer notre capacité à concevoir des architectures techniques complexes et à garantir la cohérence et la performance de nos systèmes informatiques. Au sein de la DSI et rattaché au Responsable du Pôle Architecture, le futur Architecte Technique AWS jouera un rôle clé dans l'évaluation, la conception, et l'implémentation des projets métiers et du développement des produits. Missions Principales - Élaborer le plan stratégique SI en alignement avec les objectifs d'affaires - Concevoir des architectures techniques complexes, innovantes et performantes - Assurer la cohérence, l'intégration et la validation des frameworks et outils techniques - Effectuer une veille technologique constante et ce, dans une démarche d'amélioration continue - Auditer et évaluer les architectures techniques existantes, proposer des axes d'amélioration Annexes - Favoriser le transfert de connaissances au sein de l'équipe - Participer activement à la maîtrise des risques techniques et financiers

Freelance
CDI

Offre d'emploi
Architecte technique AWS

Hydrochain
Publiée le
AWS Cloud
Docker
Git

1 an
10k-100k €
Île-de-France, France

Nous recherchons un architecte technique AWS qui aura pour mission d’assurer la cohérence technique des projets métiers et du développement en termes d’évaluation, de conception et d’implémentation. Il s’assurera également que les choix techniques s’intègrent de manière cohérente, efficace, durable, et respectent les standards de l’entreprise, notamment en matière de sécurité et de maîtrise des risques, dans l’architecture du SI. Il veillera à l’optimisation des ressources d’un point de vue technique et financier. Missions principales : Contribuer à l’élaboration du plan stratégique SI Concevoir des architectures techniques complexes Assurer la cohérence et la validation des framework et des outils techniques choisis Réaliser une veille technologique permanente Analyser les architectures techniques existantes et formuler des recommandations stratégiques dans le cadre de leur refonte Opérer un transfert de connaissances continu

Freelance

Mission freelance
Data Steward

ICSIS
Publiée le
API
Google Cloud Platform
Microsoft Power BI

3 ans
400-550 €
Lille, Hauts-de-France

La mission consiste à : - Maitriser et documenter la donnée métier - Garantir la méthodologie et le maintien de la qualité des données - Mission sur la métropole lilloise avec télétravail hybride (2 ou 3 jours / semaine) Compétences recherchées : - Une expérience au sien d’une équipe de gouvernance des données et/ou une expérience autour de la mise en qualité des données - Connaissance des principes de la gouvernance de la donnée - Connaissance en analyse et gestion de la donnée - Maitrise du fonctionnement en équipe agile - Capacité d'analyse et de synthèse - Cloud (GCP)

1274 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous