Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 211 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI
CDD

Offre d'emploi
Infrastructure Architect (Ref : AG)

FIRST CONSEIL
Publiée le
Azure
Big Data
Google Cloud Platform

3 ans
10k-100k €
Paris, France

Le poste est au sein de l'équipe d'architecture du groupe. L'équipe est composée d'un architecte d'infrastructure, d'un architecte fonctionnel, d'un architecte d'usine de développement, d'un architecte Datascience. Les tâches sont les suivantes : Suivi et conseil aux équipes de conception Participation à la définition des infrastructures techniques Gestion de projets d'infrastructures Suivi et amélioration des processus Adaptabilité et curiosité technique car les évolutions technologiques sont rapides et doivent être assimilées pour pouvoir optimiser l'existant Polyvalence, goût de la technique et créativité pour identifier les solutions techniques appropriées Rigueur et esprit critique afin de distinguer la technique du discours marketing Capacité à travailler avec des équipes d'experts Bonne ouverture relationnelle afin de travailler avec les autres services de l'entreprise (achats, services commerciaux notamment)

Freelance

Mission freelance
Product Owner Sénior - BORDEAUX

SURICATE IT
Publiée le
Agile Scrum
Big Data

3 mois
100-2 980 €
Bordeaux, Nouvelle-Aquitaine

Product Owner expérimentés avec une forte appétence pour les sujets techniques et la data, un fort intérêt pour le fonctionnel, un bon relationnel et une excellente communication avec des interlocuteurs internes et externes. Product Owner expérimentés avec une forte appétence pour les sujets techniques et la data, un fort intérêt pour le fonctionnel, un bon relationnel et une excellente communication avec des interlocuteurs internes et externes. Product Owner expérimentés avec une forte appétence pour les sujets techniques et la data, un fort intérêt pour le fonctionnel, un bon relationnel et une excellente communication avec des interlocuteurs internes et externes.

Freelance

Mission freelance
Ingénieur IT / OT (SCADA - Industrie 4.0)

Mon Consultant Indépendant
Publiée le
Data science
SCADA

6 mois
600-700 €
Nogent-sur-Seine, Grand Est

En collaboration avec l’équipe du programme de transformation du métier des malteries, vous serez responsable des pré-requis techniques permettant le déploiement d’une solution d’intelligence artificielle. Le projet Industrie 4.0 vise notamment à optimiser les processus de fabrication industrielle, sur les sites industriels à l’international du client. Vous aurez en charge la standardisation des données industrielles sur la base des supervisions, des PLC et des solutions d'automatisation utilisés en production. Vous serez intégré à l’équipe d’ingénieurs IT / OT, qui vous guidera, dans les premières semaines, pour appréhender le processus industriel de maltage. En interaction quotidienne avec des équipes pluridisciplinaires (Business Product Owner, Product Manager, responsables de production et maintenance des sites, chefs de projet Transformation…), vous reporterez au chef de projet Industrie 4.0, sous la codirection du Directeur Industriel et Directeur Transformation. Vos principales missions : Standardiser les données reçues via les automates des sites industriels (création du core model des données industrielles) Créer les spécifications des modèles de données (à partir du code automate, basés sur les supervisions WinCC, Schneider…) pour chaque étape du processus industriel de maltage, à destination du partenaire externe en charge du traitement de ces données Gérer les éventuelles pannes automates et/ou AVEVA (Historian) avec les sites industriels, de manière adhoc Participer aux réunions de pilotage du projet Industrie 4.0 en tant qu’expert technique PROFIL RECHERCHE L'ingénieur OT retenu devra avoir une expérience pratique des systèmes SCADA et une bonne expérience de l'automatisation des processus, en secteur industriel. COMPETENCES SOUHAITEES +3 ans d’expérience sur la création et la maintenance de codes automates / supervisions Expérience en tant qu’automaticien en industrie (la connaissance du secteur agroalimentaire et/ou agricole sera appréciée) Raisonnement analytique et appétence pour le traitement de données Bonne communication écrite et orale Anglais indispensable (B2 minimum) ENVIRONNEMENT & CONDITIONS MISSION La mission est d’une durée initiale de 3 mois (renouvelable), avec un rythme idéalement de 5 jours par semaine (possible 4j). Démarrage immédiat requis. Après une période d’intégration à l’équipe et de formation (deux semaines environ, à 1h de Paris en train), au siège et auprès du partenaire IA (lieu : La Défense), la mission pourra avoir lieu à 90% en distanciel. Des déplacements ponctuels sur les sites industriels (République Tchèque, Allemagne, Serbie, UK…), à raison de 2-3 jours par mois maximum, sont à prévoir. Budget : 600-650€/jour (+ prise en charge des déplacements et des déjeuners sur site)

Freelance
CDI

Offre d'emploi
Architect IA et Data

ENGIT
Publiée le
Architecture
Big Data

3 mois
10k-60k €
Les Mureaux, Île-de-France

engIT est une jeune société d'ingénierie, dédiée à l'innovation, animée par des passionnés de technologies et d’innovation en IT créée en 2017 à Sophia Antipolis et aujourd'hui présente à Nice, Aix, Lille, Paris et Monaco... Objets connectés, IA, Big Data, Deep Learning, véhicules autonomes, réalité augmentée, UX, logiciels embarqués, cyber sécurité, Blockchain, Cloud, mobilité, ne sont qu’une partie de nos centres d'intérêts. L’équipe engIT Paris, recherche un/une : Architecte IA et Data Pour accompagner son client

Freelance
CDI

Offre d'emploi
Data Manager – Video - Automobile (F/H)

CELAD
Publiée le
Data management

12 mois
60k-65k €
Créteil, Île-de-France

📑 CDI (65K€) / Freelance / Portage Salarial - 📍 Créteil - 🛠 Expérience de 8 ans minimum Nous recherchons un Data Manager pour renforcer son équipe dédiée à la validation du système de surveillance des conducteurs . Ce système est basé sur des caméras embarquées dans l'habitacle des véhicules, qui enregistrent des données telles que le niveau de fatigue, de vigilance et de stress du conducteur. L'objectif est de gérer l'ensemble du cycle de vie des données générées, depuis leur collecte jusqu'à leur archivage et leur traitement. Vos responsabilités : Assurer la gestion des données de validation (collecte, traitement, stockage, archivage) pour le système DMS. Tâches principales : Prendre les disques durs contenant les données collectées dans les véhicules. Gérer et stocker ces données (incluant des volumes massifs tels que des vidéos en streaming). Archiver les données et estimer les coûts liés à ce processus. Transférer les données vers les différents sites du client. Assurer la conformité aux exigences RGPD. Injecter les données dans des bancs de tests pour la validation. Étudier des solutions de stockage sur le cloud (GCP et AWS par exemple).

Freelance

Mission freelance
Azure Data Architect

Phaidon London- Glocomms
Publiée le
Azure
Azure Data Factory
BI

6 mois
520-650 €
Lyon, Auvergne-Rhône-Alpes

Nous sommes à la recherche d'un Architecte de données Azure pour l'un de nos principaux clients, spécialisé dans la BI et l'analytique. Il s'agit d'un poste en freelance, le candidat sera donc rémunéré sur une base horaire. Rôle : Architecte de données Azure Lieu de travail : Lyon Durée du contrat : 6 mois (Projet d'un an minimum) Travail hybride Date de début : ASAP (novembre) Freelance : Entreprise propre (SASU, Micro-entreprise) ou Portage Salarial Rôle : Recueillir et comprendre les exigences du projet Réalisation de la preuve de concept Industrialisation des projets BI et intégration des données Travailler sur la migration des solutions BI vers Microsoft BI Participer aux ateliers de conception Suivi technique et documentation

Freelance
CDI

Offre d'emploi
Skiils recherche son data scientist forecast senior

skiils
Publiée le
Databricks
PySpark

12 mois
49k-89k €
Paris, France

Analyser de grands ensembles de données pour identifier les motifs, tendances et insights pertinents pour la supply chain -Développer/faire évoluer des modèles prédictifs et des algorithmes d'apprentissage automatique pour optimiser les processus liés à la logistique et au transport. -Collaborer avec des équipes pluridisciplinaires comprenant la direction de la chaîne d'approvisionnement, l'ingénierie et le développement de produits pour aligner les efforts de données et d'IA avec les objectifs commerciaux. -Concevoir et mettre en œuvre des outils de surveillance des modèles pour suivre les performances des modèles et mesurer l'efficacité des stratégies de chaîne d'approvisionnement. -Évaluer continuellement et améliorer les modèles et méthodologies existants pour améliorer la précision et l'efficacité. -Participer à faire monter en compétences les talents juniors sur des problématiques de prévisions de vente

Freelance
CDI

Offre d'emploi
Data Engineer

SARIEL
Publiée le
Agile Scrum
Apache Spark
Big Data

3 ans
10k-62k €
Paris, France

Bonjour, Nous recherchons pour un pote à pourvoir ASAP pour notre client banque basé en Région parisienne un profil Data Engineer La mission consiste à intégrer l'équipe Projets en charge de l'intégration des données de l'entreprise au sein de la plateforme Data sous le Cloud Azure afin de couvrir les besoins Big Data et BI de nos métiers. La personne sera intégrée dans l'équipe projet qui fonctionne dans une organisation en mode Agile. Nous recherchons un Data Engineer confirmé/sénior avec une forte expertise sur Azure, Databricks, Spark, Scala, Python et SQL · Développement et l’implémentation de solutions Big Data Analytics · Analyse du besoin, étude d'impacts et conception de la solution technique · Conception et modélisation des données au niveau d'un Data Lake (format Parquet, Delta table, …) · Construction des pipelines de données pour collecter, transformer et traiter des données dans le Data Lake · Développements de notebooks (ex : Databricks) de traitements avancés des données · Cloud Datawarehousing (tuning, optimisation de traitements et requêtes SQL) · Rédaction de documentation technique (Dossier d'Analyse Technique, release delivery note, ….) · Revue de code · Réalisation de tests unitaires · Maintenance corrective et évolutive · Livraison dans un environnement Devops, CI/CD et outils associés Compétences techniques requises · Expérience Data minimum 5 ans · Azure minimum 3 ans · Expérience architecture Lakehouse minimum 2 ans · Databricks minimum 5 ans · Spark minimum 5 ans · Scala, Python, SQL minimum 5 ans · Maitrise de CI/CD, Azure DevOps minimum 3 ans · Connaissance des outils Agile (JIRA) et ayant déjà travaillé en mode Agile minimum 1 an Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format Word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.

Freelance
CDI

Offre d'emploi
Chef de Projet Technique Data – Chaîne Affluence

Inventiv IT
Publiée le
API
Azure Data Factory
Kibana

2 ans
57k-72k €
Paris, France

Contexte Dans le cadre d'un projet d'information voyageurs en Île-de-France, nous recherchons un Chef de Projet Technique Data pour améliorer la disponibilité et la qualité des données d’affluence transmises en temps réel aux usagers des transports. Votre rôle sera essentiel pour garantir la fiabilité et la précision des informations sur les taux d'occupation à bord et en gare. Missions principales En tant que Chef de Projet Technique Data, vous serez responsable de superviser et d’optimiser la chaîne de données d'affluence. Vos missions incluront : Évaluation des données et mise en place des standards de qualité : Réaliser un état des lieux du fonctionnement actuel, définir les indicateurs de qualité et fixer des objectifs de performance. Analyse et amélioration continue : Identifier les sources d'anomalies, proposer des solutions et assurer le suivi des actions correctives. Supervision des données : Développer et utiliser des tableaux de bord pour le suivi en temps réel des indicateurs de qualité tels que la complétude, la cohérence et la fraîcheur des données (outils PowerBI, Kibana, DataDog). Gestion de projet et coordination : Collaborer avec les équipes techniques et fonctionnelles, communiquer les avancées et assurer la coordination avec les différents responsables d'API et d'outils de comptage.

Freelance

Mission freelance
BI Consultant

Phaidon London- Glocomms
Publiée le
BI
Data management
KPI

6 mois
350-500 €
Provence-Alpes-Côte d'Azur, France

1. Gouvernance et alignement des données o Établir et maintenir un cadre structuré de gouvernance des données au sein du département. o Veiller à l'utilisation cohérente de sources de données alignées dans tous les tableaux de bord pour éviter des analyses contradictoires. o Promouvoir et initier des efforts visant à améliorer la qualité des données et à harmoniser les sources de données à travers les fonctions métier. o Servir de point de contact central pour les questions d'alignement et de gouvernance des données. 2. Définir un plan de rationalisation des dashboards commerciaux : o Evaluer l’existant (recensement / évaluation pertinence) o Formaliser les besoin utilisateurs prioritaires (identifier les key users, comprendre les attentes) o Identifier les redondances et simplifications o Définir la cible et le plan pour atteindre cette cible 3. Gestion du changement et formation o Collaborer avec des équipes internes (y compris l'Académie, l'équipe de gestion du changement de la transformation des lignes & tarification et les réseaux des lignes) pour sensibiliser aux tableaux de bord disponibles et à leurs cas d’usage. o Développer et exécuter un plan de rationalisation pour réduire le nombre de tableaux de bord et améliorer leur accessibilité. o Diriger des sessions de formation des utilisateurs et créer des stratégies d’adoption pour les tableaux de bord nouveaux et existants. o Travailler en partenariat avec les parties prenantes métier pour garantir la bonne mise en œuvre des processus de gestion du changement. 4. Collaboration avec les parties prenantes o Travailler en étroite collaboration avec des équipes transversales, y compris l’équipe IT BI et les unités métiers, afin de garantir un alignement fluide des efforts de gouvernance des données et de formation. o Servir d’intermédiaire entre les utilisateurs métiers et le département BI pour répondre aux préoccupations et aux retours liés aux données.

CDI

Offre d'emploi
Business Analyst - F/H - Lille

ENGIT
Publiée le
Data analysis
Data management

43k-48k €
Lille, Hauts-de-France

Missions Le Data Business analyst accompagne le métier dans le recensement des données utiles à son besoin exprimé. A partir d'une expression de besoin métier, il traduit le souhait en besoins datas. Pour ce, il doit : animer des ateliers métier, comprendre les besoins métier, les challenger identifier les données nécessaires à la réalisation de ces besoins, en consolidant l'ensemble des besoins Modéliser les données (modèle métier entreprise), en assurant une cohérence globale de ce modèle (consolidation des différents projets) Travailler en binôme avec l'architecte de données pour sourcer les données dans le SIO, et permettre de décliner un modèle de données technique Travailler avec le data steward pour que celui-ci mette à jour les dictionnaires de données (description, traçabilité, règles de gestion métier), les fiches de données... tous les livrables indispensables à la gouvernance coordonner avec l'équipe informatique la déclinaison technique des données sur la plateforme Data

Freelance
CDI

Offre d'emploi
Skiils recherche son Expert data quality

skiils
Publiée le
Data management

12 mois
10k-98k €
Lille, Hauts-de-France

Au sein du Data Office, le Data Quality Process Owner est garant du processus global de data quality, transverse à l’ensemble des domaines digitaux de l’entreprise. il collabore avec l'ensemble des contributeurs de l'entreprise (Business, Produit, Data, Tecc..) pour s’assurer de l’application cohérente des politiques et standards de qualité des données, et il veille à ce que le processus de data quality soutienne les objectifs stratégiques Cohérence et intégrité des processus : Veiller à ce que les standards de qualité des données soient appliqués de manière homogène à travers les différents domaines, tout en restant adaptés aux spécificités de chacun. Amélioration continue : Identifier et promouvoir des stratégies d’amélioration continue en matière de Data Quality, Support et accompagnement au changement: Apporter un soutien aux différents contributeurs (Business, Produit, Data, Tech) dans la mise en oeuvre de leurs actions, en fournissant les bonnes pratiques, outils et retours d’expérience pour améliorer la qualité des données dans les périmètres métiers. Le Data quality Process Owner assure l’intégrité, la cohérence, la pérennité, la valeur des pratiques de qualité des données au niveau global, tout en s’assurant que chaque domaine dispose des moyens et des outils pour mettre en place un dispositif de data quality.

Freelance
CDI

Offre d'emploi
Directeur de projet migration Data - snowflake

Digistrat consulting
Publiée le
Big Data
Hadoop

3 ans
50k-60k €
Paris, France

🏭 Secteurs stratégiques : Banque de détail 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Les données transversales sont historiquement hébergées dans 3 entrepôts de données en technologie Teradata ainsi que dans divers datamarts utilisant plusieurs solutions d’accès aux données (Microstrategy, SAS, DataIku). Les data pipelines utilisent majoritairement les solutions DataStage et Informatica. Afin d’optimiser les coûts de run (TCO) et de gagner en productivité, nous envisageons de migrer en mode « lift end shift » les entrepôts de données et la partie data lake vers une solution lake house (Snowflake ou Databricks) avec un enjeu fort sur les délais. Une étude de cadrage détaillée a été lancée cet été et doit se terminer fin 2024 en vue de démarrer la phase d’exécution du projet de migration dès janvier 2025 afin de pouvoir tenir nos jalons. Cette étude vise à : Finaliser le Business case, la formalisation de la valeur métier et l’estimation des coûts (éditeurs, intégrateurs, SG, infrastructure on-premise et public cloud) Préciser l’architecture cible et en particulier la strategy à adopter sur le code ETL/ELT et les couches d’accès à la donnée Identifier avec précision l’ensemble du code/données à migrer en incluant les usages industriels et ceux de type shadow IT Contractualiser un forfait avec l’éditeur avec engagement de résultat sur la migration et potentiellement un second forfait avec un intégrateur pour assurer le déploiement dans l’infra SG du code migré ainsi que les tests d’acceptance permettant de valider les livrables de l’éditeur Définir la stratégie de migration (découpage en lots, périodes de freeze, stratégie de tests, prallel run...) dans un environnement avec une forte complexité applicative (grand nombre d’interdépendances) et organisationnel (plus d’une vingtaine d’équipes à coordonner) Construction de la roadmap de migration, de son suivi, définition des KPIs/critères de succès avec un focus fort sur le suivi contractuel des éditeurs/intégrateurs et la définition de la gouvernance associée Instruire les process SG visant au bon respect de nos règles de sécurité, d’architecture et de nos principes data dans le cadre réglementaire applicable Dans ce cadre la prestation consiste à contribuer à/au(x) : Contribuer au pilotage de l’étude détaillée 2024, Livrables, suivi et gestion dans son ensemble Reporting au senior management

Freelance

Mission freelance
SENIOR Data Scientist / ML Engineer / LLM / IA

KUBE Partners S.L. / Pixie Services
Publiée le
Django
Python

2 ans
100-3k €
Paris, France

Diriger la conception, le développement et la mise en œuvre de modèles avancés de machine learning pour générer des insights et faciliter la prise de décision. Collaborer avec des équipes pluridisciplinaires pour résoudre des problèmes complexes en utilisant l'analyse statistique, la modélisation prédictive et des stratégies basées sur les données. Optimiser les algorithmes, gérer de grands ensembles de données et déployer des solutions évolutives. Encadrer des data scientists juniors et apporter une expertise technique sur les frameworks et outils d'IA/ML.

CDI

Offre d'emploi
Data Base Administrator Talend (H/F)

Randstad
Publiée le
Data management
Talend

55k €
Marseille, Provence-Alpes-Côte d'Azur

Nous recherchons pour le compte de notre client spécialité dans l'énergie un Data Base Administrator Talend (H/F) habilitable secret défense en CDI à Marseille. Conception de bases de données : - Effectuer les choix d'implémentation des bases de données dans le respect du cahier des charges et en collaboration avec les différents acteurs du projet (chef de projet, architectes, consultants ERP, experts « décisionnels » ...) - Concevoir, réaliser et optimiser l'architecture de la donnée du système d'information opérationnel - Participer à la conception et au développement de l'architecture de l'entrepôt de données décisionnel - Maintenir la documentation des schémas relationnels et non relationnels - Proposer et suivre les optimisations des requêtes SQL et no SQL afin de garantir les meilleures performances de nos applications métier - Assurer le support aux équipes de développement afin d'identifier et proposer des solutions performantes Gestion de la donnée : - Concevoir, développer et maintenir les flux de synchronisation entre nos différents systèmes avec notre outil ETL - Définir les templates, concevoir et réaliser les opérations d'import de données en masse - Support technique, assistance et observabilité - Participer aux corrections d'incidents, demandes d'évolutions des chefs de projet métier et assurer l'assistance utilisateurs de niveau 3 - Participer au déploiement de l'architecture applicative de microservices en adaptant le modèle de données historique - Suivre et gérer les performances des Bases Oracle et mongoDB - Assurer la veille technologique et traiter l'obsolescence technique

Freelance
CDI

Offre d'emploi
Data Analyst Fonctionnel

VISIAN
Publiée le
Data analysis
Data management
Python

1 an
10k-60k €
Île-de-France, France

Minimum 8 ans d'experience Contexte : Le secteur Corporate and Institutional Banking est un leader mondial dans la fourniture de solutions financières variées, notamment en marchés de capitaux, services de sécurité, financement et conseil. Une équipe transversale, est chargée de superviser les risques non financiers et de garantir l'intégrité des activités. Dans ce cadre, un poste d'analyste de données est créé pour renforcer la gestion des risques opérationnels. Mission quotidienne : L'analyste de données sera responsable de : Fournir un leadership fonctionnel sur l'architecture des données et la modélisation des métadonnées. Analyser et améliorer le modèle de métadonnées pour la gestion des risques opérationnels. Collaborer étroitement avec des experts en la matière (SME) pour garantir la cohérence et l'efficacité des processus. Travailler avec les équipes informatiques pour mettre en œuvre les modifications nécessaires à l'écosystème. Assurer la documentation adéquate et contribuer à l'optimisation des contrôles et des activités réglementaires au sein du CIB.

211 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous