Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 600 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI

Offre d'emploi
Domain Data Architect Senior

FREELANCE VISION
Publiée le
Azure
Databricks
Méthode Agile

12 mois
31k-200k €
Lyon, Auvergne-Rhône-Alpes

Le Domain Data Architect sera responsable de la coordination des activités d'une unité du groupe. Cette mission ne comporte pas de responsabilité managériale directe. Il est attendu une intervention sur divers aspects notamment : Logistique Étapes d'approvisionnement Gestion d'entrepôt Il faut couvrir l'ensemble des besoins de l'entité en matière d'outils et de reporting, en définissant les solutions nécessaires et en collaborant avec les différentes équipes pour valider la trajectoire. Le Domain Data Architect travaillera en transverse avec 4 à 5 équipes couvrant l'ensemble du périmètre. Il sera le seul à avoir une vision transverse, apportant des compétences organisationnelles et en coordination avec le Data Product Owner qui gère les équipes. Compétences: • + 10 ans en architecture de données • Azure (Databricks, Data Factory...) • Stack Technique : BI & Analytics (pas de forte composante en IA ou Machine Learning) • Anglais courant ou billingue (entretien tout en anglais) Le candidat devra faire preuve d'une réelle capacité de communication, de force de conviction et d'intelligence relationnelle, car il sera confronté à des interlocuteurs parfois réfractaires. Niveau de compétence Azure Expert Conception d'architecture de données Expert DataBricks Expert Agile Expert Niveau de langue Anglais

Freelance

Mission freelance
DATA ENGINEER

SURICATE IT
Publiée le
Azure
Databricks
Python

3 mois
100-590 €
Paris, France

- Construction des pipelines de données pour collecter, transformer et traiter des données dans notre Data Lake sur Azure - Développement de notebooks de traitement avancés des données sur Databricks (Spark, langages Scala, SQL et Python) - Conception et modélisation des données au niveau du Data Lake (format Parquet, Delta) - Réalisation des tests unitaires - Rédaction de documentation technique (Dossier d'Analyse Technique, release delivery note, ….) - Préparation de package pour livraison en CI/CD avec les équipes DevOps - Réalisation des activités de maintenance corrective et évolutive - Participation aux cérémonies agiles (Sprint Planning, Daily, Spring Review, Demo,…)

Freelance

Mission freelance
architecte pyspark - 3 mois

Innov and Co
Publiée le
Apache Spark
Azure DevOps Services
Databricks

3 mois
100-700 €
Boulogne-Billancourt, Île-de-France

Contrainte forte du projetFort enjeux metier Les livrables sont Package pyspark Dictionnaire / catalog de données Model de données tabulaire Compétences techniques PYTHON / PYSPARK / SPARK - Expert - Impératif Databricks/ datafactory/ azure devops - Expert - Impératif Azure Analysis Services - Expert - Impératif Integration GIT - Expert - Important Connaissances linguistiques Français Courant (Impératif) Description détaillée L'equipe Datafinance utilise actuellement une architecture basée sur Databricks, Azure Blob Storage, Azure Data Factory et Azure Analysis Services pour traiter et analyser ses données financières. Nous cherchons à optimiser les processus de traitement de ces données, en particulier le rafraîchissement des données, pour améliorer la performance et la qualité des analyses. Dans ce cadre, nous recherchons un expert en BI et Data pour une mission de 3 mois. L'objectif est d'optimiser le Temps de traitement et de rafraichissement des données. 2. Objectifs de la mission L'expert BI et Data sera chargé de : Optimiser le traitement des données du projet Data finance, en se concentrant principalement sur le processus de rafraîchissement des données entra la zone gold et le cube de données. Optimiser l'utilisation de Azure Analysis Services (modèle Tabulaire) pour les rapports et les analyses. 3. Technologies utilisées L'expert devra maîtriser les technologies suivantes : Databricks (en particulier avec PySpark). Azure Analysis Services (modèle Tabulaire). SQL . Git et Azure DevOps pour la gestion des versions et l'intégration continue. 4. Compétences requises Le candidat idéal doit posséder une expérience avérée dans les domaines suivants : Maîtrise de PySpark : pour le traitement et l'optimisation des données dans Databricks. Expertise en modélisation de données : capacité à concevoir et optimiser des modèles de données pour améliorer la performance et la gestion des données financières. Maîtrise du modèle Tabulaire dans Azure Analysis Services : pour optimiser le rafraîchissement des données et améliorer les performances des cubes. Bonne compétences en SQL 5. Livrables attendus Les livrables de la mission incluent : . Mise en œuvre des optimisations dans Databricks et Azure Analysis Services. Documentation détaillée des modifications apportées et des bonnes pratiques mises en place. Transfert de connaissances aux équipes internes pour garantir une gestion continue des processus optimisés.

Freelance
CDI

Offre d'emploi
Consultant MDM Tibco

Lùkla
Publiée le
Agile Scrum
Data management
Master Data Management (MDM)

2 ans
55k-65k €
Paris, France

En tant que Consultant(e) MDM Tibco EBX Senior, vous serez notamment en charge de : Conception et implémentation : Analyser les besoins métiers et concevoir des modèles de données de référence (MDM) sur la plateforme Tibco EBX. Implémenter des solutions MDM complètes, incluant la capture, la consolidation, la qualité et la distribution des données. Développer des workflows complexes et des règles métier pour assurer l'intégrité des données. Accompagnement des projets : Assurer la conduite technique des projets MDM, de la phase d'analyse jusqu'à la mise en production. Former et accompagner les équipes métiers dans l'utilisation de la solution. Expertise technique : Maîtriser en profondeur la plateforme Tibco EBX (modélisation, workflows, API, etc.). Avoir une bonne connaissance des bases de données relationnelles et des outils d'intégration de données. Être à l'aise avec les langages de programmation (Java, Python, etc.) ...

Freelance
CDI

Offre d'emploi
Ingénieur Système et Réseau H/F

GROUPE ARTEMYS
Publiée le
Active Directory
AWS Cloud
Azure

1 an
45k-60k €
Île-de-France, France

De belles missions vous attendent chez nos clients Grands Comptes sur des environnements riches et challengeants afin de participer activement à la conception, la mise en œuvre et l’optimisation d’infrastructures systèmes innovantes : Concevoir et déployer des architectures système robustes et performantes. Assurer la gestion, la maintenance et l’évolution des systèmes d’exploitation (Windows, Linux, en marge). Automatiser les tâches d’administration système pour accroître l’efficacité opérationnelle. Mettre en place et superviser les stratégies de sauvegarde et de récupération des données. Collaborer avec les équipes de développement pour intégrer les meilleures pratiques en matière de déploiement et d’exploitation des applications. Participer à la veille technologique et proposer des solutions innovantes pour améliorer la performance et la sécurité de l’infrastructure. Date de démarrage : Immédiate (bien-entendu, on vous attend si vous avez un préavis 😉). Alors, ça vous tente ? C’est parti ! Bienvenue dans l’aventure ARTEMYS 🎬 Artemys est une entreprise handi-accueillante attachée à la mixité et à la diversité des profils recrutés.

Freelance
CDI

Offre d'emploi
Data Engineer (Azure - Databricks)

IT CONSULTANTS
Publiée le
Databricks

3 mois
10k-71k €
Châtillon, Île-de-France

Nous recherchons un(e) Data Engineer confirmé(e)/sénior avec une forte expertise sur Azure, Databricks, Spark, Scala, Python et SQL • Développement et l’implémentation de solutions Big Data Analytics • Analyse du besoin, étude d'impacts et conception de la solution technique • Conception et modélisation des données au niveau d'un Data Lake (format Parquet, Delta table, …) • Construction des pipelines de données pour collecter, transformer et traiter des données dans le Data Lake • Développements de notebooks (ex : Databricks) de traitements avancés des données • Cloud Datawarehousing (tuning, optimisation de traitements et requêtes SQL) • Rédaction de documentation technique (Dossier d'Analyse Technique, release delivery note, ….) • Revue de code • Réalisation de tests unitaires • Maintenance corrective et évolutive • Livraison dans un environnement Devops, CI/CD et outils associés

Freelance

Mission freelance
Développeur fullstack Java Angular Cloud AWS (H/F)

Insitoo Freelances
Publiée le
Angular
AWS Cloud
Java

2 ans
400-480 €
Lyon, Auvergne-Rhône-Alpes

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur fullstack Java Angular Cloud AWS (H/F) à Lyon, Auvergne-Rhône-Alpes, France. Contexte : Fonctionnement : sur site à Lyon 2 jours + Télétravail 3 jours Les missions attendues par le Développeur fullstack Java Angular Cloud AWS (H/F) : RÔLE - DÉVELOPPEUR Intégré à une équipe Produit, le développeur conçoit, développe et déploie les applications métiers. En plus de faire évoluer l'application, il participe à la surveillance de son bon fonctionnement en production et corrige les problèmes identifiés. RÔLE ET RESPONSABILITÉS Participe à l'ensemble des activités de développement logiciel au sein de son équipe(conception, dev, tests, déploiement) Participe aux différents ateliers de conception et cérémonies agiles Applique les meilleures pratiques de développement pour un code propre et maintenable (TDD, BDD, DDD, Pair programming...) Participe activement à la relecture du code des autres développeurs de l'équipe En fonction du niveau d'expertise, accompagne des développeurs plus juniors Force de proposition dans la résolution des problèmes, l'amélioration de la qualité du code et l'atteinte des indicateurs Accelerate (DORA Metrics) PROFIL TYPE Expertise le langage de programmation utilisé par le produit Maitrise des frameworks utilisés par le produit Angular, SpringBoot, NestJs, Serverless framework) Maitrise de l'utilisation de bases de données relationnelles ou no relationnelles Maitrise des services AWS les plus couramment utilisés en développement (Lambda, SNS, SQS, DynamoDB) Force de proposition dans la résolution des problèmes de code. Esprit d'équipe, sens du délai, de la qualité et des résultats

Freelance
CDI

Offre d'emploi
ML Expert

CHARLI GROUP
Publiée le
Agile Scrum
Databricks
Machine Learning

3 ans
10k-70k €
Île-de-France, France

Vous ferez partie de l'équipe d'Ingénierie en Intelligence Artificielle, au sein de la division Technologies Émergentes et Données (GETD) du groupe. Cette équipe transversale a pour mission de développer des initiatives basées sur l'IA (preuves de concept, preuves de valeur, pilotes) avec les différentes entités, les partenaires stratégiques, ainsi que de définir et de mettre en œuvre les meilleures pratiques, outils et modèles de collaboration en matière d'IA à suivre dans l'ensemble du groupe. Notre équipe est composée de 10 personnes réparties dans 3 pays (France, Espagne et Suisse) et nous travaillons en mode hybride (60 % à distance + 40 % sur site). Le groupe est un leader mondial de l'assurance et de la gestion d'actifs présent dans près de 60 pays. Nous utilisons l'Intelligence Artificielle pour protéger nos plus de 100 millions de clients dans tous les domaines clés de l'assurance (Dommages et Responsabilité Civile, Vie et Épargne, Santé, etc.). En tant qu'entreprise responsable, le groupe a défini et suit des principes d'IA responsable autour de la robustesse, de l'interprétabilité, de l'équité et de la durabilité. Responsabilités clés Dans ce rôle, vous devrez : Améliorer les solutions de machine learning de bout en bout développées et déployées sur la plateforme Databricks, depuis le prétraitement des données et l'ingénierie des caractéristiques jusqu’à l'entraînement, l'évaluation, le déploiement et la surveillance des modèles. Améliorer et mettre en œuvre des modèles/recettes Databricks pour augmenter la scalabilité des cas d'usage en IA. Remanier les notebooks en scripts de code de haute qualité qui feront partie des pipelines ML. Concevoir et optimiser les pipelines ML sur Databricks, en tirant parti de ses fonctionnalités pour rationaliser le processus de développement et de déploiement des modèles. Construire et maintenir une infrastructure MLOps évolutive et fiable sur Databricks, facilitant la gestion des versions de modèles, la surveillance et le déploiement automatisé. Codifier les meilleures pratiques pour la surveillance des performances des modèles, la détection de dérives et le réentraînement des modèles, en garantissant des modèles ML de haute qualité et à jour en production. Mettre en œuvre des pipelines CI/CD fiables et reproductibles. Mettre en œuvre des tests de données, de modèles et de code. Se tenir informé des derniers progrès en MLOps, LLMOps et technologies Databricks, et identifier proactivement des opportunités pour améliorer nos capacités en ML. Encadrer et fournir des conseils techniques aux équipes Data Science des entités AXA. Créer des actifs et des lignes directrices avec nos stagiaires et la communauté MLOps. Participer aux initiatives de gouvernance des données pour garantir la conformité et l'intégrité des produits IA.

Freelance
CDI

Offre d'emploi
Architecte Data Senior

AGH CONSULTING
Publiée le
Databricks

1 an
10k-68k €
Lyon, Auvergne-Rhône-Alpes

ous travaillerez avec le DPO, le Data Analyst, le Data Engineer et le Data Scientist de l'équipe, mais aussi avec la communauté des architectes pour définir une architecture de qualité avec une valeur métier pertinente et maintenable sur le long terme. De plus, vous aurez besoin de compétences en leadership pour assumer le rôle de leader technique et pour échanger avec les parties prenantes métier et l'Architecture d'Entreprise. Objectifs et livrables : L'objectif est de concevoir et de maintenir une architecture de données évolutive et de haute qualité. Livrables : Fournir un leadership technique et participer aux efforts de développement. Être un membre actif de la guilde des architectes pour superviser le processus de gestion des données. Participer à l'équipe de maintenance pour garantir la continuité des processus métiers. Produire de nouveaux composants en suivant les étapes du cycle de vie du projet dans le cadre technique imposé par le Groupe.

CDI

Offre d'emploi
Data analyst / big data

Proxiad
Publiée le
Apache Hive
J2EE / Java EE
Spark Streaming

10k-55k €
Île-de-France, France

Le bénéficiaire souhaite mettre en oeuvre plusieurs évolutions de son socle technique. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en terme de Data Analysis. Dans ce cadre la prestation consiste à contribuer à/au(x) : Amélioration des performances du dispositif INTERN sur les périmètres déjà couverts et de couvrir de nouveaux périmètres (nouveaux moyens de paiements, nouvelles entités etc.) Les livrables attendus sont les suivants : • exploration et parsing des données • conception d'algorithme de Machine Learning • développement de programmes de traitements de données (micro-services) en Scala/Spark • développement d'algorithmes Machine Learning • veille technologique d'outils contribuant à l'optimisation de la solution Les expertises attendues pour réaliser cette prestation sont listées ci-après :

Freelance

Mission freelance
DATA INGNEIEUR

MCONSULTING
Publiée le
Databricks
PySpark
Scala

12 mois
490-500 €
Châtillon, Île-de-France

Description détaillée : -Construction des pipelines de données pour collecter, transformer et traiter des données dans notre Data Lake sur Azure -Développement de notebooks de traitement avancés des données sur Databricks (Spark, langages Scala, SQL et Python) -Conception et modélisation des données au niveau du Data Lake (format Parquet, Delta) -Réalisation des tests unitaires -Rédaction de documentation technique (Dossier d'Analyse Technique, release delivery note, ….) -Préparation de package pour livraison en CI/CD avec les équipes DevOps -Réalisation des activités de maintenance corrective et évolutive -Participation aux cérémonies agiles (Sprint Planning, Daily, Spring Review, Demo,…

Freelance
CDI

Offre d'emploi
Intégrateur DevOps

NOSCO
Publiée le
Angular
Ansible
Apache Kafka

2 ans
10k-54k €
Lyon, Auvergne-Rhône-Alpes

Poste basé à Lyon avec 50% de télétravail maximum Activité principale : o Participation à l'amélioration continue de l'infrastructure, diagnostic et résolution des incidents de production et suivi de RUN o Maintenance et évolution de jobs Jenkins et CI/CD o Livraison en recette, production o Amélioration des métriques applicatives et des dashboards en place (Grafana) o Amélioration et exécution des tirs / scénarii de performance o Maintenance et amélioration de l'Infrastructure-as-code o Communication avec les équipes de développement et avec l'exploitant Activité secondaire : o Rédaction et maintien des documentations techniques o Mise en oeuvre des méthodes de modélisation des données et des traitements o Animation de réunions

Freelance

Mission freelance
It & Infrastructure Engineer (Devops)

HAYS MEDIAS
Publiée le
Ansible
AWS Cloud
Helm

4 ans
100-700 €
Strasbourg, Grand Est

Vous avez plus de 10 ans d’expérience en tant que développeur informatique expérimenté et développeur de plateformes et applications (systèmes informatiques/TO complexes) avec une expérience de préférence dans l’environnement biopharmaceutique. Vous faites preuve de maîtrise technique en architecture, ingénierie logicielle, intégration des logiciels, déploiement de code informatique. Vous possédez des connaissances techniques et une expérience pratique en conception, codage, intégration et déploiement du code qui fait partie de plateformes et de systèmes complexes, distribués et à charge de travail élevée, y compris les systèmes intégrés, IoT, analytiques, réseaux, sécurité et cloud.

Freelance

Mission freelance
Développeur Back-End Java/ Cloud - Toulouse (H/F)

LeHibou
Publiée le
Back-end
Big Data
Google Cloud Platform

6 mois
320-420 €
Toulouse, Occitanie

Dans le cadre du développement de ses activités, notre client va rechercher un développeur freelance expérimenté sur la partie Back-end. Vous participerez à la réalisation et à la maintenance de nos différentes applications commercialisées en mode SaaS, et à nos applications mobiles à destination de nos clients. Vous travaillerez selon la méthodologie Agile (ShapeUp) et avec un état d’esprit DevOps. Poste disponible à Toulouse 3 jours de présentiel sur site, 2 jours de TT Anglais courant / écrit est obligatoire

Freelance
CDI

Offre d'emploi
Senior Data scientist

Ela Technology
Publiée le
Databricks
PySpark
Python

6 mois
10k-45k €
Paris, France

Au sein de l’équipe logistique et transport au sein du domaine de la chaîne de valeur. Vous jouerez un rôle crucial dans l'utilisation de la donnée pour la création de la valeur - en développant des modèles d'IA en production et - en fournissant les informations pour optimiser divers aspects des opérations de chaîne d'approvisionnement. I. Missions : - Analyser de grands ensembles de données pour identifier les motifs, tendances et insights pertinents pour le département respectif de la chaîne d'approvisionnement . - Développer/faire évoluer des modèles prédictifs et des algorithmes d'apprentissage automatique pour optimiser les processus liés à la logistique et le transport . - Collaborer avec des équipes pluridisciplinaires (direction de la chaîne d'approvisionnement, l'ingénierie et le développement de produits) pour aligner les efforts de données et d'IA avec les objectifs commerciaux. - Concevoir et mettre en œuvre des outils de surveillance des modèles pour suivre les performances des modèles et mesurer l'efficacité des stratégies de chaîne d'approvisionnement. - Évaluer continuellement et améliorer les modèles et méthodologies existants pour améliorer la précision et l'efficacité. - Communiquer les résultats et les recommandations aux parties prenantes grâce à des présentations et des rapports clairs et concis. - Participer à faire monter en compétences les talents juniors sur des problématiques de prévisions de vente - Rester informé des tendances de l'industrie et des technologies émergentes en science des données et gestion de la chaîne d'approvisionnement.

Freelance
CDI

Offre d'emploi
DATA ARCHITECT

FREELANCE VISION
Publiée le
Azure
Databricks

12 mois
37k-200k €
Lyon, Auvergne-Rhône-Alpes

600 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous