Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 600 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI

Offre d'emploi
Senior Data scientist

Ela Technology
Publiée le
Databricks
PySpark
Python

6 mois
10k-45k €
Paris, France

Au sein de l’équipe logistique et transport au sein du domaine de la chaîne de valeur. Vous jouerez un rôle crucial dans l'utilisation de la donnée pour la création de la valeur - en développant des modèles d'IA en production et - en fournissant les informations pour optimiser divers aspects des opérations de chaîne d'approvisionnement. I. Missions : - Analyser de grands ensembles de données pour identifier les motifs, tendances et insights pertinents pour le département respectif de la chaîne d'approvisionnement . - Développer/faire évoluer des modèles prédictifs et des algorithmes d'apprentissage automatique pour optimiser les processus liés à la logistique et le transport . - Collaborer avec des équipes pluridisciplinaires (direction de la chaîne d'approvisionnement, l'ingénierie et le développement de produits) pour aligner les efforts de données et d'IA avec les objectifs commerciaux. - Concevoir et mettre en œuvre des outils de surveillance des modèles pour suivre les performances des modèles et mesurer l'efficacité des stratégies de chaîne d'approvisionnement. - Évaluer continuellement et améliorer les modèles et méthodologies existants pour améliorer la précision et l'efficacité. - Communiquer les résultats et les recommandations aux parties prenantes grâce à des présentations et des rapports clairs et concis. - Participer à faire monter en compétences les talents juniors sur des problématiques de prévisions de vente - Rester informé des tendances de l'industrie et des technologies émergentes en science des données et gestion de la chaîne d'approvisionnement.

Freelance

Mission freelance
Architect Data

VISIAN
Publiée le
Azure
Azure Data Factory
Databricks

3 mois
100-570 €
Boulogne-Billancourt, Île-de-France

L'equipe Datafinance utilise actuellement une architecture basée sur Databricks, Azure Blob Storage, Azure Data Factory et Azure Analysis Services pour traiter et analyser ses données financières. Nous cherchons à optimiser les processus de traitement de ces données, en particulier le rafraîchissement des données, pour améliorer la performance et la qualité des analyses. Dans ce cadre, nous recherchons un expert en BI et Data. L'objectif est d'optimiser le Temps de traitement et de rafraichissement des données. 2. Objectifs de la mission L'expert BI et Data sera chargé de : Optimiser le traitement des données du projet Data finance, en se concentrant principalement sur le processus de rafraîchissement des données entra la zone gold et le cube de données. Optimiser l'utilisation de Azure Analysis Services (modèle Tabulaire) pour les rapports et les analyses. 3. Technologies utilisées L'expert devra maîtriser les technologies suivantes : Databricks (en particulier avec PySpark). Azure Analysis Services (modèle Tabulaire). SQL . Git et Azure DevOps pour la gestion des versions et l'intégration continue. 4. Compétences requises Le candidat idéal doit posséder une expérience avérée dans les domaines suivants : Maîtrise de PySpark : pour le traitement et l'optimisation des données dans Databricks. Expertise en modélisation de données : capacité à concevoir et optimiser des modèles de données pour améliorer la performance et la gestion des données financières. Maîtrise du modèle Tabulaire dans Azure Analysis Services : pour optimiser le rafraîchissement des données et améliorer les performances des cubes. Bonne compétences en SQL 5. Livrables attendus Les livrables de la mission incluent : Mise en œuvre des optimisations dans Databricks et Azure Analysis Services. Documentation détaillée des modifications apportées et des bonnes pratiques mises en place. Transfert de connaissances aux équipes internes pour garantir une gestion continue des processus optimisés.

Freelance

Mission freelance
Leader technique fullstack Java Angular Cloud AWS (H/F)

Insitoo Freelances
Publiée le
Angular
AWS Cloud
Java

2 ans
450-550 €
Lyon, Auvergne-Rhône-Alpes

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Leader technique fullstack Java Angular Cloud AWS (H/F) à Lyon, Auvergne-Rhône-Alpes, France. Contexte : Fonctionnement : sur site à Lyon 2 jours + 3 jours télétravail Les missions attendues par le Leader technique fullstack Java Angular Cloud AWS (H/F) : RÔLE ET RESPONSABILITÉS PROFIL TYPE : A la tête d'une équipe de développeurs, il code avec eux, encourage leur montée en compétences, et cherche à rendre son équipe la plus autonome possible + Mène son équipe vers l'excellence (accompagnement au quotidien, soulever les points qui suscitent les bons questionnements,.…] + S'assure que l'équipe utilise les services et applique les bonnes pratiques + Travaille main dans la main avec le PO et l'EM de son équipe + Participe à la rédaction des dossiers techniques (HLD, CATE, DAT) + Comprend et porte la vision stratégique SI au sein de l'équipe + Collabore avec l'équipe Plateforme pour améliorer en continu l'expérience développer au sein de son équipe + Garant de la sécurité dans le cadre des développements Si, en lien avec les autres acteurs {Cloud Architect, DevSecOps Security Champion, …) + Participe au staffing des profils techniques de l'équipe + S'assure de la qualité du code et résout les problèmes rencontrés par son équipe + Qualifie les impacts et priorise avec le PO les remédiations des sujets de dette technique + Participe à l'élaboration, au suivi et au respect des KPI de l'équipe avec l'EM + Participe activement à la vie de l'usine de réalisation (communautés de spécialistes, InnerSourcing CodingDoja …) + Moteur de l'nnovation et de l'amélioration continue de l'équipe

Freelance

Mission freelance
Inégrateur d'exploitation (H/F)

CAT-AMANIA
Publiée le
Administration linux
Administration Windows
AIX (Advanced Interactive eXecutive)

12 mois
380-400 €
Vandœuvre-lès-Nancy, Grand Est

Dans le cadre d'un besoin exprimé par mon client dans le domaine des mutuelles basé à Nancy, vous allez rejoindre une équipe d'ingénieurs au sein d'un domaine, vos missions principales au sein de cette équipe seront : - Gestion des incidents de niveau 2 : Exploiter les chaînes applicatives au quotidien dont vous aurez la charge Analyser et résoudre des incidents batch, de monitoring, applicatif - Gestion des mises en production : S’assurer que les nouvelles versions sont déployées sans encombre en environnement Hors Prod et Prod Être garant du respect des processus - Automatisation des procédures : mettre en place des flows d'automatisation sur les actions récurrentes identifiées. - Amélioration continue : Êtes-vous prêt à repousser les limites du possible ? Bien, parce que nous cherchons à toujours nous améliorer - Astreintes : Selon le périmètre et la montée en compétence, des astreintes pourront être demandées. Vous allez évoluer dans un environnement technique où les compétences et les connaissances suivantes seront appréciées. Précisions, nous ne parlons pas de compétences d’administration spécifiques. - OS : Linux, AIX, Windows - Language : Shell, SQL, Ansible - Outils de CI/CD : Cloudbees, Gitlab - Ordonnanceur de production - Base de données : Oracle, PostgreSQL, SQL Server, MariaDB en majorité. - Autres compétences : Drupal, Wordpress, Openshift, AWS Travail en équipe : Indispensable. Une première expérience dans l'installation et l'exploitation d'applications serait fortement appréciée.

Freelance

Mission freelance
Expert Data et BI

SKILLWISE
Publiée le
Azure Data Factory
Databricks
PySpark

3 mois
100-1k €
Paris, France

L’équipe utilise actuellement une architecture basée sur Databricks, Azure Blob Storage, Azure Data Factory et Azure Analysis Services pour traiter et analyser des données financières. Le client cherche à optimiser les processus de traitement de ces données, en particulier le rafraîchissement des données, pour améliorer la performance et la qualité des analyses. Dans ce cadre, nous recherchons un expert en BI et Data pour une mission de 3 mois. L'objectif est d'optimiser le Temps de traitement et de rafraichissement des données. Objectifs de la mission L'expert BI et Data sera chargé de : Optimiser le traitement des données du projet, en se concentrant principalement sur le processus de rafraîchissement des données entra la zone gold et le cube de données. Optimiser l'utilisation de Azure Analysis Services (modèle Tabulaire) pour les rapports et les analyses. Technologies utilisées L'expert devra maîtriser les technologies suivantes : Databricks (en particulier avec PySpark). Azure Analysis Services (modèle Tabulaire). SQL Git et Azure DevOps pour la gestion des versions et l'intégration continue Livrables attendus Les livrables de la mission incluent : Mise en œuvre des optimisations dans Databricks et Azure Analysis Services. Documentation détaillée des modifications apportées et des bonnes pratiques mises en place. Transfert de connaissances aux équipes internes pour garantir une gestion continue des processus optimisés.

Freelance

Mission freelance
Tech Lead - Pipelines CI/CD avec GitLab

ALLEGIS GROUP
Publiée le
AWS Cloud
CI/CD
Java

6 mois
130-3k €
Hauts-de-Seine, France

Contexte : Le client est en pleine refonte de leur système de distribution de produits hôteliers, avec une nouvelle équipe dédiée à l’évolution et au maintien du service “Offer” et à l’accélération des pratiques d’ingénierie. Missions : Qualité du service : Assurer la qualité en production et organiser l’astreinte. Développement technique : Créer des solutions robustes et performantes (Java, Spring Boot, Kafka, MongoDB). Coaching : Former les développeurs aux bonnes pratiques (TDD, code review, pair programming). Indicateurs de performance : Mettre en place des indicateurs de qualité et de sécurité. Cohérence technique : Garantir la compatibilité avec l’architecture globale. Veille technologique : Proposer des solutions innovantes. Collaboration agile : Travailler en équipe avec le PO et les parties prenantes.

Freelance

Mission freelance
Data Engineer

Kaïbee
Publiée le
AWS Cloud
CI/CD
Python

1 an
100-600 €
Paris, France

PAS DE SOUS-TRAITANCE // MERCI En tant que Data Ingénieur, vous serez responsable de la conception, du déploiement et de la maintenance d'une infrastructure de données basée sur les bonnes pratiques du Well Architected Framework (WAF) d'AWS, en respectant les piliers suivants : Excellence opérationnelle, Sécurité, Fiabilité, Efficacité des performances, Optimisation des coûts, et Développement durable. Vous travaillerez en étroite collaboration avec le CTO et les Data Scientists pour construire et maintenir des pipelines de données robustes et sécurisés sur AWS. 1. Mise en place de pipelines de données robustes et scalables : Concevoir des pipelines de données serverless optimisés (e.g., step function, Lambda, S3, Redshift) pour gérer des données provenant de compteurs énergétiques en mode batch et en streaming. Structurer la donnée en zones fonctionnelles sur S3 (Landing, Raw, Trusted, Curated, Archive) et transformer les formats (e.g., XML en JSON, JSON en Parquet) pour optimiser les performances et réduire les coûts. 2. Excellence opérationnelle : Implémenter et automatiser des workflows CI/CD/CT avec GitHub Actions pour garantir des déploiements continus, sécurisés et sans interruption (via EKS, ECS, App Runner, Sagemaker) Mettre en place un monitoring avancé pour les pipelines de données et les modèles déployés, garantissant la détection proactive des anomalies et une maintenance efficace. (via cloudwatch, SNS) 3. Sécurité et fiabilité : Collaborer à la migration des applications R/Shiny vers des technologies plus familières et sécurisées (e.g. Kotlin ou Python) tout en respectant les standards de sécurité, notamment via des solutions telles que Posit Connect 4. Optimisation des coûts et développement durable Proposer des optimisations pour réduire les coûts de stockage et de traitement des données, en s’appuyant sur des services AWS adaptés et en optimisant les formats et processus de gestion des données. 5. Collaborer avec l'équipe Data Science Faciliter l'accès aux données de qualité pour les Data Scientists, en veillant à ce que les modèles puissent être intégrés efficacement dans les applications existantes

Freelance

Mission freelance
Ingénieur DevOps - Databricks

KatchMe Consulting
Publiée le
Databricks
DevOps

6 mois
100-700 €
Paris, France

L’entreprise se lance dans une initiative basée sur les données pour créer une base de données commerciales et des capacités d’analyse. Nous recherchons un ingénieur DevOps expérimenté , avec une expertise en Databricks , pour concevoir et mettre en œuvre l’infrastructure cloud (AWS ou Azure) requise pour la génération d’informations pharmaceutiques à grande échelle. Responsabilités : Créer, gérer et exécuter une infrastructure évolutive sur AWS ou Azure pour la solution Databricks. Mettre en œuvre des pipelines CI/CD et du code Terraform pour automatiser le déploiement, la mise à l’échelle et la surveillance des applications et des pipelines de données. Mettre en œuvre les tests des solutions développées. S’assurer que les protocoles de sécurité et les meilleures pratiques sont en place, notamment en ce qui concerne les données sensibles, y compris le cryptage et le contrôle d’accès. Travailler en étroite collaboration avec les ingénieurs de données et d’autres parties prenantes pour optimiser les flux de travail et les performances du système. Surveiller et gérer l’utilisation des ressources cloud pour optimiser les coûts.

Freelance

Mission freelance
Data Analyst senior

ALLEGIS GROUP
Publiée le
Data analysis

36 mois
440-570 €
La Chartre-sur-le-Loir, Pays de la Loire

- Communication avec les équipes Participer aux ateliers d’expression des besoins internes. Comprendre les problématiques métiers et les traduire de manière analytique. Etudier / réaliser le cahier des charges du rapport de métrologie attendu. - Analyser et explorer les données de plusieurs sources (BDD SQL, Active Directory, Azure Cloud, Microsoft Graph connectors …). Réaliser les tableaux de bord. Réaliser des tests statistiques sur les données. - Documentation / Transfert de connaissance Réaliser le Dossier d’Architecture Technique des cas d’usage. Amender les Dashboard avec les explications pour accompagner l’utilisateur sur la compréhension de la donnée. Accompagner les collaborateurs sur la compréhension des calculs du Dashboard.

Freelance

Mission freelance
BA data

TEOLIA CONSULTING
Publiée le
Business Analyst
Data analysis

3 mois
100-700 €
Paris, France

Pour un client dans le secteur de l'assurance , nous recherchons un Business Analayst data qui va aider à la mise en place d'une plateforme de développement et intervenir sur les points suivants : Analyse des besoins métiers : Comprendre et documenter les exigences des différentes équipes pour garantir que la plateforme réponde à leurs attentes. Gestion de projets : Piloter de petits chantiers et projets en collaboration avec les équipes techniques et métiers, en veillant au respect des délais et des budgets. Communication : Faire le lien entre la partie technique et les métiers, en traduisant les besoins fonctionnels en spécifications techniques claires. Support à la mise en place du référentiel de données : Collaborer avec les équipes techniques pour s’assurer que les données sont bien structurées et accessibles pour les utilisateurs métiers. Reporting : Concevoir et mettre en œuvre des solutions de reporting adaptées aux besoins des métiers. Un backround data analyst est un plus Environnement technique : Python , R , ETL Talend

Freelance
CDI

Offre d'emploi
Lead Technique

NOSCO
Publiée le
Apache Spark
Java
Spring Batch

6 mois
34k-57k €
Lyon, Auvergne-Rhône-Alpes

Poste basé à Lyon avec 50% de télétravail maximum Co-lead technique et développeur Spring Batch au sein d'une équipe de 3-5 personnes. Transformer des données provenant de différents partenaires et les agglomérer en une banque de donnée partagées via une application Spring Batch. Participation au diagnostic et à la résolution des incidents de production Collaborer avec le reste de l’équipe pour trouver les meilleures solutions aux problématiques techniques rencontrées Développements et revues de code sur des problématiques techniques complexes Support technique de dernier niveau

Freelance
CDI
CDD

Offre d'emploi
Administrateur Azure Databricks

Wolsome
Publiée le
Administration système
Azure
Cloudera

3 ans
10k-89k €
Nouvelle-Aquitaine, France

Compte rendu de la recherche de mon client (priorité Azure Databricks) : Objectifs et livrables : La mission vise à gérer et administrer Azure Databricks dans les équipes . Bien que l'administration commence sur une feuille blanche, les processus existants de l'ancienne équipe Azure Databricks seront transférés et améliorés sur une période de 3 mois. Lead sur l’administration d’Azure Databricks. Garantir le RUN et l’évolution des infrastructures sur Azure Databricks. Gestion des incidents de niveau 2 et 3 et actions préventives.

CDI
CDD

Offre d'emploi
SysOps (Linux) / DevOps (Ansible, Kubernetes) (H/F)

ALLEGIS GROUP
Publiée le
Ansible
DevOps
Kubernetes

6 mois
10k-45k €
Paris, France

Nous recherchons pour l'un de nos clients basés à Paris : Un(e) SysOps (Linux, RHEL) / DevOps (Ansible, Kubernetes) (H/F) Vous travaillerez pour un client prestigieux dans le secteur industriel, dans un environnement international stimulant. Vous serez intégré(e) à une équipe de 10 DevOps et collaborerez étroitement avec des équipes internationales. Responsabilités : Gérer et maintenir les systèmes Linux/Redhat. Automatiser les processus de déploiement et de gestion de configuration avec Ansible. Déployer et gérer des applications conteneurisées avec Kubernetes. Configurer et gérer des serveurs web avec Nginx. Participer aux réunions et gérer les incidents techniques en anglais. Collaborer avec les équipes de développement pour améliorer les processus CI/CD. Assurer la surveillance et la performance des systèmes et des applications.

Freelance

Mission freelance
Tech Lead Data

AGH CONSULTING
Publiée le
Data visualisation
ETL (Extract-transform-load)
Google Cloud Platform

1 an
100-600 €
Toulouse, Occitanie

Le candidat aura le rôle de leader technique pour l’équipe Revenue, où il/elle dirigera l'équipe sur les aspects techniques, les assistera, fournira des lignes directrices, etc. En plus de ces responsabilités de leadership, le candidat devra également contribuer aux tâches courantes du backlog de projets (corrections et nouvelles fonctionnalités). Il/Elle travaillera au sein d'une équipe composée de 8 personnes. Leadership technique : Le Tech Lead aura pour mission de guider l'équipe sur tous les aspects techniques liés aux projets de l'entrepôt de données (DWH). Il/elle devra définir et communiquer des lignes directrices techniques, assurer la cohérence des solutions, et veiller à la qualité des livrables. Il/elle sera également responsable d’assister les membres de l’équipe, de les coacher, et de les aider à résoudre des problèmes complexes. Cela inclut l’orientation sur les meilleures pratiques, la répartition des tâches, et la supervision du bon déroulement des projets techniques. Contribuer au backlog des projets en cours : En plus du rôle de leadership, le Tech Lead participera activement au développement et à la maintenance des projets en cours. Cela inclut la gestion des corrections (maintenance corrective pour résoudre les bugs) ainsi que l’implémentation de nouvelles fonctionnalités pour répondre aux besoins métiers et améliorer les processus existants. Le backlog actuel contient des projets centrés sur divers domaines liés à la gestion des ventes, des revenus, des frais, etc., et le périmètre peut évoluer au fil du temps avec l’ajout de nouveaux projets. Collaboration avec les équipes métiers et IT : Le Tech Lead sera en interaction directe avec les équipes métiers basées dans différentes localisations. Il/elle devra comprendre leurs besoins, traduire ces besoins en solutions techniques, et s'assurer que les projets alignés sur les objectifs métiers sont correctement priorisés. Du côté technique, le Tech Lead devra travailler en collaboration avec le chef de projet IT et l’ingénieur Data qui dirigent actuellement l’équipe pour assurer la coordination des activités et des ressources au sein de l’équipe. Participation à des projets d’innovation : Le rôle impliquera une forte part d’innovation, avec une attention particulière portée sur la transformation et l'optimisation des processus de données dans un environnement Big Data et SQL. L’utilisation de Powercenter pour l’ETL et d'outils de reporting comme SAP BI4 et Spotfire sera centrale pour le traitement des données. Le Tech Lead devra aussi anticiper les évolutions futures, notamment l’adoption de technologies comme Google Cloud Platform (GCP) , et intégrer ces nouvelles technologies dans les projets à venir.

Freelance
CDI

Offre d'emploi
Tech lead Data

Altedis
Publiée le
AWS Cloud
Control-M
Git

3 ans
50k-55k €
Île-de-France, France

Tech Lead Data Expérience requise : Minimum 5 ans, avec une expertise dans le domaine bancaire Missions principales : Proposition de solutions techniques et conception architecturale Mise en place d'une roadmap pour les migrations d'applications Gestion d'équipe technique et suivi de production Résolution des incidents de production et encadrement des nouveaux arrivants Support aux utilisateurs techniques et métiers Environnement technique : OS : Windows, Linux, AWS SGBD : Oracle 19c, DB2, PostgreSQL Langages : SQL, PySpark, Java Outils : AWS (Glue, Lambda...), DataStage, CONTROL-M, Jira, Jenkins, Git Méthodologie : SAFe (Agilité à l'échelle)

Freelance
CDI

Offre d'emploi
Data Engineer (F/H)

NOSCO
Publiée le
Apache Spark
Java
Oracle

2 ans
10k-50k €
Lyon, Auvergne-Rhône-Alpes

Poste basé à Lyon avec 50% de télétravail maximum Activité principale : Ses missions tournent autour de 4 axes : o Apporter une expertise en Big Data (Spark) pour faciliter la manipulation des données o Définir les solutions techniques permettant le traitement massif de données o Mettre en place des solutions de stockage de données (SQL, NoSQL, etc.) o Veiller la sécurisation et la clarté des pipelines de données pour faciliter l’analyse et la transformation Il s’appuie si nécessaire sur les référents techniques des diverses briques si ces dernières sortent du cadre de sa mission. Il met en avant ses qualités pour mener à bien ses missions : o Autonomie, rigueur et force de proposition o Capacités d'analyse et de synthèse. o Esprit d’équipe

600 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous