Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 284 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Architecte secops Azure

R&S TELECOM
Publiée le
Azure
DevOps

12 mois
100-600 €
Île-de-France, France

1/Contexte : – L’équipe du Bureau de la Technologie Applicative (Application Technology Office) garantit la mise en œuvre de solutions informatiques partagées . Ainsi, un architecte de solution doit : Garantir l’alignement de l’architecture avec les entités opérationnelles Promouvoir les nouvelles normes du Groupe et les actifs partagés Contribuer à la définition de la vision et de la stratégie du Produit (dimension technologique) Assurer une intégration fluide et la meilleure adéquation entre tous les Produits partagés et les Systèmes d’Information des entités opérationnelles Contribuer à la réduction des coûts Assurer la durabilité des solutions (ex. maintenabilité, évolutivité, etc.) Garantir la conformité de toutes les solutions aux exigences en matière de protection des données et de sécurité

Freelance
CDI

Offre d'emploi
Chef de projet infrastructure confirmé

VISIAN
Publiée le
AWS Cloud
Back-end
Data Warehouse

1 an
10k-85k €
Bagneux, Île-de-France

Au sein de la délégation « Support & Opérations » de la DSI, le pôle « Infrastructure & Operations » a la responsabilité de l’infrastructure, l’outillage, et les projets de transformation. Pour mener à bien cette mission, plusieurs équipes travaillent en collaboration, et en particulier l’équipe transformation, qui est en charge des projets infrastructures. Nous recherchons donc un(e) chef de projet infrastructure confirmé qui aura pour missions : Gestion des projets de migration ou Upgrade dans le Cloud AWS, déploiement, transformation d’infrastructures, installation de sites Ateliers de cadrage avec différents interlocuteurs : architectes, éditeur, référents fonctionnels Pilotage, planification, coordination, reporting Etude et analyse de la solution cible Mise en place technique des solutions d’infrastructures systèmes Gestion opérationnelle d’infrastructures IT et de la sécurité. Gestion des escalades. Support technique avancé

CDI

Offre d'emploi
Data Architect Azure

Inventiv IT
Publiée le
Azure
Azure Data Factory
Azure DevOps Services

82k-107k €
Paris, France

🎯Inventifs Wanted Nous recherchons un architecte Data Azure ayant une expertise en architecture de données, chiffrage de projets Big Data et méthodologies Agile. Avec 8 ans d'expérience au minimum Travaillant sur plusieurs Projets Data; Participation à l’évaluation et à la livraison de composants Azure Conception et mise en œuvre d’architectures de solutions data sur Azure (data lakes, ingestion, service et consommation de données). Développement d’architectures Azure Data Lake pour stocker les données IoT et configurer Databricks. Implémentation de solutions utilisant Azure SQL Database, Azure Data Factory, et Azure SQL Managed Instance. Direction de projets cloud axés sur les services Azure et gestion de la qualité des livrables pour les projets de migration et d’infrastructure. Cadrage et chiffrage des divers projets Big Data Définition des solutions d’architecture Big Data dans le Cloud Azure Garantir la cohérence technique et la pérennité du système d’information. Mise en place de l'architecture des projets Big Data sur le Cloud Azure en rédigeant des Dossiers d’Architecture Logiciels (DAL) et en validant des Dossiers d’Architecture Technique (DAT). Migration des projets dans des nouvelles architectures (HDI vers AKS, Datalake Gen1 ver Gen2, AKS 1.19 vers AKS 1.) et concevoir de nouvelles solutions avec un monitoring de PaaS et une synchronisation des données de Prod et Hprod. Participation à des instances de : Design Authority, CoArch avec les Architectes Techniques, CAO (Comité d'Architecture Opérationnel) Validation de l'architecture du Product Incrément, à des réunions de qualification Validation avec le RSSI et au suivi de chantiers de résilience et de suivi FinOps. Conception de solutions BI avec Power Platform (Power BI, Power Automate, Power Virtual Agents). Création de rapports, tableaux de bord, et KPI avec Power BI, ainsi que gestion de la sécurité des données. Environnement Technique : Cloud Platform & Services : Azure, Azure API APPS, Azure DevOps, Azure Data Factory, Azure Data Lake, Azure Synapse Analytics, Azure Databricks, Azure IoT, Azure Stream Analytics, Azure SQL DB, Azure SQL Managed Instance Data & Analytics : Datalake, SQL, Power BI, Azure Synapse Analytics, Azure Databricks, Azure Data Lake, Azure Stream Analytics Automation & Scripting : PowerShell, CI/CD, Azure DevOps

Freelance
CDI

Offre d'emploi
Data Analyst

Oceane consulting
Publiée le
AMOA
Azure
Big Data

1 an
10k-65k €
Paris, France

Missions: • Réalisation d’études en lien avec le PO • Recueil des besoins et animation d’ateliers avec le métier, • De s'assurer de la conformité RGPD des traitements portés par l'entité • Réalisation des spécifications fonctionnelles (US et bugs), coordination avec le/la PO • Suivi des développements et participation aux séances de pair test • Recette • Suivi de production • Rédaction et mise à jour de la documentation. • Reporting et suivi • Définitions des KPI avec le Scrum et suivi du pilotage des KPI d’usage

Freelance
CDI

Offre d'emploi
Développeur NodeJS/AWS

Zsoft Consulting
Publiée le
Angular
AWS Cloud
Node.js

12 mois
10k €
Île-de-France, France

Nous recherchons un Développeur Full Stack passionné par les technologies modernes pour rejoindre notre équipe. Le candidat idéal aura une solide expérience avec Node.js pour le développement backend, ainsi qu’une maîtrise des services AWS pour le déploiement et la gestion des applications dans le cloud. Une bonne connaissance d’ Angular pour le développement frontend sera considérée comme un atout majeur. Le développeur sera responsable de la conception, du développement et de l'intégration d'applications web évolutives, performantes et sécurisées, tout en travaillant en étroite collaboration avec nos équipes produit et infrastructure pour offrir une expérience utilisateur optimale. Développer des applications web robustes et évolutives en utilisant Node.js côté backend. Concevoir et intégrer des APIs RESTful pour la communication avec le frontend et d'autres services. Utiliser les services AWS (Lambda, S3, DynamoDB, API Gateway, etc.) pour gérer les infrastructures cloud et assurer un déploiement continu. Collaborer avec l'équipe produit et les designers pour créer des applications centrées sur l'utilisateur. Intégrer Angular pour les interfaces utilisateur dynamiques (en tant qu'atout supplémentaire). Participer à l’optimisation des performances et à la gestion de la sécurité des applications. Travailler dans un environnement Agile/Scrum et participer aux cérémonies (stand-up, planning, rétrospective, etc.). Assurer la mise en œuvre des bonnes pratiques DevOps pour automatiser les tests et les déploiements continus. Rédiger une documentation technique claire et détaillée.

Freelance
CDI

Offre d'emploi
Data engineer AWS

Hexateam
Publiée le
Apache Spark
AWS Cloud
Databricks

24 mois
10k-60k €
Île-de-France, France

Dans le cadre de la croissance de HEXATEAM, nous sommes en quête permanente de nouveaux talents pour renforcer nos équipes. Nous cherchons actuellement deux profils Data Engineer AWS. Maîtrise des outils Databricks : Création et gestion de jobs, clusters et notebooks, ainsi que l'utilisation avancée de SQL pour effectuer des requêtes efficaces. Maintien en condition opérationnelle de la plateforme en production : Analyse et correction d'incidents et de défauts. Développement de jobs d'ingestion et de transformation des données : Utilisation de Python avec Spark pour traiter de grands volumes de données. Fourniture d'une vision à long terme : Proposition d'une stratégie opérationnelle et de développement de la plateforme data. Accompagnement et promotion des bonnes pratiques : Garantir la diffusion et l'application des standards de qualité. Participation aux ateliers de conception techniques et fonctionnels : Collaboration avec les équipes pour concevoir des solutions adaptées aux besoins. Rédaction et mise à jour de la documentation technique : Veiller à la documentation et à sa mise à jour continue. Indispensable : Python Spark SQL Databricks AWS (S3, Glue, AirFlow, Cloudwatch, Lambda, IAM) GIT COULD : Big Data CI/CD : Utilisation de GitLab pour l'intégration et le déploiement continus. Outils de gestion de projets : JIRA et Confluence pour le suivi et la documentation. Méthodologie Agile : Travail en mode Scrum. Bon niveau d’anglais

Freelance

Mission freelance
Expert Maximo

Management Square
Publiée le
Azure
Big Data
Cloud

2 ans
400-570 €
Massy, Île-de-France

Notre client, acteur majeur dans le secteur de la Défense, recherche un expert technique Maximo et intégration de systèmes pour son programme de verticalisation des métiers du Soutien. Vous intégrerez une équipe pluridisciplinaire au sein d'un Digital Competence Center (DCC) dédié à la transformation digitale. Votre mission principale sera de mettre en œuvre les processus et outils nécessaires pour assurer le SLA contractualisé d'un Système d'Information métier critique, en finalisant la continuité numérique entre les différents acteurs du contrat. Récolter et analyser les besoins fonctionnels et techniques Accompagner le Product Owner dans la gestion du backlog JIRA Être le point de contact privilégié avec les parties prenantes Participer à la rédaction de la documentation technique et fonctionnelle Valider les productions de l'équipe SI Animer les réunions techniques et fonctionnelles Livrer les interfaces techniques

Freelance
CDI

Offre d'emploi
Data Engineer Confirmé

Oceane consulting
Publiée le
Apache Spark
Azure
Azure DevOps Services

6 mois
10k-55k €
Paris, France

1 - Contexte La mission consiste à intégrer l'équipe Projets en charge de l'intégration des données de l'entreprise au sein de la plateforme Data sous le Cloud Azure afin de couvrir les besoins Big Data et BI. La personne sera intégrée dans l'équipe projet qui fonctionne dans une organisation en mode Agile. 2 - Description de la mission Nous recherchons un Data Engineer confirmé/sénior avec une forte expertise sur Azure, Databricks, Spark, Scala, Python et SQL Développement et l’implémentation de solutions Big Data Analytics Analyse du besoin, étude d'impacts et conception de la solution technique Conception et modélisation des données au niveau d'un Data Lake (format Parquet, Delta table, …) Construction des pipelines de données pour collecter, transformer et traiter des données dans le Data Lake Développements de notebooks (ex : Databricks) de traitements avancés des données Cloud Datawarehousing (tuning, optimisation de traitements et requêtes SQL) Rédaction de documentation technique (Dossier d'Analyse Technique, release delivery note, ….) Revue de code Réalisation de tests unitaires Maintenance corrective et évolutive Livraison dans un environnement Devops, CI/CD et outils associés

Freelance

Mission freelance
Techlead Maximo

Management Square
Publiée le
Azure
Cloud
Data visualisation

2 ans
400-500 €
Massy, Île-de-France

Notre client, leader dans le secteur de la Défense, recherche un Tech Lead Cockpit pour accompagner les équipes de développement sur Cockpit . Ce programme vise à maintenir les systèmes du SCCOA (Système de Commandement et de Conduite des Opérations Aérospatiales). Le consultant intégrera une équipe pluridisciplinaire et travaillera sous la responsabilité du responsable du projet SI. Audit de l'existant Proposition technique et discussion économique Gestion du backlog et de la roadmap Assurance de la qualité du delivery Rédaction de documentations Coordination entre les équipes Animation de réunions de planning (parfois en anglais) Validation des livrables avec les clients

Freelance

Mission freelance
Devops AWS, Dataiku, Gitlab, Terraform, python

Kaïbee
Publiée le
AWS Cloud
Dataiku
GitLab CI

2 ans
100-540 €
Île-de-France, France

Organisation : Le consultant rejoindra notre client dans l'équipe DevOps & Technologies au sein de la direction DATA du groupe (France et international). Cette équipe gère la plateforme Data, couvrant l'architecture, l'administration, DevOps, FinOps, et accompagne les équipes projets en assurant l'application des bonnes pratiques. L’écosystème technique inclut : AWS, Dataiku, GitLab CI/CD, Terraform, Ansible, IA, Snowflake, Braze, Spark, Python, Scala, etc. Nous recherchons un consultant DevOps expert en Dataiku, GitLab CI/CD, Terraform, AWS et Python. Il participera au développement avancé de l’Infrastructure as Code (IaC) et à l'amélioration continue de la plateforme data.

Freelance

Mission freelance
Développeur Fullstack Angular/Spring Boot/Azure

Cherry Pick
Publiée le
Angular
Azure
Java

12 mois
550-600 €
Paris, France

Objectifs et livrables Nous recherchons une prestation de Développeur Fullstack Angular/Spring Boot/Azure. Le prestataire participe au développement du produit répondant aux besoins Métier. Il résout également les bugs et teste les applications ou les services. Il devra notamment : Développer des applications web cloud natives (Azure), avec un enjeu de scale sur plusieurs sites, et à l'international. Implémenter les fonctionnalités et les tests associés, en veillant à la qualité du code (maintenabilité, testabilité, sécurité). Identifier, analyser et corriger les bugs et failles de sécurité éventuelle. Participer à la modélisation des bases de données. Contribuer aux choix technologiques et à l’innovation. Contributions transverses : Participer à la conception/maintenance des nouveaux outils/package communs à l’organisation. Challenger la vision de l’équipe. Participer aux CoP (Communautés de pratiques). Compétences requises : Avoir une forte expérience sur le Framework backend Spring / Spring Boot Une expérience poussée en Architecture Software (hexagonal serait un bonus) Maîtrise du framework frontend Angular (Latest version) Aisance avec la base de données SQL, telle que PostgreSQL Aisance avec les BDD NoSQL, telle MongoDB Une bonne expérience dans le développement des APIs REST (GraphQL est un bon bonus) La connaissance des micro-services serait un atout. Une appétence pour le software craftmanship / clean code Contribue à propager ses compétences, en squad, CoP et communauté Chapter. Et l’intiative de prendre le lead sur différents sujets dans la squad, accompagnent des juniors, PO, et stakeholders. Une bonne maitrise de git et une première expérience dans un contexte devops (CI/CD, avec GitHub ou similaire). Une expérience poussée dans les technologies cloud Azure serait un gros plus. Expérience réussie d’au moins 6 ans en développement logiciel. Spring ++++ Sénior Angular ++++ Sénior Azure +++ Avancé Niveau de compétence BDD NoSQL, telle MongoDB - Expert framework frontend Angular - Expert contexte devops (CI/CD, avec GitHub ou similaire). - Élémentaire graphQL - Avancé développement des APIs REST - Expert software craftmanship / clean code - Avancé Framework backend Spring / Spring Boot - Expert Git - Expert Architecture Software - Expert Cloud Azure - Avancé base de données SQL, telle que PostgreSQL - Expert Niveau de langue Anglais - Bilingue Français - Bilingue

Freelance

Mission freelance
Architect Data

VISIAN
Publiée le
Azure
Azure Data Factory
Databricks

3 mois
100-570 €
Boulogne-Billancourt, Île-de-France

L'equipe Datafinance utilise actuellement une architecture basée sur Databricks, Azure Blob Storage, Azure Data Factory et Azure Analysis Services pour traiter et analyser ses données financières. Nous cherchons à optimiser les processus de traitement de ces données, en particulier le rafraîchissement des données, pour améliorer la performance et la qualité des analyses. Dans ce cadre, nous recherchons un expert en BI et Data. L'objectif est d'optimiser le Temps de traitement et de rafraichissement des données. 2. Objectifs de la mission L'expert BI et Data sera chargé de : Optimiser le traitement des données du projet Data finance, en se concentrant principalement sur le processus de rafraîchissement des données entra la zone gold et le cube de données. Optimiser l'utilisation de Azure Analysis Services (modèle Tabulaire) pour les rapports et les analyses. 3. Technologies utilisées L'expert devra maîtriser les technologies suivantes : Databricks (en particulier avec PySpark). Azure Analysis Services (modèle Tabulaire). SQL . Git et Azure DevOps pour la gestion des versions et l'intégration continue. 4. Compétences requises Le candidat idéal doit posséder une expérience avérée dans les domaines suivants : Maîtrise de PySpark : pour le traitement et l'optimisation des données dans Databricks. Expertise en modélisation de données : capacité à concevoir et optimiser des modèles de données pour améliorer la performance et la gestion des données financières. Maîtrise du modèle Tabulaire dans Azure Analysis Services : pour optimiser le rafraîchissement des données et améliorer les performances des cubes. Bonne compétences en SQL 5. Livrables attendus Les livrables de la mission incluent : Mise en œuvre des optimisations dans Databricks et Azure Analysis Services. Documentation détaillée des modifications apportées et des bonnes pratiques mises en place. Transfert de connaissances aux équipes internes pour garantir une gestion continue des processus optimisés.

CDI

Offre d'emploi
Data Engineer GCP - BigQuery, Azure Data Factory et DBT

Hexateam
Publiée le
Azure Data Factory
BigQuery
Microsoft Power BI

40k-65k €
Paris, France

Nous recherchons un Data Engineer GCP - BigQuery, Azure Data Factory et DBT pour contribuer à des projets de transformation de données. Vous serez responsable de la conception et de la gestion des pipelines de données en utilisant Google BigQuery comme base de données principale, Azure Data Factory (ADF) pour le processus ELT , et DBT (Data Build Tool) pour orchestrer les transformations entre les bases de données BigQuery. Vous travaillerez sur des projets de captage et de transformation de données ainsi que sur la mise en place d'indicateurs et de rapports via des outils de BI tels que Power BI , SSRS ou d'autres plateformes de visualisation. Développement de pipelines de données (ELT) : Créer et maintenir des pipelines de données avec Azure Data Factory pour orchestrer l'extraction, le chargement et la transformation des données. Intégrer des flux de données provenant de multiples sources vers BigQuery pour le stockage et l’analyse. Gérer l'architecture des données, en assurant la qualité et la conformité tout au long du processus ELT. Transformation des données avec DBT : Utiliser DBT (Data Build Tool) pour transformer et modéliser les données au sein de BigQuery . Développer et maintenir des modèles de données modifiables et bien structurés pour répondre aux besoins d'analyse métier. Assurer une documentation claire des transformations et des modèles DBT pour faciliter leur réutilisation et leur maintenabilité. Gestion des données sur BigQuery : Assurer l'optimisation des performances des bases de données BigQuery en termes de stockage, de requêtes et de coûts. Implémenter les meilleures pratiques pour la gestion des données, y compris les partitions et les indexations. Mise en place de reporting et d'indicateurs : Collaborer avec les équipes métiers pour définir les KPI et concevoir des tableaux de bord personnalisés avec Power BI ou SSRS . Créer des visualisations interactives et dynamiques permettant d’analyser les données stockées dans BigQuery et issues des transformations réalisées via DBT . Automatiser les processus de reporting pour fournir des rapports en temps réel et des indicateurs fiables. Documentation et optimisation : Documenter toutes les étapes des pipelines de données, des transformations DBT et des processus de reporting pour garantir la transparence et la collaboration entre les équipes. Identifier et implémenter des solutions pour améliorer les performances des pipelines de données et des processus d'analyse. Collaboration inter-équipes : Travailler en collaboration avec les équipes data, DevOps, et les parties prenantes métier pour comprendre les besoins, résoudre les problèmes techniques et optimiser les flux de données. Participer activement à l'amélioration continue des processus et des outils.

Freelance

Mission freelance
Développeur Back NestJs avec expertise IA générative H/F

ODHCOM - FREELANCEREPUBLIK
Publiée le
Azure
Intelligence artificielle
NestJS

3 mois
100-700 €
Île-de-France, France

Nous recherchons un développeur Senior back end qui va pouvoir participer à un projet d'IA générative en interne à un client afin d'accompagner les différents métiers de l'entreprise : vous allez rejoindre une équipe de 3 dev, 1 PO, 1 tech lead et 1 QA la Web apps est actuellement Monolithe et l'objectif afin de permettre une utilisation simplifié et une meilleure performance est de pouvoir spliter en plusieurs services Responsabilités : • Architecture orientée Services: Mettre en place des architectures de services avec des mécanismes de découverte de service, en utilisant des outils tels que Eureka, Consul, Azure Service Fabric, ou des solutions basées sur Kubernetes. • Azure OpenAI Integration : Implémenter et optimiser des solutions basées sur les services Azure OpenAI pour des cas d’usage tels que la génération d’images, l’analyse de documents, et l’intégration du RAG. • Partage de Connaissance : participer activement à la communauté technique interne.

CDI

Offre d'emploi
Proxy Product Owner AZURE

AVALIANCE
Publiée le
Agile Scrum
Azure
Azure DevOps Services

40k-75k €
Issy-les-Moulineaux, Île-de-France

Nous recherchons pour notre client un proxy Product owner pour intervenir sur un projet de migration cloud azure Assister le Product Owner : Collaborer étroitement avec le Product Owner principal pour définir et prioriser le backlog du produit Participer à la planification des sprints et à la définition des objectifs de sprint Servir de point de contact entre les équipes de développement et les parties prenantes Aider à clarifier les exigences et à résoudre les obstacles rencontrés par l'équipe de développement Aider à gérer et à prioriser le backlog du produit en fonction des objectifs du produit et des retours des parties prenantes Participer à l'élaboration des user stories et des critères d'acceptation Préparer et présenter des rapports réguliers sur l'avancement du produit Compétences Techniques : Maîtrise des méthodologies Agile et Scrum, expérience avec les outils de gestion de projet Bonne connaissance du cloud azure

Freelance

Mission freelance
Développeur Node.Js (profil bordelais uniquement)

Cherry Pick
Publiée le
API REST
Azure
Node.js

12 mois
350-400 €
Bordeaux, Nouvelle-Aquitaine

Cherry Pick est à la recherche d'un Développeur Node.Js pour l'un de ses clients à Bordeaux. Missions : Vous travaillez sur l'intégration, la correction et l'évolution du Core Banking System en Javascript Vanilla JS et la création de nouvelles API REST en NodeJs. Ce CBS est branché sur un MongoDB, ou vous serez amenés a faire évoluer le modèle de données, et a créer/modifier un ensemble de pipelines d'agrégation. Vous évoluerez dans un contexte a fort enjeux de volumétrie, nécessitant d'optimiser ses développements pour gérer le volume de données à traiter. Le contexte de migration de SI implique que le profil doit être particulièrement rigoureux, avide de défi, flexible et à l'écoute afin d'être capable de s'adapter. Compétences attendues : JS / NodeJS, JEST ,API REST, MongoDB CI/CD, Rabbit MQ serait un plus

1284 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous