Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 290 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI

Offre d'emploi
ingénieur DevOps cloud expérimenté Google Cloud Platform et Azure

FREELANCE VISION
Publiée le
Azure
Bash
DevOps

12 mois
30k-200k €
Paris, France

Dans le cadre du développement vers le cloud public de notre client, nous sommes à la recherche d'un ingénieur cloud expérimenté sur Google Cloud Platform et Azure. Le but de cette mission sera d'implémenter, sur la base de scripts terraform, les architectures techniques définies par nos architectes, participer à la gestion du catalogue de service et suivre le backlog des tickets affectés au centre d'excellence cloud. La mission s'oriente autour de 3 axes : Suivi des tickets Gestion du catalogue de service Création/maintenance de modules terraform / pipeline CI/CD dans le cadre de nos déploiements "Infrastructure as Code" ou du déploiement d'applications Le premier use-case défini est la mise en place automatisée du provisionning de VM dans le Cloud au sein de notre Catalogue de Services BUILD Pilote les demandes et la réalisation sur le périmètre technique Propose des évolutions sur les outils Gestion du backlog interne qui recense les évolutions à venir Promotion/explication/accompagnement sur les différents services du catalogue vis-à-vis des différents interlocuteurs de la DSI Accompagnement des projets (chefs de projets, développeurs, partenaires etc.) sur l'utilisation des modules existants ou la définition du besoin pour la modification/création de nouveaux modules RUN Collabore au point production quotidien Assurer un suivi quotidien des incidents, tâches et changes affectés au centre d'excellence (suivi, affectation, réalisation, mise à jour du statut quotidien, routage etc.) Réaliser un reporting hebdomadaire de l'activité Travaille avec les équipes Architectures et opérateurs de services managés pour mettre en œuvre les mises à jour, les correctifs ou le dépannage nécessaires à la résolution des problèmes sur la chaine CI/CD Participe à l'analyse et à la résolution des incidents et des problèmes du périmètre technique Déploiement d'infrastructures sur GCP et Azure sur la base des architectures définies par nos équipes Scripting terraform pour le déploiement ou la mise à jour des plateformes Intégration des scripts de déploiement de l'infra as code dans notre Gitlab CI Documentation (Low Level Design) des plateformes déployées Mise à jour des tickets (incidents, tâches et changes) Objectifs de la mission et tâches Mettre en place les bonnes pratiques d’exploitation avec notre opérateur de Service managés Apporter l’expertise sur les outils d’exploitation (CI/CD, Terraform, Monitoring, …) Plateformes déployées et opérationnelles Production de la documentation d'implémentation et d'exploitation Automatiser partout ou c’est possible

Freelance
CDI

Offre d'emploi
Data Engineer Finance

VISIAN
Publiée le
Agile Scrum
Ansible
Apache Airflow

2 ans
10k-65k €
Charenton-le-Pont, Île-de-France

Récupérer les données issues de sources externes • Utiliser la puissance du Datalake • Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le datalake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner. • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels Aspects Humains : • Grande capacité à travailler dans une équipe, en mode Scrum / Kanban. • Bonnes compétences relationnelles et grand sens de la communication (capacité à entrer dans le détail). • Sensible et informé des évolutions technologiques sur les piles logicielles pratiquées.

Freelance

Mission freelance
Data Analyst - H/F - Lille (59)

Mindquest
Publiée le
Google Cloud Platform
Microsoft Power BI

6 mois
200-400 €
Lille, Hauts-de-France

Sous la responsabilité du responsable qualité & efficience, au sein de la Relation Client, vous travaillerez en étroite collaboration avec les différents métiers de la relation Client et de l’expérience clients auprès desquels vous insufflez votre vision “data centric”. “ Voice of customer analyst” vous produisez des métriques et des analyses dans l’optique de mesurer la qualité de nos process et la satisfaction clients, en identifiant les risques et les opportunités associés. Vous jouez un rôle clé de business partner dans la prise de décision des choix opérationnels et en les challengeant par de la donnée et des analyses fiables. Votre quotidien s'articule autour de la mesure, l’analyse et l’animation des données de la satisfaction client, et des actions d'amélioration continue : Garantir la fiabilité et la cohérence des données et des reportings sur le périmètre. Construire en autonomie des tableaux de bord dans les outils dataviz de l’entreprise (Qualtrics, Power BI, data studio,...) Réaliser des analyses approfondies en croisant les différentes sources de données notamment à partir des relevés des enquêtes d’écoutes téléphoniques ou bien notre NPS depuis l’interface Qualtrics et définir les modalités de diffusion des résultats. Proposer des nouveaux regards et approches, en proximité avec les besoins et les priorités du métier de l'équipe Relation Client et les partenaires.

Freelance
CDI

Offre d'emploi
skiils se renforce et recherche son Analytics Engineer GCP DBT pour ses équipes au Maghreb (remote)

skiils
Publiée le
Google Cloud Platform
Python

1 an
12k-200k €
Île-de-France, France

Dans le cadre de la mise en œuvre du programme de valorisation de la donnée de notre client, tu devras concevoir, implémenter et livrer les nouvelles fonctionnalités de stockage, de traitement et de visualisation de données intégrées aux produits de notre client qui soient robustes, sécurisées, évolutives, hautement disponibles et dynamiques. ACTIVITÉS PRINCIPALES Concevoir, développer, opérationnaliser, sécuriser et surveiller des systèmes de stockage, de traitement et de visualisation de données Développer et opérationnaliser des systèmes de stockage, de traitement et de visualisation de données Développer une compréhension fine et approfondie des domaines métiers et des modèles de données.

Offre premium
Freelance

Mission freelance
Data Analyst sénior

CONSULT IT
Publiée le
BigQuery
Google Cloud Platform
Microsoft Power BI

2 ans
500-510 €
Lille, Hauts-de-France

Dans le cadre de l'accompagnement des projets data de notre client, nous recherchons un Data Analyst expert, détenant une maitrise avancée du langage SQL dans un environnement Google Cloud Platform BigQuery , avec des compétences en analyse, préparation, nettoyage et croisement de données, ainsi que dans le calcul des KPI. La maîtrise de Power BI, notamment pour la création de dashboards visuellement attrayants et performants, est également un prérequis indispensable. Le candidat devra faire preuve d'une grande autonomie, d'une forte implication, et d'une excellente organisation.

Freelance

Mission freelance
Expert Data et BI

SKILLWISE
Publiée le
Azure Data Factory
Databricks
PySpark

3 mois
100-1k €
Paris, France

L’équipe utilise actuellement une architecture basée sur Databricks, Azure Blob Storage, Azure Data Factory et Azure Analysis Services pour traiter et analyser des données financières. Le client cherche à optimiser les processus de traitement de ces données, en particulier le rafraîchissement des données, pour améliorer la performance et la qualité des analyses. Dans ce cadre, nous recherchons un expert en BI et Data pour une mission de 3 mois. L'objectif est d'optimiser le Temps de traitement et de rafraichissement des données. Objectifs de la mission L'expert BI et Data sera chargé de : Optimiser le traitement des données du projet, en se concentrant principalement sur le processus de rafraîchissement des données entra la zone gold et le cube de données. Optimiser l'utilisation de Azure Analysis Services (modèle Tabulaire) pour les rapports et les analyses. Technologies utilisées L'expert devra maîtriser les technologies suivantes : Databricks (en particulier avec PySpark). Azure Analysis Services (modèle Tabulaire). SQL Git et Azure DevOps pour la gestion des versions et l'intégration continue Livrables attendus Les livrables de la mission incluent : Mise en œuvre des optimisations dans Databricks et Azure Analysis Services. Documentation détaillée des modifications apportées et des bonnes pratiques mises en place. Transfert de connaissances aux équipes internes pour garantir une gestion continue des processus optimisés.

Freelance

Mission freelance
Architecte et expert Oracle Exadata

STHREE SAS pour HUXLEY
Publiée le
Big Data
Infrastructure
Oracle Database

3 mois
800-900 €
Île-de-France, France

Contexte : Dans le cadre du développement de notre infocentre RH pour notre client et de la solution BI RH, nous recherchons un Architecte Oracle Exadata. Ce rôle crucial impliquera d'abord une participation active à un Proof of Concept (POC), puis une implication dans le projet de migration depuis l'infrastructure BigData vers Oracle Exadata. Missions : 1. Conseil et Expertise : - Conseiller sur l'utilisation optimale d'Oracle Exadata. - Fournir une expertise technique en matière de performance, de fiabilité et de sécurité des bases de données. 2. Architecture : - Définir et concevoir l'architecture de la base de données Oracle Exadata. - Assurer l'intégration de la solution Oracle Exadata avec les systèmes existants. 3. Optimisation : - Identifier et implémenter des stratégies d'optimisation des performances des bases de données. - Surveiller et ajuster les configurations pour maximiser l'efficacité opérationnelle. 4. Stratégie d'Administration : - Développer et mettre en place une stratégie globale d'administration des bases de données Oracle Exadata. - Superviser les procédures de sauvegarde, de récupération et de maintenance des données. 5. Participation au POC : - Travailler en étroite collaboration avec les équipes projet pour le POC de l'infocentre RH du client et la Solution BI RH. - Apporter des solutions techniques et assurer la faisabilité du projet. 6. Post-POC et Migration : - Intervenir dans le projet de migration de l'infrastructure BigData vers Oracle Exadata. - Fournir un support continu et des améliorations post-migration.

Freelance
CDI

Offre d'emploi
CONSULTANT REPRISE DE DONNEES ERP F/H - AIX-EN-PROVENCE (13) - 100% PRESENTIEL

HIGHTEAM GRAND SUD
Publiée le
Data analysis
Data management
ERP

1 an
10k-55k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez notre client en qualité de Consultant Reprise de Données ERP F/H. A ce titre, vous serez en charge de : Analyser les besoins liés à la reprise des données Rédiger les spécifications fonctionnelles détaillées et réaliser le mapping des données Source – Cible Accompagner les développeurs Analyser les données source, qualité et besoin de transcodification Réaliser les tests nécessaires Le poste est basé à Aix-en-Provence (13) . Une présence sur site à 100% est impérative.

CDI
Freelance

Offre d'emploi
Ingénieur Infra Cloud (AZURE/ GCP)

OCSI
Publiée le
Azure
Google Cloud Platform

12 mois
10k-61k €
Île-de-France, France

Rôle principal : Concevoir, déployer et maintenir les infrastructures cloud robustes et évolutives. Collaborer étroitement avec les équipes de développement logiciel, les équipes techniques et les architectes pour garantir des solutions performantes et sécurisées. Déploiement d’architectures cloud : En collaboration avec les architectes, l’ingénieur participera à l’élaboration des architectures cloud robustes en utilisant des services tels qu’Azure ou GCP. Le déploiement se fera via des outils comme Terraform et Ansible, qui permettent de décrire l’infrastructure en code et de la déployer de manière reproductible. Gestion des ressources cloud : L’ingénieur sera responsable de la création, de la configuration et de la gestion des ressources cloud. Il/elle devra surveiller les performances, optimiser les coûts et s’assurer que les ressources sont correctement dimensionnées. Intégration dans les pipelines CI/CD : Travaillant en étroite collaboration avec les équipes de développement, l’ingénieur devra intégrer les meilleures pratiques d’infrastructure dans les pipelines CI/CD. Cela peut inclure l’automatisation du déploiement, la gestion des secrets, la mise en place de tests d’intégration, etc. Principales tâches : Résolution des problèmes d’infrastructure : Diagnostiquer et résoudre les problèmes liés à l’infrastructure cloud. Gestion des ressources cloud : Création, configuration et gestion des ressources cloud. Surveiller les performances, optimiser les coûts et s’assurer que les ressources sont correctement dimensionnées. Intégration dans les pipelines CI/CD : Intégrer les meilleures pratiques d’infrastructure dans les pipelines CI/CD. Cela peut inclure l’automatisation du déploiement, la gestion des secrets, la mise en place de tests d’intégration, etc. Résolution des problèmes d’infrastructure : Diagnostiquer et résoudre les problèmes liés à l’infrastructure cloud. Cela peut inclure des problèmes de performance, de sécurité, de disponibilité, etc. Collaboration avec les équipes : Travailler en étroite collaboration avec les développeurs, les ingénieurs de production, les architectes et les autres membres de l’équipe afin de garantir que l’infrastructure répond aux besoins des applications. Participer à des réunions d’équipe, partager les connaissances et contribuer à l’amélioration continue des processus

Freelance

Mission freelance
Data Engineer GCP Finance

HIGHTEAM
Publiée le
Apache Spark
BigQuery
Google Cloud Platform

3 ans
400-550 €
Île-de-France, France

Dans ce cadre, nous recherchons un développeur Full Stack, ayant une solide expérience dans le Cloud GCP Récupérer les données issues de sources externes • Utiliser la puissance du Data Lake • Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels. Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le data Lake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner. • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels • Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise • Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent • Acheminement de la donnée • Mise à disposition de la donnée aux équipes utilisatrices • Mise en production de modèles statistiques • Suivi de projet de développement • Développement job spark • Traitement et ingestion de plusieurs formats des données • Développement des scripts • Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données • Développement des moyens de restitution via génération de fichier et ou API & Dashboarding • Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers • Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des Spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) • Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP • Participer à la conception, mise en place et administration de solutions Big Data • Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data Lake via des topics Kafka • Normalisation et agrégation des données afin de produire les rapports sous forme de Business View

Freelance

Mission freelance
Consultant BI

Enterprise Digital Resources Ltd
Publiée le
BI
Business Object
Data visualisation

13 mois
100-400 €
Hauts-de-France, France

Intégré dans une équipe projet transverse aux équipes Enjeux Digital Data, ayant pour objectif de décommissionner l’outil Business Object, la mission sera de: - Préparer et réaliser les tests des tableaux de bord (y compris la pertinence des données) - Analyser les résultats et rédiger le rapport de tests - Identifier et traiter les dysfonctionnements éventuels - Identifier les opportunités d'amélioration et formuler des recommandations pour optimiser les tableaux de bord - Accompagner les métiers dans leur montée en compétence sur l’outil

CDI

Offre d'emploi
Ingénieur DEVOPS Cloud GCP

Management Square
Publiée le
Google Cloud Platform
Linux
Puppet

10k-40k €
Sophia Antipolis 1, Provence-Alpes-Côte d'Azur

Nous recherchons un ingénieur DEVOPS Cloud GCP passionné par les technologies Cloud et prêt à relever de nouveaux défis pour rejoindre notre équipe dynamique et innovante. Responsabilités : Concevoir, mettre en œuvre et gérer des solutions Cloud sur la plateforme Google Cloud Platform (GCP) Travailler en étroite collaboration avec les équipes de développement pour automatiser les processus de déploiement et de gestion de l'infrastructure Garantir la sécurité et la disponibilité des applications Fournir des conseils et des recommandations pour optimiser les coûts et améliorer les performances de l'infrastructure Cloud

Freelance
CDI

Offre d'emploi
Ingénieur sécurité CLOUD

NETSEC DESIGN
Publiée le
Azure
Google Cloud Platform

3 ans
10k-200k €
Guyancourt, Île-de-France

On recherche pour notre client final grand compte un Ingénieur sécurité cloud pour le maintien en condition des équipements de sécurité - Mise en place des infrastructures réseau et sécurité au sein des Clouds GCP, AZURE - Mise en place des solutions d'interconnexion - Support niveau 3 sur tout incident opérationnel sur les équipements sécurité dans l'environnement cloud et datacenters associés - Identifier et mettre en place les correctifs et évolution des ingénierie si nécessaire - Rédaction de procédure et de document technique à suivre par les équipes assurant les niveaux 1 et 2 - Accompagnement des projets pour la mise en place de l'environnement réseau associé (flux, routage, ...) - Participation aux projets de modernisation des différentes services réseaux ( Firewalls, dns, router, ...) - Suivi des actions de remédiation pour corriger les vulnérabilités sécurité et Mise en conformité les équipements et réseaux et sécurité concernés

Freelance
CDI

Offre d'emploi
skiils se renforce et recherche son/sa DevOps pour renforcer ses équipes au Maghreb (remote)

skiils
Publiée le
Azure
Google Cloud Platform

1 an
10k-200k €
Île-de-France, France

En tant qu'ingénieur DevOps, et dans un contexte AGILE et d’intégration et de delivery continu (CI/CD), vous rejoindrez un de nos clients sur un environnement multi Cloud Azure/GCP. Vous serez en relation directe avec les équipes projets, les équipes en charge de fournir les services socles, les exploitants et les architectes Cloud. Votre Rôle Sera De Contribuer à la conception bas niveau des solutions, Déployer les environnements techniques et les intégrer dans l’écosystème cible, Vérifier la compatibilité entre les différents composants logiciels, matériels ou systèmes , Intégrer et tester la solution dans les différents environnements techniques (Intégration, Préproduction…), Contribuer à la rédaction des manuels d’installation et d’exploitation de la solution, Apporter le support aux OPS en charge du déploiement des solutions, Contribuer aux supports et aux évolutions sur la chaîne outillée CI/CD.

Freelance
CDI

Offre d'emploi
Tech Lead GCP Bigquery DBT

GRADIANT
Publiée le
BigQuery
Google Cloud Platform
SQL

1 an
10k-62k €
Île-de-France, France

Nous recherchons un Tech Lead Data expérimenté pour rejoindre l'équipe client et piloter des projets data stratégiques. Vous aurez un rôle clé dans la conception et la mise en œuvre de solutions de data pipeline, d’analytique et de reporting, tout en accompagnant une équipe d’ingénieurs data. Vous interviendrez principalement sur des technologies telles que BigQuery , DBT , Looker , SQL et Airflow . Vous justifiez d’au moins 8 ans d’expérience en tant qu’ingénieur data ou Tech Lead, avec une expertise démontrée sur l'environnement technique. Une expérience dans le retail est un plus.

Freelance

Mission freelance
Concepteur Développeur

Coriom Conseil
Publiée le
Architecture
Framework
Google Cloud Platform

12 mois
100-530 €
Lille, Hauts-de-France

Evolutions dans un contexte Agile au sein d'une équipe produit Compétences techniques Java Webflux - Expert - Impératif GCP/Kubernetes - Confirmé - Impératif Framework Front type vueJS/AngularJS/ReactJS - Confirmé - Important Architectures microservices - Expert - Important Connaissances linguistiques Français Courant (Impératif) Anglais Professionnel (Impératif) Description détaillée À la demande du Métier, il analyse, paramètre et code les composants logiciels applicatifs dans le respect des évolutions souhaitées, des normes et des procédures. Description actuelle du projet Nous recherchons 1 développeur fullstack expérimenté avec idéalement des compétences devOps éprouvées Elle intervient sur : - L'authentification / gestion du compte client - Historique des achats - Listes de courses et favoris L'équipe cible sera constituée de: - 1 PO - 1 QA - 4 à 6 développeurs Le développeur s'intégrera dans une équipe produit auto-gérée, qui fonctionne en agilité dans la gestion de son backlog qui s’anime autour de rituels Scrum. Les pratiques devOps sont privilégiées, l'équipe assure le BUILD et le RUN du produit (support de dernier niveau)

1290 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous