Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 218 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Product Owner (PO) expérimenté dans la Data

INSYCO
Publiée le
Agile Scrum
AWS Cloud
Safe

36 mois
500-570 €
Paris, France

Nous recherchons pour notre client grand compte leader international de son secteur, un Product Owner ayant au moins 5 ans d'expérience. Nous étudions - prioritairement - les candidatures qui nous sont adressées par MAIL (freelance à insyco . fr) avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin CV à jour au format Word Date de prochaine disponibilité Tarif journalier Merci d’indiquer la référence (KTR/4495) dans l’objet de votre mail --- CONTEXTE --- Dans le cadre du développement d'un produit d'ingestion automatisé de données, nous sommes actuellement à la recherche d'un PO ayant une forte appétence pour la data et ayant dans la mesure du possible déjà travaillé sur un projet à forts enjeux. Notre client travaille sur l'identification de certaines œuvres numériques. Son moteur d'identification texte, qui va intervenir aussi bien dans l'identification de déclarations online musicales (Youtube, Spotify, ...), audiovisuelles (Netflix, Disney, ...) que offline (radio, cinéma, TV, spectacles...). Ce produit a été créé en 2019, il s'agit d'un produit back office, qui à date n'a pas de front client. L'ensemble de la solution produit est techniquement conçue en lien avec le Tech Lead qui valide l'architecture logicielle à mettre en place sur le cloud AWS. Pour permettre à l'équipe d'être autonome, le PO sera notamment en charge : De la discovery : comprendre les besoins métiers notamment autour de l'identification manuelle et de l'explicabilité de nos résultats De la stratégie : pour embarquer les nouvelles familles (TV, cinéma, spectacle, ..) sur notre produit Du delivery : Implémenter les fonctionnalités, rédiger les User Stories, définir les tests d'acceptance. Suivi des instances (daily, retro, demo, point hebdo métiers) adaptées à l'équipe et au besoin. Communication des évolutions (release notes) et des incidents. L'équipe est composée de : 1 TL, 2 développeurs, 1 recetteur --- Activités et qualités --- Excellent relationnel et très bon rédactionnel Capacité à rédiger des spécifications fonctionnelles Rigoureux et organisé Connaissance et pratique de la méthodologie Agile Capacité à comprendre rapidement des enjeux très complexes (positionnement de l'équipe au sein du client, vision du produit, interlocuteurs clés, technicité des moteurs d'identification)

Freelance

Mission freelance
Tech Lead Ops

ESENCA
Publiée le
BigQuery
DevOps
Google Cloud Platform

3 mois
450-500 €
Lille, Hauts-de-France

Description du Projet : Au sein de l'équipe rattachée au domaine AI Solutions, vous jouerez un rôle crucial dans la supervision technologique et la scalabilité de deux suites de produits d'intelligence artificielle phares, destinés à l'ensemble de l'écosystème du groupe. Votre mission en tant que Tech Lead, sera de garantir l'efficacité, et la scalabilité de ces solutions, tout en vous assurant de leur alignement avec la stratégie technologique . L’équipe aujourd’hui constituée de 5 personnes est en forte croissance. *Vos principales missions : Leadership et Expertise Technique : > Fédérer l'équipe technique : Instaurer un environnement collaboratif et bienveillant, en guidant les développeurs vers les meilleures pratiques (DevOps, CI/CD, tests automatisés). > Garantir la réalisation de la roadmap : Superviser la roadmap produit en collaboration avec les Product Owners, en vous assurant de son adéquation avec la stratégie technologique en place > Décisions architecturales et sécurité : Prendre des décisions éclairées concernant l'architecture des solutions Excellence Opérationnelle et Innovation : > Maintien en conditions opérationnelles : Assurer la stabilité, la performance et la fiabilité des solutions. > Interopérabilité des technologies : Collaborer étroitement avec les autres Tech Leads de la plateforme. > Mise en place des bonnes pratiques : Promouvoir et implémenter les meilleures pratiques de développement et de DevOps. Collaboration et Amélioration Continue : > Support et assistance utilisateurs : Être à l'écoute des besoins des utilisateurs et leur garantir une expérience optimale. > Participation active aux processus de revue : Contribuer activement aux MOBs, pair reviews et autres mécanismes de collaboration pour améliorer continuellement la qualité du code et des produits. > Conformité au framework Global Ready : Veiller à la conformité des solutions avec les standards du framework technologique, en travaillant en étroite collaboration avec les équipes transverses Tech & Data.

Freelance

Mission freelance
Expert Data et BI

SKILLWISE
Publiée le
Azure Data Factory
Databricks
PySpark

3 mois
100-1k €
Paris, France

L’équipe utilise actuellement une architecture basée sur Databricks, Azure Blob Storage, Azure Data Factory et Azure Analysis Services pour traiter et analyser des données financières. Le client cherche à optimiser les processus de traitement de ces données, en particulier le rafraîchissement des données, pour améliorer la performance et la qualité des analyses. Dans ce cadre, nous recherchons un expert en BI et Data pour une mission de 3 mois. L'objectif est d'optimiser le Temps de traitement et de rafraichissement des données. Objectifs de la mission L'expert BI et Data sera chargé de : Optimiser le traitement des données du projet, en se concentrant principalement sur le processus de rafraîchissement des données entra la zone gold et le cube de données. Optimiser l'utilisation de Azure Analysis Services (modèle Tabulaire) pour les rapports et les analyses. Technologies utilisées L'expert devra maîtriser les technologies suivantes : Databricks (en particulier avec PySpark). Azure Analysis Services (modèle Tabulaire). SQL Git et Azure DevOps pour la gestion des versions et l'intégration continue Livrables attendus Les livrables de la mission incluent : Mise en œuvre des optimisations dans Databricks et Azure Analysis Services. Documentation détaillée des modifications apportées et des bonnes pratiques mises en place. Transfert de connaissances aux équipes internes pour garantir une gestion continue des processus optimisés.

Freelance

Mission freelance
Data Engineer

INSYCO
Publiée le
Gitlab
GitLab CI
Google Cloud Platform

15 mois
450-600 €
Paris, France

Nous recherchons pour notre client grand compte, secteur médias, un Data Engineer répondant au besoin ci-dessous. Nous étudions uniquement les candidatures qui nous sont adressées par MAIL [à freelance à insyco . fr] avec les informations suivantes : - Argumentaire écrit répondant de façon ciblée au besoin - CV à jour (format Word) - Date de prochaine disponibilité - Tarif journalier - Merci d’indiquer la référence VSE/DATA/4525 en objet du mail La Direction Technique du Numérique de notre client mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction Data a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l’expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d’aide à la décision. Avec pour objectif d’accélérer dans le déploiement de la Gouvernance des données au sein de notre plateforme Data, nous souhaitons constituer une nouvelle équipe en charge de déployer les différents datasets organisés par domaine de données. Cette équipe est composée d’un product owner, d’un data steward et d’un data ingénieur. Notre stack technique est principalement constituée de Python, Spark, SQL, dbt, BigQuery et Airflow pour l’orchestration des traitements. La stack inclut aussi d’autres services de la Google Cloud Platform. Missions de cette équipe : 1- Déployer les datasets normés sur un ou plusieurs des data domain suivants : Utilisateurs, Comportements et Référentiels 2- Accompagner les utilisateurs dans leurs usages 3- Mettre en place le contrôle qualité sur ces datasets Prestation attendue pour les 2 lots En interaction avec les membres de l’équipe, la prestation consistera à - Construire et maintenir de pipelines data robustes et scalables - Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données - Organiser et structurer le stockage des données - Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données - Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité des données - Construire et maintenir les workflows de la CI/CD centrés données - Collaborer avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur - Participer à la guilde des data ingénieurs - Assurer l’évolutivité, la sécurité, la stabilité des environnements - Contribuer et veiller à la mise à jour de la documentation - Faire de la veille technologique active dans le domaine - Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe

Freelance
CDI
CDD

Offre d'emploi
Senior SRE GCP (ref - AG)

FIRST CONSEIL
Publiée le
Ansible
Google Cloud Platform
Jenkins

6 mois
50k-62k €
Île-de-France, France

Compétences indispensables : Expert en infrastructure Azure/GCP Très bonne maîtrise sur la manipulation des certificats des reverse proxy (LB7 GCP, NGINX, HA proxy) Maîtrise des composants en Private access Excellente maîtrise de la gestion des droits Azure/GCP: l'objectif étant de respecter le principe de "moindre privilège". Excellente maîtrise autour des VPC Peering et les quotas associés. Tout est fait "as code" au travers de notre plateforme CI/CD (Terraform, Ansible, Jenkins..). Autres informations : Fonctionnellement, nos clients doivent pouvoir être autonomes et faire un maximum de "self service" sur les changements d’infrastructure, souvent orientés sur la configuration des équipements de sécurité et les expositions de services. Nous prenons en charge la complexité pour que l’usage soit facilité pour nos clients ! Nous agissons en tant que Cloud Service Provider interne. Nous fournissons les socles Cloud pour l’ensemble des projets. Nous construisons et faisons le run des infrastructures partagées pour différents types de workloads de production. Nous améliorons notre service en continu, via une automatisation toujours plus poussée (self healing, immutable) Nous utilisons les best practices SRE.

Freelance

Mission freelance
Linux Chef de Projet

Phaidon London- Glocomms
Publiée le
Administration linux
Administration Windows
Apache

3 mois
500-670 €
Paris, France

Rôle : Chef de projet technique Linux Durée de la mission : 3 mois renouvelables (projet à long terme) : 3 mois renouvelables (Projet à long terme) Lieu de travail : Paris Travail hybride Date de début : Immédiate Principales responsabilités : Installation et configuration de différents outils/applications Fournir un support aux autres chefs de projet Responsable de l'exactitude et de la mise à jour de la documentation Scripting et automatisation des tâches Superviser et fournir un support L3 si nécessaire Analyse des demandes des entreprises et fourniture de solutions techniques Pile technologique : Apache, TomCat, WebSphere, Linux, MySQL, SQL Server, Azure (PAAS, IAAS, Jenkins)

Freelance

Mission freelance
Data Engineer BI

CHARLI GROUP
Publiée le
Apache Spark
Apache Sqoop
BigQuery

3 ans
100-550 €
Île-de-France, France

➢ CONTEXTE * Au sein du domaine Data BI nous recherchons un Data Engineer qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l’équipe. À la suite d’une passation avec notre centre de service, il devra également être en mesure d’innover et d’améliorer les processus existants pour perfectionner l’efficience de l’équipe au quotidien dans ses différentes tâches. ➢ DESCRIPTION DE LA MISSION • Participe à l’analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l’analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l’acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d’étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d’alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d’exploitation) • Être force de proposition sur l’amélioration de notre stack Data • Faire le reporting d’avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S’assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l’équipe

Freelance
CDI

Offre d'emploi
System Administrator (OPS) - certifié redhat 9

IHC Conseil
Publiée le
Ansible
AWS Cloud
Azure

6 mois
24k-48k €
Luxembourg

Nous recherchons un Consultant Opérations Unix compétent pour rejoindre notre équipe informatique. Le candidat idéal doit posséder une expérience approfondie dans l'administration des systèmes Unix/Linux et sera responsable de garantir la stabilité, la performance et la sécurité de nos systèmes basés sur Unix. Le Consultant Opérations Unix travaillera en étroite collaboration avec d'autres professionnels de l'informatique pour concevoir, mettre en œuvre et maintenir des environnements Unix robustes. La mission est en full remote mais le candidat ne doit pas habiter à plus de deux heures du lieu de la mission (Luxembourg ville)

Freelance

Mission freelance
Ingénieur DevSecOps – Expert AWS et Terraform (H/F)

Insitoo Freelances
Publiée le
AWS Cloud
DevOps
Terraform

2 ans
450-600 €
Lyon, Auvergne-Rhône-Alpes

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Ingénieur DevSecOps – Expert AWS et Terraform (H/F) à Lyon, Auvergne-Rhône-Alpes, France. Contexte : Fonctionnement : sur site 2 jours à Lyon + 3 jours télétravail Les missions attendues par le Ingénieur DevSecOps – Expert AWS et Terraform (H/F) : Compétences d’ingénierie attendues Conception d’une solution Cloud pour un progiciel Gestion de configuration d’une application, Architectures microservices et 3-tiers, Déploiement automatisé, Intégration continue, Conteneurisation et Serverless Adaptation de progiciel aux Cloud (une expérience avec Planisware sera fortement valorisée) Analyse et implémentation des règles cyber émises par l’ENTREPRISE

Freelance
CDI

Offre d'emploi
Consultant(e) en Gestion des Vulnérabilités et Sécurité Cloud

AS INTERNATIONAL
Publiée le
Cloud
Cybersécurité

3 mois
10k-47k €
Yvelines, France

Vos Missions : Contextualisation des Vulnérabilités : Analyser et contextualiser les vulnérabilités détectées en fonction des spécificités de notre environnement technique. Soutien Technique : Apporter un support technique aux équipes dans la résolution des vulnérabilités identifiées, notamment sur les infrastructures cloud publiques (GCP, Azure, AWS). Bonnes Pratiques en Cybersécurité : Aider à la mise en œuvre des meilleures pratiques de cybersécurité pour les clouds publics, en se concentrant sur les processus de mise à jour et de gestion des vulnérabilités logicielles. Coordination : Participer aux réunions d'animation avec les équipes techniques et coordonner l'affectation des vulnérabilités aux équipes appropriées, que ce soit automatiquement ou manuellement. Reporting : Produire des comptes rendus d’activité réguliers pour assurer un suivi efficace des actions et des résolutions de vulnérabilités.

Freelance

Mission freelance
Data Engineer (Python Azure Spark)

Hanson Regan Limited
Publiée le
Apache Spark
Azure
Python

6 mois
100-500 €
Paris, France

Hanson Reganis recherche actuellement un Data Engineer (Python Azure) pour travailler avec une équipe de données existante sur une gamme de nouveaux projets passionnants et essentiels à l'entreprise. 2 jours par semaine sur site à Paris sont requis pour ce poste. Les candidats devront maîtriser Python (Spark), SQL et les requêtes SQL, les technologies Azure Cloud (Data Bricks et Data Facory) et Kubernetes. En raison des exigences de nos clients, nous ne pouvons accepter que les candidatures de freelances travaillant par l'intermédiaire de leur propre entreprise française. Malheureusement, nous ne pouvons pas accepter de solutions de portage pour ce poste. Si vous êtes intéressé, veuillez nous contacter dès que possible avec un CV à jour en utilisant les coordonnées ci-dessous.

CDI
Freelance

Offre d'emploi
ingénieur de production IBM cloud

AVA2I
Publiée le
AWS Cloud
Azure
DevOps

3 ans
10k-50k €
Île-de-France, France

Spécialisé dans le secteur bancaire, l'entreprise recherche activement un ingénieur de production IBM cloud pour renforcer ses effectifs. Vous serez responsable de la gestion et de l’optimisation de nos environnements de production, en assurant la continuité et la performance de nos applications et services. Responsabilités : Assurer la mise en production des applications et des services. Automatiser les processus de déploiement et de configuration. Surveiller et optimiser les performances des systèmes. Collaborer avec les équipes de développement pour intégrer les pratiques DevOps. Gérer les incidents et les problèmes de production. Participer à l’amélioration continue des processus et des outils. Maintenir une documentation technique précise et à jour. Assurer la sécurité et la conformité des environnements de production.

Freelance

Mission freelance
Développeur Full Stack ( Java,Angular, AWS)

TEOLIA CONSULTING
Publiée le
Angular
AWS Cloud
J2EE / Java EE

36 mois
520 €
La Défense, Île-de-France

Je cherche pour l'un de nos clients basé à la Défense, un développeur Full Stack (Java, Angular, AWS) Mission: L'ensemble de la solution produit est techniquement conçue en lien avec le Tech Lead qui valide l'architecture logicielle à mettre en place sur le cloud AWS. Pour permettre à l'équipe d'être autonome et d'atteindre le mantra "you build it, you run it", le développeur aura notament en charge : - Implémenter les fonctionnalités en accord avec le PO et le Tech Lead - Implémenter les tests unitaires / tests d'intégration / tests de bout en bout - Réaliser les codes reviews en collaboration avec les autres membres de l'équipe - Implémenter l'infrastructure (IaC) si besoin, accompagné du Sysops - Réaliser la maintenance en condition opérationnelle

Freelance
CDI

Offre d'emploi
skiils se renforce et cherche son Data engineer confirmé

skiils
Publiée le
Apache Airflow
Apache Spark
AWS Cloud

12 mois
10k-45k €
Hauts-de-France, France

Data Engineer maitrisant(e) pyspark et airflow qui aidera le client à construire de nouveaux indicateurs et à les fiabiliser. L"équipe Forecast a pour mission de mettre à disposition dans le Datalake , les datasets qui concernent les prévisions de ventes. Pour remplir à bien sa mission, le Data Engineer devra : - Comprendre un modèle de données et s'en servir, - Aider l'équipe à faire les meilleurs choix techniques, - Apporter une expertise sur la conception des indicateurs, - Maîtriser les bases de données et les outils de transformation, - Etre capable de transformer une donnée brute en un indicateur

CDI
Freelance

Offre d'emploi
Ingénieur DevOps Senior - Architectures IT/OT Complexes et Cloud

Reboot Conseil
Publiée le
Administration linux
Administration Windows
API

12 mois
10k-53k €
Strasbourg, Grand Est

Je recherche pour mon client, basé à Strasbourg, un candidat Freelance ou Salarié pour rejoindre les équipes en présentiel. Le client travaille en agilité, axe ses missions et ses développements autour de l'innovation, et vous évoluerez au sein d'une équipe internationale. Le poste est très complet, et si vous avez vu beaucoup de sujets ou de postes différents au sein de votre carrière entre développement et infrastructure, avec des connaissances en Cloud, vous pourrez vous épanouir et vous challenger ici!

Freelance

Mission freelance
DevOps Sénior avec une expérience en développement

SKILLWISE
Publiée le
AWS Cloud
CI/CD
Infrastructure

1 an
100-650 €
Paris, France

Vous intégrerez une équipe de passionnés d'architecture Cloud au sein d'un grand groupe dans le secteur du divertissement et participerez pleinement à faire évoluer un environnement technique très varié et up to date à travers les missions suivantes : Concevoir une roadmap ambitieuse en prenant en compte les besoins des développeurs et du produit. Étude et mise en place des outils de productivité à destination des développeurs. (Portail développeur, catalogue de service, infrastructure self-service, outils de CI/ CD…) Force de proposition sur les méthodologies et bonnes pratiques en termes de déploiement continue. Concevoir des architectures scalables et performantes sur le cloud (principalement AWS ) Travailler en étroite collaboration avec l’équipe d’infrastructure. Veille technologique dans le domaine du DevOps La stack : AWS (Principaux services): EKS, EC2, Route53, Cloudfront, S3, DynamoDB, Elasticsearch, MSK, Elasticache, Mediapackage, CloudWatch, SNS. OnPrem : FW, Routeur, SW, VMware, SAN/NAS, Haproxy, Nginx CI/CD : Github Actions, ArgoCD, Argo Workflows Monitoring : Prometheus, Grafana, Pagerduty, Datadog, Vector

1218 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous