Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 403 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI

Offre d'emploi
Chef de projet Datalake /Sales Forces

GRADIANT
Publiée le
Gestion de projet
Salesforce Sales Cloud

1 an
10k-51k €
La Défense, Île-de-France

Missions : Diriger le projet « Call Center », visant à remplacer l'actuel centre d'appels par une nouvelle solution. Gérer le backlog de l'équipe « Datalake » afin d'assurer une livraison conforme aux priorités établies. Pour cela, le candidat devra : Garantir le respect des délais, du périmètre, du budget et de la qualité attendue du projet. Coordonner les parties prenantes internes et externes impliquées dans le projet. Activités : Préparer et animer les différents comités (COPRO, COPIL...) ainsi que réaliser le reporting aux différentes instances de gouvernance. Assurer la gestion du planning (Reste À Faire), des ressources (Capacity Planning) et du budget. Veiller au respect des processus (Architecture Review Board, Comité d'engagement). Compétences techniques : Solide maîtrise de Salesforce. Bonne connaissance des techniques de gestion de projet (RAF, gestion des risques, dépendances...). Maîtrise de la gestion d’un backlog et des cérémonies Agile. Bonne connaissance d’un outil de planification (la maîtrise de Sciforma serait un plus). Bonne maîtrise de JIRA.

CDI

Offre d'emploi
Tech Lead Python

GREEN LINKS
Publiée le
AWS Cloud
Dash
J2EE / Java EE

45k-65k €
Toulouse, Occitanie

Missions : En tant que Tech Lead Python, vous jouerez un rôle clé dans la conception et la mise en œuvre de solutions logicielles innovantes. Vos missions incluront : Définir et documenter l'architecture logicielle : Vous serez responsable de l’élaboration des architectures logiciels, en intégrant des technologies modernes et en assurant la performance, la sécurité et la scalabilité des solutions. Leadership technique: définir les orientations techniques, encadrer et former les équipes de développement. Vous promouvrez les meilleures pratiques de développement, conduirez des revues de code et résoudrez des problématiques techniques complexes. Développement full-stack : développer les nouvelles fonctionnalités.

Freelance

Mission freelance
Ingénieur Active directory H/F

LeHibou
Publiée le
Active Directory
Azure Active Directory

1 an
380-720 €
Évry, Île-de-France

Description de la mission: Notre client, leader dans le secteur de l'hôtellerie, cherche à renforcer son pôle Digital Workplace, responsable des outils collaboratifs, des solutions de messagerie, de la gestion des appareils des utilisateurs finaux et de la gestion des identités et des accès. L'équipe Digital Workplace Identity agit comme les derniers remparts / dernières lignes de défense et doit faire face aux incidents et demandes que les équipes de support L3 ne peuvent pas traiter. Les ingénieurs/architectes sont basés dans le TechCenter d'Evry, et l'équipe de support de L3 est basée en Inde (Offshore). En tant qu'expert en identité, vous serez responsable de la construction des solutions de demain qui répondent aux défis d'identité du groupe. Vous évoluerez dans un contexte mondial pour lequel il vous sera demandé d'être moteur de nouvelles architectures et d'utiliser votre expertise pour simplifier, optimiser et standardiser la gestion des identités. Missions et responsabilités - Suivi et évolution de la sécurité Active Directory + Entra ID - Veiller au respect du principe de Tiering - Développer des alertes pour s'assurer que les meilleures pratiques sont mises en œuvre - Développer des automatismes pour appliquer les correctifs - Rédiger et maintenir des guides de durcissement - Rester à jour pour détecter les nouvelles failles. - Assurer les bonnes pratiques des équipes CDS et Run

CDI

Offre d'emploi
Data engineer GCP

OPSKY
Publiée le
Google Cloud Platform
Python

45k-65k €
Île-de-France, France

Au sein des équipes DATA des DSI clientes, vos responsabilités seront les suivantes : Contribuer à la stratégie de migration cloud Analyser et développer les fonctions autour de la migration Veiller à la sécurisation des développements et des données Contribuer à la mise en œuvre de solutions full DevOps (CI/CD) Veiller à l’amélioration continue des outils Veiller à la capitalisation des bonnes pratiques Maîtrise des environnements suivants : Google Cloud Platform (GCP) et/ou AWS Automatisation et intégration continue (CI/CD) Conteneurisation (Dockers, Kubernetes, etc) Python API management

Freelance
CDI
CDD

Offre d'emploi
Data Engineer BI

Data Performance
Publiée le
BigQuery
Google Cloud Platform
MySQL

6 mois
10k-66k €
Île-de-France, France

CONTEXTE Au sein de la Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté. Le candidat retenu intègrera la squad dédiée au périmètre E-Commerce. Notre Data Factory joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Nous nous concentrons sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour nos équipes. DESCRIPTION DE LA MISSION · Participe à l’analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. · Utilise l’analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets · Conçois, développe et maintien les pipelines de données pour l’acquisition, la transformation, le stockage et la mise à disposition des données. · Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale · Identifie et résout les goulots d’étranglement et les problèmes de performances dans les flux de données · Met en place des processus et des contrôles pour garantir la qualité des données · Conçoit et met en œuvre des systèmes d’alerte, de monitoring et de reprise automatique efficaces. · Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO · Rédaction des documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d’exploitation) · Être force de proposition sur l’amélioration de notre stack Data · Faire le reporting d’avancement des travaux · Support au déploiement · Assure la maintenance corrective ou évolutive S’assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l’équipe ENVIRONNEMENT TECHNIQUE L’environnement Data dans le cadre de cette mission est actuellement constitué principalement d’une base de données Teradata (Cloud) ainsi qu’un environnement BigQuery. · Langages/Framework : SQL, BigQuery, Python, Java, Shell · Outils : Talend, DataForm · Base de données : Teradata, BigQuery, SQL Server, IBM DB2

Freelance

Mission freelance
Développeur Backend

EMGS CONSULTING
Publiée le
Apache Kafka
Google Cloud Platform
Mongodb

6 mois
400-450 €
Lille, Hauts-de-France

Nous recherchons un renfort pour contribuer au développement du moteur d’offres promotionnelles, qui constitue le cœur de l’activité de l’équipe. L’équipe est également responsable de la gestion des référentiels de comptes fidélité pour toutes les Business Units du groupe. Missions : Contribuer au développement au sein d’un contexte de projet Agile ; Définir la vision technique des produits ; Rédiger les spécifications techniques ; Assurer l’amélioration continue des applications ; Rédiger la documentation technique ; Participer à la maintenance (RUN) et à l’analyse des problèmes.

Freelance

Mission freelance
Data Engineer

INSYCO
Publiée le
Gitlab
GitLab CI
Google Cloud Platform

15 mois
450-600 €
Paris, France

Nous recherchons pour notre client grand compte, secteur médias, un Data Engineer répondant au besoin ci-dessous. Nous étudions uniquement les candidatures qui nous sont adressées par MAIL [à freelance à insyco . fr] avec les informations suivantes : - Argumentaire écrit répondant de façon ciblée au besoin - CV à jour (format Word) - Date de prochaine disponibilité - Tarif journalier - Merci d’indiquer la référence VSE/DATA/4525 en objet du mail La Direction Technique du Numérique de notre client mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction Data a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l’expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d’aide à la décision. Avec pour objectif d’accélérer dans le déploiement de la Gouvernance des données au sein de notre plateforme Data, nous souhaitons constituer une nouvelle équipe en charge de déployer les différents datasets organisés par domaine de données. Cette équipe est composée d’un product owner, d’un data steward et d’un data ingénieur. Notre stack technique est principalement constituée de Python, Spark, SQL, dbt, BigQuery et Airflow pour l’orchestration des traitements. La stack inclut aussi d’autres services de la Google Cloud Platform. Missions de cette équipe : 1- Déployer les datasets normés sur un ou plusieurs des data domain suivants : Utilisateurs, Comportements et Référentiels 2- Accompagner les utilisateurs dans leurs usages 3- Mettre en place le contrôle qualité sur ces datasets Prestation attendue pour les 2 lots En interaction avec les membres de l’équipe, la prestation consistera à - Construire et maintenir de pipelines data robustes et scalables - Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données - Organiser et structurer le stockage des données - Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données - Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité des données - Construire et maintenir les workflows de la CI/CD centrés données - Collaborer avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur - Participer à la guilde des data ingénieurs - Assurer l’évolutivité, la sécurité, la stabilité des environnements - Contribuer et veiller à la mise à jour de la documentation - Faire de la veille technologique active dans le domaine - Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe

Freelance
CDI
CDD

Offre d'emploi
Senior SRE GCP (ref - AG)

FIRST CONSEIL
Publiée le
Ansible
Google Cloud Platform
Jenkins

6 mois
50k-62k €
Île-de-France, France

Compétences indispensables : Expert en infrastructure Azure/GCP Très bonne maîtrise sur la manipulation des certificats des reverse proxy (LB7 GCP, NGINX, HA proxy) Maîtrise des composants en Private access Excellente maîtrise de la gestion des droits Azure/GCP: l'objectif étant de respecter le principe de "moindre privilège". Excellente maîtrise autour des VPC Peering et les quotas associés. Tout est fait "as code" au travers de notre plateforme CI/CD (Terraform, Ansible, Jenkins..). Autres informations : Fonctionnellement, nos clients doivent pouvoir être autonomes et faire un maximum de "self service" sur les changements d’infrastructure, souvent orientés sur la configuration des équipements de sécurité et les expositions de services. Nous prenons en charge la complexité pour que l’usage soit facilité pour nos clients ! Nous agissons en tant que Cloud Service Provider interne. Nous fournissons les socles Cloud pour l’ensemble des projets. Nous construisons et faisons le run des infrastructures partagées pour différents types de workloads de production. Nous améliorons notre service en continu, via une automatisation toujours plus poussée (self healing, immutable) Nous utilisons les best practices SRE.

Freelance

Mission freelance
Développeur back

Coriom Conseil
Publiée le
Apache Kafka
Google Cloud Platform
Mongodb

12 mois
100-510 €
Lille, Hauts-de-France

Spring - Confirmé - Impératif MongoDB - Confirmé - Important Kafka - Confirmé - Important GCP - Junior - Serait un plus Connaissances linguistiques Anglais Lu, écrit (Impératif) Nous recherchons un profil pour venir en renfort sur le moteur d’offres promotionnelles, qui se trouve au cœur de l’activité de l’équipe. Le moteur d’offres gère la conception et l’activation des offres, qu’elles soient promotionnelles ou non transactionnelles (ex: promotions, gains de points bonus pour le client sur la base de ses interactions, promotions ciblées…). L’équipe gère les référentiels des comptes fidélité de toutes les Business Units du groupe. Dans ce cadre, nous recherchons un profil qui ait également une forte appétence “Data”, car cette composante se trouve au cœur de nos activités. En complément, nous avons ponctuellement besoin de renfort sur le Frontend. Une appétence pour les sujets Front (VueJS) serait donc un plus.

Freelance
CDI

Offre d'emploi
FLUENT ENGLISH - INGÉNIEUR SYSTÈMES INFRASTRUCTURE - WINDOWS / LINUX

Confirm IT Group
Publiée le
Azure
Azure Active Directory
Linux

3 ans
10k-55k €
Île-de-France, France

Notre client recherche un Ingénieur Systèmes infrastructure Windows / Linux afin d’intégrer ses équipes. Lors de cette mission, votre collaborateur devra effectuer les tâches suivantes : • Mise en œuvre des infrastructures systèmes (Windows / Linux) ; • Administration et évolution du périmètre Active Directory ; • Sécurisation des solutions à déployer en collaboration avec les équipes cybersécurité ; • Industrialisation et automatisation des tâches de production relatives à Windows Server/Linux et de leurs composants ; • Mise en place de plans d’actions contre l’obsolescence des serveurs et applications du SI; • Collaborer à la résolution des incidents et des problèmes; • Support aux opérations de mise en services, paramétrage et configuration des plateformes; • Rédaction de dossiers techniques et d’architecture, et mise à jour des procédures et consignes d’exploitations ; • Support de niveau 2 sur le périmètre Helpdesk/Workstation ; • Gestion des solutions identifiées « utilisateurs » (Microsoft 365, Intune, ITSM) ; • Tâches d’administration sur le périmètre Modern Workplace : Packaging logiciel avec Intune, déploiement des politiques sur Windows 10/11, sécurisation du tenant Microsoft 365 ; • Identifie et qualifier les opportunités d’évolution des infrastructures et garder l’esprit ouvert dans le cadre de veilles technologiques (sécurité, MCO des infrastructures, …).

CDI
Freelance

Offre d'emploi
ingénieur de production IBM cloud

AVA2I
Publiée le
AWS Cloud
Azure
DevOps

3 ans
10k-50k €
Île-de-France, France

Spécialisé dans le secteur bancaire, l'entreprise recherche activement un ingénieur de production IBM cloud pour renforcer ses effectifs. Vous serez responsable de la gestion et de l’optimisation de nos environnements de production, en assurant la continuité et la performance de nos applications et services. Responsabilités : Assurer la mise en production des applications et des services. Automatiser les processus de déploiement et de configuration. Surveiller et optimiser les performances des systèmes. Collaborer avec les équipes de développement pour intégrer les pratiques DevOps. Gérer les incidents et les problèmes de production. Participer à l’amélioration continue des processus et des outils. Maintenir une documentation technique précise et à jour. Assurer la sécurité et la conformité des environnements de production.

Freelance

Mission freelance
Product Owner API Mulesoft

CONCRETIO SERVICES
Publiée le
API
Salesforce Sales Cloud

4 mois
520-570 €
Seine-Saint-Denis, France

Gestion du backlog des API : Créer, gérer et prioriser le backlog des fonctionnalités API pour répondre aux besoins métiers. Collaboration étroite : Travailler avec les équipes de développement pour s'assurer de la compréhension des exigences et de la bonne mise en œuvre des solutions. Coordination des parties prenantes : Assurer la coordination entre les différentes parties prenantes (métier, technique, direction) pour définir la vision du produit. Priorisation des fonctionnalités : Analyser les besoins et définir la priorité des tâches en fonction des objectifs stratégiques et des contraintes techniques. Livraison des produits : Garantir la livraison de produits API conformes aux attentes métiers, tout en respectant les délais et la qualité. Adaptation aux changements : Faire preuve de flexibilité pour s’adapter aux évolutions rapides du secteur et des demandes des parties prenantes.

Freelance

Mission freelance
Consultant Décisionnel DATA

KEONI CONSULTING
Publiée le
AWS Cloud
Oracle
PostgreSQL

12 mois
100-600 €
Paris, France

Contexte : Dans le cadre de ses activités d’expertise, d’audit ou de réalisation ponctuelle de projet, le pôle DATA doit également avoir des ressources en capacité de fonctionner en mode projet afin de délivrer des projets / services pour le compte des solutions métiers. MISSIONS : Rôle « Administrateur Data » Participer à l’administration et à la gestion du socle Data (SGBD : Oracle, PostgreSQL, AWS RDS, AWS Athena, AWS Redshift, AWS Lake Formation) Assister les équipes projets des Centres De Service dans la mise en œuvre et l’exploitation de projets sur le socle Data Analyse et résolution des incidents d’exploitation Participer à la modernisation et à l’amélioration du socle technique Rôle « Concepteur Développeur Décisionnel » Analyse des spécifications fonctionnelles Rédaction des spécifications techniques Conception et Développement de projets Data (Data Pipelines, modélisation et alimentation de puits de données, …) Conception et Développement d’outils d’accélération pour les projets des centres de services (services génériques) Rédaction de documentation d’exploitation Support et expertise technique sur les solutions existantes dans l’exploitation courante (suivi de production et gestion/résolution des incidents) comme dans les évolutions du socle technique (gestion des migrations et mise à jour des versions logicielles) Participation à la veille sur les nouveaux services Data AWS et évolutions des services déjà utilisés Participation à la veille sur les solutions Data Entreprise et Open Source en cohérence avec le Schéma directeur Technique

Freelance

Mission freelance
Senior Cloud Data Engineer (H/F)

Insitoo Freelances
Publiée le
AWS Cloud
Python

2 ans
300-600 €
Grenoble, Auvergne-Rhône-Alpes

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Senior Cloud Data Engineer (H/F) à Grenoble, Auvergne-Rhône-Alpes, France. Contexte : Dans le cadre du développement de la prochaine version d’une plateforme d’intelligence artificielle, s'appuyant sur Azure et AWS, nous avons besoin de renforcer l'équipe en charge des capacités data avec un profil Senior Data Engineer Les missions attendues par le Senior Cloud Data Engineer (H/F) : - Cloud AWS, Azure - Technologie Data : Python/Spark – SQL - Outils: Docker, GitHub, Terraform, Databricks - Anglais obligatoire

Freelance
CDI

Offre d'emploi
Développeur Data

Management Square
Publiée le
Agile Scrum
API REST
Azure Data Factory

2 ans
45k-63k €
Paris, France

Nous recherchons un Expert Technique Senior pour participer à un projet stratégique de refonte de notre Data Lake. Ce projet vise à répondre de manière flexible et agile aux besoins métiers, et apporter une valeur ajoutée autour de la donnée. Missions principales : Participer au développement du Framework de gestion des flux de données Contribuer à la conception et l'architecture technique de la solution cible Proposer des solutions innovantes Être force de proposition sur le design des solutions techniques Rédiger les dossiers techniques et autres documentations nécessaires Assurer la cohérence technique des différents modules du projet Réaliser et automatiser les tests sur les outils/modules développés Veiller au respect des délais Accompagner la phase de validation business en UAT et PROD Préparer le roadbook de migration et participer à la mise en production

Freelance

Mission freelance
Développeur JAVA GCP - DATAFORM

azed company
Publiée le
Google Cloud Platform
Java

6 mois
290-440 €
Île-de-France, France

Dans le cadre de la transformation de son écosystème applicatif, l'équipe de la Digital Factory recherche un(e) Développeur(se) Back pour renforcer le domaine "Catalogue & MarketPlace". Ce projet, récemment lancé, vise à refondre une application dans un environnement Google Cloud Platform (GCP). Vous aurez l'occasion de travailler au sein d'une équipe agile, en contribuant activement au développement de l'application. Votre implication ne se limitera pas au développement : vous participerez également aux phases de recette et aurez l'opportunité d'influer sur les choix techniques à travers des propositions éclairées. En tant que membre clé de l'équipe, vous serez en charge de la rédaction de la documentation technique et de la réalisation des tests unitaires et d'intégration pour garantir la qualité du code avant livraison.

1403 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous