Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 967 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
EXPERTISE ORACLE N3

STHREE SAS pour COMPUTER FUTURES
Publiée le
Base de données
Oracle

1 an
100-540 €
Île-de-France, France

La présente consultation a pour objet la mise en place d’une prestation d’expertise Oracle N3 au sein du Domaine Exploitation. L’expertise BDD a pour principal objectif de fournir les moyens efficients au maintien en conditions opérationnelles des BDD Oracle et Appliances Oracle du parc. L’accompagnement des Conduites Techniques et des Projets dans le cadre de nouveaux besoins fera également partie du rôle premier de l’expert Oracle. La prestation sera effectuée en étroite collaboration avec les autres équipes du domaine Exploitation et des autres domaines de la DSI, ainsi qu’avec nos partenaires (Infogérant, TMA, Editeurs). La prestation sera réalisée sous l’autorité directe du responsable du Pôle Expertise BDD et de ses appuis au pilotage. Description de la prestation : - Administration des BDD Oracle 12c, 19c et 23c. o Montée de version, patch des infrastructures et des BDD o Mise en place mode RAC / RAC one Node o Mise en place et maintien de DataGuard o Audits et analyse de performances Oracle (BDD et Infrastructures) o Migration / transformation des environnements Oracle vers PostgreSQL - Oracle Enterprise Manager (OEMcc) 13 o Suivi des alertes de Production et optimisations o Supervision et planification des travaux via OEMcc o Génération et interprétation de rapports de performances et de rapports capacitaires via BI Publisher ou OAS o Analyse des performances et optimisations SQL vie OEMcc o Déploiement et Supervision des BDD via OEMcc o Mise en place et maintien des sauvegardes RMAN - Administration des infrastructures o Administration des systèmes Exadata et ZDLRA o Définition des chronogrammes d’opération o Pilotage technique dans le cadre d’une cellule de crise  Analyses, plan d’actions o Conseil sur les best-practices à adopter pour optimisation des infrastructures o Conseil sur les best-practices à adopter pour optimisation des configurations des BDD Oracle dans le contexte Exadata Opérationnel sur les sujets suivants o Documentation  Rédaction de procédures, plan d’actions et rapports d’analyses à la destination des expertises DBA et/ou management  Mise à jour des dossiers d’architecture et Règles d’Ingénierie o Suivi des demandes et des actions des fournisseurs  Ouvertures et suivi des SR Oracle (en anglais) via le portail MyOracleSupport  Challenger les prestations Oracle OBLIGATOIRE : Oracle Exadata Version 23 à maitriser

Freelance

Mission freelance
Product Owner Orienté Data et SLA

AGH CONSULTING
Publiée le
Apache Kafka
BigQuery
Data management

1 an
100-400 €
Lille, Hauts-de-France

Dans le cadre de la gestion d’un fournisseur de services de l'un de nos clients, nous recherchons un profil capable de piloter la prestation de ce fournisseur. Le candidat sera responsable de la supervision des SLA, du suivi des nouvelles fonctionnalités, ainsi que de la gestion quotidienne avec les fournisseurs et les équipes internes. Bien que le poste ne soit pas technique en termes de développement, des compétences techniques seront nécessaires pour gérer les flux et interagir avec les fournisseurs et les équipes. Ce poste est stratégique pour garantir la bonne qualité des services fournis et le respect des engagements contractuels. Supervision des SLA : Suivre les niveaux de service (SLA) contractuels avec les fournisseurs et assurer leur respect. Suivi des fonctionnalités : Gérer le déploiement et le suivi des nouvelles fonctionnalités fournies par les prestataires. Interface fournisseurs/équipes internes : Assurer une communication fluide entre les fournisseurs et les équipes internes (techniques, produits, etc.). Gestion de la qualité des données : Utiliser vos compétences en SQL et en data pour superviser la qualité des données dans le cadre de la prestation. Gestion de projet : Piloter les aspects techniques et contractuels du projet, avec un suivi rigoureux des contrats et des prestations fournies. Collaboration avec les équipes internes : Collaborer avec les équipes techniques et les Product Owners pour s'assurer que les objectifs sont atteints en temps et en heure. Expérience opérationnelle : Vous avez une solide expérience dans la gestion de projet et dans le suivi de prestations fournisseurs. Expertise en data : Vous avez une excellente maîtrise des outils de gestion de données, notamment BigQuery, et êtes capable de superviser et de garantir la qualité des données. Compétences techniques : Bien que vous ne serez pas directement impliqué dans le développement, des compétences en SQL et une bonne compréhension des technologies comme Kafka sont indispensables. Pilotage et gestion des SLA : Expérience dans le suivi et la supervision des niveaux de service contractuels. Autonomie et curiosité : Vous êtes autonome dans votre travail, curieux et capable d'interagir de manière proactive avec les équipes techniques.

CDI
Freelance

Offre d'emploi
Data Engineer

SKILL EXPERT
Publiée le
Apache Kafka
Hadoop
Python

1 an
23k-200k €
Vélizy-Villacoublay, Île-de-France

La Prestation s’effectuera au sein de l’équipe « IS Data Factory » d’une vingtaine de personnes composée de : Data Engineer, travaillant majoritaire à l’alimentation du Datawarehouse d’entreprise Data Architect travaillant sur les évolutions de la gestion des données au sein de l’entreprise. Les données sont principalement gérées au sein - D’un datawarehouse d’entreprise organisé autour de plusieurs instances de base de données ORACLE - D’un Datalake s’appuyant sur l’offre cloudera on premise L’équipe est en charge des évolutions, du support et de la maintenance du datawarehouse. Dans ce contexte, la prestation consiste à intervenir sur le POC (Proof of concept) en étroite collaboration avec l’administrateur du Data Lakehouse et à mettre en œuvre et valider l’infrastructure de plateforme de données. Dans ce cadre, le Prestataire contribuera et aura la responsabilité de : Ø POC Developpement : o Conception et développement du POC pour notre Data Lakehouse ouvert en utilisant les dernières technologies (Cloudera, NoSQL, NiFi, Apache Iceberg, DBT, Superset, etc.) pour répondre aux exigences de l’entreprise, Ø L’intégration des données : o Mise en œuvre des pipelines d’ingestion et d’intégration de données à partir de diverses sources tout en s’assurant la qualité et la cohérence des données. Ø Du processus ETL/ELT: o Développement et optimisation des processus ETL/ELT pour soutenir les besoins de data warehousing et d’analyse. Ø L’optimisation de la performance: o Analyse et optimisation de la performance des flux de données et des requêtes. Ø La collaboration : o Travail en étroite collaboration avec l’administrateur du Data Lakehouse pour assurer l’intégration et la fonctionnalité de l’infrastructure du Data Lakehouse. Ø La documentation : o Création et maintenance de documents techniques sur les pipelines de données, o l’architecture o les flux de travail. Ø L’innovation: o Rester à jour avec les technologies émergentes et les meilleures pratiques pour améliorer continuellement la plateforme de données.

Freelance

Mission freelance
Data Engineer (H/F) - Lille

Espace Freelance
Publiée le
Apache Airflow
AWS Cloud
Databricks

3 mois
100-560 €
Villeneuve-d'Ascq, Hauts-de-France

Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : Data Engineer (H/F) - Lille Mission à pourvoir en région Lilloise Compétences obligatoires : - AWS - Scheduling Airflow - DBT - Databricks - Pyspark Vous savez communiquer en anglais dans un contexte professionnel Votre mission : - Vous implémentez des solutions selon les règles fonctionnelles définies - Vous documentez vos actions - Vous créez des pipelines scalables de données structurées - Vous réalisez le support utilisateur en répondant à leurs questions - Vous documentez les flux implémentés - Vous prenez part à l’élaboration des bonnes pratiques de l’équipe - Vous partagez vos savoirs avec les autres Data Engineers Vous avez de l’expérience sur un poste similaire REFERENCE : EFN/DAENDE/111

Freelance

Mission freelance
Ingénieur Cybersécurité N3 (Niveau 3 Sécurité)

TDS
Publiée le
Cybersécurité
SOC (Security Operation Center)
Support technique

12 mois
500-700 €
Issy-les-Moulineaux, Île-de-France

Superviser et manager une équipe de 5 à 10 experts en cybersécurité, répartir les tâches et suivre l'avancement des projets et des incidents. Gérer des incidents de sécurité de niveau 3 : identification, analyse, traitement et résolution des incidents critiques ou complexes. Conduire des audits de sécurité pour identifier les failles et proposer des plans d'action correctifs. Mise en œuvre de stratégies de défense : détection des intrusions, surveillance des activités malveillantes, réponse rapide aux cyberattaques. Contribuer aux projets de sécurisation des infrastructures IT : installation, configuration, et mise à jour des outils de sécurité. Assurer une veille technologique sur les nouvelles menaces, vulnérabilités et solutions de sécurité émergentes. Développer et mettre à jour des procédures opérationnelles de sécurité, en collaboration avec les équipes internes et les fournisseurs externes. Collaborer avec les équipes de gouvernance pour assurer la conformité avec les politiques de sécurité internes et les réglementations (GDPR, ISO 27001, etc.). Participer à la rédaction des rapports d'incidents de sécurité et des recommandations pour la direction et les parties prenantes. Rapports d’incidents de sécurité de niveau 3. Documentation des procédures d’escalade et de gestion des incidents. Audit des systèmes et recommandations techniques. Rapports d’évolution des performances de l’équipe cybersécurité. Tableaux de bord de suivi des incidents et des actions préventives/correctives.

CDI

Offre d'emploi
: Data Engineer & Développeur d'Applications Python – Domaine de l’environnement (H/F)

CELAD
Publiée le
Apache Kafka
Python

45k-48k €
Toulouse, Occitanie

📑 CDI (45-48K€) – 🏠 2 jours de télétravail / semaine – 📍 Toulouse– 🛠 Expérience de 4 ans minimum📍 🌟 Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un(e) Data Engineer & Développeur d'Applications Python pour intervenir chez un de nos clients dans le domaine de l’environnement 💻💼 Vous avez une solide expérience en gestion de gros volumes de données et en développement d’applications ? Vous maîtrisez Python et des outils comme Airflow, NiFi, Prefect, ou Kafka ? Nous avons peut-être le projet qu'il vous faut ! Voici un aperçu détaillé de vos missions 🎯 : - Participer à l'acquisition, au stockage et à l'optimisation des données ; -Concevoir et développer des applications pour gérer ces volumes massifs ;

Freelance

Mission freelance
Ingénieur MLOPS Montpellier (Pré embauche sous 1 an de mission)/ri

WorldWide People
Publiée le
Apache Spark
Databricks

12 mois
360-440 €
Montpellier, Occitanie

Ingénieur MLOPS Montpellier Senior DevOps : Maîtrise de GitHub, Docker, Kubernetes. Outils : MLFlow, Expérience avec Airflow. Plateformes : Connaissance de Spark (Databricks) ou GCP (Vertex AI), AWS, . Langages : Excellente maîtrise de Python et Scala. Pré embauche sous 1 an de mission ASAP Vos principales responsabilités : Concevoir et développer des solutions logicielles pour l'IA et la gestion des flux de données. Proposer et implémenter des stratégies novatrices pour l'extraction, le traitement et l'analyse de l'information. Assurer le déploiement, le test et la maintenance des solutions MLOps. Vous serez également en charge de : Participer aux rituels de gestion de projet (Agile ou cycle en V). Rédiger de la documentation technique détaillée. Réaliser une veille technologique proactive autour des données et de leur traitement. Votre profil : Formation : Diplôme d'Ingénieur ou équivalent (Bac+5) en sciences ou informatique. Expérience : Expertise avérée sur des projets en data & IA, avec une forte inclinaison pour le développement et une culture solide en data et DevOps. Compétences Techniques : DevOps : Maîtrise de GitHub, Docker, Kubernetes. Outils : MLFlow, Expérience avec Airflow. Plateformes : Connaissance de Spark (Databricks) ou GCP (Vertex AI), AWS, . Langages : Excellente maîtrise de Python et Scala. Qualités Personnelles : Esprit d'équipe, passion pour la data, autonomie et capacité d'adaptation.

Freelance

Mission freelance
Product Owner (H/F) - Lille

Espace Freelance
Publiée le
Apache Kafka
BigQuery

3 mois
100-450 €
Villeneuve-d'Ascq, Hauts-de-France

Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : Product Owner (H/F) - Lille Mission à pourvoir en région Lilloise Compétences obligatoires : - BiQuery - Kafka Vous savez communiquer en anglais dans un contexte professionnel Votre mission : - Vous définissez et suivez les KPIs - Vous réalisez et faites évoluer les Dashboard - Vous communiquez avec toutes les parties prenantes du projet - Vous définissez la roadmap Produit - Vous réalisez des User Stories - Vous contribuez aux rituels de l’équipe Vous avez de l’expérience sur un poste similaire REFERENCE : EFN/POLMA/104

CDI
Freelance

Offre d'emploi
Développeur Calypso Bonds (H/F)

CITECH
Publiée le
Apache Kafka
CI/CD
Docker

3 ans
65k-75k €
Yvelines, France

🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 Le prestataire rejoindra l'équipe BUILD (Étude et Projets) en charge des applications client pour accompagner les nouveaux projets au sein de la filière RSF. Les responsabilités incluent : 🔸 Études et développements sur les applications client 🔸 Proposition et mise en œuvre d’éléments liés au CI/CD 🔸 Collaboration avec les équipes d'architecture pour proposer des solutions 🔸 Suivi des développements et accompagnement des phases de tests utilisateurs (UAT) Livrables et résultats attendus : 🔸 Documentation des solutions développées 🔸 Développements techniques 🔸 Cahiers de tests techniques 🔸 Accompagnement des livraisons en production

Freelance

Mission freelance
data lake engineer - anglais

Innov and Co
Publiée le
Apache Kafka
Cloudera
Nosql

12 mois
100-600 €
Vélizy-Villacoublay, Île-de-France

Ce département ou interviendra le Prestataire est de la gestion des données & de la business intelligence des systèmes d’informations : maintenance & alimentation du datawarehouse, conception de rapports, calculs et visualisation de KPI. La Prestation s’effectuera au sein de l’équipe d’une vingtaine de personnes composée de : ü Data Engineer, travaillant majoritaire à l’alimentation du Datawarehouse d’entreprise ü Data Architect travaillant sur les évolutions de la gestion des données au sein de l’entreprise. Les données sont principalement gérées au sein - D’un datawarehouse d’entreprise organisé autour de plusieurs instances de base de données ORACLE - D’un Datalake s’appuyant sur l’offre cloudera on premise L’équipe est en charge des évolutions, du support et de la maintenance du datawarehouse. Dans ce contexte, la prestation consiste à intervenir sur le POC (Proof of concept) en étroite collaboration avec l’administrateur du Data Lakehouse et à mettre en œuvre et valider l’infrastructure de plateforme de données. Dans ce cadre, le Prestataire contribuera et aura la responsabilité de : Ø POC Developpement : o Conception et développement du POC pour notre Data Lakehouse ouvert en utilisant les dernières technologies (Cloudera, NoSQL, NiFi, Apache Iceberg, DBT, Superset, etc.) pour répondre aux exigences de l’entreprise, Ø L’intégration des données : o Mise en œuvre des pipelines d’ingestion et d’intégration de données à partir de diverses sources tout en s’assurant la qualité et la cohérence des données. Ø Du processus ETL/ELT: o Développement et optimisation des processus ETL/ELT pour soutenir les besoins de data warehousing et d’analyse. Ø L’optimisation de la performance: o Analyse et optimisation de la performance des flux de données et des requêtes. Ø La collaboration : o Travail en étroite collaboration avec l’administrateur du Data Lakehouse pour assurer l’intégration et la fonctionnalité de l’infrastructure du Data Lakehouse. Ø La documentation : o Création et maintenance de documents techniques sur les pipelines de données, o l’architecture o les flux de travail. Ø L’innovation: o Rester à jour avec les technologies émergentes et les meilleures pratiques pour améliorer continuellement la plateforme de données.

Freelance

Mission freelance
Technicien support - Brest

AKERWISE
Publiée le
Support technique
Support utilisateurs

1 an
100-2 940 €
Brest, Bretagne

✅ Nous vous serions reconnaissants de nous adresser un bref message précisant les raisons de votre candidature et confirmant que vous avez bien pris en compte le lieu de la mission. 🔴 TT partiel (Présence sur site hebdo Brest obligatoire ) - La mission ne peut pas se faire en full Remote Nous recherchons un technicien support informatique qui sera chargé de recueillir et de suivre les demandes des utilisateurs à travers un outil de ticketing. Ce professionnel devra diagnostiquer à distance ou directement auprès des utilisateurs les dysfonctionnements informatiques, qu’ils soient matériels ou logiciels. En lien avec les ressources internes ainsi que les éditeurs et fournisseurs, il traitera les demandes et incidents afin d’assurer un service fluide et réactif. Il sera également responsable de l’installation et de la mise en service des nouveaux équipements informatiques, en configurant les postes de travail selon les besoins spécifiques des utilisateurs. En outre, il devra effectuer la maintenance des logiciels et matériels, incluant les mises à jour logicielles et le remplacement d'équipements en cas de panne. Dans une démarche d'amélioration continue, le technicien fera des recommandations et mettra en œuvre les actions nécessaires à la résolution des problèmes rencontrés. L’accueil informatique des nouveaux collaborateurs ainsi que leur formation à l’utilisation des outils et aux bonnes pratiques, notamment en matière de sécurité, font également partie de ses missions.

Freelance

Mission freelance
Architecte Technique (NANTES)

AKERWISE
Publiée le
Apache Kafka
Jenkins
Terraform

2 ans
100-2 940 €
Nantes, Pays de la Loire

Au sein de l'équipe d'architectes Cloud, le consultant sera en charge de contribuer à l'évolution des Plateformes d'Échanges, en participant à la transformation des échanges entre le Central (DC/Cloud) et les centres de distribution. Vous interviendrez sur le choix des solutions, le cadrage et le suivi de leur implémentation, en veillant à l'amélioration de la résilience des plateformes Kafka et APIGEE. Vous serez également amené à participer aux différentes cérémonies agiles de l'équipe architecte Cloud. Enfin, vous produirez un dossier de choix de la solution d'échanges entre le Central et les magasins, tout en accompagnant l'équipe Plateforme Echange PDV & Partenaires dans la mise en œuvre de cette solution. La production des documents de cadrage sera également sous votre responsabilité.

CDI

Offre d'emploi
Administrateur bases de données (H/F)

ECONOCOM INFOGERANCE ET SYSTEME
Publiée le

40k-52k €
Fontenay-aux-Roses, Île-de-France

Ce qui vous attend : Vous rejoindrez une agence dédiée pour un grand groupe français. Vous intégrerez une équipe dédiée au RUN de 3 personnes. Vos responsabilités : • Mise en place d'outils de surveillance des bases de données (Développement de scripts Shell et Powershell) ; • Contrôles quotidiens de la disponibilité des bases et du fonctionnement de la sauvegarde ; • Diagnostiques et résolutions des incidents et des anomalies ; • Audits bases de données et audits de performances système Windows et Linux ; • Conseil et support pour améliorer la disponibilité et la performance des bases de données ; • Écoute et accompagnement du client pour exprimer son besoin, et proposer des solutions ; • Conseil et dimensionnement des serveurs ; • Création, paramétrage et dimensionnement des bases de données ; • Partitionnement des tables de grand volume ; • Création du plan d'indexation ; • Tuning des requêtes SQL Utilisateur ; • Mise en place de la haute disponibilité : Oracle Data Guard / SQL Server Always On ; • Administration, maintenance, migration et optimisation de base de données ; • Gestion de sécurité et des privilèges sur les environnements ; • Mise en place des stratégies de sauvegarde et de restauration ; • Rédaction des documentations techniques ; • Respect et promotion des normes et des processus qualité ; • Suivi et mise à jour des informations sur les bases de données au niveau de la CMDB ; • Participation aux réunions des instances client de suivi d'activité ; • Technologie : les principaux SGBD utilisés sont : SQL Server, PostgreSQL, Mysql/Mariadb et Oracle. Référence de l'offre : f3h0t94agc

Freelance

Mission freelance
Technicien Système / Réseau - Brest

AKERWISE
Publiée le
Support technique

1 an
100-2 930 €
Brest, Bretagne

✅ Nous vous serions reconnaissants de nous adresser un bref message précisant les raisons de votre candidature et confirmant que vous avez bien pris en compte le lieu de la mission. 🔴 TT partiel (Présence sur site hebdo Brest obligatoire) - La mission ne peut pas se faire en full Remote Dans le cadre de projets de déploiement, vous serez chargé d'assurer l’installation et le bon fonctionnement des systèmes informatiques, réseaux et télécoms, tant sur le plan matériel que logiciel. Votre rôle comprendra l'installation, le paramétrage et l'évolution des équipements physiques et virtuels, notamment les serveurs, les routeurs et les équipements de téléphonie. Vous effectuerez également des tests et des recettes pour garantir la qualité des équipements informatiques et des infrastructures réseau. En outre, vous serez responsable de la maintenance préventive et corrective des systèmes, garantissant ainsi la stabilité, la performance et la sécurité des environnements informatiques de l'entreprise. Vous traiterez les incidents de niveau 2 et 3, tout en fournissant une assistance aux utilisateurs, contribuant ainsi à un service de haute qualité.

Freelance

Mission freelance
Ingénieur Systèmes Linux DevOps Senior Montargis/su

WorldWide People
Publiée le
Ansible
Python
Shell

6 mois
350-400 €
Montargis, Centre-Val de Loire

Ingénieur Systèmes Linux DevOps Senior Apache Tomcat Debian centOS Python Ansible Shell Script Soft skills Sens du serviceCapacité d'analyseTravail en équipeAutonomieRelationnel / CommunicationRigueurOrienté résultatAdaptation Secteurs d'activités AssuranceMutuelle / Santé / Prévoyance Description et livrables de la prestation Description des prestations : - Développement de scripts Shell, python et Ansible - Migration d’OS, containerisation - Migration de serveurs LPAR vers un nouveau serveur physique. - Administration des systèmes (Debian, CentOS, Alma), composants middleware (Tomcat, Apache…) et des applications hébergées - Automatisation des montées de version applicatives hébergées - Dimension relationnelle avec le service exploitation et le service Etudes. Expertise souhaitée Expérience et compétence requises : - Expertise scripting shell, python, ansible (expérience significative) - Expertise containerisation Docker - Culture DevOps prépondérante - Expertise dans l’administration Linux (différentes suites) - Expérience sur un poste similaire pendant au moins 5 ans Qualifications requises : - Bac + 5 ou Bac + 3ans (avec forte expérience)

Freelance
CDI

Offre d'emploi
Architecte Data Engineer AWS

Hexateam
Publiée le
Apache Spark
Architecture
AWS Cloud

3 ans
10k-60k €
Paris, France

Dans le cadre de la croissance rapide de HEXATEAM, nous renforçons notre équipe technique en intégrant de nouveaux talents capables d’accompagner notre transition et expansion dans l’univers du Big Data . Nous cherchons actuellement des Architecte Data Engineer AWS pour concevoir, évoluer et maintenir nos plateformes data sur le cloud AWS. En tant qu'Architecte Data Engineer AWS, vous jouerez un rôle clé dans la conception, le développement, l’optimisation et la maintenance des pipelines de données pour répondre aux besoins de nos clients et assurer la robustesse de notre infrastructure Data. Conception et Gestion de Databricks : Création et gestion de clusters , jobs , et notebooks dans Databricks. Utilisation avancée de SQL pour créer des requêtes performantes et gérer de grandes bases de données. Maintien en condition opérationnelle : Analyser, corriger et prévenir les incidents et les défauts de la plateforme data en production. Assurer la stabilité et la disponibilité de la plateforme. Développement de pipelines d'ingestion et de transformation des données : Utilisation de Python avec Apache Spark pour traiter de grands volumes de données. Conception de jobs d’ingestion automatisés et performants. Stratégie à long terme : Proposer et implémenter une vision stratégique pour le développement de la plateforme Data. Travailler en collaboration avec les équipes pour définir la feuille de route technique à long terme. Accompagnement et diffusion des bonnes pratiques : Promouvoir les standards de qualité dans l'équipe. Accompagner les équipes dans l’adoption des bonnes pratiques en termes de développement et de gestion des données. Participation aux ateliers de conception techniques et fonctionnels : Collaborer avec les équipes de développement et de produit pour concevoir des solutions adaptées aux besoins métiers. Documentation technique : Rédiger et maintenir à jour la documentation technique des projets en cours. Indispensable : Langages : Python, SQL Big Data Framework : Apache Spark Outils : Databricks Cloud AWS : Expérience avec les services AWS (S3, Glue, Lambda, Airflow, CloudWatch, IAM) Versioning : Git Méthodologies : Travail en Agile , principalement en mode Scrum Suivi de projet : Expérience avec JIRA et Confluence Souhaité (plus) : CI/CD : Connaissance et utilisation de GitLab pour l’intégration et le déploiement continus. Outils Big Data : Expérience dans la gestion de grands volumes de données . Expérience en CI/CD avec des pratiques avancées d'automatisation.

967 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous