Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 625 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Offre premium
Freelance

Mission freelance
Data Engineer / cloud Azure - Distribution - IDF (H/F)

EASY PARTNER
Publiée le
Apache Spark
Azure
Databricks

6 mois
450-470 €
Paris, France

Nous sommes un acteur majeur de la distribution. Au cœur de notre stratégie de transformation numérique, notre département IT déploie un programme ambitieux de rénovation de notre Système d'Information centré sur la data et le cloud (Azure). Cette mission s'inscrit dans une démarche de structuration de notre Big Data et de nos solutions BI répondant aux besoins critiques de nos métiers. ▶️ Missions Développer et mettre en œuvre des solutions d'analyses Big Data. Analyser les besoins, réaliser des études d'impact et concevoir des solutions techniques innovantes. Concevoir et modéliser des données dans un Data Lake utilisant des formats optimisés. Construire et optimiser des pipelines de données. Développer des notebooks avancés pour le traitement des données. Participer au Cloud Datawarehousing, incluant tuning et optimisation SQL. Rédiger des documentations techniques. Être impliqué dans la revue de code et les tests unitaires. Assurer la maintenance et l'évolution des solutions. Contribuer à l'optimisation des processus de livraison en environnement DevOps. 🔦Stack technique À maîtriser Azure Cloud Databricks, Spark Langages : Scala, Python, SQL CI/CD, Azure DevOps Architecture Lakehouse => Environnement technique global Outils Agile, notamment JIRA Environnement DevOps

Freelance

Mission freelance
DevOps AWS

WESPACES
Publiée le
AWS Cloud
DevOps
Terraform

1 an
650-680 €
Île-de-France, France

Ingénieur DevOps AWS Secteur : Assurance Description du poste : Le candidat retenu sera responsable du soutien et de la contribution à la migration des applications des environnements locaux vers le cloud public, en utilisant les technologies AWS. Responsabilités principales : Setup cloud platforms Subscription management Architecture and design tech consultancy Project delivery Migration Migration of apps from on prem to Public Cloud Qualifications : Expérience avec les services Cloud AWS et les outils DevOps. Compétence en gestion et support des environnements Cloud. Capacité à travailler sur des projets de migration d'applications vers le cloud. Excellentes compétences en communication Anglais courant requis Stack technique : Services AWS - Expert Terraform - Expert Outils CI/CD : Azure DevOps et/ou GitHub Actions – Expert Début de la mission : ASAP Lieu de la mission : Paris

Freelance

Mission freelance
Architecte sécurité Cloud ( GCP/ AWS)

fsystem
Publiée le
Automatisation
AWS Cloud
Cloud

12 mois
100-640 €
Charenton-le-Pont, Île-de-France

Architecte Sécurité Cloud Plus de 5 ans d’expérience sur des sujets CLOUD GCP/ AWS/ Profil opérationnel implémentation automatisation de la sécurité des services -assurer la mise en place de contrôles de sécurité dans le Cloud Public (GCP, AWS) Lieu : Charenton Présentiel : 2j / semaine Architecte Sécurité Cloud Plus de 5 ans d’expérience sur des sujets CLOUD GCP/ AWS/ Profil opérationnel implémentation automatisation de la sécurité des services -assurer la mise en place de contrôles de sécurité dans le Cloud Public (GCP, AWS) Lieu : Charenton Présentiel : 2j / semaine

Freelance

Mission freelance
Senior Data Architect (Snowflake)

Phaidon London- Glocomms
Publiée le
Architecture
Big Data
ETL (Extract-transform-load)

12 mois
600-750 €
Paris, France

Je suis à la recherche d'architectes de données seniors pour un projet à long terme de bout en bout. Rôle : Architecte de données senior Durée du contrat : Long terme Lieu : Paris : Paris Travail hybride Date de début : Fin octobre/début novembre Vous rejoindrez une nouvelle mission à long terme pour superviser un projet de transformation complet pour notre client. Vous travaillerez sur la modélisation et l'architecture des données, en partant de zéro. Profile: Vous avez une expérience confirmée de plusieurs projets d'architecture de données, idéalement à partir de zéro. Une solide expérience et connaissance de l'architecture de Snowflake, y compris le partage des données, la mise à l'échelle et les pratiques de sécurité. Compétence dans la conception et l'optimisation des bases de données Snowflake Capacité à créer des modèles de données complexes et à architecturer des pipelines ELT/ETL à l'aide d'outils tels que SNowpipe, Google Dataflow ou d'autres services GCP. Forte compréhension de la confidentialité des données, des normes de sécurité et des meilleures pratiques, y compris la gestion de l'accès, le cryptage et la conformité. Anglais courant

Freelance
CDI

Offre d'emploi
Ingénieur réseau Cloud AWS

FREELANCE VISION
Publiée le
Ansible
AWS Cloud
Azure

12 mois
34k-200k €
Lyon, Auvergne-Rhône-Alpes

CLOUD AWS - Confirmé - Impératif Ansible, Terraform, PowerShell, shell… - Confirmé - Important Réseaux et Télécom (Backbox, PRTG - Confirmé - Impératif sécurité (Checkpoint et Juniper) - Confirmé - Impératif Connaissances linguistiques : Français Courant (Impératif) ANGLAIS Notions (Secondaire) Description détaillée Rôle : Ingénieur Réseau Cloud - Construire une landing zone sur AWS en s’inspirant de ce qui a été fait sur Azure - Concevoir, déployer et maintenir en conditions opérationnelles les infrastructures réseaux ; - Assurer le support niveau 3 et la veille technologique, être le garant de la disponibilité des infrastructures Réseaux ; - Automatiser et optimiser les processus en synergie avec les équipes de production ; Compétences : Solide expérience sur AWS (Azure serait un plus) Bon niveau techniques dans les domaines suivants : Administration des équipements de sécurité, Industrialisation (Terraform et Ansible serait un plus) et Administration des outils Réseaux et Télécom Localisation : Lyon ou Paris Durée : de décembre jusqu’à fin juin minimum

Freelance
CDI
CDD

Offre d'emploi
Infrastructure Architect (Ref : AG)

FIRST CONSEIL
Publiée le
Azure
Big Data
Google Cloud Platform

3 ans
10k-100k €
Paris, France

Le poste est au sein de l'équipe d'architecture du groupe. L'équipe est composée d'un architecte d'infrastructure, d'un architecte fonctionnel, d'un architecte d'usine de développement, d'un architecte Datascience. Les tâches sont les suivantes : Suivi et conseil aux équipes de conception Participation à la définition des infrastructures techniques Gestion de projets d'infrastructures Suivi et amélioration des processus Adaptabilité et curiosité technique car les évolutions technologiques sont rapides et doivent être assimilées pour pouvoir optimiser l'existant Polyvalence, goût de la technique et créativité pour identifier les solutions techniques appropriées Rigueur et esprit critique afin de distinguer la technique du discours marketing Capacité à travailler avec des équipes d'experts Bonne ouverture relationnelle afin de travailler avec les autres services de l'entreprise (achats, services commerciaux notamment)

Freelance

Mission freelance
Ingénieur Réseau Cloud AWS

Signe +
Publiée le
AWS Cloud

4 mois
420-430 €
Lyon, Auvergne-Rhône-Alpes

Ingénieur Réseau Cloud Objectifs principaux : Construire une Landing Zone sur AWS , en s’inspirant de l’existant sur Azure. Concevoir, déployer, et maintenir les infrastructures réseaux en conditions opérationnelles. Assurer le support de niveau 3 et effectuer une veille technologique continue. Garantir la disponibilité et la résilience des infrastructures réseaux. Automatiser et optimiser les processus en collaboration avec les équipes de production. Cloud AWS : Expertise confirmée en AWS (services réseau, sécurité, gestion d'infrastructure). La connaissance d' Azure serait un plus. Réseaux et Télécoms : Expérience confirmée dans l'administration des outils réseaux et télécoms, notamment avec : Backbox PRTG Sécurité : Solide expérience dans l'administration d’équipements de sécurité réseau, notamment : Checkpoint Juniper Automatisation et Scripting : Maîtrise d'outils d'automatisation et de scripting, avec un focus sur : Terraform (confirmé) Ansible (confirmé) PowerShell Shell Connaissances linguistiques : Français : Courant (impératif) Anglais : Notions (secondaire)

Freelance

Mission freelance
Architecte BigData/Hadoop

Reactis
Publiée le
Apache Hive
Apache Spark
Cloudera

12 mois
650-750 €
Paris, France

Contexte : Vous intégrerez le service DBAs & Socles de la direction technique pour une mission de pilotage et de mise en œuvre opérationnelle des travaux de fiabilisation des socles Hadoop afin de répondre aux exigences de performances attendues par les cas d'usages fonctionnels. Description : Évolution des architectures techniques : - Mise en place des principes directeurs sur l’utilisation du cluster Cloudera; - Vérification de la bonne application des normes et des standards; - Force de proposition, étude, analyse et mise en œuvre de solutions pour améliorer : l'outillage utilisateurs, optimiser les performances et la résilience du cluster; - Étude d'impact et réalisation opérationnelle des montées de version Cloudera et outils Hadoop; - Prise en compte de l’écosystème DSI : ordonnanceur IWS, sauvegarde HDPS, supervision Prometheus / Grafana, ... ; Expertise Hadoop de niveau 3 : - Configuration du cluster Cloudera en fonction des besoins identifiés; - Optimisation des traitements ; Support : - Accompagnement des équipes de développement; - Assistance auprès des équipes : Optimisation des traitements, Prise en main de l’outillage mis à disposition, Chargement des données; - Transmission du savoir-faire via la rédaction de documentations et transfert de connaissances;

CDI
Freelance

Offre d'emploi
DATA ENGINEER GCP SPARK KAFKA SCALA

DATSUP
Publiée le
Apache Kafka
Apache Spark
Google Cloud Platform

12 mois
10k-75k €
Île-de-France, France

- Intégrer des données provenant de sources externes et exploiter pleinement le Datalake. - Générer et diffuser automatiquement des agrégats quotidiens, hebdomadaires et mensuels. - Mettre en place la chaîne complète d'ingestion, validation, croisement et stockage des données enrichies dans le Datalake. - Respecter les normes d'architecture définies lors du développement. - Documenter les user stories en collaboration avec le PO - Créer des scripts de déploiement et prioriser la résolution des anomalies. - Soutenir les équipes d'exploitation et contribuer à l'implémentation de la chaîne de livraison continue. - Automatiser les tests fonctionnels.

Freelance

Mission freelance
Un Data Ingénieur ( Spark ,spark streaming, batch, Kafka, Java, Stack Hadoop Cloudera)sur Nantes

Smarteo
Publiée le
Apache Kafka
Apache Spark
Big Data

3 mois
100-400 €
Nantes, Pays de la Loire

Smarteo recherche pour l'un de ses clients, Un Data Ingénieur(Spark,spark streaming,batch, Kafka,Java,Stack Hadoop Cloudera)sur Nantes Descriptif: Notre client nous soumet une de mande de prestation de DATA ENGINEERING Taches réalisées : - Développer les cas d'usages Data - Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) - Mettre en ?ouvre les tests unitaires et automatisés - Déployer le produit dans les différents environnements - Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents - Accompagner l'évolution des pratiques de l'équipe dans une logique d'amélioration continue de la qualité du code Compétences techniques attendues : - Spark (spark streaming et batch), Kafka, Java - Stack Hadoop Cloudera - Hdfs, Hive, Hbase, Phoenix, MongoDB - DEVOPS : GIT, Jenkins, Artifactory, XL Release, ELK, Grafana - Scrum (cadre agile entreprise) La mission nécessite de l'autonomie, de l'adaptabilité et une bonne communication (lien direct avec les Squads : PO ou DEV), Si vous êtes disponible et intéressé, merci de me faire parvenir votre TJM ainsi que votre CV à jours en format word.

CDI

Offre d'emploi
DevOps AWS (CDI)

ODHCOM - FREELANCEREPUBLIK
Publiée le
AWS Cloud

10k-70k €
Paris, France

Intervention sur les systèmes rédactionnels spécifique à la rédaction (bimedia web et print), participation aux évolutions de l’infrastructure au sein de la direction technique, Tu est rattaché au responsable informatique rédactionnelle. Mission : assurer le bon fonctionnement et la continuité de service des sites web et des applications métiers, d’intégrer les nouvelles solutions, d’améliorer les performances et le monitoring et également de participer à l’évolution du système d’information éditorial dans le respect des meilleures pratiques et des processus qualité. Tu travailles en collaboration étroite avec les équipes de développement, les équipes QA, et les équipes produit sur l’ensemble du périmètre éditorial. L’équipe: 4 personnes 3 DevOps + le lead infra Missions principales: - Maintenance corrective et évolutive et maintien en conditions opérationnelles du système rédactionnel et de l’architecture technique o Faire l’analyse technique des besoins clients (rédaction, équipe produit, marketing…). o Rechercher et analyser les solutions techniques, les outils, participer aux choix de technologies, de solutions et d’architectures. o Participer à la conception technique et à la modélisation. o Participer au découpage des scénarios utilisateurs en tâches, aux estimations de charge de travail, et à la planification globale dans un contexte agile. o Vérifier le respect des normes et des best practices (sécurité informatique, qualité…). Expérience de 3 ans minimum dans un environnement de production sur un applicatif critique pour le métier. Bonne expérience des plateformes web à fort trafic / volumétrie ainsi que sur les mécanismes de routage et CDN. Un point important l’essentiel des échanges avec nos supports se fait en anglais, tu parles couramment cette langue.

Freelance

Mission freelance
Administrateur Sécurité et Réseaux orienté sécurité

LK TECHNOLOGY
Publiée le
Aruba
AWS Cloud
Switch Cisco

1 an
100-500 €
Paris, France

Bonjour, Nous recherchons un Administrateur Sécurité et Réseaux orienté sécurité pour rejoindre notre équipe et accompagner la mise à niveau de la sécurité chez notre client. Accompagner la mise à niveau de la sécurité de nos systèmes. Veiller et mettre en œuvre, avec l'équipe, les bonnes pratiques de sécurité. Effectuer une veille active en matière de sécurité et mettre en place les contre-mesures face aux failles critiques pouvant menacer le client. Sensibiliser l'équipe aux risques cyber. Administrer les outils de sécurité ainsi que les équipements réseaux et systèmes On-Premise. Aider à l’administration des environnements AWS .

CDI
Freelance

Offre d'emploi
AI & MLOps Engineer - Capital Market AI & Innovation

Nexius Finance
Publiée le
AWS Cloud
Intelligence artificielle
Machine Learning

2 ans
55k-65k €
Île-de-France, France

Le Client souhaite renforcer son équipe d'Architecture et Innovation. La prestation portera autour de nouveaux sujets relatifs à l'IA et IA Générative. BANQUE DE FINANCEMENT Les compétences recherchées : • Expérience en MLOps : o Maîtrise des outils et des bonnes pratiques de MLOps (GitLab, Docker, Kubernetes, CI/CD). o Expérience avec les plateformes cloud (AWS). o Expérience dans la mise en œuvre de projets de data science en production. Compétences en programmation : o Expertise de Python et maîtrise d'au moins un autre langage de programmation. • Solides connaissances en data science et machine learning • Expérience sur un projet NLP • Une première expérience sur un projet GenAI / RAG serait un plus • Esprit ouvert et curieux • Etre force de proposition. • Travailler en étroite collaboration avec les équipes métiers pour comprendre leurs besoins et traduire leurs problématiques en questions scientifiques. • Communiquer de manière claire et concise les résultats des analyses et les recommandations. • Expérience et connaissance des problématiques spécifiques à la finance des marchés serait un plus.

Freelance

Mission freelance
Devops/Cloud Engineer AWS

VISIAN
Publiée le
AWS Cloud
DevOps

1 an
100-560 €
La Défense, Île-de-France

L’Expert-e AWS/Devops garantit la maitrise technologique des services Cloud et dispose d’un niveau de connaissance suffisant pour implémenter et contrôler la qualité des livrables des tiers. Il/elle est le dernier recours en cas de défaillance des prestataires ou si les SLAs ne sont pas assurés. Sa contribution à la satisfaction des BU est importante. Il/elle est responsable, sur un périmètre d’une Squad, de concevoir l’architecture technique et service et son évolution à moyen / long terme en réponse aux besoins métiers et aux services proposés au catalogue du client. entre : · les ressources de l’Infrastructure existante (incluant le FinOps) · l’adéquation au cadre de référence dans lequel la squad s’intègre, · la performance de la squad (évolutivité, maintenabilité, exploitabilité, réutilisation, cout,…). Il/elle garantit la cohérence de l’ensemble des moyens informatiques (Cloud platform, applicatifs, bases de données, réseaux, middleware, système d’exploitation, PaaS, ServerLess) et de leur évolution, en exploitant au mieux l’état de l’art. Il/elle met tous les moyens en oeuvre pour garantir le respect du niveau de service demandé et la sécurité. Contexte La mission se déroule dans une squad DevOps sous l’autorité du pilote de squad. Au sein de la squad à laquelle il appartient, l’expert-e cloud a pour principales missions : - Migrer des périmètres d’infrastructures « On-Premise » vers le Cloud : Move-To-Cloud applicatifs - Construire des solutions d’infras AWS robustes et scalables pour des applications métiers ou Web, en respectant les contraintes de coût, de performance et de qualité - Refondre des infrastructures déjà présentes sur le Cloud : replatforming, refactoring, optimisations diverses - Participer à la mise en place d’automatisation, d'intégration & de déploiement continu - Assurer l’alignement des systèmes avec les règles de sécurité édictées par le groupe - Accompagner les entités/BU dans leurs activités liées au Cloud : « conseil » / expertise - Être force de proposition dans les domaines de la Sécurité, de l’optimisation des coûts de la performance et de la disponibilité des plateformes. - Être un acteur majeur au développement de notre démarche d’industrialisation et de notre standardisation - Monitorer, Superviser, Opérer les infrastructures en place - Rédiger des documentations d'exploitation et techniques - Etc Maitrise opérationnelle de l’Anglais à l’oral et à l’écrit exigée

Freelance
CDI

Offre d'emploi
Data engineer GT Lake

VISIAN
Publiée le
Apache Spark
MySQL
Python

2 ans
10k-45k €
Charenton-le-Pont, Île-de-France

Contexte / Objectifs : La mission va se dérouler au sein de l'IT Data Management & BI dans l'équipe Trade et Treasury Solutions qui aujourd'hui développe et gère un datalake (GT Lake) Ce datalake est une brique clé dans la mise en oeuvre des projets de développements autour du plan stratégique et des besoins métiers. Les principales missions consisteront notamment à : - Rédiger des spécifications techniques détaillées - Analyser les impacts des nouveaux projets sur les traitements/processus du système d’information existant - Comprendre et faire évoluer les modélisations - Développer des requêtes - Réaliser des développements (avec une approche industrielle) - Organiser et réaliser des recettes - Planifier et suivre la production - Implémenter et automatiser de bout en bout des programmes et solutions de Data Engineer dans un environnement Big Data - Intégrer, former les collaborateurs data ingénieur de l'équipe, définir les bests practices... - Participer à la communauté BigData de la BGC La mission se fera exclusivement dans un contexte méthodologique Agile. Il impliquera de pouvoir travailler avec des collègues travaillant à distance dans l’entité de Porto. Activités et tâches : • Acheminement de la donnée • Mise à disposition de la donnée aux équipes utilisatrices • Mise en production de modèles statistiques • Suivi de projet de développement • Développement job spark • Traitement et ingestion de plusieurs formats des données • Développement des scripts • Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données • Développement des moyens de restitution via génération de fichier et ou API & Dashboarding • Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers • Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) • Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP • Participer à la conception, mise en place et administration de solutions Big Data • Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka • Normalisation et agrégation des données afin de produire les rapports sous forme de Business View

Freelance
CDI

Offre d'emploi
Développeur - Big Data | Spark (H/F)

CELAD
Publiée le
Apache Spark

1 an
42k-50k €
Lyon, Auvergne-Rhône-Alpes

📑 CDI (42-50K€) / Freelance / Portage Salarial - 🏠 10 jours de télétravail / mois - 📍 Lyon - 🛠 Expérience de 5 ans minimum 🌟 Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un(e) Développeur – Big Data | Spark pour intervenir chez un de nos clients. 💻💼 Contexte : vos missions tournent autour de 4 axes : - Fournir une expertise en Big Data pour simplifier la manipulation des données. - Concevoir des solutions techniques pour le traitement massif de données. - Implémenter des solutions de stockage de données (SQL, NoSQL, etc.). - Assurer la sécurité et la lisibilité des pipelines de données pour faciliter l'analyse et la transformation. Voici un aperçu détaillé de vos missions 🎯 : - Création, maintenance, optimisation et sécurisation des bases de données pour garantir leur intégrité et leur performance. - Détection, proposition et suivi des optimisations des requêtes SQL, PL/SQL afin d'assurer l'efficacité des applications métier en termes de traitement des données. - Fournir un soutien aux équipes de développement en identifiant et en recommandant des solutions SGBD adaptées aux besoins métier, tout en assurant leur performance et leur pertinence. - Effectuer une veille technologique sur les outils utilisés dans le cadre du projet, afin de maintenir la pertinence et la compétitivité des solutions mises en œuvre. - Partager et dispenser des formations sur les bonnes pratiques en matière de gestion des bases de données, contribuant ainsi à l'amélioration continue des processus et des compétences au sein de l'équipe.

625 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous