Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Data Architect Azure
🎯Inventifs Wanted Nous recherchons un architecte Data Azure ayant une expertise en architecture de données, chiffrage de projets Big Data et méthodologies Agile. Avec 8 ans d'expérience au minimum Travaillant sur plusieurs Projets Data; Participation à l’évaluation et à la livraison de composants Azure Conception et mise en œuvre d’architectures de solutions data sur Azure (data lakes, ingestion, service et consommation de données). Développement d’architectures Azure Data Lake pour stocker les données IoT et configurer Databricks. Implémentation de solutions utilisant Azure SQL Database, Azure Data Factory, et Azure SQL Managed Instance. Direction de projets cloud axés sur les services Azure et gestion de la qualité des livrables pour les projets de migration et d’infrastructure. Cadrage et chiffrage des divers projets Big Data Définition des solutions d’architecture Big Data dans le Cloud Azure Garantir la cohérence technique et la pérennité du système d’information. Mise en place de l'architecture des projets Big Data sur le Cloud Azure en rédigeant des Dossiers d’Architecture Logiciels (DAL) et en validant des Dossiers d’Architecture Technique (DAT). Migration des projets dans des nouvelles architectures (HDI vers AKS, Datalake Gen1 ver Gen2, AKS 1.19 vers AKS 1.) et concevoir de nouvelles solutions avec un monitoring de PaaS et une synchronisation des données de Prod et Hprod. Participation à des instances de : Design Authority, CoArch avec les Architectes Techniques, CAO (Comité d'Architecture Opérationnel) Validation de l'architecture du Product Incrément, à des réunions de qualification Validation avec le RSSI et au suivi de chantiers de résilience et de suivi FinOps. Conception de solutions BI avec Power Platform (Power BI, Power Automate, Power Virtual Agents). Création de rapports, tableaux de bord, et KPI avec Power BI, ainsi que gestion de la sécurité des données. Environnement Technique : Cloud Platform & Services : Azure, Azure API APPS, Azure DevOps, Azure Data Factory, Azure Data Lake, Azure Synapse Analytics, Azure Databricks, Azure IoT, Azure Stream Analytics, Azure SQL DB, Azure SQL Managed Instance Data & Analytics : Datalake, SQL, Power BI, Azure Synapse Analytics, Azure Databricks, Azure Data Lake, Azure Stream Analytics Automation & Scripting : PowerShell, CI/CD, Azure DevOps
Offre d'emploi
Expert Cloud Infra réseaux
Bonjour, Afin que votre candidature soit prise en compte merci d'envoyer votre CV sous format Word directement à l'adresse suivante : et non via le site par lequel vous avez consulté cette annonce : Nous recherchons pour notre client banque basé en Région parisienne un profil Expert sur les problématiques Cloud Infra et réseaux : Au sein de DSIO, le programme Grace (Group Acceleration Cloud Excellence) porte la stratégie Cloud et la transformation du modèle de delivery de la DSI. Ce programme s’appuie sur le pôle Cloud Technology Plaƞorm pour gérer la nouvelle landing zone AWS qui hébergera à terme la majorité des workloads cloud d’Hermès. Cette équipe a pour responsabilité de fournir des socles techniques solides qui seront consommés par les équipes Applicative Plaƞorm de la DSI. Cette équipe est composée de 5 personnes (Architectes et builders) qui ont défini l’architecture cible (Account factory, Identité, connectivité, sécurité …) qui a été validée par les différentes parties prenantes (entreprise architecture & sécurité). La LZ EMEA a été ouverte cet été et sera déclinée AMER/APAC en 2025. En complément du socle LZ, d’autres initiatives complémentaires sont en cours telles que l’automatisation de la documentation AWS, un backup centralisé et l’ouverture d’une LZ en chine (AWS China). Déployer et maintenir les différents socles de la landing zone, s'assurer de la cohérence et de l'homogénéité de l'IAS et de sa documentation, veiller à la conformité avec les standards d'architecte et de sécurité, écrire les scripts pour automatiser des opérations courantes, comprendre les besoins des clients et leur proposer des solutions 'en prenant en compte les enjeux sécurité, couts, facilité de déploiement, d'usage et de maintenance.. Minimum 7 ans d'expérience dans l'infrastructure, développement et/ou cloud, au moins une certification AWS associate (Architect serait un plus). aisance à diagnostiquer, facilité les problèmes.. Bonne connaissances des méthodes Devops et agile. Anglais courant Forte expertise dans le déploiement et la gestion des ressources et services Cloud, Excellente connaissance des socles réseau, sécurité et système, bonne compréhension de la gestion de l'identité, maitrise des outils d'automatisation.... Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format Word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.
Offre d'emploi
Ingénieur Data SAP/Snowflake
Contexte : Dans le cadre d'un programme de transformation digitale basée sur S4/HANA, mon client, acteur majeur du secteur de l'industrie recherche un Data Engineer Snowflake, ADF, SAP concernant la réalisation de l' intégration des données issues de SAP vers les applications BI.. Le datalake est composé d’un modèle hybride Azure Data Factory + ADLS2 qui vient déverser la donnée dans le datalake Snowflake. Le profil qui nous rejoindra devra piloter et organiser son activité ainsi que celle d’un consultant moins senior afin de maintenir un rythme ainsi qu’une qualité de livraison constants tout en affichant une communication claire sur l’activité.
Mission freelance
Lead Tech IaaS / Cloud DevOps
Technologies : IaaS (Windows/linux, VM Cloud), GCP, GCE, MIG, Filestore, Terraform, Ansible, Python Descriptif de la prestation : Dans le cadre de la plateforme IaaS, le Lead Tech a pour mission de guider et orienter l'équipe dans ses choix technologiques tout en adoptant une posture de coach technique. Il travaillera en étroite collaboration avec le Product Owner (PO) pour assurer la réussite des projets. Responsabilités : - Participer activement à l'ensemble des cérémonies Agile de l'équipe IaaS. - Servir de point de contact technique entre la plateforme IaaS et les autres plateformes Cloud. - Co-construire et alimenter le backlog en collaboration avec le PO. - Contribuer directement à la réalisation des sujets techniques, au même titre que les membres DevOps de l'équipe. Compétences requises : - Excellente maîtrise des environnements GCP (ou AWS/Azure), notamment sur les problématiques IaaS et Cloud Functions/Lambda. - Expertise dans l'utilisation de Terraform, Ansible et Python. - Expérience confirmée du travail en environnement Agile et en collaboration étroite avec des équipes. Objectifs : - Collaborer avec le PO pour alimenter le backlog de l'équipe IaaS (utilisation de Jira et Confluence). - Contribuer à la réalisation et la livraison des tickets techniques issus du backlog
Mission freelance
Développeur K8S Terraform
Contexte : Nous recherchons un développeur senior avec de fortes compétences autour de l’administration système, des pratiques devops et surtout une très bonne connaissance de Terraform. MISSIONS La mission consistera à assurer la coordination entre les équipes de développement et les équipes ops. Elle pourra aiguiller les développeurs à mieux mettre en œuvre la configuration Cloud, la CI/CD, les bonnes pratiques de scalabilité et de sécurité pour travailler plus efficacement. Elle consistera également à expliciter, accompagner et documenter les évolutions techniques. PROFIL : Le titulaire devra disposer d’une expérience back (PHP et/ou JS) avec des expertises détaillées, et notamment sur Docker/Kubernetes/Terraform pour le cloud privé et public (Azure, AWS).
Mission freelance
Qlik Developer/ Développeur Qlik
Poste : Développeur Qlik Principales responsabilités : Création et maintenance : Développer et maintenir les tableaux de bord Qlik Sense. Objectif de support : Aider la gestion des opérations au niveau du groupe. Tâches principales : Développement de tableaux de bord : Concevoir des tableaux de bord centrés sur : Qualité de service : Suivre et analyser les indicateurs de performance du service. Indicateurs des appels entrants : Surveiller et générer des rapports sur les données liées aux appels. Objectif : Améliorer les capacités de surveillance et de création de rapports pour de meilleures informations opérationnelles.
Mission freelance
DataOps Engineer
Nous recherchons un DataOps Engineer confirmé pour renforcer notre équipe de 3 personnes. Ce poste s'inscrit dans un besoin d'industrialisation de nos processus de gestion de données, avec un focus particulier sur l'ingestion de données en temps réel. Responsabilités principales · Concevoir, développer et maintenir des pipelines de données robustes et évolutifs · Implémenter des solutions d'ingestion de données en temps réel · Participer à l'industrialisation des processus DataOps · Appliquer les bonnes pratiques DataOps dans l'ensemble de nos projets · Collaborer étroitement avec les équipes de développement et d'infrastructure
Offre d'emploi
Data scientist
Le datascientist manipulera les données de consommation contenues dans la plateforme C3 AI, utilisera les API en javascript, Batch MapReduce et développera des algorithme en Pyspark, python (Scikitlearn). Le datascientist devra également maitriser les framework du machine leaning et deep leaning : Scikit learn, Tensorflow ou Pytorch. Le datascientist doit travailler auprès des équipes agiles travaillant sur les données de consommation afin de mettre en place et gérer en RUN des algorithmes basés sur les données de consommation des clients B2C. Le datascientist travaillera principalement sur les données de la plateforme AI mais également sur la nouvelle plateforme sous Databricks. Des projets innovants sont prévus sur 2024, et la réussite de ces algorithmes (performance, optimisation...) est un enjeu fort au regard de la forte volumétrie. Technique : Python, Pyspark, Scikit learn, C3 AI, Cassandra, AWS Code source (composants applicatifs et tests unitaires) Compétences en programmation et gestion des bases de données (SQL, Cassandra…) Mathématiques appliquées : Construire des algorithmes pour améliorer les résultats de recherches et de ciblage Statistiques : capacité à réaliser des analyses prédictives et statistiques à partir des différentes bases de données. Reseau de neurones.
Offre d'emploi
Ingénieur Devops Openshift H/F
AMAGO IT recherche dans le cadre d'une prestation de longue durée pour un client GC : un Ingénieur Devops Openshift H/F Accompagner les équipes opérationnelles en charge du support et de l'administration de la forge (mise à jour, redémarrage de services, ..) Administration des clusters Openshift Assurer la gestion des incidents et des changements Optimiser les fichiers de configuration (Helm, Gitlab, Docker) Scripting bash Administration gitlab, sonarqube, ArgoCD, Nexus Administration Système Linux veille et bonne connaissance sur les outils CI/CD
Offre d'emploi
Data Engineer
Bonjour, Nous recherchons pour un pote à pourvoir ASAP pour notre client banque basé en Région parisienne un profil Data Engineer La mission consiste à intégrer l'équipe Projets en charge de l'intégration des données de l'entreprise au sein de la plateforme Data sous le Cloud Azure afin de couvrir les besoins Big Data et BI de nos métiers. La personne sera intégrée dans l'équipe projet qui fonctionne dans une organisation en mode Agile. Nous recherchons un Data Engineer confirmé/sénior avec une forte expertise sur Azure, Databricks, Spark, Scala, Python et SQL · Développement et l’implémentation de solutions Big Data Analytics · Analyse du besoin, étude d'impacts et conception de la solution technique · Conception et modélisation des données au niveau d'un Data Lake (format Parquet, Delta table, …) · Construction des pipelines de données pour collecter, transformer et traiter des données dans le Data Lake · Développements de notebooks (ex : Databricks) de traitements avancés des données · Cloud Datawarehousing (tuning, optimisation de traitements et requêtes SQL) · Rédaction de documentation technique (Dossier d'Analyse Technique, release delivery note, ….) · Revue de code · Réalisation de tests unitaires · Maintenance corrective et évolutive · Livraison dans un environnement Devops, CI/CD et outils associés Compétences techniques requises · Expérience Data minimum 5 ans · Azure minimum 3 ans · Expérience architecture Lakehouse minimum 2 ans · Databricks minimum 5 ans · Spark minimum 5 ans · Scala, Python, SQL minimum 5 ans · Maitrise de CI/CD, Azure DevOps minimum 3 ans · Connaissance des outils Agile (JIRA) et ayant déjà travaillé en mode Agile minimum 1 an Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format Word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.
Offre d'emploi
Ingénieur développeur 3D - Défense F/H
📑 CDI (42-45K€) / Freelance / Portage Salarial - 🏠 1 jour de télétravail / semaine – 📍 Elancourt - 🛠 Expérience de 2 ans minimum Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un.e 3D dans un environnement Unreal Engine 5 pour intervenir chez un de nos clients dans le domaine de la Défense (projet HCD). Vos missions : - Implémenter des solutions techniques innovantes pour satisfaire les attentes des clients - Développer des logiciels applicatifs en conformité avec le plan de développement du produit - Réaliser les tests d’intégration et de validation des logiciels, et rédiger les rapports correspondants - Veiller au respect des règles de codage et à la bonne gestion de la configuration via Git
Offre d'emploi
Administrateur Systèmes LINUX (H/F)
Administrateur Systèmes LINUX (CDI) Localisation : Louviers (27) Mode de travail : Hybride Date de démarrage : Immédiate (bien-entendu, on vous attend si vous avez un préavis 😉). Fourchette de salaire : Entre 34K et 38K € L’ IT chez ARTEMYS combine la technologie et l’humain ! Nous sommes convaincus que les compétences, le savoir-être et l’épanouissement de nos Talents sont les clés de notre réussite . 👍 Alors, vous nous rejoignez ?! Notre site de l’agglomération de Rouen recrute dès à présent un.e A dministrateur Systèmes LINUX en CDI. Dans cette nouvelle étape de votre carrière, nous vous proposons d’intervenir sur de belles missions auprès d’un grand acteur du traitement de la donnée situé du côté de Louviers auprès duquel vous aurez la possibilité de : · Gérer et administrer des environnements de production Linux, infrastructures et applications. · Traiter des incidents de niveau 3 · Participer activement dans le cadre des projets d’évolutions techniques, · Créer des scripts d’installation sur les serveurs d’application, · Automatiser et intégrer en continue avec Jenkins · Optimiser la performance des systèmes et applicatifs · Participer aux phases de validation technique lors des mises en production, · Ecrire de la documentations techniques et procédures d’exploitation
Offre d'emploi
Chef de projet SEA
Le Chef de Projet SEA (Search Engine Advertising) est responsable de la conception, de la mise en œuvre et de l’optimisation des campagnes publicitaires sur les moteurs de recherche (Google Ads, Bing Ads) pour maximiser la visibilité, l’engagement et les conversions. Ce rôle clé implique une gestion rigoureuse des budgets, une analyse des performances et une optimisation continue des campagnes pour atteindre les objectifs commerciaux de l'entreprise. En tant qu'expert(e) en SEA, vous travaillerez en étroite collaboration avec les équipes marketing et commerciales. Missions principales : Développement de la stratégie SEA Élaborer et mettre en place des stratégies SEA alignées sur les objectifs commerciaux et marketing de l’entreprise. Identifier les mots-clés stratégiques, concevoir les annonces et structurer les campagnes publicitaires. Gestion et optimisation des campagnes Paramétrer et gérer les campagnes Google Ads, Bing Ads et autres plateformes de publicité payante. Optimiser les annonces, les enchères, les groupes d’annonces et les pages de destination pour maximiser le retour sur investissement (ROI). Tester de nouvelles approches (A/B testing) pour améliorer les taux de clic (CTR) et les taux de conversion. Suivi du budget et ROI Gérer les budgets SEA, en suivant et en ajustant les dépenses pour respecter les limites et maximiser l’impact des campagnes. Effectuer des ajustements quotidiens, hebdomadaires et mensuels en fonction des performances et des résultats obtenus. Analyse des performances et reporting Analyser les KPI et produire des rapports réguliers pour évaluer les résultats des campagnes SEA. Présenter des recommandations et des axes d'amélioration basés sur les analyses de performance et les tendances du marché. Veille concurrentielle et sectorielle Effectuer une veille concurrentielle pour identifier les stratégies et pratiques innovantes en SEA. Se tenir informé(e) des nouvelles fonctionnalités publicitaires, des changements d’algorithmes et des tendances de l’industrie pour anticiper et adapter les stratégies.
Mission freelance
Data Engineer (Python/AWS)
Il est garant de l’accès qualitatif aux sources de données. Il s’assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d’en faciliter l’exploitation par les équipes (Data Analysts et Data Scientists). Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d’intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT, … Il assure la supervision et l’intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons, …) QUALIFICATION ET GESTION DES DONNÉES : • Capte les données (structurées et non structurées) produites dans les différentes applications ou à l’extérieur de l’entité • Intègre les éléments • Structure la donnée (sémantique, etc.) • Cartographie les éléments à disposition • Nettoie la donnée (élimination des doublons, …) • Valide la donnée • Éventuellement, il crée le référentiel de données
Mission freelance
Expert Technique H/F
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Expert Technique H/F à Lyon, Auvergne-Rhône-Alpes, France. Contexte : Les missions attendues par le Expert Technique H/F : Description du profil : Etre en capacité de gérer des chantiers techniques complexes faisant évoluer l’architecture en privilégiant toujours la robustesse, la qualité et la performance. 7 années sont attendues sur le rôle. Activité principale : o Participation au diagnostic et à la résolution des incidents de productions. o Gestion de chantiers techniques complexes o Répondre aux sollicitations pour la conception, le développement et l’amélioration des solutions techniques o Développements et revues de code sur des problématiques techniques complexes o Support technique o Rédaction de documents techniques o Être garant de la qualité des livrables Activité secondaire : o Animation et participation à des ateliers techniques projets ou transverses o Faire le lien avec les équipes de sécurité et d’architecture transverse l’Entreprise Stack technique de l'équipe : - Back : Java 21, Spring boot 3.3, Hibernate 6.4, PostgreSQL 16, Protobuf - Front : Angular 18, NgRx - Infra : Docker, Terraform, Cloud (Outscale), Kafka, Grafana, Prometheus - Outillage : Gitlab, Gitlab-ci, Jira/Confluence Compétences attendues sur le profil : Participation au diagnostic et à la résolution des incidents de productions Collaborer avec le reste de l’équipe pour trouver les meilleures solutions aux problématiques techniques rencontrées Développements et revues de code sur des problématiques techniques complexes (de manière occasionnelle) Support technique de dernier niveau
Offre d'emploi
DevOps (H/F) – Domaine de l’environnement - Toulouse
Nous poursuivons notre développement et recherchons actuellement un Ingénieur DevOps (H/F) pour intervenir sur un projet de développement de solutions logicielles pour la gestion de la chaîne d'approvisionnement et des opérations industrielles à Toulouse 📍 Voici un aperçu détaillé de vos missions 🎯 : Mettre en place les tests d'intégration de la chaine complète Mettre en place l'intégration continue sous GitHub Rédiger les documents de déploiement automatiques sur AWS (compartiments S3, PostgreSQL managé et cluster K8s) Rédiger la configuration des ressources du cluster Kubernetes Configurer les workflows Argo pour l'orchestration de la chaine Mettre en place le déploiement continue sur AWS Mettre en place le monitoring de la chaine de traitement, du cluster et des ressources AWS Mettre en place le backup des données S3 et base de données Aider à la mise en place du rejeu et du retraitement Participer au développement de briques de la chaine de traitement en Python et à la mise en place de tests unitaires (export de données...). Améliorer le modèle de données et les briques de traitement En ce qui concerne la stack technique, vous aurez l'occasion de travailler avec les technologies suivantes : Python, Poetry, Pytest Docker, Kubernetes, Argo Workflow CI/CD avec Github Actions, ArgoCD Stockage S3, Postresql AWS avec service S3, EKS, RDS "Infrastructure as Code" avec Terraform Monitoring avec Prometheus et Grafana
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.