Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
DATA ENGINEER GCP SPARK KAFKA SCALA
- Intégrer des données provenant de sources externes et exploiter pleinement le Datalake. - Générer et diffuser automatiquement des agrégats quotidiens, hebdomadaires et mensuels. - Mettre en place la chaîne complète d'ingestion, validation, croisement et stockage des données enrichies dans le Datalake. - Respecter les normes d'architecture définies lors du développement. - Documenter les user stories en collaboration avec le PO - Créer des scripts de déploiement et prioriser la résolution des anomalies. - Soutenir les équipes d'exploitation et contribuer à l'implémentation de la chaîne de livraison continue. - Automatiser les tests fonctionnels.
Mission freelance
Développeur Full Stack Java / Angular - Connaissance des crédits et remises documentaires
Dans le cadre d'un projet stratégique, notre client recherche un Développeur Full Stack Java / Angular pour intégrer l'équipe en charge du canal Trade Client. Vous travaillerez sur des applications front (FBCC, KONSOLE & Trade Tracker) et interviendrez pour des projets et de la maintenance évolutive-corrective. Développement et conception technique : Contribuer aux solutions de software craftsmanship, intégrant les meilleures pratiques (TDD, CD, méthode agile). Collaboration : Travailler étroitement avec les Business Analysts pour comprendre et challenger les besoins, rédaction de scénarios et participation aux estimations. Support : Participer activement aux mises en production et assurer le support des utilisateurs sur les applications du périmètre. Amélioration continue : Contribuer aux optimisations techniques et organisationnelles.
Mission freelance
Ingénieur DevOps
L’ingénieur devops fait partie d’une équipe agile chargée du développement, des évolutions, de la maintenance, et de la mise en place d’une approche devops, des déploiements/configuration d’une ou plusieurs applications construites sur des technologies Java et php. Ces applications sont le plus souvent de type « web », impliquant des bases de données relationnelles, des interfaces REST, et des échanges asynchrones de messages. Il se positionne naturellement comme le principal point de contact sur les sujets techniques opérationnels de déploiement de applications, de préparation des infrastructures et de mise ne place de la plateforme d’intégration cotinue et devops. Il est amené à échanger au quotidien avec : - Des Product Owners - Un architecte - Des intégrateurs et exploitants - Des Tech Leads et équipes de développements Principales tâches relatives à la mission : · Commissionnement/ décommissionnement de l’infrastructure AWS (EC2, RDS, ELB/ALB, AWS S3) · Maintenir et évoluer la chaine d’intégration continue Jenkins (création, modification des jobs..) · Installer les composants logiciels d’infrastructure (JRE, PHP, apache, postgreSQL..). · Déploiement des applications du programme (configuration Zuul et exécution des jobs jenkins). · Analyse et résolution des incidents survenus en production (application non disponible, serveur non disponible….). · Analyse et optimisation des performances. des serveurs (Processus, RAM, FS, CPU, nbr de transactions) · Etre le garant du respect des bonnes pratiques de livraisons (création de branches dans Git, upload dans nexus….) · Faire et suivre des demandes d’ouverture de flux inter-applicatifs et inter-plateformes. · Alerter les équipes projets sur les risques liés aux configurations et performances de leurs applications. · Etre le principal point de contact avec les équipes d’infrastructure pour le programme lors des phases de mise en production. · Transverse : · Préparation des playbook Ansible de la plateforme. · Maintenir le dossier de configuration et d’exploitation. · Maintenir les images docker utiliser. · Maintenir les job jenkins en place. · Préparation des helm charts des applications. · Travailler avec les architectes du programme pour étudier les évolutions · Adopter une approche devops (containérisation, infrastructure as code….)/ Environnement technique · JIRA, Bugtracker · Jenkins, Docker/Kubernetes sur AWS, Maven/NPM, GIT, Sonar, ELK Stack · Amazon web service (S3, RDS, api gateway,….) · Architecture Event-Driven (messaging via Kafka) · JAVA, Postgres SQL · Languages : scripting, Java 8, Liquibase, Flyaway, REST, Groovy, Helm · Middleware : Apache, Nginx, tomcat, kafka Security : SSL, OAuth2, SSO, Forgerock
Mission freelance
Expert PostgreSQL
Contexte Dans le cadre de l’enrichissement des technologies prises en charge par sa plateforme, notre client est à la recherche d’un expert PostgreSQL, afin de diversifier les compétences de l’équipe. MISSIONS : Elaborer, mettre en œuvre et automatiser les procédures de construction, de test et d’exploitation des bases de données PostgreSQL en mode on-prem/cloud/IaaS/PaaS. Collaborer avec les autres équipes produit autour de la conception et de l’implémentation de produits plus complexes comme des solutions applicatives Assurer le support N3 des produits de la plate-forme
Mission freelance
Expert MongoDB
Contexte : Dans le cadre d’un enrichissement des technologies prises en charge par la plateforme, nous avons besoin de diversifier les compétences de l’équipe. MISSIONS : Elaborer, mettre en œuvre et automatiser les procédures de construction, de test et d’exploitation des bases de données MongoDB en mode on-prem/ cloud/ IaaS/ PaaS. Collaborer avec les autres équipes produit autour de la conception et de l’implémentation de produits plus complexes comme des solutions applicatives Assurer le support N3 des produits de la plate-forme. Compétences recherchées : - Obligatoires : Maitrise de la base de données MongoDB. Maitrise des technologies d’IaC « Infrastructure as Code » (Ansible, Terraform …) Bonne connaissance des bases de données PostgreSQL, OracleDB, SQLserver et MySQL Connaissance des solutions DELPHIX et Snowflake. Connaissance des hyperviseurs, réseaux, système de stockage, OS et backups. Expérience nécessaire : Expert (10 ans d’expérience IT dont au moins 5 dans ce domaine technique) Langues : Français et Anglais
Mission freelance
Data Engineer Lille (profil local et expérimenté)
L'équipe DCF (Data Component and Framework) est une équipe transverse dont l'objectif est de construire un socle technique et des outils permettant à chaque Business Unit local ou international de mettre en place en autonomie ses Uses cases Data. Environnement technique : • Stockage : Google Cloud Storage • Base de données : BigQuery, Datastore, Firestore, MongoDB • Monitoring : Stackdriver • Ordonnanceur : Airflow puis Google Cloud Composer • Compute: Cloud Function, Compute engine • API: App Engine, Cloud run, FastAPI • Déploiement : Terraform, Pulumi • Versioning : Git • Langage: Python, Shell • CICD : Cloud build, Github Action
Mission freelance
Consultant Data / GCP
Je recherche en ce moment un consultant Data / Big Query pour un de mes clients dans le nord de la France afin de construire les nouveaux cas d'usage sous Google Cloud Platform et participer au développement des nouveaux projets : Analyser et comprendre l’existant Concevoir l’architecture du nouveau socle Challenger et mener des ateliers avec le métier Développer les flux Exposer de la donnée sur GCP Participation à la vie de l'équipe (composée de 1 PO, 1 BA, 7 Devops data) : Rituels : daily / atelier d’équipe / sprint / … Alimentation du JIRA Documentation technique et fonctionnelle Garant et détection des axes d’amélioration à mettre en place sur le périmètre du produit Analyse poussée sur l’ensemble du périmètre (participation active aux divers ateliers métier et recettes)
Offre d'emploi
Ingénieur DevOps - Azure
SquareOne renforce ses effectifs et intègre de nouveaux ingénieurs DevOps au sein de sa BU Cloud / Data / DevOps. Vous rejoindrez nos équipes basées à Bordeaux et interviendrez chez notre client. L'équipe de notre client est responsable de la migration d'une plateforme de formation vers une infrastructure modernisée. Missions : - Analyse de l'existant - Mise en place et gestion des environnements DEV / TEST / PROD (Docker / Ansible) - Être garant de l'observabilité, la sécurité et la performance de la nouvelle plateforme. - Automatisation du déploiement et de la gestion de la configuration. - Support technique et résolution des problèmes liés à la migration et à l'infrastructure. Environnement technique : GIT / Azure DevOps / docker / Linux / Python / Ansible Bordeaux + télétravail 2 jours par semaine Rythme : Lundi / Mardi / Jeudi sur site
Offre d'emploi
Développeur Full Stack spécialisé en Kafka/Confluent
Bonjour Nous sommes à la recherche de développeurs Full Stack spécialisés en Kafka/Confluent pour notre client de renom basé en France. Vous interviendrez sur des projets innovants et serez responsable de la conception, du développement et de l'intégration d'architectures distribuées. Vous collaborerez avec des équipes pluridisciplinaires pour implémenter des solutions robustes et scalables en utilisant Kafka et d'autres technologies de pointe. Vos principales responsabilités seront : Conception et développement d'applications full stack (backend et frontend) avec une forte intégration de Kafka/Confluent . Mise en place et gestion des pipelines de streaming de données avec Kafka pour assurer la scalabilité et la robustesse des applications. Collaborer avec les équipes DevOps pour déployer, superviser et optimiser les environnements de production. Analyse et résolution des incidents techniques liés à Kafka et aux microservices. Participer à l'amélioration continue des processus de développement et d'intégration. Documentation technique et partage des meilleures pratiques avec l'équipe.
Offre d'emploi
Expert en sécurité cloud AWS-IAM H/F
Objectifs de la mission : Audit de l'existant : Évaluer les configurations IAM actuelles sur AWS et identifier les vulnérabilités et les améliorations possibles. Conception de la stratégie IAM : Élaborer une stratégie IAM adaptée aux besoins de l'entreprise et conformes à nos règles de sécurité, incluant la gestion des identités, des accès et des permissions. Mise en œuvre des meilleures pratiques : Appliquer les meilleures pratiques AWS pour la gestion des identités et des accès, notamment à travers l'utilisation de services tels que AWS IAM, AWS Organizations, AWS SCP et autres. Formation et sensibilisation : Accompagner les équipes projet sur les concepts IAM et les outils AWS, et promouvoir une culture de la sécurité au sein de l'organisation. Documentation : Fournir une documentation complète des processus, configurations et politiques mises en place.
Offre d'emploi
Architecte Data Azure - Paris H/F
Rejoignez Inventiv IT et façonnez l'avenir avec nous 🚀 Vous êtes un(e) Architecte Data Azure passionné(e) par les Big Data et la transformation digitale ? Rejoignez-nous pour concevoir et implémenter des architectures data de pointe sur Azure, en dirigeant des projets innovants dans le Cloud et en assurant la qualité des livrables 🎯Inventifs Wanted Nous recherchons un architecte Data Azure ayant une expertise en Avec 7 ans d'expérience au minimum. Travaillant sur des sujets Big Data & Data Viz Participation à l’évaluation et à la livraison de composants Azure . Gestion du Build & du Run des applicatifs Conception et mise en œuvre d’architectures de solutions data sur Azure (data lakes, ingestion, service et consommation de données). Développement d’architectures Azure Data Lake pour stocker les données IoT et configurer Databricks . Implémentation de solutions utilisant Azure SQL Database , Azure Data Factory , et Azure SQL Managed Instance . Direction de projets cloud axés sur les services Azure et gestion de la qualité des livrables pour les projets de migration et d’infrastructure. Cadrage et chiffrage des divers projets Big Data . Définition des solutions d’architecture Big Data dans le Cloud Azure . Garantir la cohérence technique et la pérennité du système d’information. Mise en place de l'architecture des projets Big Data sur le Cloud Azure en rédigeant des Dossiers d’Architecture Logiciels (DAL) et en validant des Dossiers d’Architecture Technique (DAT) . Migration des projets dans des nouvelles architectures ( HDI vers AKS , Datalake Gen1 vers Gen2 , AKS 1.19 vers AKS 1.X ) et concevoir de nouvelles solutions avec un monitoring de PaaS et une synchronisation des données de Prod et Hprod . Participation à des instances de : Design Authority , CoArch avec les Architectes Techniques, CAO (Comité d'Architecture Opérationnel). Validation de l'architecture du Product Incrément , à des réunions de qualification. Validation avec le RSSI et suivi de chantiers de résilience et de suivi FinOps . Conception de solutions BI avec Power Platform (Power BI, Power Automate, Power Virtual Agents). Création de rapports, tableaux de bord, et KPI avec Power BI , ainsi que gestion de la sécurité des données. Cloud Platform & Services : Azure, Azure API APPS, Azure DevOps, Azure Data Factory, Azure Data Lake, Azure Synapse Analytics, Azure Databricks, Azure IoT, Azure Stream Analytics, Azure SQL DB, Azure SQL Managed Instance Data & Analytics : Datalake, SQL, Power BI, Azure Synapse Analytics, Azure Databricks, Azure Data Lake, Azure Stream Analytics Automation & Scripting : PowerShell, CI/CD, Azure DevOps
Mission freelance
Teach Lead Data Scientist / IA
Description du Projet : Au sein de l'équipe AI, rattachée au domaine AI Solutions, vous jouerez un rôle crucial dans la supervision technologique et la scalabilité de deux suites de produits d'intelligence artificielle phares, destinés à l'ensemble de l'écosystème : > ML Solutions : Une solution complète d’outils MLOps offrant différents niveaux de service pour la gestion simplifiée et le déploiement optimisé de modèles d'IA. > GenAI Solutions : gestion et évolution d’une plateforme LLM chatbot interne, développement d'une plateforme de déploiement de chatbots RAG, et développement futur d’une plateforme d’agents. Votre mission en tant que Tech Lead, sera de garantir l'efficacité, et la scalabilité de ces solutions, tout en vous assurant de leur alignement avec la stratégie technologique. L’équipe AI aujourd’hui constituée de 5 personnes est en forte croissance. Vos principales missions : Leadership et Expertise Technique : > Fédérer l'équipe technique : Instaurer un environnement collaboratif et bienveillant, en guidant les développeurs vers les meilleures pratiques (DevOps, CI/CD, tests automatisés). > Garantir la réalisation de la roadmap : Superviser la roadmap produit en collaboration avec les Product Owners, en vous assurant de son adéquation avec la stratégie technologique > Décisions architecturales et sécurité : Prendre des décisions éclairées concernant l'architecture des solutions Excellence Opérationnelle et Innovation : > Maintien en conditions opérationnelles : Assurer la stabilité, la performance et la fiabilité des solutions. > Interopérabilité des technologies : Collaborer étroitement avec les autres Tech Leads de la plateforme. > Mise en place des bonnes pratiques : Promouvoir et implémenter les meilleures pratiques de développement et de DevOps. Collaboration et Amélioration Continue : > Support et assistance utilisateurs : Être à l'écoute des besoins des utilisateurs et leur garantir une expérience optimale. > Participation active aux processus de revue : Contribuer activement aux MOBs, pair reviews et autres mécanismes de collaboration pour améliorer continuellement la qualité du code et des produits. > Conformité au framework Global Ready : Veiller à la conformité des solutions avec les standards du framework technologique, en travaillant en étroite collaboration avec les équipes transverses Tech & Data.
Mission freelance
Développeur .NET / ANGULAR / SQL Server / AZURE DevOps / Git
L'application est une application construite sur la plateforme Microsoft, autour du Framework .NET 4.8. Il s’agit d’un client WPF qui intègre plusieurs contrôles spécialisés pour la gestion de cartes et de tableaux, une couche de service WCF exposé sur Internet Information Server, une plateforme d’asynchronisme basée sur Biztalk et SQL Server pour le stockage de données. Les principales activités sont : • Analyse des besoins et participation à l’identification des scénarios d’implémentation technique • Estimation de la charge d’implémentation de chaque évolution • Formalisation des spécifications techniques • Remplacement des frame-work existant • Valider les performances de l’application • Implémenter les fonctionnalités avec les recommandations de Microsoft Azure • Veiller au respect des spécifications fonctionnelles et recommandation du designer web. Livrables : - CR - Pull requests - Documentation - Report + Dashboard - Features, User Stories, tests, wiki - Saisies dans les applications dédiées
Mission freelance
Data Manager (Architecte Data / Engineer)
Mission : En tant que Data Manager, vous serez responsable de la stratégie de gestion et de gouvernance des données. Vous identifierez les besoins métiers et les traduirez en exigences techniques, assurant ainsi une structure de données robuste et bien modélisée. Collaborant étroitement avec les équipes internes, vous soutiendrez le processus de transformation en alignant la gestion des données avec les objectifs de l’entreprise, depuis l’acquisition jusqu’à la valorisation des données. Compétences : Expertise confirmée en architecture de données avec maîtrise de SQL, Python et Snowflake pour la gestion et l'optimisation des données Expérience dans la gestion des processus de data governance et des flux de données, avec des compétences en modélisation de données et bonnes pratiques CI/CD Connaissances en outils de gestion de données dans un environnement AWS et Infrastructure as Code (Terraform)
Offre d'emploi
DBA ORACLE H/F
Nous recherchons pour l’un de nos clients grands comptes un " DBA ORACLE H/F ". Vous aurez pour principales missions : Administration des bases de données Prise en charge des tickets incidents/problèmes (N2/N3) Maintien d'une architecture AlwaysOn Définition des best practices et proposition d'améliorations au niveau des processus Mise en place d'automatisation Production d'audits de base Production de documentation
Mission freelance
Data analyst (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data analyst (H/F) à Lille, Hauts-de-France, France. Contexte : Le data analyst est responsable du pilotage de la reprises des données de l’ensemble des systèmes de référencement, de l’industrialisation des process, de l’optimisation des outils d’analyse et du process de migration pendant les phases projet jusqu’au démarrage (bascule en production). A ce titre, il pilote opérationnellement l’ensemble des acteurs contributeurs (équipe solution, équipe legacy, métier, éditeur de l’outil d’aide à la reprise) depuis la mise au point des outils et processus jusqu’à l’exécution des migrations. Son périmètre d’intervention est axé sur les systèmes applicatifs autour de la gestion des données de référentiel tiers. Les missions attendues par le Data analyst (H/F) : Compétences : - Structurer et organiser un chantier « données » (extractions, suppression des doublons, remise en qualité, enrichissement, chargement, traitement des rejets, contrôles) - Assurer la coordination des parties prenantes clés, incluant les outils de gestion de données tierces, les différentes Business Units et tout autre acteur impliqué. L’objectif est de piloter efficacement les équipes, déployer progressivement la solution, tout en garantissant la conformité et la qualité des données. Cela inclut l’optimisation des flux de données, la mise en place de contrôles qualité et l’intégration “sans couture” des données existantes dans le système cible. - Organiser et animer les instances utiles - Remonter les charges et les risques - Mettre en place les indicateurs de pilotage - Compétences techniques des outillages BI (SQL, scripting, looker, powerBI, connaissances en pipelines, …) Profil : - Capacité d’organisation et autonomie - Force de proposition - Rigoureux, dynamique mais aussi pragmatique et diplomate - Expérience réussie dans la conduite de projets jusqu’au golive - Capacité d’animation et de communication - Sens client, sens du service et réactivité - Savoir challenger la qualité de la data
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.