Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Devops
Vous participez au quotidien à la bonne mise en oeuvre des éléments suivants : - Un déploiement régulier des applications - Des montés de version régulières des applications - Une pratique des tests dans un environnement similaire à celui de production - Une intégration continue incluant des « tests continus » ; - Une surveillance étroite de l'exploitation et de la qualité de production via des métriques factuelles - Une Analyse des problèmes de performances - Une Gestion des outils de CI/CD - Une Mise en place d'outils / de rapports pour les équipes de développement - Une Gestion et automatisation des environnements des développeurs - Une prise en compte de la sécurité dès la conception - Vous êtes en capacité de traiter le développement d'api ou de solutions en backend pour de petites applications. - Mise en place des bonnes pratiques auprès des utilisateurs - Participations ponctuelles aux guildes des leaders techniques Vous maintenez en conditions opérationnelles les environnements applicatifs et la plateforme. - Gestion des incidents - Gestion des tickets de RUN remontés par les utilisateurs Hard Skills : - Stockage des données: PostgreSQL, ElasticSearch, BigQuery, MongoDB - Orchestrateurs : Kubernetes, Helm, Docker - Administration systèmes Gnu / Linux (Debian/Ubuntu/Alpine …) - Administration réseau (réseau VPC, VPN, Firewall, Traefik, load balancing) - CI/CD : GitHub Action, Terraform - Monitoring : Prometheus, AlertManager, Grafana, GCP StackDriver, Datadog - Cloud : Google Cloud Platform - Sécurité : IAM, Gestion de droits, gestion d'accès applicatifs, Vault (appRole / policies) - Langages : Shell, Python - Frameworks : FastApi, Django - Echange de données : Kestra, Kafka Soft Skills : - Empathie - Pragmatisme - Disponibilité - Curiosité - Adaptabilité - Bonne communication Mission long terme, présence sur site (Région lilloise) exigée 3j/semaine
Offre d'emploi
DATA ENGINEER GCP SPARK KAFKA SCALA
- Intégrer des données provenant de sources externes et exploiter pleinement le Datalake. - Générer et diffuser automatiquement des agrégats quotidiens, hebdomadaires et mensuels. - Mettre en place la chaîne complète d'ingestion, validation, croisement et stockage des données enrichies dans le Datalake. - Respecter les normes d'architecture définies lors du développement. - Documenter les user stories en collaboration avec le PO - Créer des scripts de déploiement et prioriser la résolution des anomalies. - Soutenir les équipes d'exploitation et contribuer à l'implémentation de la chaîne de livraison continue. - Automatiser les tests fonctionnels.
Mission freelance
Ingénieur DevOps
L’ingénieur devops fait partie d’une équipe agile chargée du développement, des évolutions, de la maintenance, et de la mise en place d’une approche devops, des déploiements/configuration d’une ou plusieurs applications construites sur des technologies Java et php. Ces applications sont le plus souvent de type « web », impliquant des bases de données relationnelles, des interfaces REST, et des échanges asynchrones de messages. Il se positionne naturellement comme le principal point de contact sur les sujets techniques opérationnels de déploiement de applications, de préparation des infrastructures et de mise ne place de la plateforme d’intégration cotinue et devops. Il est amené à échanger au quotidien avec : - Des Product Owners - Un architecte - Des intégrateurs et exploitants - Des Tech Leads et équipes de développements Principales tâches relatives à la mission : · Commissionnement/ décommissionnement de l’infrastructure AWS (EC2, RDS, ELB/ALB, AWS S3) · Maintenir et évoluer la chaine d’intégration continue Jenkins (création, modification des jobs..) · Installer les composants logiciels d’infrastructure (JRE, PHP, apache, postgreSQL..). · Déploiement des applications du programme (configuration Zuul et exécution des jobs jenkins). · Analyse et résolution des incidents survenus en production (application non disponible, serveur non disponible….). · Analyse et optimisation des performances. des serveurs (Processus, RAM, FS, CPU, nbr de transactions) · Etre le garant du respect des bonnes pratiques de livraisons (création de branches dans Git, upload dans nexus….) · Faire et suivre des demandes d’ouverture de flux inter-applicatifs et inter-plateformes. · Alerter les équipes projets sur les risques liés aux configurations et performances de leurs applications. · Etre le principal point de contact avec les équipes d’infrastructure pour le programme lors des phases de mise en production. · Transverse : · Préparation des playbook Ansible de la plateforme. · Maintenir le dossier de configuration et d’exploitation. · Maintenir les images docker utiliser. · Maintenir les job jenkins en place. · Préparation des helm charts des applications. · Travailler avec les architectes du programme pour étudier les évolutions · Adopter une approche devops (containérisation, infrastructure as code….)/ Environnement technique · JIRA, Bugtracker · Jenkins, Docker/Kubernetes sur AWS, Maven/NPM, GIT, Sonar, ELK Stack · Amazon web service (S3, RDS, api gateway,….) · Architecture Event-Driven (messaging via Kafka) · JAVA, Postgres SQL · Languages : scripting, Java 8, Liquibase, Flyaway, REST, Groovy, Helm · Middleware : Apache, Nginx, tomcat, kafka Security : SSL, OAuth2, SSO, Forgerock
Mission freelance
Data Engineer Lille (profil local et expérimenté)
L'équipe DCF (Data Component and Framework) est une équipe transverse dont l'objectif est de construire un socle technique et des outils permettant à chaque Business Unit local ou international de mettre en place en autonomie ses Uses cases Data. Environnement technique : • Stockage : Google Cloud Storage • Base de données : BigQuery, Datastore, Firestore, MongoDB • Monitoring : Stackdriver • Ordonnanceur : Airflow puis Google Cloud Composer • Compute: Cloud Function, Compute engine • API: App Engine, Cloud run, FastAPI • Déploiement : Terraform, Pulumi • Versioning : Git • Langage: Python, Shell • CICD : Cloud build, Github Action
Mission freelance
Développeur Java Spring
Nous recherchons un profil développeur java spring expérimenté. Les pré requis indispensables sont les suivants : Investissement et autonomie Capacité à reporter et à partager Maitrise Java / Spring Maitrise API Rest Maîtrise d'Angular 16+ (non indispensable) Connaissance Apache Camel Connaissance Kafka Connaissance CI / jenkins Notion de Conteneurisation Connaissance Prometheus serait un plus Connaissance jProfiler, Yourkit ou Dynatrace serait un plus Appétence sur l’automatisation et des notions de Cucumber
Mission freelance
Consultant Data / GCP
Je recherche en ce moment un consultant Data / Big Query pour un de mes clients dans le nord de la France afin de construire les nouveaux cas d'usage sous Google Cloud Platform et participer au développement des nouveaux projets : Analyser et comprendre l’existant Concevoir l’architecture du nouveau socle Challenger et mener des ateliers avec le métier Développer les flux Exposer de la donnée sur GCP Participation à la vie de l'équipe (composée de 1 PO, 1 BA, 7 Devops data) : Rituels : daily / atelier d’équipe / sprint / … Alimentation du JIRA Documentation technique et fonctionnelle Garant et détection des axes d’amélioration à mettre en place sur le périmètre du produit Analyse poussée sur l’ensemble du périmètre (participation active aux divers ateliers métier et recettes)
Mission freelance
Expert infra MacOs Senior H/F
Prestations demandées Les missions sont : 1-Accompagnement technique de niveau 3 avec les tâches fréquentes : - Résolution des tickets utilisateurs unitaires non traités par les niveaux support 1-2 - Communication utilisateur de qualité avec objectif majeur de satisfaction mesuré - Caractérisation des tickets les plus fréquents pour mise en place de plans d'action de maintenance - Alimentation de la base de connaissance à disposition des utilisateurs finaux - Identification, rédaction des procédures à destination des équipes support 1-2 - Synchronisation, partage d'information avec les autres équipes de support niveau 3 (collaboratif, autres postes) 2-Maintenance corrective du poste de travail Mac : - Déploiement de composants logiciels poste de travail pour corrections d'incident ou de risque de sécurité - Qualification, livraison des patchs mineurs de l'infra Jamf ou dépendances (MySQL, JVM, RHEL) - Identification des plans d'actions qui permettraient de réduire le nombre de tickets de support - Mises à jour de la structure de gestion de la flotte dans l'outil Jamf 3-Maintenance évolutive du poste de travail Mac : - Evolutions sur les applications de type utilitaire maintenues par l'équipe (Obj-C, Swift) - Veille technique des évolutions majeures de macOS avec un cycle de vie annuel - Veille technique des composants logiciels à la charge de l'équipe (Self-Service)
Mission freelance
Dev Java / Spring batch Spring Boot Marseille/di
Dev Java / Spring batch Spring Boot Marseille Mission Nous recherchons un Concepteur-Développeur Java Back-end confirmé, spécialisé dans les technologies Spring Boot et Spring Batch. Le candidat idéal sera responsable de la conception, du développement et de la maintenance d'applications back-end robustes et évolutives. Responsabilités Conception et Développement : Concevoir, développer et maintenir des applications back-end en utilisant Java, Spring Boot et Spring Batch. Analyse des Besoins : Collaborer avec les équipes produit et front-end pour comprendre les besoins fonctionnels et techniques. Optimisation des Performances : Analyser et optimiser les performances des applications existantes. Documentation : Rédiger et maintenir la documentation technique et fonctionnelle. Langages et Technologies : Java (8 ou supérieur) Spring Boot Spring Batch Méthodologies : Agile/Scrum Compétences Générales : Capacité à travailler en équipe et à communiquer efficacement. Sens de l’analyse et résolution de problèmes. Expérience Minimum de 3 à 5 ans d’expérience en développement Java Back-end. Expérience dans la conception et la mise en œuvre de solutions basées sur Spring Boot et Spring Batch.
Offre d'emploi
Ingénieur SecOps H/F
Le Groupe SYD Digital Care, avec des bureaux à Nantes, Rennes, Paris, Brest, Bordeaux et Niort, met l'humain au cœur de la transformation digitale. Pour cela, nous intervenons dans 4 domaines : Le conseil (Accompagnement de projet, Infrastructure Management) L’intégration de solutions (ERP, CRM, BI, Gestion des interactions client) Le développement applicatif web/mobile L'infogérance (Solution cloud, Infrastructure hybride, Maintenance, Sécurité & sauvegarde, Distribution de matériel) Notre démarche RSE reflète notre engagement envers des pratiques responsables et durables. En rejoignant notre famille professionnelle, vous participerez à une aventure humaine où votre talent et votre créativité seront valorisés, tout en contribuant à un avenir numérique plus inclusif et durable.
Offre d'emploi
Architecte Data Azure - Paris H/F
Rejoignez Inventiv IT et façonnez l'avenir avec nous 🚀 Vous êtes un(e) Architecte Data Azure passionné(e) par les Big Data et la transformation digitale ? Rejoignez-nous pour concevoir et implémenter des architectures data de pointe sur Azure, en dirigeant des projets innovants dans le Cloud et en assurant la qualité des livrables 🎯Inventifs Wanted Nous recherchons un architecte Data Azure ayant une expertise en Avec 7 ans d'expérience au minimum. Travaillant sur des sujets Big Data & Data Viz Participation à l’évaluation et à la livraison de composants Azure . Gestion du Build & du Run des applicatifs Conception et mise en œuvre d’architectures de solutions data sur Azure (data lakes, ingestion, service et consommation de données). Développement d’architectures Azure Data Lake pour stocker les données IoT et configurer Databricks . Implémentation de solutions utilisant Azure SQL Database , Azure Data Factory , et Azure SQL Managed Instance . Direction de projets cloud axés sur les services Azure et gestion de la qualité des livrables pour les projets de migration et d’infrastructure. Cadrage et chiffrage des divers projets Big Data . Définition des solutions d’architecture Big Data dans le Cloud Azure . Garantir la cohérence technique et la pérennité du système d’information. Mise en place de l'architecture des projets Big Data sur le Cloud Azure en rédigeant des Dossiers d’Architecture Logiciels (DAL) et en validant des Dossiers d’Architecture Technique (DAT) . Migration des projets dans des nouvelles architectures ( HDI vers AKS , Datalake Gen1 vers Gen2 , AKS 1.19 vers AKS 1.X ) et concevoir de nouvelles solutions avec un monitoring de PaaS et une synchronisation des données de Prod et Hprod . Participation à des instances de : Design Authority , CoArch avec les Architectes Techniques, CAO (Comité d'Architecture Opérationnel). Validation de l'architecture du Product Incrément , à des réunions de qualification. Validation avec le RSSI et suivi de chantiers de résilience et de suivi FinOps . Conception de solutions BI avec Power Platform (Power BI, Power Automate, Power Virtual Agents). Création de rapports, tableaux de bord, et KPI avec Power BI , ainsi que gestion de la sécurité des données. Cloud Platform & Services : Azure, Azure API APPS, Azure DevOps, Azure Data Factory, Azure Data Lake, Azure Synapse Analytics, Azure Databricks, Azure IoT, Azure Stream Analytics, Azure SQL DB, Azure SQL Managed Instance Data & Analytics : Datalake, SQL, Power BI, Azure Synapse Analytics, Azure Databricks, Azure Data Lake, Azure Stream Analytics Automation & Scripting : PowerShell, CI/CD, Azure DevOps
Mission freelance
Développeur .NET / ANGULAR / SQL Server / AZURE DevOps / Git
L'application est une application construite sur la plateforme Microsoft, autour du Framework .NET 4.8. Il s’agit d’un client WPF qui intègre plusieurs contrôles spécialisés pour la gestion de cartes et de tableaux, une couche de service WCF exposé sur Internet Information Server, une plateforme d’asynchronisme basée sur Biztalk et SQL Server pour le stockage de données. Les principales activités sont : • Analyse des besoins et participation à l’identification des scénarios d’implémentation technique • Estimation de la charge d’implémentation de chaque évolution • Formalisation des spécifications techniques • Remplacement des frame-work existant • Valider les performances de l’application • Implémenter les fonctionnalités avec les recommandations de Microsoft Azure • Veiller au respect des spécifications fonctionnelles et recommandation du designer web. Livrables : - CR - Pull requests - Documentation - Report + Dashboard - Features, User Stories, tests, wiki - Saisies dans les applications dédiées
Mission freelance
Expert CyberArk - Gestion et Administration des Systèmes de Sécurité
Dans le cadre de la gestion de la sécurité des accès et de la protection des identifiants sensibles, nous recherchons un(e) Expert CyberArk pour administrer, maintenir et faire évoluer les composants clés de la plateforme CyberArk. Administration des composants CyberArk : Gérer et administrer les composants essentiels tels que le Vault, PSM (Privileged Session Manager), PVWA (Password Vault Web Access), CPM (Central Policy Manager), et PSMP (Privileged Session Manager Proxy). Support de niveau 3 : Assurer le support et le maintien en condition opérationnelle (run) de la solution, en garantissant une gestion efficace et sécurisée. Gestion des safes et permissions : Créer et administrer les safes et ACL (Access Control Lists) pour garantir un accès sécurisé et contrôlé aux secrets. Évolution de la solution : Participer activement à la mise à jour des versions de CyberArk, à la migration des systèmes d'exploitation, et à l'intégration de nouvelles briques fonctionnelles. Participation aux projets IAM : Collaborer à l’intégration de CyberArk dans les outils IAM (Identity Access Management) du groupe et participer aux projets d'extension et d'amélioration du produit. Mise en place de connecteurs et automatisation : Développer des connecteurs et automatiser les processus grâce à des scripts (PACLI, API) pour optimiser les flux de gestion. Documentation technique : Rédiger, mettre en place et maintenir les procédures techniques et opérationnelles (cérémonie de clés, installation et remplacement des HSM, etc.). Revue des habilitations : Effectuer la revue régulière des habilitations pour garantir une conformité aux politiques de sécurité en vigueur.
Mission freelance
Data Manager (Architecte Data / Engineer)
Mission : En tant que Data Manager, vous serez responsable de la stratégie de gestion et de gouvernance des données. Vous identifierez les besoins métiers et les traduirez en exigences techniques, assurant ainsi une structure de données robuste et bien modélisée. Collaborant étroitement avec les équipes internes, vous soutiendrez le processus de transformation en alignant la gestion des données avec les objectifs de l’entreprise, depuis l’acquisition jusqu’à la valorisation des données. Compétences : Expertise confirmée en architecture de données avec maîtrise de SQL, Python et Snowflake pour la gestion et l'optimisation des données Expérience dans la gestion des processus de data governance et des flux de données, avec des compétences en modélisation de données et bonnes pratiques CI/CD Connaissances en outils de gestion de données dans un environnement AWS et Infrastructure as Code (Terraform)
Mission freelance
H/F Architecte DATA.
Contexte de la mission : Cette mission intervient pour le compte d'un client du secteur de l'automobile, basé en région lyonnaise. Nous sommes à la recherche d'une prestataire Architecte Data, dont la mission sera de veiller à ce que les produits fournis par l’équipe soient alignés sur l'architecture cible mondiale du groupe. Le prestataire, architecte de données Azure, doit avoir une bonne compréhension globale des services disponibles dans la pile Azure Analytics. Il assumera le rôle de chef de file technique et discutera avec les parties prenantes de l'entreprise et de l'architecture d'entreprise. La mission implique une collaboration étroite avec le DPO, l'analyste de données, l'ingénieur de données et le scientifique de données de l'équipe stable, mais aussi avec la communauté des architectes. Tâches à réaliser : Assurer le leadership technique, participer aux efforts de développement et représenter l'ensemble des capacités internes et externes de la plateforme. Être un membre actif de la guilde des architectes pour superviser le processus de gestion des données et fournir des conseils et des orientations aux équipes de développement. Être responsable de la conception et de la documentation de la solution Prendre en charge la définition et la possession de l’architecture de données évolutive de bout en bout, tout en prenant en compte l'architecture d'entreprise et les normes du secteur. Développer, documenter et maintenir des modèles de données logiques et physiques. Définir et soutenir l'architecture de bout en bout pour toutes les livraisons de l'équipe stable New Services Configurer l'architecture et la documentation afin de garantir que l'architecture de livraison soit conforme à l'architecture d'entreprise du groupe et à la stratégie de données du groupe Soutenir l'équipe stable sur les initiatives New Services : Tableau de bord des émissions de CO2 Surveillance des camions E-Mob Tableau de bord des services pour piloter les activités de service commercial Faire partie de l'équipe de maintenance pour assurer la continuité des processus commerciaux
Mission freelance
Data analyst (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data analyst (H/F) à Lille, Hauts-de-France, France. Contexte : Le data analyst est responsable du pilotage de la reprises des données de l’ensemble des systèmes de référencement, de l’industrialisation des process, de l’optimisation des outils d’analyse et du process de migration pendant les phases projet jusqu’au démarrage (bascule en production). A ce titre, il pilote opérationnellement l’ensemble des acteurs contributeurs (équipe solution, équipe legacy, métier, éditeur de l’outil d’aide à la reprise) depuis la mise au point des outils et processus jusqu’à l’exécution des migrations. Son périmètre d’intervention est axé sur les systèmes applicatifs autour de la gestion des données de référentiel tiers. Les missions attendues par le Data analyst (H/F) : Compétences : - Structurer et organiser un chantier « données » (extractions, suppression des doublons, remise en qualité, enrichissement, chargement, traitement des rejets, contrôles) - Assurer la coordination des parties prenantes clés, incluant les outils de gestion de données tierces, les différentes Business Units et tout autre acteur impliqué. L’objectif est de piloter efficacement les équipes, déployer progressivement la solution, tout en garantissant la conformité et la qualité des données. Cela inclut l’optimisation des flux de données, la mise en place de contrôles qualité et l’intégration “sans couture” des données existantes dans le système cible. - Organiser et animer les instances utiles - Remonter les charges et les risques - Mettre en place les indicateurs de pilotage - Compétences techniques des outillages BI (SQL, scripting, looker, powerBI, connaissances en pipelines, …) Profil : - Capacité d’organisation et autonomie - Force de proposition - Rigoureux, dynamique mais aussi pragmatique et diplomate - Expérience réussie dans la conduite de projets jusqu’au golive - Capacité d’animation et de communication - Sens client, sens du service et réactivité - Savoir challenger la qualité de la data
Mission freelance
Data Engineer confirmé
Mission : En tant que Data Engineer, vous jouerez un rôle central dans la transformation digitale de notre client. Vous concevrez et optimiserez les flux de données en assurant leur ingestion, transformation et modélisation dans un environnement AWS et Snowflake. Vous travaillerez étroitement avec la Data & Tech Factory pour automatiser les processus et assurer l'intégration continue de données fiables et exploitables dans les projets métier de l'entreprise. Compétences : Expérience de 4 à 5 ans en data engineering, idéalement en environnement cloud AWS Maîtrise de Snowflake pour le stockage et la gestion des données, avec des compétences en SQL et Python pour la manipulation et la transformation de données Connaissance des pratiques DevOps et CI/CD pour optimiser les workflows, et expérience en Infrastructure as Code avec Terraform
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.