Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Business Data Analyst DATAIKU H/F
Descriptif général de la mission / Livrables et dates associées Vous avez une expérience réussie au sein d’une DSI et vous justifiez d’une connaissance dans le domaine de l’assurance de personnes. Autonome et organisé, vous êtes reconnu(e) pour votre esprit d'analyse et de synthèse. Appréciant le travail en équipe, vous êtes force de proposition / d'innovation et savez travailler en transverse, tout en faisant preuve d'adaptation au changement. Vous avez également le sens de la communication et du service. Maitrise l'infrastructure GCP - l'outillage de data Prep (Dataïku) - les infrastructures IA" Environnement fonctionnel & technique "Les équipes DATA interviennent pour l'ensemble des activités de Métier Assurances De Personnes ( Equipes de la finance (et en particulier les actuaires - les comptables) / les équipes produits / les équipes réglementaire / la DUX… ) Vous intervenez sur toutes les phases du projet et pouvez en coordination avec les équipes d'architecture DATA être amener à préconiser des solutions techniques spécifiques Méthodes & Outils "méthode agile safe JIRA Confluence GCP / AZURE SQL / Big Query Dataïku / Power Bi

Offre d'emploi
Ingénieur Sécurité Cloud (AZURE/GCP)
Soutenir la mise en œuvre de notre stratégie de sécurité du Cloud public (Azure/GCP). Développer, mettre en œuvre et appliquer des politiques, des normes et des procédures de sécurité. Mise en œuvre des solutions d'audit et de journalisation pour suivre et rapporter les événements et anomalies liés à la sécurité. Mettre en place et maintenir les outils pour une surveillance proactive des événements de sécurité. Contrôler l'application en temps voulu des correctifs et des mises à jour de sécurité aux ressources Azure et GCP. Fournir des programmes de formation et de sensibilisation sur les meilleures pratiques et les risques en matière de sécurité. Diriger la mise en œuvre de plans de remédiation et d'amélioration continus.

Mission freelance
Data Engineer
La mission consiste à : - Exposer les données utiles à l’entreprise pour les analyser et les utiliser afin d’améliorer l’expérience utilisateur et la productivité - Transformer des données issues du DataLake afin de les normaliser - Modéliser la sphère de données - Développer les flux - Exposer des données brutes et/ou agrégées au bon niveau de granularité aux différents métiers de l’entreprise - Travailler en lien avec des Data Scientists sur les données qu’il aura exposées - Mettre en place des rapports de Dataviz - Mission basée en métropole lilloise avec présence sur site 3j/semaine obligatoire Compétences demandées : - Formation supérieure en école d’ingénieur, école d’informatique ou Master spécialisé dans la Data Science - Première expérience en Data Engineering indispensable - GCP, BigQuery, SQL, Python, Stambia, Shell, Data Studio, Power BI, Qlikview,... - Excellents savoir-être : rigueur, esprit analytique et de synthèse, communication... - Méthode Agile - Anglais

Offre d'emploi
Lead Data Analyst pour Plateforme Tech de Voyage Leader en Europe - Aix en Provence (H/F)
Description Rejoignez une entreprise innovante au cœur du secteur du voyage en ligne, basée dans le sud de la France. Nous sommes à l'aube d'une transformation digitale majeure visant 2025, mettant les données au centre de notre stratégie de développement. L'équipe, à laquelle vous serez rattaché, est composée de professionnels passionnés par la technologie et par l'amélioration continue de l'expérience de voyage de nos millions d'utilisateurs. Nous recherchons un(e) Lead Data Analyst pour structurer notre exploitation des données et piloter notre croissance future. Ce poste est clé pour accompagner notre ambition de devenir une référence mondiale sur notre secteur d’activité. Missions Principales : - Piloter l'analyse avancée des données pour épauler la prise de décision stratégique. - Définir et superviser les KPIs essentiels des différents départements. - Encadrer et développer l'équipe Data Analytics. - Collaborer avec les équipes Data Science pour optimiser l'usage des données dans les projets d'IA. Annexes : - Améliorer les outils et process d'analyse et de visualisation des données. - Organiser et piloter des sessions de brainstorming pour l'amélioration continue des méthodes de travail. Stack technique A maîtriser : - Google Cloud Platform (BigQuery, GCS, ) - Python, SQL, Airflow, dbt - Tableau, Looker - GitLab Avantages - Salaire attractif et participation aux bénéfices. - Télétravail flexible, jusqu'à 2 jours par semaine. - Accès à un cadre de vie unique avec salle de sport et terrain de padel. - Offres exclusives sur les voyages. Pourquoi nous rejoindre ? - Prenez part à une mission passionnante au sein d'une entreprise révolutionnant le secteur du voyage en ligne. - Contribuez à une transformation digitale ambitieuse centrée sur les données. - Travaillez dans un environnement dynamique et innovant, bénéficiant d'une culture d'entreprise forte et engagée envers le développement personnel. - Rejoignez une équipe talentueuse dans un cadre de vie exceptionnel favorisant l'équilibre entre vie professionnelle et personnelle. Venez marquer l'histoire du voyage en ligne avec nous. Postulez dès maintenant pour être le Lead Data Analyst qui conduira notre succès futur !

Mission freelance
Un Ingénieur Système Cloud GCP sur Le 78
Smarteo recherche pour l'un de ses clients, grand compte, Un Ingénieur Système Cloud GCP sur Le 78 Projet : Continuer les actions d'automatisation et de fiabilisation ; Opérer les revues de code ; Opérer la veille technologique ; Réaliser des présentations techniques ; Assurer le support technique niveau 3 auprès des développeurs traiter tant les aspects techniques et fonctionnels et intervenir sur l'ensemble des environnements de l'intégration à la production y compris dans le cadre de projets. Gestion production/run des projets (astreintes) Vous serez aussi amenés à rédiger des dossiers techniques précis, des avis techniques, ainsi que des feuilles de route à destination des chefs de projet et des opérationnels devant mettre en oeuvre et exploiter les solutions. Principaux livrables : Concevoir la solution ; Paramétrer, développer et qualifier des solutions applicatives ; Établir l'analyse et le diagnostic sur les incidents et les éradiquer ; Mettre en place, mener ou piloter le déploiement des applications développées ; Rédiger ou participer à la rédaction des dossiers de conception générale et/ou détaillée ; Analyser les traitements pour réaliser les études détaillées ou les études d'impact. Compétences requises : Expertise et expérience significative sur Terraform. Définition de module Terraform Expertise sur le Cloud GCP et AWS si possible . Maitrise des outils de déploiement automatisés Pipeline CI CD (gitlab-ci, ansible, AWX, jenkins etc.), language python Connaissance sur les technologies kubernetes Si vous êtes disponible et intéressé merci de me faire parvenir votre TJM+CV à jour dès que possible.

Mission freelance
Ingénieur Cloud GCP F/H
Vos responsabilités : Gestion et administration des environnements GCP : Concevoir, provisionner et maintenir des infrastructures Cloud sur GCP en respectant les meilleures pratiques. Implémenter et gérer les services GCP pour répondre aux besoins métier. Exploiter et maintenir les services GCP en Prod Accompagner les Développeurs des Tribu / Squad à maintenir leur Pipeline et développer leur nouveaux pipelines, Terraform et CICD sur GCP - Accompagner les développeurs à respecter les golden Rules GCP - Exploiter et maintenir les services GCP en Prod - Accompagner et monter en compétences les DevOps du cluster BPC sur l'offre GCP

Mission freelance
Ingénieur Data
Au cours de sa mission, le consultant : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation

Offre d'emploi
Architecte technique IT
Le poste est au sein de l'équipe architecture du groupe. Cette équipe est composée d'un architecte infrastructure, d'un architecte fonctionnel, d'un architecte usine de développement, d'un architecte Datascience. Suivi et conseil aux équipes de conception Participation à la définition des infrastructures techniques Gestion de projets d'infrastructure Suivi et amélioration des processus Bonne connaissance du système d'information global et de l'architecture SI Excellente connaissance des systèmes d'exploitation (notamment Windows, UNIX/LINUX), des réseaux et télécommunications, des bases de données, du stockage (NAS/SAN/DAS) Connaissance des technologies et outils de virtualisation Vmware. Maîtrise des environnements de conteneurisation tels que Kubernetes, Redhat OpenShift. Bonne connaissance des environnements Cloud (Azure, GCP), BigData Maîtrise des risques liés à la sécurité des infrastructures et à la dématérialisation Connaissance des normes dans le domaine de l'archivage et du chiffrement. Bonne connaissance du modèle C4 Adaptabilité et curiosité technique car les évolutions technologiques sont rapides et doivent être assimilées pour pouvoir optimiser l'existant. Polyvalence, goût pour la technique et créativité pour identifier les solutions techniques appropriées Rigueur et esprit critique pour faire la part des choses entre la technique et le discours marketing Capacité à travailler avec des équipes d'experts Bonne ouverture relationnelle afin de travailler avec les autres services de l'entreprise (achats, services commerciaux notamment).
Offre d'emploi
Data Engineer (H/F)
Bienvenue à bord de la galaxie Proxiad ! Créée en 1997 et spécialisée dans les services numériques, Proxiad accompagne ses clients dans leurs projets innovants, grâce aux expertises de ses collaborateurs. 1200 salariés, répartis entre la France et l’étranger, développent en permanence leur savoir-faire et leur savoir-être afin d’apporter de la valeur ajoutée aux activités de nos entreprises partenaires. Proxiad met tout en œuvre pour accompagner ses Talents dans l’acquisition de compétences, et dans leur plan de carrière. L’entreprise porte une attention toute particulière au bien-être de ses collaborateurs, grâce à un suivi RH renforcé, en complément du suivi de mission avec le manager. Ecoute, proximité, bienveillance, c’est ce qui vous attend chez Proxiad ! Afin de rassembler ses collaborateurs et de partager des moments conviviaux, l’entreprise organise régulièrement des évènements : afterworks, team event, meet-up, challenges… Quoi d’autre ? Chaque salarié perçoit un package composé d’une rémunération sur 12 mois, et d’éléments variables : titres-restaurant, mutuelle familiale, indemnités transports en commun ou mobilité douce, prime d'intéressement aux bénéfices, prime de cooptation, compte épargne-temps, ainsi que des tarifs préférentiels pour vos sorties culturelles grâce à notre CSE. Alors, envie de rejoindre l’aventure ? Actuellement, nous recherchons un Data Engineer (H/F) sur la métropole lilloise. Vos principales responsabilités seront de : - Concevoir et maintenir des pipelines de données (ETL, automatisation des flux de données, optimisation des performances du système…) - Gérer l’infrastructure de donnée (configuration et maintenance de la BDD, mise en place de data warehouses et datalakes, gestion du stockage, de la scalabilité…) - Assurer la qualité et la sécurité des données (contrôles qualité, sécurisation de données sensibles, respect des réglementations et normes…)

Mission freelance
Consultant DevOps
La mission s’inscrit dans l’équipe plateforme IaaS d’IRIS, chargée du provisioning des VMs en mode agile (Kanban). L’équipe fonctionne en mode "You run it, you build it", ce qui implique la responsabilité du Build, du Run, du Maintien en Condition Opérationnelle (MCO) ainsi que des astreintes. Objectifs et tâches principales : Participer à la réalisation des éléments priorisés dans le backlog défini par le PO et le Lead Technique. Concevoir et développer des solutions techniques adaptées aux besoins. Rédiger et maintenir à jour la documentation technique (Confluence). Collaborer avec d'autres DevOps pour les activités d'analyse, de réalisation ou de gestion des incidents. Effectuer des interventions hors heures ouvrées (HNO) de manière cyclique (1 semaine sur 6).
Mission freelance
Développeur full stack sénior Java / Vuejs
Nous sommes à la recherche d'un développeur expert Java (backend) / vueJS (frontend) pour notre client retail à Lille. Le consultant sera en charge de: Réaliser du Build et du Run sur des produits digitaux comprenant des API, du front-end et du back-end. Travailler en mode agile avec l'équipe de développement, le PO, les OPS et les équipes transverses. Livrer et commiter du code source tout en étant garant de sa qualité. Rédiger la documentation nécessaire pour faciliter la compréhension de son code. Effectuer des revues de code avec les autres développeurs. Suivre des formations pour améliorer ses compétences en sécurité au sein de son code. Réaliser, en collaboration avec l'équipe OPS, des tâches d'observabilité.

Mission freelance
Développeur Back Python
Développement en Python Le livrable est - Compétences techniques Python - Expert - Impératif GCP - Confirmé - Important Java - Junior - Souhaitable Terraform - Junior - Souhaitable Connaissances linguistiques Anglais Lu, écrit (Impératif) Description détaillée Nous sommes à la recherche d'un développeur backend expert Python (Pas de profiles Data) A ce titre, voici vos missions : Développer des microservice en APIs first Participer aux prises de décisions relatives à l’architecture et à la sécurité des solutions dans un environnement Cloud (GCP). Concevoir des outils facilitant le développement de modules. Communication entre micro service Développement d’un scheduler / Développement d’un dispatcher Mise en place d’outils de monitoring Assistance des utilisateurs sur le run technique MOB, Pair review

Mission freelance
Chef de projet SRE
Au sein de l’équipe Opération garante de la qualité de service de la plateforme Tech & Data (150 produits/ 500 personnes qui maintiennent les fondations techniques de l’ensemble du groupe) La mission comprend : 40% d’animation et de suivi de l’ensemble des équipes produits sur des problématiques Ops Animation des niveau de service (SLO) des produits Bonnes pratiques ITSM (Incidentologie, change management) Animation mensuelle d’un comité avec le domaine dont le consultant sera en responsabilité et suivi des sujets au quotidien (obsolescence, suivi de conformité, suivi des indicateurs selon nos objectifs...) 30 % de RUN / accompagnement plus technique des équipes produits Accompagnement sur l’Observabilité (chaîne de monitoring/alerting : configuration datadog, pagerduty, servicenow, SLO…). Utilisation d’infra as code (terraform) Accompagnement des produits sur nos produits Ops (définition de SLO, création d’automatisation Ansible) 30% de BUILD sur les produits de l’équipe Outil de calcul et centralisation de nos indicateurs de disponibilité (stack gcp + python) Outil d’automatisation basé sur AWX qui automatise notamment la remédiation d’une grande partie de nos incidents (30k automatisations/mois) Construction de dashboard (+ requêtes SQL) pour pouvoir animer les différents sujets Ops à partir des données de l’entreprise

Mission freelance
Data Engineer GCP & Dbt
Nous recherchons pour le compte de notre client, une entreprise de premier plan reconnue pour son innovation et son excellence, un Lead Data Engineer expérimenté doté d’une expertise en environnement Google Cloud Platform ( GCP ). Ce rôle stratégique s’adresse à un professionnel qui saura combiner compétences techniques pointues et compréhension des enjeux métiers pour accompagner notre client dans l’exploitation et l’optimisation de ses données. Expertise en BigQuery Expérience solide avec Apache Airflow Expertise en Dbt Conaissance de la CICD Expertise en BigQuery Expérience avec Apache Airflow Utilisation de Cloud Run Connaissance de Terraform

Mission freelance
Consultant sécurité cloud GCP H/F
Activités : • Évaluer l’architecture de sécurité actuelle sur GCP, notamment pour les architectures de type data. • Étudier et qualifier les évolutions de services GCP (ex. Private Service Connect) et proposer des solutions pour toute problématique de sécurité identifiée. • Identifier les vulnérabilités et risques liés aux services GCP (Vertex AI, Workflow, Dataflow, Apigee, GKE, Composer, etc.) et fournir des recommandations de sécurité. • Mettre en place des contrôles de sécurité dans des outils de type Cloud Security Posture Management (CSPM). • Accompagner les équipes projets et transverses dans la mise en œuvre des recommandations

Mission freelance
Data Architect GCP
Nous sommes actuellement à la recherche d’un Data Architect pour renforcer notre équipe composée de quatre Data Architects . Le projet principal concerne une migration vers GCP : Responsabilités de l’équipe Data Architecture : Concevoir et valider l'implémentation des briques technologiques des plateformes de données (Collecte, Stockage, Traitement, Visualisation). Superviser le respect des principes établis au niveau du groupe en matière d’architecture, de sécurité et de protection des données dans les plateformes de données. Soutenir la stratégie NFR en collaboration avec les Data Tech Leads de chaque équipe Data Product. Accompagner la mise en œuvre de la stratégie Data , en s’appuyant sur des bases techniques telles que GCP, Google BigQuery, DBT et Airflow/Composer . Piloter et posséder la feuille de route technique des plateformes de données. Apporter une expertise en architecture et plateformes de données pour aider les différentes parties prenantes à aligner leurs initiatives sur la stratégie Data. Évaluer et optimiser les architectures de données . Documenter l’architecture sur Confluence et suivre les actions d’implémentation sur Jira .
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.