Trouvez votre prochaine offre d’emploi ou de mission freelance Active Directory Domain Services (AD DS) à Lille
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php

Mission freelance
Data Engineer
Contexte de la Mission: Nous recherchons un Data Engineer, intégrant une équipe spécialisée pour piloter des initiatives clés liées à la gestion et l'optimisation des données. Présence sur site requise trois jours par semaine pour une collaboration efficace. Profil Recherché: Maîtrise avancée en SQL et ETL avec des capacités éprouvées dans la gestion de flux de données complexes. Expérience dans l'implémentation de pratiques CI/CD et l'utilisation de GitHub, Terraform et Kafka. Connaissance pratique de Power BI et Looker, avec une familiarité dans la création de visualisations de données. Compétences en Google Cloud Platform, notamment GCS et BigQuery, sont hautement souhaitables. Aptitude à communiquer clairement en anglais, tant à l'écrit qu'à l'oral.

Mission freelance
Ops Engineer (nous recherchons un candidat qui habite à Lille)
L'équipe assure les évolutions et la maintenance en conditions opérationnelles des outils de l'usine logicielles de Build dans le Cloud. L’usine est fonctionnellement et technologiquement hétérogène et fait appel à des compétences variées (architecture technique, exploitation, administration d’outils, automatisation, pilotage des usages…), et répond à des besoins en constante évolution. Nous privilégions le travail collaboratif : pairing, revues de codes, post-mortems. Astreinte une semaine sur 6. Description : L'usine logicielle est composée de différents produits que l'équipe Avengers installe et maintient pour ses utilisateurs : Gitlab, Runners MacOS, Jenkins, Artifactory, Puppet, Rundeck, Sonar, Vault. Pour compléter notre équipe, nous cherchons un ingénieur de production avec une expertise CI/CD, infra as code, Docker. Responsabilités : l Contribuer au run de l'équipe : évolutions et créations des stacks techniques (déploiement Terraform, MAJ des outils, mise en place de supervision, … ), support utilisateurs sur nos services l Contribuer au développement des solutions internes, de librairies et des bonnes pratiques l Contribuer aux choix technologiques d'évolution et d'exploitation de nos outils : workflows de déploiement, choix des outils, … l Participer au processus d'amélioration continue (Post mortem, REX, Cérémonies Agiles …) l Rédaction de documentation / LADR Livrables • Suivi opérationnel : mise en place et suivi de métriques sur nos environnements de prod et hors prod (intégration, recette), suivi du statut des environnements, support technique sur les environnements. • Contribution aux releases et déploiements/livraisons de nos assets en prod et hors prod. • Industrialisation de nos processus et pratiques (gestion des versions, releases, releases notes, notes d’installation, procédure de déploiement etc). • Prise en charge des évolutions techniques sur les produits : montée de versions, sujets de sécurité, évolutions des pods ou de pipelines. • Participation au suivi sécurité sur nos assets. • Participation à la conception et à la réalisation de nos produits : infrastructure et besoins non fonctionnels (monitoring, performance, exploitation…).

Mission freelance
Ingénieur Data
Au cours de sa mission, le consultant : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation

Mission freelance
Data Engineer
La mission consiste à : - Exposer les données utiles à l’entreprise pour les analyser et les utiliser afin d’améliorer l’expérience utilisateur et la productivité - Transformer des données issues du DataLake afin de les normaliser - Modéliser la sphère de données - Développer les flux - Exposer des données brutes et/ou agrégées au bon niveau de granularité aux différents métiers de l’entreprise - Travailler en lien avec des Data Scientists sur les données qu’il aura exposées - Mettre en place des rapports de Dataviz - Mission basée en métropole lilloise avec présence sur site 3j/semaine obligatoire Compétences demandées : - Formation supérieure en école d’ingénieur, école d’informatique ou Master spécialisé dans la Data Science - Première expérience en Data Engineering indispensable - GCP, BigQuery, SQL, Python, Stambia, Shell, Data Studio, Power BI, Qlikview,... - Excellents savoir-être : rigueur, esprit analytique et de synthèse, communication... - Méthode Agile - Anglais

Mission freelance
Data Engineer
Au cours de sa mission, le consultant : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud,

Mission freelance
Data Engineer
Présentiel obligatoire 3 jours sur site par semaine Le livrable est - Compétences techniques Expertise SQL, ETL - Expert - Impératif CI/CD, github, Terraform, Kafka - Confirmé - Important Power BI, Looker - Confirmé - Important Google Cloud Platform (GCS, BigQuery) - Confirmé - Souhaitable Connaissances linguistiques: Anglais Lu, écrit (Impératif) Description détaillée Au cours de sa mission, le consultant : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data

Offre d'emploi
Ingénieur OPS-Expert CI/CD, AWS & Kubernetes
Description du poste Dans le cadre des activités de SNCF Connect & Tech, l’équipe Avengers assure la maintenance et l’évolution des outils de l’usine logicielle de build dans le cloud. L’usine logicielle repose sur un écosystème diversifié comprenant Gitlab, Jenkins, Artifactory, Puppet, Rundeck, Sonar, Vault, Kubernetes et Terraform. En tant qu’OPS Engineer, vous serez en charge de : Contribuer au run de l'équipe : maintenance des stacks techniques, mises à jour des outils, supervision des environnements Assurer le support technique aux utilisateurs et équipes internes Déployer et améliorer les workflows CI/CD Participer aux choix technologiques et à l’évolution des outils Mettre en place et suivre les indicateurs de performance et de sécurité Participer à l’industrialisation et à l’amélioration continue des processus Compétences attendues Obligatoires : AWS (EKS, EC2, S3) Gitlab CI/CD Kubernetes, Helm, Docker Infrastructure as Code (Terraform) Gestion de production et supervision Souhaitées : Développement Python Connaissance de l’écosystème Dev (Maven, Gradle, NPM, React, Jenkins) Expérience MacOS (système, build) Métrologie et supervision (ElasticSearch, Datadog) Connaissance des architectures haute disponibilité (ALB, autoscaling) Sens pédagogique pour accompagner les équipes internes Savoir-être Sens du service et de la collaboration Capacité à travailler en autonomie et en équipe Rigueur et esprit d’analyse Excellentes capacités de communication Force de proposition sur les améliorations techniques

Offre d'emploi
Ingénieur de Production AWS, Terraform, Kubernetes H/F
Nous recherchons un super Ingénieur de Production H/F pour une grande entreprise sur Lille 🙂 🎯 Ce que l'on attend de toi … ✨ Contribuer au run de l'équipe : évolutions et créations des stacks techniques (déploiement Terraform, MAJ des outils, mise en place de supervision, … ), support utilisateurs sur nos services ✨ Contribuer au développement des solutions internes, de librairies et des bonnes pratiques ✨ Contribuer aux choix technologiques d'évolution et d'exploitation de nos outils : workflows de déploiement, choix des outils, … ✨ Participer au processus d'amélioration continue (Post mortem, REX, Cérémonies Agiles …) ✨ Rédaction de documentation / LADR Livrables ✨ Suivi opérationnel : mise en place et suivi de métriques sur nos environnements de prod et hors prod (intégration, recette), suivi du statut des environnements, support technique sur les environnements ✨ Contribution aux releases et déploiements/livraisons de nos assets en prod et hors prod ✨ Industrialisation de nos processus et pratiques (gestion des versions, releases, releases notes, notes d’installation, procédure de déploiement, etc.) ✨ Prise en charge des évolutions techniques sur les produits : montée de versions, sujets de sécurité, évolutions des pods ou de pipelines ✨ Participation au suivi sécurité sur nos assets ✨ Participation à la conception et à la réalisation de nos produits : infrastructure et besoins non fonctionnels (monitoring, performance, exploitation…) Présentiel : 2 jours par semaine Contexte : l'équipe assure les évolutions et la maintenance en conditions opérationnelles des outils de l'usine logicielles de Build dans le Cloud. L’usine est fonctionnellement et technologiquement hétérogène et fait appel à des compétences variées (architecture technique, exploitation, administration d’outils, automatisation, pilotage des usages…), et répond à des besoins en constante évolution. Les petits + 🔥 pour les candidats recrutés en CDI : 👉 Bénéficier d’une formation sur mesure adaptée à ton profil 👉 Un système de prime de cooptation qui n’existe nulle part ailleurs 👉 Une entreprise jeune et ambitieuse où il fait réellement bon vivre 👉 9 à 12 RTT par an 👉 Primes vacances 👉 Mutuelle prise en charge à 100% 👉 Frais mobilité de 4 euros par jour travaillé Le suivi de nos consultants en CDI sur 3 niveaux : 1. Chargé RH : tu auras à minima des points trimestriels pour comprendre si tout se passe bien sur ta mission par rapport à l’équipe, à ton manager, à la charge de travail, etc. 2. Business Manager : tu auras le feedback du client au sujet de ton travail et tu pourras faire remonter le tien aussi. Vous déciderez ensemble la fréquence des points. 3. Team Leader Line : tu seras accompagné par un expert technique de ton domaine qui comprendra tes difficultés, tes motivations et qui pourra partager ses expériences et t’accompagner dans tes souhaits d’évolution. Tu te reconnais ? Alors, tu es fait.e pour nous rejoindre ! Viens échanger avec nous 😉

Mission freelance
Ops Cloud AWS - Lille
En tant qu'Ops Cloud AWS, vous serez au cœur de notre infrastructure cloud. Vous aurez pour responsabilités : Concevoir, déployer et maintenir des solutions cloud AWS. Gérer l'automatisation des déploiements et des infrastructures via des outils comme Terraform, Ansible ou CloudFormation. Garantir la disponibilité, la sécurité et la scalabilité des plateformes. Participer à la gestion des incidents et assurer le monitoring des environnements. Collaborer avec les équipes DevOps et les développeurs pour intégrer des pipelines CI/CD performants. Rester à jour sur les nouvelles technologies et proposer des améliorations.

Mission freelance
Data Engineer Maitrisant Looker
Les livrables sont Cahiers de test Suivi d'avancement Dashbords / Explore Looker Compétences techniques Looker - Confirmé - Impératif GCP - Confirmé - Impératif SAP BI 4.2 (Univers et rapport ) - Junior - Souhaitable Connaissances linguistiques Anglais Professionnel (Impératif) Français Courant (Impératif) Description détaillée Le projet Board Next : lancement d'un programme de migration de l’ensemble de ses rapports SAP BO vers deux solutions cibles (Power BI et Looker) Après une période de cadrage et de validation avec l’ensemble des BU, nous sommes aujourd’hui dans la phase de décommissionnement et de migration C’est dans ce cadre que nous recherchons un Data Analyste qui sera en charge de : - Accompagnement technique de la migration pour les BU - Mise en production des livrables validés par les BU - Tests intermédiaires des livrables suite à la livraison OpenAudit (Notre partenaire en charge de la migration automatique) et mise à disposition à la BU - Analyse du niveau 1 des Bugs remontés par les BU puis remonté à Open Audit Création des univers / explores Looker pour la Self BI - Soit à partir d’éléments migrés automatiquement par le partenaire (Univers Board -> Explores looker) - Soit une création complète des couches sémantiques

Mission freelance
Data engineer
Le projet consiste à migrer l’ensemble de ses rapports SAP BO vers deux solutions cibles (Power BI et Looker) Après une période de cadrage et de validation avec l’ensemble des BU, nous sommes aujourd’hui dans la phase de décommissionnement et de migration Les rapports SAP BO (ainsi que les univers) identifiés comme étant à migrer sous Looker sont migrés automatiquement via un partenaire, avant d’être enrichis/complétés, validés et mis à disposition pour les utilisateurs de chaque BU. C’est dans ce cadre que nous recherchons un Data Analyste qui sera en charge de : - Accompagnement technique de la migration pour les BU - Mise en production des livrables validés par les BU - Tests intermédiaires des livrables suite à la livraison OpenAudit (Notre partenaire en charge de la migration automatique) et mise à disposition à la BU - Analyse du niveau 1 des Bugs remontés par les BU puis remonté à Open Audit Création des univers / explores Looker pour la Self BI - Soit à partir d’éléments migrés automatiquement par le partenaire (Univers Board -> Explores looker) - Soit une création complète des couches sémantiques Connaissance techniques : Looker(LookML) , SQL, Python, GIT

Mission freelance
Consultant SAP FI CO / Déploiement ECC6
Vous trouverez ci-dessous un descriptif de la mission. Je suis disponible pour en discuter de vive voix avec vous. Consultant SAP FI CO 5 à 10 ans d'expérience Secteur : industrie Déploiement ECC6 Pas besoin de rentrer dans la solution mais simplement vite la comprendre pour accompagner le déploiement sur la partie process et s'assurer que le core model est respecté Mission en alternance sur site/remote Début : au plus vite Durée : 6 mois renouvelables Langue : Français et anglais requis Client réactif réponse rapide N'hésitez pas à postuler afin d'obtenir plus d'informations sur cette opportunité en freelance.

Offre d'emploi
DATA ENGINEER ETL ET MODELISATION F/H | LILLE (59)
VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez notre client et interviendrez sur des projets d'envergure. A ce titre, vous serez en charge de : Gérer les demandes et participer au pilotage de projet Echanger avec la MOA et les utilisateurs Réaliser l'analyse et rédiger les spécifications techniques. Modéliser les données et optimiser les architectures décisionnelles. Concevoir et développer des flux ETL. Rédiger la documentation technique et fonctionnelle. Participer à la recette et au suivi de production. Environnement Technique : Vertica, Semarchy, SAP BO, SQL Le poste est basé à Lille (59) . Dans le cadre de vos fonctions, vous pourrez bénéficier de 1 jour de télétravail par semaine après votre période d'intégration.

Mission freelance
Consultant BI
Dans le cadre de la transformation digitale, nous recherchons un consultant BI Expert pour accompagner nos équipes dans la migration de nos usages décisionnels (Self-BI, Dashboarding) de SAP Business Objects vers Looker. Vos missions principales : Analyse et diagnostic : Audit des rapports existants sous SAP Business Objects. Analyse des besoins métiers et identification des objets BO prioritaires pour la migration. Conception de la solution cible : Définition des modèles de données Looker (élaboration des fichiers LookML). Proposition des bonnes pratiques pour optimiser les performances et l’expérience utilisateur. Migration et développement : Accompagnement technique des équipes de migration des rapports SAP Business Objects vers Looker. Mise en place des connexions aux sources de données existantes. Déploiement et mise en production des explores Looker et des rapports sur l’environnement de production. Accompagnement et transfert de compétences : Organisation d’ateliers de formation des équipes métiers. Documentation des explores et des livrables associés. Support aux utilisateurs pendant la phase de transition. Compétences requises Expertise en SAP Business Objects et Looker. Maîtrise des concepts de modélisation de données (Data Warehousing, SQL complexe, LookML). Gestion de repo Git BigQuery Plateforme Cloud de Google Capacité à comprendre les besoins métiers et à les traduire en solutions techniques. Communication et pédagogie.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.