Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Expert solution référencement Akeneo (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Expert solution référencement Akeneo (H/F) à Lille, Hauts-de-France, France. Contexte : L’équipe est constituée de 9 personnes: 1 PO, 1 Lead Developer, 2 développeurs Flux, 2 business analyst, 1 architecte, 2 développeurs Au sein de cette équipe, nous cherchons un expert des solutions de référencement, notamment sur notre PIM, Akeneo. Les missions attendues par le Expert solution référencement Akeneo (H/F) : Ce poste transverse vous amènera à collaborer activement en synergie avec les Gestionnaires Produit, Category Managers, e-Merchandising, Supply Chain et le Marketing Client. Votre mission consistera en plusieurs actions: - Analyse des besoins en gestion de la donnée produits: compréhension des besoins métier, gap analysis entre les capacités des produits et le besoin - Définition des bonnes pratiques de gestion de la donnée produit, modélisation du dictionnaire de données - Audit de la Conception actuelle du PIM incluant un potentiel changement de modèle pour s’aligner avec les besoins métiers actuels et futurs et pour s’assurer que tout ce qui est actuellement créé est toujours utile - Mise en place de mesure et de pilotage de la qualité de données (intrinsèque aux produits et d’alignement entre différents systèmes) - Mise en place et animation d’une gouvernance de la donnée produit - Accompagnement et support aux utilisateurs dans leurs tâches quotidiennes (traitement des tickets fonctionnels entrants) - Assurer les tests d’intégration avant et après la mise en ligne des Produits et réaliser les correctifs si nécessaire. Le candidat doit avoir une expertise démontrée sur Akeneo. Une connaissance d’un DAM est un plus. Soft Skills: - Appétence fonctionnelle développée, capacité à s’intéresser aux détails - Organisé, structuré - Communication orale claire, précise et percutante - Facilité relationnelle Les + que pourraient avoir le candidat: - Anglais courant - Maitrise d’un MDM - Connaissance des produits du monde de l’automobile - Capacité à manipuler des APIs
Mission freelance
Devops
Vous participez au quotidien à la bonne mise en oeuvre des éléments suivants : - Un déploiement régulier des applications - Des montés de version régulières des applications - Une pratique des tests dans un environnement similaire à celui de production - Une intégration continue incluant des « tests continus » ; - Une surveillance étroite de l'exploitation et de la qualité de production via des métriques factuelles - Une Analyse des problèmes de performances - Une Gestion des outils de CI/CD - Une Mise en place d'outils / de rapports pour les équipes de développement - Une Gestion et automatisation des environnements des développeurs - Une prise en compte de la sécurité dès la conception - Vous êtes en capacité de traiter le développement d'api ou de solutions en backend pour de petites applications. - Mise en place des bonnes pratiques auprès des utilisateurs - Participations ponctuelles aux guildes des leaders techniques Vous maintenez en conditions opérationnelles les environnements applicatifs et la plateforme. - Gestion des incidents - Gestion des tickets de RUN remontés par les utilisateurs Hard Skills : - Stockage des données: PostgreSQL, ElasticSearch, BigQuery, MongoDB - Orchestrateurs : Kubernetes, Helm, Docker - Administration systèmes Gnu / Linux (Debian/Ubuntu/Alpine …) - Administration réseau (réseau VPC, VPN, Firewall, Traefik, load balancing) - CI/CD : GitHub Action, Terraform - Monitoring : Prometheus, AlertManager, Grafana, GCP StackDriver, Datadog - Cloud : Google Cloud Platform - Sécurité : IAM, Gestion de droits, gestion d'accès applicatifs, Vault (appRole / policies) - Langages : Shell, Python - Frameworks : FastApi, Django - Echange de données : Kestra, Kafka Soft Skills : - Empathie - Pragmatisme - Disponibilité - Curiosité - Adaptabilité - Bonne communication Mission long terme, présence sur site (Région lilloise) exigée 3j/semaine
Offre d'emploi
DATA ENGINEER GCP SPARK KAFKA SCALA
- Intégrer des données provenant de sources externes et exploiter pleinement le Datalake. - Générer et diffuser automatiquement des agrégats quotidiens, hebdomadaires et mensuels. - Mettre en place la chaîne complète d'ingestion, validation, croisement et stockage des données enrichies dans le Datalake. - Respecter les normes d'architecture définies lors du développement. - Documenter les user stories en collaboration avec le PO - Créer des scripts de déploiement et prioriser la résolution des anomalies. - Soutenir les équipes d'exploitation et contribuer à l'implémentation de la chaîne de livraison continue. - Automatiser les tests fonctionnels.
Mission freelance
Ingénieur DevOps
L’ingénieur devops fait partie d’une équipe agile chargée du développement, des évolutions, de la maintenance, et de la mise en place d’une approche devops, des déploiements/configuration d’une ou plusieurs applications construites sur des technologies Java et php. Ces applications sont le plus souvent de type « web », impliquant des bases de données relationnelles, des interfaces REST, et des échanges asynchrones de messages. Il se positionne naturellement comme le principal point de contact sur les sujets techniques opérationnels de déploiement de applications, de préparation des infrastructures et de mise ne place de la plateforme d’intégration cotinue et devops. Il est amené à échanger au quotidien avec : - Des Product Owners - Un architecte - Des intégrateurs et exploitants - Des Tech Leads et équipes de développements Principales tâches relatives à la mission : · Commissionnement/ décommissionnement de l’infrastructure AWS (EC2, RDS, ELB/ALB, AWS S3) · Maintenir et évoluer la chaine d’intégration continue Jenkins (création, modification des jobs..) · Installer les composants logiciels d’infrastructure (JRE, PHP, apache, postgreSQL..). · Déploiement des applications du programme (configuration Zuul et exécution des jobs jenkins). · Analyse et résolution des incidents survenus en production (application non disponible, serveur non disponible….). · Analyse et optimisation des performances. des serveurs (Processus, RAM, FS, CPU, nbr de transactions) · Etre le garant du respect des bonnes pratiques de livraisons (création de branches dans Git, upload dans nexus….) · Faire et suivre des demandes d’ouverture de flux inter-applicatifs et inter-plateformes. · Alerter les équipes projets sur les risques liés aux configurations et performances de leurs applications. · Etre le principal point de contact avec les équipes d’infrastructure pour le programme lors des phases de mise en production. · Transverse : · Préparation des playbook Ansible de la plateforme. · Maintenir le dossier de configuration et d’exploitation. · Maintenir les images docker utiliser. · Maintenir les job jenkins en place. · Préparation des helm charts des applications. · Travailler avec les architectes du programme pour étudier les évolutions · Adopter une approche devops (containérisation, infrastructure as code….)/ Environnement technique · JIRA, Bugtracker · Jenkins, Docker/Kubernetes sur AWS, Maven/NPM, GIT, Sonar, ELK Stack · Amazon web service (S3, RDS, api gateway,….) · Architecture Event-Driven (messaging via Kafka) · JAVA, Postgres SQL · Languages : scripting, Java 8, Liquibase, Flyaway, REST, Groovy, Helm · Middleware : Apache, Nginx, tomcat, kafka Security : SSL, OAuth2, SSO, Forgerock
Mission freelance
Data Engineer Lille (profil local et expérimenté)
L'équipe DCF (Data Component and Framework) est une équipe transverse dont l'objectif est de construire un socle technique et des outils permettant à chaque Business Unit local ou international de mettre en place en autonomie ses Uses cases Data. Environnement technique : • Stockage : Google Cloud Storage • Base de données : BigQuery, Datastore, Firestore, MongoDB • Monitoring : Stackdriver • Ordonnanceur : Airflow puis Google Cloud Composer • Compute: Cloud Function, Compute engine • API: App Engine, Cloud run, FastAPI • Déploiement : Terraform, Pulumi • Versioning : Git • Langage: Python, Shell • CICD : Cloud build, Github Action
Mission freelance
Développeur Java Spring
Nous recherchons un profil développeur java spring expérimenté. Les pré requis indispensables sont les suivants : Investissement et autonomie Capacité à reporter et à partager Maitrise Java / Spring Maitrise API Rest Maîtrise d'Angular 16+ (non indispensable) Connaissance Apache Camel Connaissance Kafka Connaissance CI / jenkins Notion de Conteneurisation Connaissance Prometheus serait un plus Connaissance jProfiler, Yourkit ou Dynatrace serait un plus Appétence sur l’automatisation et des notions de Cucumber
Offre d'emploi
Ingénieur DevOps - Azure
SquareOne renforce ses effectifs et intègre de nouveaux ingénieurs DevOps au sein de sa BU Cloud / Data / DevOps. Vous rejoindrez nos équipes basées à Bordeaux et interviendrez chez notre client. L'équipe de notre client est responsable de la migration d'une plateforme de formation vers une infrastructure modernisée. Missions : - Analyse de l'existant - Mise en place et gestion des environnements DEV / TEST / PROD (Docker / Ansible) - Être garant de l'observabilité, la sécurité et la performance de la nouvelle plateforme. - Automatisation du déploiement et de la gestion de la configuration. - Support technique et résolution des problèmes liés à la migration et à l'infrastructure. Environnement technique : GIT / Azure DevOps / docker / Linux / Python / Ansible Bordeaux + télétravail 2 jours par semaine Rythme : Lundi / Mardi / Jeudi sur site
Mission freelance
Consultant Data / GCP
Je recherche en ce moment un consultant Data / Big Query pour un de mes clients dans le nord de la France afin de construire les nouveaux cas d'usage sous Google Cloud Platform et participer au développement des nouveaux projets : Analyser et comprendre l’existant Concevoir l’architecture du nouveau socle Challenger et mener des ateliers avec le métier Développer les flux Exposer de la donnée sur GCP Participation à la vie de l'équipe (composée de 1 PO, 1 BA, 7 Devops data) : Rituels : daily / atelier d’équipe / sprint / … Alimentation du JIRA Documentation technique et fonctionnelle Garant et détection des axes d’amélioration à mettre en place sur le périmètre du produit Analyse poussée sur l’ensemble du périmètre (participation active aux divers ateliers métier et recettes)
Offre d'emploi
Expert en sécurité cloud AWS-IAM H/F
Objectifs de la mission : Audit de l'existant : Évaluer les configurations IAM actuelles sur AWS et identifier les vulnérabilités et les améliorations possibles. Conception de la stratégie IAM : Élaborer une stratégie IAM adaptée aux besoins de l'entreprise et conformes à nos règles de sécurité, incluant la gestion des identités, des accès et des permissions. Mise en œuvre des meilleures pratiques : Appliquer les meilleures pratiques AWS pour la gestion des identités et des accès, notamment à travers l'utilisation de services tels que AWS IAM, AWS Organizations, AWS SCP et autres. Formation et sensibilisation : Accompagner les équipes projet sur les concepts IAM et les outils AWS, et promouvoir une culture de la sécurité au sein de l'organisation. Documentation : Fournir une documentation complète des processus, configurations et politiques mises en place.
Mission freelance
Dev Java / Spring batch Spring Boot Marseille/di
Dev Java / Spring batch Spring Boot Marseille Mission Nous recherchons un Concepteur-Développeur Java Back-end confirmé, spécialisé dans les technologies Spring Boot et Spring Batch. Le candidat idéal sera responsable de la conception, du développement et de la maintenance d'applications back-end robustes et évolutives. Responsabilités Conception et Développement : Concevoir, développer et maintenir des applications back-end en utilisant Java, Spring Boot et Spring Batch. Analyse des Besoins : Collaborer avec les équipes produit et front-end pour comprendre les besoins fonctionnels et techniques. Optimisation des Performances : Analyser et optimiser les performances des applications existantes. Documentation : Rédiger et maintenir la documentation technique et fonctionnelle. Langages et Technologies : Java (8 ou supérieur) Spring Boot Spring Batch Méthodologies : Agile/Scrum Compétences Générales : Capacité à travailler en équipe et à communiquer efficacement. Sens de l’analyse et résolution de problèmes. Expérience Minimum de 3 à 5 ans d’expérience en développement Java Back-end. Expérience dans la conception et la mise en œuvre de solutions basées sur Spring Boot et Spring Batch.
Offre d'emploi
Ingénieur SecOps H/F
Le Groupe SYD Digital Care, avec des bureaux à Nantes, Rennes, Paris, Brest, Bordeaux et Niort, met l'humain au cœur de la transformation digitale. Pour cela, nous intervenons dans 4 domaines : Le conseil (Accompagnement de projet, Infrastructure Management) L’intégration de solutions (ERP, CRM, BI, Gestion des interactions client) Le développement applicatif web/mobile L'infogérance (Solution cloud, Infrastructure hybride, Maintenance, Sécurité & sauvegarde, Distribution de matériel) Notre démarche RSE reflète notre engagement envers des pratiques responsables et durables. En rejoignant notre famille professionnelle, vous participerez à une aventure humaine où votre talent et votre créativité seront valorisés, tout en contribuant à un avenir numérique plus inclusif et durable.
Mission freelance
Teach Lead Data Scientist / IA
Description du Projet : Au sein de l'équipe AI, rattachée au domaine AI Solutions, vous jouerez un rôle crucial dans la supervision technologique et la scalabilité de deux suites de produits d'intelligence artificielle phares, destinés à l'ensemble de l'écosystème : > ML Solutions : Une solution complète d’outils MLOps offrant différents niveaux de service pour la gestion simplifiée et le déploiement optimisé de modèles d'IA. > GenAI Solutions : gestion et évolution d’une plateforme LLM chatbot interne, développement d'une plateforme de déploiement de chatbots RAG, et développement futur d’une plateforme d’agents. Votre mission en tant que Tech Lead, sera de garantir l'efficacité, et la scalabilité de ces solutions, tout en vous assurant de leur alignement avec la stratégie technologique. L’équipe AI aujourd’hui constituée de 5 personnes est en forte croissance. Vos principales missions : Leadership et Expertise Technique : > Fédérer l'équipe technique : Instaurer un environnement collaboratif et bienveillant, en guidant les développeurs vers les meilleures pratiques (DevOps, CI/CD, tests automatisés). > Garantir la réalisation de la roadmap : Superviser la roadmap produit en collaboration avec les Product Owners, en vous assurant de son adéquation avec la stratégie technologique > Décisions architecturales et sécurité : Prendre des décisions éclairées concernant l'architecture des solutions Excellence Opérationnelle et Innovation : > Maintien en conditions opérationnelles : Assurer la stabilité, la performance et la fiabilité des solutions. > Interopérabilité des technologies : Collaborer étroitement avec les autres Tech Leads de la plateforme. > Mise en place des bonnes pratiques : Promouvoir et implémenter les meilleures pratiques de développement et de DevOps. Collaboration et Amélioration Continue : > Support et assistance utilisateurs : Être à l'écoute des besoins des utilisateurs et leur garantir une expérience optimale. > Participation active aux processus de revue : Contribuer activement aux MOBs, pair reviews et autres mécanismes de collaboration pour améliorer continuellement la qualité du code et des produits. > Conformité au framework Global Ready : Veiller à la conformité des solutions avec les standards du framework technologique, en travaillant en étroite collaboration avec les équipes transverses Tech & Data.
Mission freelance
Développeur .NET / ANGULAR / SQL Server / AZURE DevOps / Git
L'application est une application construite sur la plateforme Microsoft, autour du Framework .NET 4.8. Il s’agit d’un client WPF qui intègre plusieurs contrôles spécialisés pour la gestion de cartes et de tableaux, une couche de service WCF exposé sur Internet Information Server, une plateforme d’asynchronisme basée sur Biztalk et SQL Server pour le stockage de données. Les principales activités sont : • Analyse des besoins et participation à l’identification des scénarios d’implémentation technique • Estimation de la charge d’implémentation de chaque évolution • Formalisation des spécifications techniques • Remplacement des frame-work existant • Valider les performances de l’application • Implémenter les fonctionnalités avec les recommandations de Microsoft Azure • Veiller au respect des spécifications fonctionnelles et recommandation du designer web. Livrables : - CR - Pull requests - Documentation - Report + Dashboard - Features, User Stories, tests, wiki - Saisies dans les applications dédiées
Mission freelance
H/F Architecte DATA.
Contexte de la mission : Cette mission intervient pour le compte d'un client du secteur de l'automobile, basé en région lyonnaise. Nous sommes à la recherche d'une prestataire Architecte Data, dont la mission sera de veiller à ce que les produits fournis par l’équipe soient alignés sur l'architecture cible mondiale du groupe. Le prestataire, architecte de données Azure, doit avoir une bonne compréhension globale des services disponibles dans la pile Azure Analytics. Il assumera le rôle de chef de file technique et discutera avec les parties prenantes de l'entreprise et de l'architecture d'entreprise. La mission implique une collaboration étroite avec le DPO, l'analyste de données, l'ingénieur de données et le scientifique de données de l'équipe stable, mais aussi avec la communauté des architectes. Tâches à réaliser : Assurer le leadership technique, participer aux efforts de développement et représenter l'ensemble des capacités internes et externes de la plateforme. Être un membre actif de la guilde des architectes pour superviser le processus de gestion des données et fournir des conseils et des orientations aux équipes de développement. Être responsable de la conception et de la documentation de la solution Prendre en charge la définition et la possession de l’architecture de données évolutive de bout en bout, tout en prenant en compte l'architecture d'entreprise et les normes du secteur. Développer, documenter et maintenir des modèles de données logiques et physiques. Définir et soutenir l'architecture de bout en bout pour toutes les livraisons de l'équipe stable New Services Configurer l'architecture et la documentation afin de garantir que l'architecture de livraison soit conforme à l'architecture d'entreprise du groupe et à la stratégie de données du groupe Soutenir l'équipe stable sur les initiatives New Services : Tableau de bord des émissions de CO2 Surveillance des camions E-Mob Tableau de bord des services pour piloter les activités de service commercial Faire partie de l'équipe de maintenance pour assurer la continuité des processus commerciaux
Mission freelance
Data analyst (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data analyst (H/F) à Lille, Hauts-de-France, France. Contexte : Le data analyst est responsable du pilotage de la reprises des données de l’ensemble des systèmes de référencement, de l’industrialisation des process, de l’optimisation des outils d’analyse et du process de migration pendant les phases projet jusqu’au démarrage (bascule en production). A ce titre, il pilote opérationnellement l’ensemble des acteurs contributeurs (équipe solution, équipe legacy, métier, éditeur de l’outil d’aide à la reprise) depuis la mise au point des outils et processus jusqu’à l’exécution des migrations. Son périmètre d’intervention est axé sur les systèmes applicatifs autour de la gestion des données de référentiel tiers. Les missions attendues par le Data analyst (H/F) : Compétences : - Structurer et organiser un chantier « données » (extractions, suppression des doublons, remise en qualité, enrichissement, chargement, traitement des rejets, contrôles) - Assurer la coordination des parties prenantes clés, incluant les outils de gestion de données tierces, les différentes Business Units et tout autre acteur impliqué. L’objectif est de piloter efficacement les équipes, déployer progressivement la solution, tout en garantissant la conformité et la qualité des données. Cela inclut l’optimisation des flux de données, la mise en place de contrôles qualité et l’intégration “sans couture” des données existantes dans le système cible. - Organiser et animer les instances utiles - Remonter les charges et les risques - Mettre en place les indicateurs de pilotage - Compétences techniques des outillages BI (SQL, scripting, looker, powerBI, connaissances en pipelines, …) Profil : - Capacité d’organisation et autonomie - Force de proposition - Rigoureux, dynamique mais aussi pragmatique et diplomate - Expérience réussie dans la conduite de projets jusqu’au golive - Capacité d’animation et de communication - Sens client, sens du service et réactivité - Savoir challenger la qualité de la data
Mission freelance
Data Engineer confirmé
Mission : En tant que Data Engineer, vous jouerez un rôle central dans la transformation digitale de notre client. Vous concevrez et optimiserez les flux de données en assurant leur ingestion, transformation et modélisation dans un environnement AWS et Snowflake. Vous travaillerez étroitement avec la Data & Tech Factory pour automatiser les processus et assurer l'intégration continue de données fiables et exploitables dans les projets métier de l'entreprise. Compétences : Expérience de 4 à 5 ans en data engineering, idéalement en environnement cloud AWS Maîtrise de Snowflake pour le stockage et la gestion des données, avec des compétences en SQL et Python pour la manipulation et la transformation de données Connaissance des pratiques DevOps et CI/CD pour optimiser les workflows, et expérience en Infrastructure as Code avec Terraform
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.