Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Data Analyst H/F
En tant que Data Analyst , vous jouerez un rôle crucial dans la réalisation de projets d'analyse de données complexes. Il s’agira notamment de : Collaborer avec les clients pour comprendre leurs besoins en matière d'analyse de données et formuler des recommandations appropriées Concevoir et mettre en œuvre des pipelines d'analyse de données pour collecter, nettoyer et transformer des ensembles de données massifs provenant de diverses sources Effectuer des analyses statistiques avancées pour identifier des tendances, des modèles et des insights significatifs Développer des tableaux de bord interactifs et des rapports personnalisés pour présenter les résultats de manière claire et concise aux parties prenantes internes et externes Participer à l'élaboration et à l'amélioration des processus et des méthodologies d'analyse de données au sein de l'agence
Offre d'emploi
Expert Zabbix
Nous recherchons un Expert Zabbix pour intégrer une équipe dynamique et participer à des projets de supervision d'infrastructures critiques. Vous interviendrez sur des missions de migration, d'automatisation et d'intégration au sein d'environnements complexes. Vos missions : Migration d'infrastructures Zabbix de la version 6 vers la version 7.0. Mise en place et optimisation d’architectures Zabbix V5 et V6. Développement de scripts d'automatisation en Python et Bash pour améliorer les processus de supervision. Migration de supervisions existantes (PATROL, SCOM, ZABBIX V4, CENTREON) vers les versions plus récentes de Zabbix. Intégration avec Netcool Omnibus via SNMP et WebHook . Rédaction de la documentation d'installation et d'exploitation. Maintien en conditions opérationnelles des systèmes en conformité avec la certification PCI-DSS . Compétences requises : Expertise avérée sur Zabbix et ses différentes versions. Solides compétences en scripting Python et Bash . Expérience avec des outils de supervision tels que BMC Patrol , ElasticSearch , et Entuity . Connaissance des processus ITIL et des certifications PCI-DSS .
Mission freelance
Business Analyst Technique - IA Générative pour IT
Nous recherchons un Business Analyst Technique spécialisé en IA générative pour rejoindre une équipe d'experts en innovation et développement IT. Le candidat travaillera sur des projets pilotes et des Proof of Concept (POC) liés à l'intégration de solutions d' IA générative au sein de systèmes IT complexes. Veille technologique : Réaliser une veille active sur les solutions d'IA générative disponibles (Make/Buy/Open Source) et proposer des solutions adaptées à l'IT. Pilotage de POC : Diriger et piloter des Proof of Concept et Proof of Value autour des technologies d'IA générative pour assister au développement de prototypes et outils d'aide au développement. Communication et adoption : Promouvoir et accompagner la mise en place des premières solutions d'IA générative au sein des équipes IT. Assurer une communication claire et efficace autour des résultats obtenus. Animation d'une communauté IA : Créer et animer une communauté dédiée à l' IA générative pour les développeurs, partager les meilleures pratiques, et fournir des supports pour les comités. Accompagnement des projets IT : Apporter un soutien technique et méthodologique aux projets IT lors de l'adoption des solutions IA.
Mission freelance
Expertise DBA
Dans le cadre de l’évolution permanente et du maintien en conditions opérationnelles de ses socles techniques le bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes d'expertise technique DBA Le client gère 3800 bases de données Oracle, et 650 bases mongo DB, 1700 bases MS SQL, et 5600 cluster PostGres. Expertise DBA Cela comprend pour .... Expertise avancée en Bases de données Oracle Expertise en infrastructures Exadata, ExaCC Expertise en Bases de données MongoDB Technologies de sauvegarde : TSM, Networker Scheduling : Autosys, Control M, Jobscheduler, Airflow Monitoring : Oracle Enterprise Manager, Zabbix Socle OS : Redhat Linux Automatisation en Python, Ansible, Scripting shell Cela comprend pour.... Expertise avancée en Bases de données PostgreSQL, MSSQL Expertise en Bases de données Cassandra & Sybase Technologies de sauvegarde : TSM, Networker Scheduling : Autosys, Control M, Jobscheduler, Airflow Monitoring : Zabbix, Datasentinel Socle OS : Redhat Linux, Microsoft Windows Server Automatisation en Python, Ansible, scripting shell unix & powershell Au sein de ..... la prestation consiste à contribuer pour les bases de données à la maintenance et à l'évolution des bases de données sur ses plateformes Unix (Décisionnel, Flux, Transactionnel, Progiciels) : La conduite du changement sur les opérations importantes (migration/montées de version, migrations de socle de hosting vers du cloud interne, gestion de l’obsolescence, defrag,…) et à la documentation auprès de l'entité L’expertise en support aux équipes niveau 1 & 2 en cas d’incident L'optimisation selon les besoins applicatifs L'expertise sur la performance des bases et le suivi des changements applicatifs L'expertise sur la sécurité des bases de données (durcissement, gestion des vulnérabilités, mises à jour) Suivi des projets en relation avec les entités sécurité du groupe Second niveau de contrôle pour les sujets clés (backup, capacity planning, conformité avec les standards, tels que le durcissement) Delivery selon un modèle Agile/DevOps des API cloud privé en Python
Mission freelance
data Ingénieur
Contexte international, suivi opérationnel Le livrable est Développement flux Compétences techniques SQL/Python - Confirmé - Impératif GCP - Confirmé - Important Connaissances linguistiques Français Professionnel (Impératif) Anglais Lu, écrit (Secondaire) Description détaillée Au sein de la Supply Chain Digital Platform, notre équipe assure les échanges de données entre le moteur de calcul de prévision de vente et de réapprovisionnement et l'ensemble des applications internes. Nous avons mis en place un ELT (Gateway) permettant de consolider, transformer et analyser les données nécessaires à l'outil de réappro. Nous utilisons la stack technique BigQuery et Airflow pour déclencher les process de transformation de données et d'échange avec l'outil. Nous souhaitons nous renforcer dans l'équipe de la Gateway d'un ingénieur data afin d'assurer le run opérationnel, optimiser l'existant et dans un avenir proche participer au déploiement de la solution dans d'autres pays. Nous recherchons quelqu'un de motivé ayant déjà une expérience dans la data. Une bonne maîtrise de SQL est nécessaire. (elle sera testée durant l'entretien). (Actuellement l'équipe est composée de 3 ingénieurs data, 1 product owner, 1 scrum master, 1 tech lead, 1 incident manager.)
Mission freelance
Consultant DevOps
On recherche un.e expert.e DevOps. Les principales missions sont : - Maintenir en condition opérationnelle la plateforme d'intégration continue utilisée par la DSI - Accompagner les utilisateurs dans la consommation des services de l'équipe: github, argocd, AWX, sonarqube, nexus, backstage - Définir les règles de bonnes pratiques, les pipeline standards - Développer sur backstage les composants en mode self-service pour nos utilisateurs: terraform, python, bash - Contribuer à la transformation digitale en promouvant les services de l'équipe et notamment en développant l'offre Platform Engineering
Mission freelance
Tech Lead Data Engineer GCP (H/F)
En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Conception des solutions nécessitant l’utilisation de technologies cloud & data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données dans le Cloud · Travaille avec différents profils data du groupe (Data Scientist, data engineer, data architect, data analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne
Offre d'emploi
Expert Sauvegarde
Nous sommes à la recherche d'un expert pour l'équipe Sauvegarde (disponibilité immédiate) L'équipier Sauvegarde Niveau 3 a pour rôle principal d'assurer la maintenance des systèmes de sauvegarde des datacenters. Cet expert maîtrise les technologies de sauvegarde, en particulier Commvault, ainsi que les architectures de sauvegarde et les sauvegardes sur bande. Une connaissance de NetBackup est également requise. En complément, une compétence en technologies DevOps est un plus pour automatiser les infrastructures de stockage. Les outils et technologies utilisés incluent : Ansible, Python, Git/GitLab, RestAPI, et en option, Terraform et Go.
Offre d'emploi
GO/Python - ML Engineer
le cadre de sa prestation, l'intervenant externe évoluera au sein de la direction de la Data chez BNP Paribas Personal Finance, AI Delivery. AI Delivery accompagne les métiers et les pays dans leurs projets de Data science, depuis la génération de use case jusqu’à la mise en production. Notre équipe, dynamique et internationale, au profil « start-up » intégrée à un grand groupe, regroupe des profils de Data scientist experts en Machine Learning (computer vision, NLP, scoring), un pôle ML engineering capable d'accompagner les DataScientists lors de l'industrialisation des modèles développés (jusqu'à la mise en production) ainsi qu’une équipe AI Projects. AI Delivery met aussi à disposition des lignes de métiers Personal Finance la plateforme de Datascience « Sparrow », qui comporte L’équipe Technical Office, composée principalement de MLOps Engineers, a pour principale mission d’être garante de la qualité des livrables de l’ensemble de la direction, de les déployer sur le cloud privé du Groupe, « dCloud » et enfin d’assurer la haute disponibilité de l’ensemble de nos assets. Cette équipe conçoit, développe et maintient des plateformes et des frameworks de data science. PF fait appel a une prestation en AT pour assurer l’évolution et la haute disponibilité de l'ensemble de nos assets. Le prestataire aura la charge de la disponibilité et de la stabilité de nos différentes plateformes data avec un focus particulier sur notre asset Sparrow. Le prestataire intègrera l’équipe du Technical Office. DevOps, MLOps, Data Science, Cloud sont les moteurs de son quotidien. Les sujets traités par l’équipe sont variés : - Participer à la conception architecturale cloud et data ; - Participer à la maintenance/l’évolution des frameworks de data science existants (Python) ; - Participer à la maintenance/l’évolution des services web et opérateurs kubernetes existants (Golang) ; - Participer à la maintenance/l’évolution des pipelines de CI/CD (Gitlab CI, GitOps) ; - Participer à la maintenance/l’évolution du code d’IaC (Terraform, Bash) ; - Participer à la maintenance/l’évolution de l’outillage DevOps (Gitlab runners, BuildKit, ArgoCD, ArgoWorkflows, ArgoEvents, etc.) ; - Participer à la maintenance/l’évolution de l’outillage DevSecOps (Vault, Keycloak, Sparrow IAM, etc.) ; - Participer à la maintenance/l’évolution de l’Observabilité des plateformes (logging, monitoring, traçabilité) ; - Participer à la mise en production des outils et des solutions IA déployées sur la plateforme ; - Être force de proposition et participer aux POCs.
Offre d'emploi
Ingénieur Automatisme
AGH Consulting recherche pour un de ses clients un ingénieur automatisme. La prestation vise à : Conception, programmation et mise en service d’automates programmables industriels (PLC) Schneider, Beckhoff ou Siemens selon les besoins des projets. Développement et intégration de systèmes SCADA pour la supervision des installations industrielles (PCVue, Panorama, Aveva). Analyse des besoins fonctionnels des clients et traduction en spécifications techniques. Participation aux études techniques : schémas de câblage, nomenclatures, choix des équipements d’automatisation. Maintenance et optimisation des systèmes automatisés existants. Réalisation des tests et validations en usine et sur site, pour s'assurer du bon fonctionnement des systèmes. Formation et accompagnement des équipes techniques et des utilisateurs finaux. Suivi et gestion de projets en automatisation, respect des délais et des budgets. Veille technologique sur les évolutions des outils d’automatisation et des systèmes SCADA.
Offre d'emploi
MOE Technico - Fonctionnel BIM
Nous recherchons un MOE Technico-fonctionnel BIM. Dans le cadre d'une assistance à maîtrise d'oeuvre pour la mise en place du socle technique BIM. Les principales prestations attendues sont : Participation aux ateliers technico-fonctionnels interne Conception détaillée. Challenge des solutions techniques proposées par les titulaires. Etude d’impact de l’infra en place. La gestion des environnements : Création / mise à niveau des environnements nécessaires au projet Packaging et installation des livraisons titulaire dans les normes projet Rafraîchissement des données des environnements Réalisation de paramétrage des outils informatiques dans le cadre du Socle technique. Préparation et participation aux différentes recettes VAT / TIO / Performance. Assistance à la recette fonctionnelle. MCO de la moulinette GIGP. Rédaction de la documentation technique nécessaire à la maintenance Suivi des faits techniques, analyse... Reporting : Ordre du jour de réunion, compte rendu de reunion. Environnement technique : Bonne connaissance des environnements CLOUD et des interactions de ces environnements avec les écosystèmes locaux. Python impératif pour la moulinette GIGP. Connaissance de la démarche BIM et des outils la soutenant. Maitrise de la solution TRIMBLE Connect. Compétences d’AMOE : Gestion des environnements, recette technique, analyse et qualification d’incidents, suivi de tickets, assistance à maîtrise d’ouvrage… Réalisation / relecture ou participation à la rédaction des spécifications fonctionnelles et techniques. Bonne compréhension de l’anglais pour la lecture de la documentation technique Capacité rédactionnelle pour créer, compléter la documentation existante Les + : Revit- Autocad. BIM & CO On Fly ou équivalent. PostgreSQL : création d’objets, imports exports de bases, requêtes SQL, Procédures PL/PGSQL LINUX : commandes, écriture de Shell Langage JAVA Une première expérience dans le domaine du BIM.
Offre d'emploi
Data Engineer Confirmé
1 - Contexte La mission consiste à intégrer l'équipe Projets en charge de l'intégration des données de l'entreprise au sein de la plateforme Data sous le Cloud Azure afin de couvrir les besoins Big Data et BI. La personne sera intégrée dans l'équipe projet qui fonctionne dans une organisation en mode Agile. 2 - Description de la mission Nous recherchons un Data Engineer confirmé/sénior avec une forte expertise sur Azure, Databricks, Spark, Scala, Python et SQL Développement et l’implémentation de solutions Big Data Analytics Analyse du besoin, étude d'impacts et conception de la solution technique Conception et modélisation des données au niveau d'un Data Lake (format Parquet, Delta table, …) Construction des pipelines de données pour collecter, transformer et traiter des données dans le Data Lake Développements de notebooks (ex : Databricks) de traitements avancés des données Cloud Datawarehousing (tuning, optimisation de traitements et requêtes SQL) Rédaction de documentation technique (Dossier d'Analyse Technique, release delivery note, ….) Revue de code Réalisation de tests unitaires Maintenance corrective et évolutive Livraison dans un environnement Devops, CI/CD et outils associés
Mission freelance
Tech lead (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Tech lead (H/F) à Lille, Hauts-de-France, France. Les missions attendues par le Tech lead (H/F) : Leadership et Expertise Technique : > Fédérer l'équipe technique : Instaurer un environnement collaboratif et bienveillant, en guidant les développeurs vers les meilleures pratiques (DevOps, CI/CD, tests automatisés). > Garantir la réalisation de la roadmap : Superviser la roadmap produit en collaboration avec les Product Owners > Décisions architecturales et sécurité : Prendre des décisions éclairées concernant l'architecture des solutions Excellence Opérationnelle et Innovation : > Maintien en conditions opérationnelles : Assurer la stabilité, la performance et la fiabilité des solutions. > Interopérabilité des technologies : Collaborer étroitement avec les autres Tech Leads. > Mise en place des bonnes pratiques : Promouvoir et implémenter les meilleures pratiques de développement et de DevOps. Collaboration et Amélioration Continue : > Support et assistance utilisateurs : Être à l'écoute des besoins des utilisateurs et leur garantir une expérience optimale. > Participation active aux processus de revue : Contribuer activement aux MOBs, pair reviews et autres mécanismes de collaboration pour améliorer continuellement la qualité du code et des produits. Profil Recherché : Expérience : > Expérience significative en développement back-end, avec une expertise en Python. > Bonne connaissance des services Google Cloud Platform (GCP) tels que BigQuery, Pub/Sub, Cloud Run, Firestore, IAM et Terraform. > Solide connaissance des architectures modernes : Event Sourcing, CQRS, API REST, etc. > Expérience avérée en DevOps et connaissance MLOps (gestion et scalabilité de pipelines d'IA). > Intérêt marqué pour l'intelligence artificielle et ses applications. Compétences Techniques : > GCP : BigQuery, Pub/Sub, Cloud Run, Firestore, IAM, Terraform. > Connaissance de l'infrastructure as code avec Terraform et de l'automatisation des déploiements. > Compréhension des enjeux de scalabilité et des bonnes pratiques de test automation. > Maîtrise des standards et outils DevOps.
Offre d'emploi
Tech Lead Python
Votre mission en tant que Tech Lead, sera de garantir l'efficacité, et la scalabilité de ces solutions, tout en vous assurant de leur alignement avec la stratégie technologique. **Vos principales missions : Leadership et Expertise Technique : > Fédérer l'équipe technique : Instaurer un environnement collaboratif et bienveillant, en guidant les développeurs vers les meilleures pratiques (DevOps, CI/CD, tests automatisés). > Garantir la réalisation de la roadmap : Superviser la roadmap produit en collaboration avec les Product Owners, en vous assurant de son adéquation avec la stratégie technologique. > Décisions architecturales et sécurité : Prendre des décisions éclairées concernant l'architecture des solutions Excellence Opérationnelle et Innovation : > Maintien en conditions opérationnelles : Assurer la stabilité, la performance et la fiabilité des solutions. > Interopérabilité des technologies : Collaborer étroitement avec les autres Tech Leads de la plateforme. > Mise en place des bonnes pratiques : Promouvoir et implémenter les meilleures pratiques de développement et de DevOps. Collaboration et Amélioration Continue : > Support et assistance utilisateurs : Être à l'écoute des besoins des utilisateurs et leur garantir une expérience optimale. > Participation active aux processus de revue : Contribuer activement aux MOBs, pair reviews et autres mécanismes de collaboration pour améliorer continuellement la qualité du code et des produits. > Conformité au framework Global Ready : Veiller à la conformité des solutions avec les standards du framework technologique, en travaillant en étroite collaboration avec les équipes transverses Tech & Data.
Mission freelance
QA Technico-Fonctionnel en Automatisation Monétique
Élaboration des recettes fonctionnelles : Analyser les spécifications, identifier le périmètre de test, concevoir les tests, élaborer des plans de test et des cahiers de recette fonctionnelle en collaboration avec les équipes concernées. Exécution des recettes fonctionnelles : Exécuter les tests fonctionnels et techniques sur les environnements de test, analyser, remonter et suivre les anomalies. Gestion des environnements : Installer, exploiter et maintenir les environnements de test. Support : Assurer l’analyse et le suivi des anomalies et incidents dans le respect des SLA / Niveau de criticité. Apporter une analyse fonctionnelle et technique sur les anomalies et incidents constatés sur les différents environnements et applications. Participation à l'automatisation : Participer à la mise en place de l'automatisation des tests en travaillant conjointement avec les automaticiens. Livrables : Plan de test, cahier de test, rapport de test, anomalies et rapport d'anomalie, compte-rendu d'activité, et mode opératoire.
Mission freelance
Consultant Google ad manager
Le Prestataire sera responsable de la gestion et de l'optimisation des services existants de Google Ad Manager intégrés au Système de Suivi des Candidatures (ATS), sous-traités par Atos. Cela inclut la transition, la surveillance et l'optimisation des campagnes publicitaires en cours afin d'assurer leur performance efficace. Portée technique Le champ d'application comprend, sans s'y limiter, les éléments suivants : Transition des campagnes : Prise en charge de la gestion des campagnes publicitaires existantes actuellement diffusées sur Google Ad Manager. Gestion des inventaires publicitaires : Assurer une gestion continue et optimale des espaces publicitaires numériques sur plusieurs plateformes, y compris mobile, web et vidéo. Optimisation des publicités : Affiner les stratégies de ciblage, les emplacements publicitaires et les processus d'enchères pour maximiser les revenus et l'engagement des campagnes en cours. Rapports et analyses : Améliorer les outils de reporting et les tableaux de bord analytiques existants pour surveiller les performances publicitaires, l'engagement des utilisateurs et les indicateurs de revenus, tout en apportant des ajustements basés sur les données. Support et maintenance continus : Fournir un support continu pour garantir le bon fonctionnement de Google Ad Manager, en résolvant rapidement tout problème technique. Fichier Blueprint : Veiller à ce que le fichier Blueprint, où sont stockées les informations sur les emplacements et les campagnes, soit mis à jour et de qualité. Taxonomie : Gérer la taxonomie de Google Ad Manager. Le projet se déroulera en plusieurs phases : Phase 1 : Analyse et transition des campagnes Examiner et évaluer l'état actuel des campagnes actives sur Google Ad Manager. Transférer la gestion complète des campagnes existantes à DIGICOM, en garantissant une continuité de service. Phase 2 : Optimisation et amélioration Ajuster les paramètres des campagnes, les emplacements publicitaires et les options de ciblage pour améliorer les performances. Mettre en œuvre des stratégies d'optimisation avancées pour maximiser les revenus publicitaires. Phase 3 : Surveillance et assurance qualité Surveiller en continu les performances des campagnes et apporter des ajustements en temps réel. Effectuer des contrôles de qualité pour s'assurer que tous les aspects des campagnes fonctionnent de manière optimale. Phase 4 : Rapports et transfert Fournir des rapports détaillés sur les performances et les résultats des campagnes. Transférer les connaissances et fournir la documentation nécessaire pour permettre une gestion continue par l'équipe. Phase 5 : Support continu Offrir un support continu pour résoudre tout problème et optimiser les performances tout au long de la durée restante du contrat. ANGLAIS COURANT OBLIGATOIRE - POSTE FULL ANGLAIS
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.