Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Ingénieur développeur logiciel - Banc Optronique (F/H)
📑 CDI (42-45K€) / Freelance / Portage Salarial - 🏠 1 jour de télétravail / semaine – 📍 Elancourt - 🛠 Expérience de 4 ans minimum Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous recherchons un.e logiciel embarqué pour rejoindre notre équipe chez notre client. 💻💼 Votre mission : Vous participerez au développement d’un logiciel pour un produit optronique en environnement Agile. Vous serez impliqué dans toutes les phases, de l’analyse de code à la rédaction de documentation. Voici un aperçu détaillé de vos missions 🎯 : - Développer des logiciels optroniques : Vous interviendrez sur le développement de logiciels pour des produits optroniques en suivant des sprints agiles, organisés avec JIRA. Chaque sprint vous permettra de bien maîtriser votre charge de travail. - Rédiger la documentation : La rédaction et le suivi de la documentation logicielle feront également partie de vos responsabilités, toujours sous l’outil JIRA. - Analyse COTS & OSS : Vous serez amené(e) à réaliser des analyses approfondies sur les composants COTS (Commercial Off-The-Shelf) et OSS (Open Source Software), en prenant en compte les licences et le contrôle des exportations. - Analyse de code : Vous réaliserez également des analyses techniques poussées du code.
Mission freelance
Data Engineer Lille (profil local et expérimenté)
L'équipe DCF (Data Component and Framework) est une équipe transverse dont l'objectif est de construire un socle technique et des outils permettant à chaque Business Unit local ou international de mettre en place en autonomie ses Uses cases Data. Environnement technique : • Stockage : Google Cloud Storage • Base de données : BigQuery, Datastore, Firestore, MongoDB • Monitoring : Stackdriver • Ordonnanceur : Airflow puis Google Cloud Composer • Compute: Cloud Function, Compute engine • API: App Engine, Cloud run, FastAPI • Déploiement : Terraform, Pulumi • Versioning : Git • Langage: Python, Shell • CICD : Cloud build, Github Action
Offre d'emploi
Developpeur backend
Au sein d'une société à taille humaine dans le secteur des médias, vous interviendrez sur l'ensemble de leurs médias (3). Vos missions seront les suivantes: Développeur du code propre, efficace et réutilisable sur des projets web Faire des tests unitaires et d'intégration pour garantir la qualité du code, les améliorer et en ajouter si besoin Contribuer à la mutualisation du code entre les médias sur la partie front et back Assurer la maintenance et la mise à jours des 3 médias Migrer le front end de Nuxjs à HTMX ( partie frontend actuellement externalisée), cela représentera moins de 30% du poste. Etre en lien direct avec les équipes produit pour concevoir et implémenter de nouvelles fonctionnalités. Avoir une vue d'ensemble sur toute la chaîne, rédiger les specs...
Offre d'emploi
Développeur Python Craft CI/CD
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : La prestation consiste à contribuer à/au(x) : Développements d'API REST en Python 3 (Flask) Backend L'Approche "fail fast and iterative" Delivery Scrum Testing automatique Software Craftsmanship L'intégration et le déploiement continu de types CI/CD L’utilisation d’outils de gestion de code source et de gestion de la configuration Gestion de la dette technique L'intégration et le développement d'une stratégie de tests (unitaire, intégration, performance ...)
Mission freelance
Teach Lead Data Scientist / IA
Description du Projet : Au sein de l'équipe AI, rattachée au domaine AI Solutions, vous jouerez un rôle crucial dans la supervision technologique et la scalabilité de deux suites de produits d'intelligence artificielle phares, destinés à l'ensemble de l'écosystème : > ML Solutions : Une solution complète d’outils MLOps offrant différents niveaux de service pour la gestion simplifiée et le déploiement optimisé de modèles d'IA. > GenAI Solutions : gestion et évolution d’une plateforme LLM chatbot interne, développement d'une plateforme de déploiement de chatbots RAG, et développement futur d’une plateforme d’agents. Votre mission en tant que Tech Lead, sera de garantir l'efficacité, et la scalabilité de ces solutions, tout en vous assurant de leur alignement avec la stratégie technologique. L’équipe AI aujourd’hui constituée de 5 personnes est en forte croissance. Vos principales missions : Leadership et Expertise Technique : > Fédérer l'équipe technique : Instaurer un environnement collaboratif et bienveillant, en guidant les développeurs vers les meilleures pratiques (DevOps, CI/CD, tests automatisés). > Garantir la réalisation de la roadmap : Superviser la roadmap produit en collaboration avec les Product Owners, en vous assurant de son adéquation avec la stratégie technologique > Décisions architecturales et sécurité : Prendre des décisions éclairées concernant l'architecture des solutions Excellence Opérationnelle et Innovation : > Maintien en conditions opérationnelles : Assurer la stabilité, la performance et la fiabilité des solutions. > Interopérabilité des technologies : Collaborer étroitement avec les autres Tech Leads de la plateforme. > Mise en place des bonnes pratiques : Promouvoir et implémenter les meilleures pratiques de développement et de DevOps. Collaboration et Amélioration Continue : > Support et assistance utilisateurs : Être à l'écoute des besoins des utilisateurs et leur garantir une expérience optimale. > Participation active aux processus de revue : Contribuer activement aux MOBs, pair reviews et autres mécanismes de collaboration pour améliorer continuellement la qualité du code et des produits. > Conformité au framework Global Ready : Veiller à la conformité des solutions avec les standards du framework technologique, en travaillant en étroite collaboration avec les équipes transverses Tech & Data.
Offre d'emploi
Data Engineer h/f
Missions principales : En tant que Data Engineer, vous serez responsable de la conception, de la construction et de la maintenance des infrastructures de données nécessaires à la collecte, au stockage, à la transformation et à l'analyse des données de l'entreprise. Vous travaillerez en étroite collaboration avec les data scientists, les chefs de projet data et les équipes métiers pour garantir la qualité et la disponibilité des données. Vos missions incluent : Conception et Développement de Pipelines de Données : Concevoir, développer et déployer des pipelines de données pour collecter, traiter et transformer les données provenant de diverses sources (ERP, CRM, IoT, capteurs sur chantiers, etc.) ; Assurer l’ingestion, la transformation et le nettoyage des données dans un Data Lake ou Data Warehouse ; Mettre en place des processus d'automatisation pour garantir des flux de données fiables et sécurisés. Gestion et Maintenance de l’Infrastructure Data : Participer à la mise en place et à la gestion des infrastructures cloud (AWS, Azure, Google Cloud) pour le stockage et le traitement des données ; Assurer la disponibilité et la performance des plateformes de données (bases de données, Data Lake) Surveiller et optimiser les performances des systèmes de stockage et de traitement des données. Qualité et Sécurité des Données : Mettre en œuvre les pratiques de gouvernance des données pour garantir leur qualité, leur conformité (RGPD) et leur sécurité ; Effectuer des contrôles de qualité des données pour détecter et corriger les anomalies ; Collaborer avec les équipes sécurité pour garantir la protection des données sensibles. Support aux équipes Data Science et BI : Travailler en collaboration avec l’équipe data pour préparer les jeux de données nécessaires à la modélisation et à l’analyse ; Optimiser les requêtes et les modèles de données pour faciliter les analyses et la visualisation (ETL/ELT) ; Accompagner les équipes BI dans la conception de tableaux de bord et de rapports à partir des données disponibles. Veille Technologique et Innovation : Rester informé des dernières évolutions technologiques dans le domaine de la data engineering (outils, langages, méthodologies) ; Proposer des solutions innovantes pour améliorer les architectures de données et répondre aux nouveaux besoins métiers ; Participer à des projets de R&D pour explorer de nouvelles approches en matière de stockage et de traitement de données.
Offre d'emploi
Data Engineer
La Prestation s’effectuera au sein de l’équipe « IS Data Factory » d’une vingtaine de personnes composée de : Data Engineer, travaillant majoritaire à l’alimentation du Datawarehouse d’entreprise Data Architect travaillant sur les évolutions de la gestion des données au sein de l’entreprise. Les données sont principalement gérées au sein - D’un datawarehouse d’entreprise organisé autour de plusieurs instances de base de données ORACLE - D’un Datalake s’appuyant sur l’offre cloudera on premise L’équipe est en charge des évolutions, du support et de la maintenance du datawarehouse. Dans ce contexte, la prestation consiste à intervenir sur le POC (Proof of concept) en étroite collaboration avec l’administrateur du Data Lakehouse et à mettre en œuvre et valider l’infrastructure de plateforme de données. Dans ce cadre, le Prestataire contribuera et aura la responsabilité de : Ø POC Developpement : o Conception et développement du POC pour notre Data Lakehouse ouvert en utilisant les dernières technologies (Cloudera, NoSQL, NiFi, Apache Iceberg, DBT, Superset, etc.) pour répondre aux exigences de l’entreprise, Ø L’intégration des données : o Mise en œuvre des pipelines d’ingestion et d’intégration de données à partir de diverses sources tout en s’assurant la qualité et la cohérence des données. Ø Du processus ETL/ELT: o Développement et optimisation des processus ETL/ELT pour soutenir les besoins de data warehousing et d’analyse. Ø L’optimisation de la performance: o Analyse et optimisation de la performance des flux de données et des requêtes. Ø La collaboration : o Travail en étroite collaboration avec l’administrateur du Data Lakehouse pour assurer l’intégration et la fonctionnalité de l’infrastructure du Data Lakehouse. Ø La documentation : o Création et maintenance de documents techniques sur les pipelines de données, o l’architecture o les flux de travail. Ø L’innovation: o Rester à jour avec les technologies émergentes et les meilleures pratiques pour améliorer continuellement la plateforme de données.
Mission freelance
Ingénieur OPS CLOUD
Bonjour, Pour le compte notre client, nous recherchons un ingénieur cloud ops confirmé ou senior. + 5 ans min dans le domaine recherché. L’ingénieur ou administrateur de production devra s’assurer du maintien en condition opérationnelle des applications ou solutions prise en charge par le service (applications ou solutions internes à l’entreprise) Mais aussi la prise en charge des Incidents et la mesure des Indicateurs de qualité et respect des engagements contractuels de service pour son manager. Il intègre une équipe composée essentiellement d’ops RUN ou administrateur de production et sera en relation avec des experts métiers et techniques au sein de l'équipe. Assurer le lien avec entre la prod et les DevOps des projets et CDP + Gérer toutes les phases de la mise en production des applications : + Utiliser et Maintenir le Delivry de l’infrastructure cloud (services IaaS (Infrastructure As A Service), PaaS, …) des projets via Terraform + Configurer les composants applicatifs / services dans les environnements de production + Utiliser les outils de livraisons continues du groupe (usine logicielle PIC/PDC) pour le déploiement des feautures en production + Garantir le bon fonctionnement des applications en production et leurs évolutions. + Gérer la disponibilité, de la sécurité et de l’évolution du socle avec selon les préconisations du schéma directeur et des architectes. + Mettre en œuvre les procédures d’exploitation (sauvegarde, automatisations, etc.) + Etablir les documents techniques (contribution au DAT (Dossier d'Architecture Technique) / DEX) + Superviser les applications avec l’outil de monitoring Groupe DATADOG (assurer l’analyse et la résolution des incidents, établir les rapports d’incidents, mise en place de nouvelles sondes au besoin) ;
Offre d'emploi
Développeur python H/F
Le département assure : • la production des architectures techniques, • l’intégration et l’exploitation des systèmes d’information métiers • la supervision, le pilotage et la sécurité des infrastructures • la mise en oeuvre, l’évolution et le maintien en condition opérationnelle des infrastructures (serveurs, systèmes d’exploitation, logiciels médians, bases de données, …) • le contrôle et l'expertise de ses coûts et leur refacturation. Le département met en place le développement de l' ensemble des services paas (OCP, PCP, RabbitMQ...), garantit l’exploitabilité des présentations mises en oeuvre, expertise des ensembles applicatifs et le planning global de production et assure le support au pilotage. Dans ce cadre la prestation consiste à contribuer à/au(x) : • codage / paramétrage et documentation • l’impulsion dans l’innovation (mise en place de Proof Of Concept), veille technologique, recherche nouvelles techniques • l'optimisation des moyens techniques (monitoring et amélioration de la performance : latence, mémoire, etc.) • la mise en place des tests automatiques • développement des scripts de Release et gestion des outils utilisés lors des releases • Assistance aux bénéficiaires / utilisations / bénéficiaires du projet permettant sa bonne mise en œuvre Livrables attendus Les livrables attendus sont : • Dossiers de spécifications • Dossiers de mise en place • Démonstration : avec critères d’acceptation
Offre d'emploi
Data Engineer (H/F)
En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Conception des solutions nécessitant l’utilisation de technologies cloud & data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données dans le Cloud · Travaille avec différents profils data du groupe (Data Scientist, data engineer, data architect, data analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne
Mission freelance
développeur python (pas data engineer)
Les missions : • Implémenter des data pipelines à travers une collaboration avec les équipes IT • Développement de programmes et services lié à la collecte, à la data quality et aux règles de transformation, en lien avec la couche d’API située dans le DataHub et le moteur de règle. • Implémentation de modèles et développements spécifiques à l’intérieur de la solution éditeur. • Collaborer étroitement avec les Data Engineers/Data Scientists pour surveiller et ré-entraîner les modèles d'IA utilisés pour la détection de la criminalité financière. Apporter son expertise sur les données. • Participer à l'industrialisation des algorithmes, au développement et à l'optimisation de l'architecture du pipeline de données. • Tester les solutions d'éditeurs, préparer des documents techniques et des scénarios de tests techniques. • Comptable de la solution technique de l’ensemble des développements spécifiques (côté pipelines et côté modèles) L'essentiel de la mission se déroulera en Anglais.
Offre d'emploi
Développeur python azure H/F
1 - Contexte et objectifs de la prestation Le Bénéficiaire souhaite améliorer la qualtié de la gestion de ses systèmes informatiques. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes d'Administration base de données. Dans ce cadre, la Prestation consiste à contribuer à/au(x) : Aide à la construction d’une solution de création de bases de données dans le cloud public (Azure et eventuellement AWS) : SQL Server et/ou PostgreSQL 2 - Livrables attendus Les livrables attendus sont : • Analyse de l'architecture Azure et de son implementation au sein de la Cloud Platform interne SG. • Livraison de code python autour des features AZURE. • Maintien en condition opérationnel de la solution interne de "Managed Databases" : pour fournir des outils à des clients internes SG pour utiliser des bases de données du Cloud Public • Rédaction de documentations techniques : features Azure proposées, intégration dans l'écosystème SG, outil d'inventaire.
Mission freelance
DevSecOps H/F
Notre client dans le secteur de l'énergie recherche un/une DevSecOps H/F Description de la mission: Le client est un acteur majeur du secteur de l'énergie. La ressource recherchée sera intégrée au service Outillage et Accompagnement DevSecOps du département Cyber Factory. Elle sera amenée à interagir avec les équipes de développement et d’intégration des outils de scan de vulnérabilité, à titre de retour d’expérience sur l’outillage, et avec les équipes de construction de la démarche DevSecOps afin d’identifier de nouvelles fonctionnalités et offres de service. Responsabilités : -Accompagnement des équipes de développement pour le raccordement de leur chaîne CI/CD aux différents scanners de sécurité. -Accompagnement des équipes de développement pour l’analyse de leurs rapports de scan, assistance à la remédiation des vulnérabilités et à l’identification des faux-positifs. - Participation à l’évolution de l’offre de services : retours d’expérience sur les scanners exploités à date, benchmark de nouveaux scanners à intégrer au portfolio. - Participation à la rédaction et mise à jour des procédures internes du service. - Participation à la rédaction et mise à jour de la documentation pour les utilisateurs. Maîtrise des référentiels de sécurité : OWASP Top 10, SANS CWE Top 25, MITRE ATT&CK, MITRE DEFEND et CIS Benchmarks. - Guides et référentiels de bonnes pratiques de l'ANSSI. - Référentiels réglementaires NIS, LPM, RGPD, etc. - Référentiels de sécurité lié au cloud (SecNumCloud, Cloud Security Alliance, NIST, …). Maîtrise de Java et/ou PHP Compétences / Qualités indispensables : Maîtrise de Java et/ou PHP, OWASP, DESECOPS Informations concernant le télétravail : 2 jours de télétravail par semaine
Mission freelance
Expert Data (H/F) - 94+95+Remote
L'enjeu de ce chantier consiste en un dé-silotage des données d'application pour construire une vision business 360 unifiée (une couche de données qualifiées, consolidées, homogénéisées et complètes pour exploitation) à travers une gestion de la qualité et de la cohérence des données Prestation Les expressions de besoin, fiche usage, fiche solution, et fiche budget, note de cadrage, cadrage des démarches, dossiers projet, comités de suivi, plan d’actions, documentation, CR, … relatif à son activité Les éléments de suivi des avancements, du planning, capacité à faire, plan d'action, budgets, difficultés, risques, … Les coaching, coordination, planification, optimisation, priorisation, animation, gouvernance Les conseils, propositions, pilotage Livrables associés EB d'ingestion (plusieurs sources/applications/tables) SFD (Spécification fonctionnelle détaillée) EB module d'ingestion industriel EB outil de supervision EB contrat de service EB environnement pour exploitation *Support/Présentation pour pilotage
Mission freelance
Ingénieur Systèmes Linux DevOps
Nous recherchons un Ingénieur Systèmes Linux DevOps Contrainte forte du projet- Compétences techniques: Web (tomcat, apache) - Confirmé - Impératif Linux - Confirmé - Impératif Ansible - Confirmé - Impératif Description des prestations : - Développement de scripts Shell, python et Ansible - Migration d’OS, containerisation - Migration de serveurs LPAR vers un nouveau serveur physique. - Administration des systèmes (Debian, CentOS, Alma), composants middleware (Tomcat, Apache…) et des applications hébergées - Automatisation des montées de version applicatives hébergées - Dimension relationnelle avec le service exploitation et le service Etudes. Expertise souhaitée Expérience et compétence requises : - Expertise scripting shell, python, ansible (expérience significative) - Expertise containerisation Docker - Culture DevOps prépondérante - Expertise dans l’administration Linux (différentes suites) - Expérience sur un poste similaire pendant au moins 5 ans Qualifications requises : - Bac + 5 ou Bac + 3ans (avec forte expérience)
Mission freelance
Ingénieur Python Fast API / Vue
Ingénieur Python Fast API / Vue le candidat devra aider à monter la filière Python permettant d'industrialiser de reprendre en maintenance des applications existantes, aider à les intégrer à notre chaîne DevOps, effectuer un audit de code, et réécrire les fronts avec nos normes d'architectures quand le front a été développé en Python Connaissances obligatoires Python, FastAPI, technologies front Vue ou Angular, et DevOps Compétences demandées : Python Expert Fastapi Expert Vue Expert 340 e par jour
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.