Le Machine Learning confronté aux contraintes opérationnelles des systèmes de détection

Conference object French OPEN
Beaugnon , Anaël ; Husson , Antoine (2017)
  • Publisher: HAL CCSD
  • Subject: [ INFO.INFO-LG ] Computer Science [cs]/Machine Learning [cs.LG] | [ INFO.INFO-CR ] Computer Science [cs]/Cryptography and Security [cs.CR] | [ INFO.INFO-AI ] Computer Science [cs]/Artificial Intelligence [cs.AI]

International audience; Les systèmes de détection d’intrusion, reposant traditionnellementsur des signatures, n’ont pas échappé à l’attrait récent des techniquesde Machine Learning. Si les résultats présentés dans les articles de rechercheacadémique sont souvent excellents, les experts en sécurité ontcependant encore de nombreuses réticences concernant l’utilisation duMachine Learning dans les systèmes de détection d’intrusion. Ils redoutentgénéralement une inadéquation de ces techniques aux contraintes opérationnelles,notamment à cause d’un niveau d’expertise requis important,ou d’un grand nombre de faux positifs.Dans cet article, nous montrons que le Machine Learning peut êtrecompatible avec les contraintes opérationnelles des systèmes de détection.Nous expliquons comment construire un modèle de détection et présentonsde bonnes pratiques pour le valider avant sa mise en production. Laméthodologie est illustrée par un cas d’étude sur la détection de fichiersPDF malveillants et nous proposons un outil libre, SecuML, pour lamettre en oeuvre.
  • References (24)
    24 references, page 1 of 3

    1. Saleema Amershi, Max Chickering, Steven M Drucker, Bongshin Lee, Patrice Simard, and Jina Suh. Modeltracker : Redesigning performance analysis tools for machine learning. In Proceedings of the 33rd Annual ACM Conference on Human Factors in Computing Systems, pages 337-346. ACM, 2015.

    2. Manos Antonakakis, Roberto Perdisci, Yacin Nadji, Nikolaos Vasiloglou, Saeed Abu-Nimeh, Wenke Lee, and David Dagon. From throw-away traffic to bots : detecting the rise of DGA-based malware. In USENIX Security, pages 491-506, 2012.

    3. Leyla Bilge, Davide Balzarotti, William Robertson, Engin Kirda, and Christopher Kruegel. Disclosure : detecting botnet command and control servers through large-scale netflow analysis. In ACSAC, pages 129-138, 2012.

    4. Dong Chen, Rachel KE Bellamy, Peter K Malkin, and Thomas Erickson. Diagnostic visualization for non-expert machine learning practitioners : A design study. In Visual Languages and Human-Centric Computing (VL/HCC), 2016 IEEE Symposium on, pages 87-95. IEEE, 2016.

    5. Mihai Christodorescu and Somesh Jha. Testing malware detectors. ACM SIGSOFT Software Engineering Notes, 29(4) :34-44, 2004.

    6. Igino Corona, Davide Maiorca, Davide Ariu, and Giorgio Giacinto. Lux0r : Detection of malicious pdf-embedded javascript code through discriminant analysis of api references. In AISEC, pages 47-57, 2014.

    7. Dorothy E Denning. An intrusion-detection model. IEEE Transactions on software engineering, (2) :222-232, 1987.

    8. Ian Goodfellow, Yoshua Bengio, and Aaron Courville. Deep Learning. MIT Press, 2016. http://www.deeplearningbook.org.

    9. James A Hanley and Barbara J McNeil. The meaning and use of the area under a receiver operating characteristic (ROC) curve. Radiology, 143(1) :29-36, 1982.

    10. Ashish Kapoor, Bongshin Lee, Desney Tan, and Eric Horvitz. Interactive optimization for steering machine classification. In Proceedings of the SIGCHI Conference on Human Factors in Computing Systems, pages 1343-1352. ACM, 2010.

  • Software (1)
  • Metrics
    No metrics available
Share - Bookmark