АНАЛІЗ КОНКУРЕНТНИХ АТАК НА МОДЕЛІ МАШИННОГО НАВЧАННЯ СИСТЕМ КІБЕРЗАХИСТУ

Автор(и)

DOI:

https://doi.org/10.58254/viti.4.2023.09.100

Ключові слова:

штучний інтелект, машинне навчання, глибоке навчання, конкурентне машинне навчання, конкурентні атаки, шкідливе програмне забезпечення, кібератаки, кіберзахист, кібербезпека

Анотація

Сучасні тенденції розвитку систем кіберзахисту пов’язані з широким застосуванням технологій машинного навчання для виявлення і запобігання кіберзагрозам. Водночас зловмисники шукають способи ухилення від детектування такими системами, використовуючи при цьому як традиційні методи атак, так і нові, орієнтовані виключно на протидію штучному інтелекту, – конкурентні атаки. Тому пошук шляхів протидії конкурентним атакам є актуальним науково-технічним завданням. Для їх вивчення використовують конкурентне машинне навчання (Adversarial Machine Learning – AML), яке полягає у моделюванні таких атак.

Метою досліджень є визначення шляхів підвищення стійкості систем кіберзахисту, що функціонують із використанням технологій машинного навчання, до впливу атак на основі AML-моделей.

У статті наведено приклади застосування методів машинного навчання в системах кіберзахисту. Проведено опис моделей конкурентних атах, а саме: моделі ухилення, отруєння, функціонального вилучення, інверсії та моделі атаки на приналежність. Розглянуто можливі сценарії їхнього здійснення. Проаналізовано приклади конкурентних атак на моделі машинного навчання для розпізнавання зображень та текстових повідомлень, виявлення алгоритмів генерації доменних імен, шкідливого програмного забезпечення в
HTTP-трафіку, шкідливого вмісту в електронних листах, обходу антивірусних програмних засобів.

Дослідження показали, що навіть не маючи доступу до алгоритмів роботи моделей машинного навчання, можливо реалізувати обхід системи кіберзахисту. Тому для забезпечення безпеки мереж і послуг засобами кіберзахисту зі штучним інтелектом необхідно враховувати необхідність протидії конкурентним атакам. Із цією метою запропоновано: здійснювати збирання та агрегацію навчальних даних для кожної моделі машинного навчання окремо, а не отримання їх із загально-доступних джерел; проводити оптимізацію вмісту журналів подій, з урахуванням можливості використання інформації, що знаходиться в них для створення конкурентних атак; забезпечувати захист навчальних даних та алгоритмів функціонування моделей; у випадку розгортання систем кіберзахисту на об’єктах критичної інфраструктури використовувати спеціально розроблені моделі машинного навчання, яких немає в загальному доступі, що ускладнить можливість створення атаки функціонального вилучення.

Посилання

 Al-Omari M., Rawashdeh M., Qutaishat F., Alshira’H M., Ababneh N. An intelligent tree-based intrusion detection model for cyber security // Journal of Network and Systems Management. 2021. Vol. 29 (2). P. 1–18. DOI: 10.1007/s10922-021-09591-y.

2. Xin, Yang & Kong, Lingshuang & Liu, Zhi & Chen, Yuling & Li, Yanmiao & Zhu, Hongliang & Mingcheng, Gao & Hou, Haixia & Wang, Chunhua. Machine Learning and Deep Learning Methods for Cybersecurity. IEEE Access. 2018. P. 1-1. URL: https://www.researchgate.net/publication/
325159145_Machine_ Learning_and_Deep_Learning_Methods_for_Cybersecurity.

3. Heinrich, Kai & Graf, Johannes & Chen, Ji & Laurisch, Jakob & Zschech, Patrick. Fool me Once, Shame on you, Fool me Twice, Shame on me: A Taxonomy of Attack and Defense Patterns for AI Security. 2020. URL: https://www.researchgate.net/publication/341180631_Fool_me_Once_Shame_on_you_ Fool_me_Twice_Shame_on_me_A_Taxonomy_of_Attack_and_Defense_Patterns_for_AI_Security.

4. NIST AI 100-2e2023 ipd. Adversarial Machine Learning. A Taxonomy and Terminology of Attacks and Mitigations. URL: https://nvlpubs.nist.gov/nistpubs/ai/NIST.AI.100-2e2023.ipd.pdf.

5. Kianpour, Mazaher & Wen, Shao-Fang. Timing Attacks on Machine Learning: State of the Art. 2020. URL: https://www.researchgate.net/publication/335382520_Timing_Attacks_on_Machine_Learning_State_of_the_Art.

6. P. I. Radoglou-Grammatikis and P. G. Sarigiannidis. An Anomaly-Based Intrusion Detection System for the Smart Grid Based on CART Decision Tree // 2018 Global Information Infrastructure and Networking Symposium (GIIS), Thessaloniki, Greece, 2018. P. 1–5. DOI: 10.1109/GIIS.2018.8635743.

7. Moorthy R. S., Pabitha P. Optimal detection of phising attack using SCA based K-NN // Procedia Computer Science. 2020. Vol. 171. P. 1716–1725.

8. S.-Y. Lee, S.-r. Wi, E. Seo, J.-K. Jung and T.-M. Chungю ProFiOt: Abnormal Behavior Profiling (ABP) of IoT devices based on a machine learning approach // 27th International Telecommunication Networks and Applications Conference (ITNAC), Melbourne, VIC, Australia, 2017. Р. 1–6. DOI: 10.1109/ATNAC.2017.8215434.

9. Swarnkar M., Hubballi N. OCPAD: One class Naive Bayes classifier for payload based anomaly detection // Expert Syst. Appl. Oct. 2016. Vol. 64. P. 330–339.

10. R. Bapat et al. Identifying malicious botnet traffic using logistic regression // Systems and Information Engineering Design Symposium (SIEDS), Charlottesville, VA, USA, 2018. P. 266–271. DOI: 10.1109/SIEDS.2018.8374749.

11. Katja Auernhammer, Ramin Tavakoli Kolagari, and Markus Zoppelt. Attacks on Machine Learning: Lurking Danger for Accountability. AAAI 2019. URL: https://www.researchgate.net/publication/
330737530_Attacks_on_Machine_Learning_Lurking_Danger_for_Accountability.

12. S. Herpig. Securing artificial intelligence – Part 1: The attack surface of machine learning and its implications. Think Tank at the Intersection of Technology and Society, Stiftung Neue Verantwortung, Berlin, Oct. 2019. [Online]. URL: https://www.stiftung-nv.de/sites/default/files/securing_artificial_intelligence.pdf.

13. ATLAS Matrix. URL: https://atlas.mitre.org/matrices/ATLAS/.

14. Adversarial Machine Learning. URL: https://atlas.mitre.org/resources/adversarial-ml-101/.

15. Goodfellow, Ian & Shlens, Jonathon & Szegedy, Christian. (2014). Explaining and Harnessing Adversarial Examples. arXiv 1412.6572. URL: https://www.researchgate.net/publication/269935591_ Explaining_and_Harnessing_Adversarial_Examples.

16. Peter Lee. Learning from Tay’s introduction // Microsoft. 2016. URL: https://blogs.microsoft.com/
blog/2016/03/25/learning-tays-introduction/.

17. Le, Hung & Pham, Quang & Sahoo, Doyen & Hoi, Steven. URLNet: Learning a URL Representation with Deep Learning for Malicious URL Detection (2018). URL: https://www.researchgate.net/
publication/323118482_URLNet_Learning_a_URL_Representation_with_Deep_Learning_for_Malicious_URL_Detection.

18. Evasion of Deep Learning Detector for Malware C&C Traffic. Actor: Palo Alto Networks AI Research Team. Incident Date: 2020.

19. Botnet Domain Generation Algorithm (DGA) Detection Evasion. Actor: Palo Alto Networks AI Research Team. Incident Date: 2020. URL: https://atlas.mitre.org/studies/AML.CS0001.

20. B. Yu, J. Pan, J. Hu, A. Nascimento and M. De Cock. Character Level based Detection of DGA Domain Names, 2018 International Joint Conference on Neural Networks (IJCNN), Rio de Janeiro, Brazil, 2018, pp. 1–8. URL: https://ieeexplore.ieee.org/document/8489147.

21. VirusTotal Poisoning. Incident Date: 2020. URL: https://atlas.mitre.org/studies/AML.CS0002.

22. Metame: metamorphic code engine for arbitrary executables. URL: https://github.com/
a0rtega/metame.

23. Bypassing Cylance's AI Malware Detection. Actor: Skylight Cyber. 2019. URL: https://skylightcyber.com/2019/07/18/cylance-i-kill-you/.

24. CVE-2019-20634 Detail. National Vulnerability Database. 2022. URL: https://nvd.nist.gov/
vuln/detail/CVE-2019-20634.

MITIT_4_9

##submission.downloads##

Опубліковано

2023-12-21