ЗАСТОСУВАННЯ ШТУЧНОГО ІНТЕЛЕКТУ ДЛЯ АНАЛІЗУ ФІНАНСОВОЇ БЕЗПЕКИ ПІДПРИЄМСТВА
Анотація
У статті запропоновано та апробовано пояснюваний підхід до прогнозування банкрутства підприємств України на основі сучасних методів штучного інтелекту. Основою моделювання стало 17 фінансово-економічних показників і три цифрові індикатори, що дозволило врахувати не лише традиційні економічні фактори, а й вплив цифрової трансформації на фінансову безпеку компаній. У зв’язку з тим, що більшість сучасних моделей штучного інтелекту є «чорними скриньками», у роботі застосовано інструменти пояснюваного штучного інтелекту (XAI), зокрема оцінювання важливості ознак та графіки часткової залежності (PDP). Ці методи дозволили не лише визначити ключові фактори ризику, які найбільше впливають на ймовірність банкрутства, але й кількісно оцінити напрям та характер їх впливу у всьому діапазоні значень. Такий підхід сприяє кращому розумінню логіки роботи моделі та підвищує її практичну цінність для менеджменту підприємств. У статті також запропоновано інноваційний алгоритм використання великих мовних моделей штучного інтелекту для автоматизованого інтерпретування графіків PDP. Це дає змогу перетворювати складні статистичні залежності у зрозумілі для нефахівців економічні пояснення, що суттєво підвищує доступність аналітики для малих і середніх підприємств з обмеженими аналітичними ресурсами. Результати дослідження підтверджують, що поєднання XGBoost, підходів пояснюваного штучного інтелекту і LLM забезпечує не лише високу точність прогнозування, а й формує інтерпретовані висновки, які можуть бути легко впроваджені на підприємствах. Запропонований підхід сприяє посиленню фінансово-економічної безпеки підприємств та є корисним як для науковців, так і для практиків у сфері ризик-менеджменту й управління бізнесом у сучасних умовах цифрової трансформації.
Посилання
Enhancing Resilience by Boosting Digital Business Transformation in Ukraine. OECD Publishing, 2024. DOI: https://doi.org/10.1787/4b13b0bb-en
Park M. S.. Son H.. Hyun C.. Hwang H. J. Explainability of Machine Learning Models for Bankruptcy Prediction. IEEE Access. 2021, 9. DOI: https://doi.org/10.1109/ACCESS.2021.3110270
Lin Yu‑Cheng, Padliansyah R., Lu Yu‑Hsin. Liu Wen‑Rang. Bankruptcy prediction: Integration of convolutional neural networks and explainable artificial intelligence techniques. International Journal of Accounting Information Systems. 2025. № 56. DOI: https://doi.org/10.1016/j.accinf.2025.100744
Горячев Г.В. Пояснюваний штучний інтелект у підтримці управлінських рішень для великих систем із вимірюваним впливом на KPI підприємства. Таврійський науковий вісник. 2025. № 5 (1). С. 366-375. DOI: https://doi.org/10.32782/tnv-tech.2025.5.1.39
Усік П.С., Смірнова Т.В., Буравченко К.О., Смірнов О.А., Улічев О.С., Смірнов С.А. Дослідження технологій забезпечення кібербезпеки банківських систем з використанням штучного інтелекту. Кібербезпека: освіта, наука, технології. 2025. № 1 (29). С. 704-716. DOI: https://doi.org/10.28925/2663-4023.2025.29.930
Біличенко М.М. Оцінка фінансової безпеки підприємства методами машинного навчання. Цифрова економіка та економічна безпека. 2024. № 4 (13). С. 101-107. DOI: https://doi.org/10.32782/dees.13-15
Hamdi M., Mestiri S., Arbi A. Artificial Intelligence Techniques for Bankruptcy Prediction of Tunisian Companies: An Application of Machine Learning and Deep Learning‑Based Models. Journal of Risk and Financial Management. 2024. Vol. 17 (4). DOI: https://doi.org/10.3390/jrfm17040132
Knab, P.; Marton, S.; Schlegel, U.; Bartelt, C. Which LIME Should I Trust? Concepts, Challenges, and Solutions. Explainable Artificial Intelligence Communications in Computer and Information Science. 2025. 2577. P. 28-52. DOI: https://doi.org/10.1007/978-3-032-08324-1_2
Brdnik S., Podgorelec V., Šumak B. Assessing Perceived Trust and Satisfaction with Multiple Explanation Techniques in XAI‑Enhanced Learning Analytics. Electronics. 2023. Vol. 12 (12), 2594. DOI: https://doi.org/10.3390/electronics12122594
Michelucci U. Feature Importance and Selection. Fundamental Mathematical Concepts for Machine Learning in Science. Springer Cham 2024. 249 р. DOI: https://doi.org/10.1007/978-3-031-56431-4_10
Molnar C. Interpretable Machine Learning: A Guide for Making Black Box Models Explainable. URL: https://christophm.github.io/interpretable-ml-book
OECD. (2024). Enhancing resilience by boosting digital business transformation in Ukraine. OECD Publishing. DOI: https://doi.org/10.1787/4b13b0bb-en
Park, M. S., Son, H., Hyun, C., & Hwang, H. J. (2021). Explainability of machine learning models for bankruptcy prediction. IEEE Access, 9. DOI: https://doi.org/10.1109/ACCESS.2021.3110270
Lin, Y.-C., Padliansyah, R., Lu, Y.-H., & Liu, W.-R. (2025). Bankruptcy prediction: Integration of convolutional neural networks and explainable artificial intelligence techniques. International Journal of Accounting Information Systems, 56, 100744. DOI: https://doi.org/10.1016/j.accinf.2025.100744
Horiachev, H. V. (2025). Poiasniuvanyi shtuchnyi intelekt u pidtrymtsi upravlinskykh rishen dlia velykykh system iz vymiriuvanym vplyvom na KPI pidpryiemstva [Explainable artificial intelligence in supporting managerial decision-making for large systems with measurable impact on enterprise KPIs]. Tavriiskyi naukovyi visnyk, 5(1). DOI: https://doi.org/10.32782/tnv-tech.2025.5.1.39
Usik, P. S., Smirnova, T. V., Buravchenko, K. O., Smirnov, O. A., Ulichev, O. S., & Smirnov, S. A. (2025). Doslidzhennia tekhnolohii zabezpechennia kiberbezpeky bankivskykh system z vykorystanniam shtuchnoho intelektu [Research on cybersecurity technologies for banking systems using artificial intelligence]. Kiberbezpeka: osvita, nauka, tekhnolohii, 1(29). DOI: https://doi.org/10.28925/2663-4023.2025.29.930
Bilichenko, M. M. (2024). Otsinka finansovoi bezpeky pidpryiemstva metodamy mashynnoho navchannia [Assessment of enterprise financial security using machine learning methods]. Tsyfrova ekonomika ta ekonomichna bezpeka, 4(13), 101–107. DOI: https://doi.org/10.32782/dees.13-15
Hamdi, M., Mestiri, S., & Arbi, A. (2024). Artificial intelligence techniques for bankruptcy prediction of Tunisian companies: An application of machine learning and deep learning-based models. Journal of Risk and Financial Management, 17(4). DOI: https://doi.org/10.3390/jrfm17040132
Knab, P., Marton, S., Schlegel, U., & Bartelt, C. (2025). Which LIME should I trust? Concepts, challenges, and solutions. In Explainable Artificial Intelligence (Communications in Computer and Information Science, Vol. 2577, pp. 28–52). Springer. DOI: https://doi.org/10.1007/978-3-032-08324-1_2
Brdnik, S., Podgorelec, V., & Šumak, B. (2023). Assessing perceived trust and satisfaction with multiple explanation techniques in XAI-enhanced learning analytics. Electronics, 12(12). DOI: https://doi.org/10.3390/electronics12122594
Michelucci, U. (2024). Feature importance and selection. In Fundamental Mathematical Concepts for Machine Learning in Science (pp. 229–242). Springer. DOI: https://doi.org/10.1007/978-3-031-56431-4_10
Molnar, C. (2025). Interpretable machine learning: A guide for making black box models explainable (3rd ed.). https://christophm.github.io/interpretable-ml-book

