ІНТЕРПРЕТАЦІЯ РІШЕНЬ ШТУЧНОГО ІНТЕЛЕКТУ: ЯК ЗАБЕЗПЕЧИТИ ПРОЗОРІСТЬ ТА ЗРОЗУМІЛІСТЬ ДЛЯ КІНЦЕВИХ КОРИСТУВАЧІВ

Автор(и)

DOI:

https://doi.org/10.31891/2219-9365-2024-79-27

Ключові слова:

штучний інтелект, інтерпретованість, прозорість, пояснювальні моделі, LIME, SHAP, візуалізація, довіра, кінцевий користувач, пояснення рішень

Анотація

У статті розглянуто проблеми інтерпретації та прозорості рішень систем штучного інтелекту (ШІ), що набувають критичного значення у сферах із високою відповідальністю, таких як медицина, фінанси, правосуддя та управління ризиками. З огляду на складність алгоритмів, зокрема нейронних мереж, рішення ШІ часто є непрозорими для кінцевих користувачів, що може знижувати рівень довіри та ускладнювати їх практичне застосування. У статті проаналізовано основні методи пояснення рішень ШІ, зокрема локальні моделі (LIME), глобальні підходи, а також метод SHAP, що базується на теорії ігор. Окрему увагу приділено ролі візуалізації для покращення інтерпретації результатів та доступності моделей для кінцевих користувачів. У статті також обговорюються переваги та обмеження існуючих методів, перспективи їх удосконалення та інтеграції в реальні системи, що дозволить підвищити прозорість, зрозумілість і довіру до алгоритмів ШІ.

##submission.downloads##

Опубліковано

29.08.2024

Як цитувати

СЕРДЮК, Ю. (2024). ІНТЕРПРЕТАЦІЯ РІШЕНЬ ШТУЧНОГО ІНТЕЛЕКТУ: ЯК ЗАБЕЗПЕЧИТИ ПРОЗОРІСТЬ ТА ЗРОЗУМІЛІСТЬ ДЛЯ КІНЦЕВИХ КОРИСТУВАЧІВ. MEASURING AND COMPUTING DEVICES IN TECHNOLOGICAL PROCESSES, (3), 212–216. https://doi.org/10.31891/2219-9365-2024-79-27