AI-МОДЕЛІ ДЛЯ ПРОГНОЗУВАННЯ ПОВЕДІНКИ КОРИСТУВАЧІВ У ЦИФРОВИХ ЕКОСИСТЕМАХ: ЕТИЧНІ ТА ТЕХНІЧНІ ВИКЛИКИ
DOI:
https://doi.org/10.31891/2219-9365-2025-84-25Ключові слова:
поведінка споживачів, штучний інтелект, нейронна мережа, машинне навчання.Анотація
Дослідження спрямоване на аналіз технічних та етичних викликів, пов’язаних із застосуванням моделей штучного інтелекту для прогнозування поведінки користувачів у цифрових екосистемах. Автор розглядає проблеми якості даних, інтерпретованості, масштабованість алгоритмів, стійкості до атак, а також питання конфіденційності, алгоритмічного упередження, прозорості рішень, відповідальності за прогнози та ризики маніпуляції. Визначено підходи до створення транспарентних, справедливих та захищених прогностичних систем на основі порівняння моделей машинного навчання.
Використано літературний огляд сучасних публікацій з акцентом на технічні методи (машинне навчання, глибинне навчання, методи Монте-Карло, когнітивну аналітику) та етичні аспекти (SWOT-аналіз стратегій впровадження AI, аудит упереджень). Порівняльний аналіз двох моделей: Random Forest (ансамблевий метод з 100 деревами) та Neural Network MLP (архітектура 64-32-16 нейронів). Експерименти проведено на синтетичних даних, що імітують поведінкові патерни, з оцінкою точності, справедливості (метрики Disparate Impact Ratio, Equalized Odds, Equal Opportunity, Statistical Parity), диференційної приватності (ε=1.0) та дрейфу моделі. Застосовано візуалізацію (часові ряди, багатопанельні графіки) та табличний синтез викликів.
Стаття інтегрує технічні та етичні аспекти в єдиний аналіз, квантифікуючи упередження та деградацію моделей у динамічних середовищах. Запропоновано комплексний підхід до мітигації проблем через алгоритмічний аудит, explainable AI, партисипативний дизайн та диференційну приватність, що перевершує фрагментарні дослідження. Виявлено прогалини в існуючих методологіях, зокрема відсутність вбудованих етичних обмежень на рівні дизайну алгоритмів та адаптації до еволюції стандартів.
Random Forest показала точність 65,50% на тестовій вибірці з overfitting (розрив 20-25%), Neural Network – 58,33% з низькою інтерпретативністю. Алгоритмічне упередження підтверджено: Disparate Impact Ratio 0,4858-0,5311 для недопредставлених груп, розбіжності в accuracy (77,08% vs 52,33-55,91%). Деградація моделі: з 65,5% до 42,6% за 12 місяців. Диференційна приватність знижує точність на 3-5%. Таблиця систематизує виклики (упередження, конфіденційність, інтерпретативність) з методами мітигації (аудит, XAI, розподілені обчислення).
AI-моделі ефективні для прогнозування, але потребують балансу між точністю та етикою через упередження, деградацію та непрозорість. Необхідні інтегровані фреймворки з вбудованими етичними принципами, безперервним моніторингом та культурною інклюзивністю. Перспективи: розробка адаптивних архітектур, формальних метрик етичності та міждисциплінарних стандартів для безпечних цифрових систем.
##submission.downloads##
Опубліковано
Як цитувати
Номер
Розділ
Ліцензія
Авторське право (c) 2025 ОЛЕНА ЧЕРНИШОВА , Оксана ШИБКО , МАКСИМ ЖОЛОНДКІВСЬКИЙ

Ця робота ліцензується відповідно до Creative Commons Attribution 4.0 International License.