Значения Шепли — важная концепция для интерпретации алгоритмов машинного и глубинного обучения. О кратком введении мы говорили в предыдущем посте.
📈 По определению значения Шепли вычисляются по оценке вклада признака во все возможные "коалиции" (подмножества признаков)..
…и если у нас N признаков, нам необходимо перебрать 2^N комбинаций для оценки вклада каждого признака полностью!
Во избежание долгих вычислений, примеряется аппроксимация.
📉 Отсюда возникают вопросы:
- достаточно ли такого весьма грубого вычисления (особенно, если у нас картинка, которую хотелось бы оценить максимально детально)?
- насколько значения Шепли далеки от случайности и основаны на данных?
Читайте в материале автора нашего курса по Explainable AI на Хабре:
P.S Остаёмся на связи и мы продолжаем улучшать и структурировать наши курсы!
Впереди новые анонсы, открытые семинары, и мы рады, что вы остаетесь с нами!
Всегда ваша,
Команда AI Education!