Cybernetics Wiki
Advertisement

AdaBoost (сокращение от Adaptive Boosting) — алгоритм машинного обучения, сформулированный Йоавом Фройндом (en:Yoav Freund) и Робертом Шапиром (en:Robert Schapire). Этот алгоритм может использоваться в сочетании со многими другими алгоритмами обучения для улучшения их эффективности. AdaBoost является адаптивным в том смысле, что каждый следующий классификатор строится по объектам, неверно классифицированным предыдущими классификаторами. AdaBoost чувствителен к шуму в данных и выбросам. Однако он менее подвержен переобучению, чем многие другие алгоритмы обучения.

AdaBoost вызывает слабый классификатор в цикле . После каждого вызова обновляется распределение весов , которые отвечают важности каждого из объектов обучающего множества для классификации. На каждой итерации веса каждого неверно классифицированного объекта возрастают (или аналогично, вес каждого корректно классифицированного объекта уменьшается), таким образом новый классификатор «фокусирует своё внимание» на этих объектах.

Алгоритм для задачи построения бинарного классификатора[]

Дано: где

Инициализируем

Для каждого :

  • Находим классификатор который минимизирует взвешенную ошибку классификации:
    , где
  • Если величина , то останавливаемся.
  • Выбираем , обычно где взвешенная ошибка классификатора .
  • Обновляем:


где является нормализующим параметром (выбранным так, чтобы являлось распределением вероятностей, то есть ).

Строим результирующий классификатор:

Выражение для обновления распределения должно быть сконструировано таким образом, чтобы выполнялось условие:

Таким образом, после выбора оптимального классификатора для распределения , объекты , которые классификатор идентифицирует корректно, имеют веса меньшие, чем те, которые идентифицируются некорректно. Следовательно, когда алгоритм тестирует классификаторы на распределении , он будет выбирать классификатор, который лучше идентифицирует объекты неверно распознаваемые предыдущим классификатором.

Ссылки[]

Презентация, посвящённая Adaboost.
Введение в Adaboost, Freund и Schapire, 1999
(Оригинальная работа Yoav Freund и Robert E.Schapire, где впервые был предложен Adaboost.)


Учебник, дающий общее представление об AdaBoost, включая псевдокод, схемы алгоритмов, вопросы реализации и других алгоритмах распознавания образов.


Обсуждаются вероятностные аспекты AdaBoost, описывается GentleBoost.
Advertisement