Поддержать программу

Байесовские методы: как выбрать подходящий алгоритм прогнозирования для определенной задачи?

Специалист по Computer Science Евгений Бурнаев о точности алгоритмов прогнозирования и колмогоровской сложности
395
0
Купите подписку, чтобы посмотреть полную версию.
Скидка 34%
3 800 / год
4 800
Скидка 11%
1 280 / 3 мес
1 440
Базовая подписка
480 / месяц
Уже подписчик? Войти Купить подписку

Комментирование доступно только подписчикам.
Оформить подписку
Расписание
Следующий выпуск
26 августа 16:00
понедельник: 01:00
вторник: 11:00
четверг: 11:00
суббота: 16:00
воскресенье: 01:00

Вместе со Сколковским институтом науки и технологий ПостНаука сняла курс «Машинное обучение», посвященный математическому моделированию и методам машинного обучения. В этой лекции преподаватель магистерской программы «Наука о данных» Сколтеха Евгений Бурнаев рассказывает о преимуществах использования байесовских методов.

 «Больше лекций и видеороликов смотрите на сайте проекта «ПостНаука»

В данной лекции я расскажу о том, каким образом идеи Томаса Байеса, английского математика и священника XVIII века, а также идеи Уильяма Оккама, английского монаха и философа XIV века, оказали огромное влияние на современную науку в XXI веке и легли в основу так называемых байесовских методов машинного обучения. Но давайте обо всем по порядку, сначала введем некоторые определения.

Машинное обучение — это математическая дисциплина, в рамках которой ищутся закономерности в эмпирических данных. На основе закономерностей, выявленных в эмпирических данных, потом можно строить прогнозы. Под данными подразумевается множество объектов, где каждый объект характеризуется своим признаковым описанием. Каждому объекту поставлено в соответствие некоторое выходное значение, которое обычно тоже представимо в виде вектора некоторых характеристик. Например, объект — это фотография, есть какие-то признаки, которые характеризуют эту фотографию, а выходное значение или метка — это какие-то классы предметов, которые на фотографии изображены.

Существует некоторая зависимость между объектом, то есть его признаковым описанием, и соответствующей выходной характеристикой, однако эта зависимость неизвестна. Единственное, что известно, ― это множество прецедентов, то есть пар «признаковое описание объекта и соответствующее значение выходной характеристики». По этому множеству, которое также называется обучающей выборкой, необходимо построить алгоритм прогнозирования или, как говорят, выбрать гипотезу так, чтобы мы могли для нового объекта из того же класса с хорошей точностью прогнозировать его выходные характеристики.

Фото: DepositPhotos

Полная версия доступна только подписчикам. Подпишитесь: