Графические вероятностные модели 2025
Это курс о вероятностных моделях, алгоритмах приближённого байесовского вывода и обучении с подкреплением, представленный на Факультете математики и компьютерных наук Санкт-Петербургского государственного университета весной 2025 года.

Деревья, бустинг, XGBoost
Деревья, бустинг, XGBoost
[2 лекции] Деревья принятия решений. Методы объединения моделей. Бустинг: AdaBoost, градиентный бустинг, XGBoost.

SVM, kernel trick, RVM
SVM, kernel trick, RVM
[2 лекции] Метод опорных векторов: задачи оптимизации, их эквивалентность, идея ядер. Эквивалентное ядро в линейной регрессии и ядерные методы. Метод релевантных векторов: идея и примеры.

Кластеризация и EM-алгоритм
Кластеризация и EM-алгоритм
[2 лекции] Кластеризация: постановка задачи, иерархическая кластеризация, DBSCAN и OPTICS. EM-алгоритм для кластеризации, идея, вывод в общем виде.

Обобщения и примеры применения EM-алгоритма
Обобщения и примеры применения EM-алгоритма
[2 лекции] Расширения и обобщения EM-алгоритма. Модели Брэдли-Терри. EM для presence-only data, проспективные и ретроспективные исследования. Рейтинг спортивного ЧГК.

Скрытые марковские модели
Скрытые марковские модели
[2 лекции] Скрытые марковские модели: постановка задач, подсчёт p(D|θ), алгоритм Витерби, алгоритм Баума-Уэлша, расширения и применение к распознаванию речи. Направленные графические модели: определения, d-разделимость.

Графические вероятностные модели
Графические вероятностные модели
[2 лекции] Графические вероятностные модели. Алгоритм передачи сообщений. Сэмплирование в машинном обучении: выборка с отклонением, выборка с весами значимости.

MCMC-сэмплирование, SIR-модели
MCMC-сэмплирование, SIR-модели
[2 лекции] MCMC-сэмплирование: алгоритм Метрополиса-Гастингса, сэмплирование по Гиббсу, slice sampling. Развёрнутый пример: SIR-модели в эпидемиологии.

Вариационные приближения
Вариационные приближения
[2 лекции] Вариационные приближения: идея, вывод, простые примеры, вариационное приближение для смеси гауссианов.

От наивного Байеса до тематических моделей
От наивного Байеса до тематических моделей
[2 лекции] От наивного Байеса к тематическим моделям. Тематическое моделирование: pLSI, ARTM, суть модели LDA. Вариационный вывод в LDA: начало.

Байесовский вывод в LDA, Expectation Propagation
Байесовский вывод в LDA, Expectation Propagation
[2 лекции] Вариационный вывод в LDA. Сэмплирование по Гиббсу в LDA. Expectation Propagation и модель TrueSkill.

Введение в RL, многорукие бандиты
Введение в RL, многорукие бандиты
[2 лекции] Введение в обучение с подкреплением. Многорукие бандиты. Марковские процессы принятия решений: уравнения Беллмана, теорема об улучшении стратегий.

Методы Монте-Карло и TD-обучение в RL
Методы Монте-Карло и TD-обучение в RL
[2 лекции] Обучение с подкреплением: методы Монте-Карло и TD-обучение.

Градиент по стратегиям, планирование и MCTS, DQN и AlphaZero
Градиент по стратегиям, планирование и MCTS, DQN и AlphaZero
[2 лекции] Обучение с подкреплением II: градиент по стратегиям, REINFORCE, actor-critic алгоритмы, TRPO, PPO и GRPO. Планирование: Dyna и обход по приоритетам. Test-time planning: rollouts и MCTS. Развитие DQN. AlphaGo, AlphaZero и MuZero.

Введение в нейронные сети
Введение в нейронные сети
[2 лекции] Введение в нейронные сети: мотивация, история, определения. Функции активации. Обратное распространение ошибки. Градиентный спуск и стохастический градиентный спуск. Адаптивные варианты SGD.

Дропаут, инициализация весов, batchnorm, RNN и LSTM/GRU
Дропаут, инициализация весов, batchnorm, RNN и LSTM/GRU
[2 лекции] Общие сюжеты DL: дропаут, инициализация весов, нормализация по мини-батчам. Рекуррентные нейронные сети: идея, взрывающиеся и затухающие градиенты, LSTM, GRU и другие идеи.