Глубокое обучение 2025
Это курс о глубоком обучении, представленный на Факультете математики и компьютерных наук Санкт-Петербургского государственного университета осенью 2025 года.

Свёрточные сети I: мотивация, идеи, основные архитектуры
4 сентября 2025 г.
Свёрточные сети I: мотивация, идеи, основные архитектуры
4 сентября 2025 г.
Свёрточные сети: биологическая мотивация, основные идеи, LeNet и экономия весов, AlexNet и аугментация данных, интерпретация признаков.

Свёрточные архитектуры, состязательные примеры
11 сентября 2025 г.
Свёрточные архитектуры, состязательные примеры
11 сентября 2025 г.
Архитектурные идеи свёрточных сетей: VGG, Inception, остаточные связи, bottlenecks и split-transform-merge, EfficientNet. Состязательные примеры и состязательная аугментация.

Распознавание объектов
18 сентября 2025 г.
Распознавание объектов
18 сентября 2025 г.
Постановка задачи и сложности с её формализацией, семейство R-CNN, R-FCN, YOLO, YOLOv2

Распознавание признаков и сегментация
25 сентября 2025 г.
Распознавание признаков и сегментация
25 сентября 2025 г.
Проблема с масштабом в распознавании объектов. Пирамиды признаков: FPN, RetinaNet, EfficientDet. Введение в сегментацию. Semantic segmentation: от FCN до U-Net и его вариантов. Instance segmentation: DeepMask, Mask R-CNN

Состязательные примеры, механизмы внимания
2 октября 2025 г.
Состязательные примеры, механизмы внимания
2 октября 2025 г.
Состязательные примеры. Напоминание о рекуррентных сетях. Что такое внимание. Ранние механизмы внимания, рекуррентное внимание. Encoder-decoder with attention.

Самовнимание и архитектура трансформера
9 октября 2025 г.
Самовнимание и архитектура трансформера
9 октября 2025 г.
Трансформер как encoder-decoder архитектура. Слой самовнимания (self-attention) по идее информационного поиска; masked self-attention и encoder-decoder attention в декодере. Токенизация и byte-pair encoding. Позиционные вложения. Преимущества и недостатки трансформеров.