Глубокое обучение 2025

Это курс о глубоком обучении, представленный на Факультете математики и компьютерных наук Санкт-Петербургского государственного университета осенью 2025 года.

Свёрточные сети I: мотивация, идеи, основные архитектуры thumbnail
1

Свёрточные сети I: мотивация, идеи, основные архитектуры

4 сентября 2025 г.

Свёрточные сети: биологическая мотивация, основные идеи, LeNet и экономия весов, AlexNet и аугментация данных, интерпретация признаков.

Свёрточные архитектуры, состязательные примеры thumbnail
2

Свёрточные архитектуры, состязательные примеры

11 сентября 2025 г.

Архитектурные идеи свёрточных сетей: VGG, Inception, остаточные связи, bottlenecks и split-transform-merge, EfficientNet. Состязательные примеры и состязательная аугментация.

Распознавание объектов thumbnail
3

Распознавание объектов

18 сентября 2025 г.

Постановка задачи и сложности с её формализацией, семейство R-CNN, R-FCN, YOLO, YOLOv2

Распознавание признаков и сегментация thumbnail
4

Распознавание признаков и сегментация

25 сентября 2025 г.

Проблема с масштабом в распознавании объектов. Пирамиды признаков: FPN, RetinaNet, EfficientDet. Введение в сегментацию. Semantic segmentation: от FCN до U-Net и его вариантов. Instance segmentation: DeepMask, Mask R-CNN

Состязательные примеры, механизмы внимания thumbnail
5

Состязательные примеры, механизмы внимания

2 октября 2025 г.

Состязательные примеры. Напоминание о рекуррентных сетях. Что такое внимание. Ранние механизмы внимания, рекуррентное внимание. Encoder-decoder with attention.

Самовнимание и архитектура трансформера thumbnail
6

Самовнимание и архитектура трансформера

9 октября 2025 г.

Трансформер как encoder-decoder архитектура. Слой самовнимания (self-attention) по идее информационного поиска; masked self-attention и encoder-decoder attention в декодере. Токенизация и byte-pair encoding. Позиционные вложения. Преимущества и недостатки трансформеров.