Блог

“А теперь побей все бенчмарки”: AI-ассистент для учёных на основе MCTS
Я в своих докладах люблю пугать людей тем, что AI уже потихоньку начинает самостоятельно проводить исследования. И вот вышла ещё одна новость в том же направлении, на этот раз от Deepmind (и других подразделений Google Research). Кажется, AI-системы сделали ещё один шаг вверх по лестнице абстракций…

LLM и распознавание бреда
Недавно прошла новость про AI-induced психозы, я в дебатах об ответственности много говорил об этом. LLM, страдающие от подхалимства, могут подтверждать опасный бред людей и запускать всякие неприятные спирали. Но есть и другой, не такой страшный, но важный эффект: LLM делают уже существующий бред сложнее для распознавания. Вот и до меня докатилась эта волна — […]

ICPC, IMC и Максим Туревский
Команда МКН СПбГУ в составе Максима Туревского, Леонида Данилевича и Федора Ушакова (тренер Иван Казменко) победила в финале ICPC 2025, главного в мире соревнования по программированию. Поздравляю! И хочу отметить ещё кое-что…

Дебаты об ответственности
Побывал на “Технодебатах” в новом интересном пространстве, коворкинге Яндекса в ротонде Маяковки. Кажется, была трансляция, надеюсь, будет и запись, а в этом посте попробую выдать свои основные тезисы на заявленную тему: “Должны ли компании, разрабатывающие ИИ, нести ответственность за работу автономных систем (агентов) на основе ИИ?”. Хочу поделиться, потому что тут собрались несколько любопытных кейсов и ссылок.

Hierarchical Reasoning Model: как 27М параметров решают судоку и ARC-AGI
Современные LLM, даже рассуждающие, всё равно очень плохи в алгоритмических задачах. И вот, кажется, намечается прогресс: Hierarchical Reasoning Model (HRM), в которой друг с другом взаимодействуют две рекуррентные сети на двух уровнях, с жалкими 27 миллионами параметров обошла системы в тысячи раз больше на задачах, требующих глубокого логического мышления. Как у неё это получилось, и может ли это совершить новую мини-революцию в AI? Давайте разберёмся…


A Mixed Blessing II: MoE for Images and Video
In this second installment of the MoE series, we venture beyond text to explore how MoE architectures are revolutionizing computer vision, video generation, and multimodal AI. From V-MoE pioneering sparse routing for image classification through DiT-MoE’s efficient diffusion models, CogVideoX’s video synthesis, and Uni-MoE’s five-modality orchestration, to cutting edge research from 2025, we examine how […]

День рождения 2025
Вчера таки отпраздновал день рождения, так что сегодня пост из категории lifestyle. Всем огромное спасибо, что пришли! Кажется, праздник удался, и я знаю, кого за это благодарить.


A Mixed Blessing I: Mixtures of Experts from Committee Machines to LLMs
The world’s most powerful AI models are mostly asleep, just like our brains. Giant trillion-parameter models activate only a tiny fraction of their parameters for any given input, using mixtures of experts (MoE) to route the activations. MoE models began as a clever trick to cheat the scaling laws; by now, they are rapidly turning into the organizing principle of frontier AI models. In this post, we will discuss MoEs in depth, starting from the committee machines of the late 1980s and ending with the latest MoE-based frontier LLMs. We will mostly discuss LLMs and the underlying principles of MoE architectures, leaving vision-based and multimodal mixtures of experts for the second part.

Не выключайте прослушку: CoT и интерпретируемость
В июле 2025 года вышла важная работа о безопасности AI, в которой больше 40 авторов, причём спектр аффилиаций очень широкий: OpenAI, Anthropic, DeepMind, METR, Redwood Research, Meta, UK AI Security Institute, Apollo Research… Среди авторов — легенда глубокого обучения Йошуа Бенджи, основатель Safe Superintelligence Илья Суцкевер, знаменитые “AI-безопасники” Нил Нанда, Анка Драган, Дэн Хендрикс, Виктория Краковна, среди “expert endorsers” — Джеффри Хинтон, Сэм Боумэн, Джон Шульман и Илья Суцкевер… На чём же все они смогли единогласно сойтись?

Mixture-of-Recursions: думаем над токенами рекурсивно и адаптивно
AI-модели растут, “горький урок” и законы масштабирования всё ещё работают, но растущие вычислительные требования становятся всё более неподъёмными даже для гигантов рынка. Один из ключевых вопросов современного AI — как сделать то же самое эффективнее. В этом посте я расскажу о новом подходе, который очень элегантно сочетает сразу несколько известных идей и кажется весьма перспективным.

РОП ТОП-ДС со звёздочкой
Смотрите, завидуйте, я — РОП программы ТОП-ДС со звёздочкой! РОП – это “руководитель образовательной программы”, но не спрашивайте, почему “Top” написано большими русскими буквами (да, это именно top, никак не расшифровывается), а науки о данных имеют аббревиатуру “ДС”; казалось бы, или “НоД”, или “DS”… но нет, “ДС”.

Deep Think и IMO 2025: сложные отношения OpenAI и математики
Главный девиз Google — “Don’t be evil” — почему-то совсем не даётся OpenAI. За что ни возьмутся, какая-то мутная ерунда получается. И хотя на этот раз результаты никто, кажется, под сомнение не ставит, давайте вспомним сложные отношения OpenAI с математикой, обсудим IMO 2025 и восхитимся Deep Think от DeepMind.

Секретная модель OpenAI берёт золото IMO 2025: Proof or Bluff?
Совсем недавно я рассказывал об LLM для математики на митапе CS Space, и вот появилась мощная новость на эту тему. Говорят, новая модель от OpenAI, которая ещё не скоро будет опубликована, смогла нарешать на золотую медаль IMO 2025! Но ведь ещё год назад AlphaProof не хватало одного балла до золота IMO 2025, так что же здесь удивительного? Давайте разберёмся.

Немного о Париже
Это была целая пятничная неделя, так что вместо пятничного поста просто ещё пара зарисовок.

Немного о Лувре
Вчера был мощный день взятия Бастилии. Сначала я полдня гулял по Лувру — очень сильное впечатление, конечно; отвлекусь пока от AI и расскажу вам немножко из того, что мне показалось интересным.