
Олимпиада «ВСОШ» ответы, вопросы по Информатике — Искусственный интеллект 9, 10, 11 класс, школьный этапа Всероссийской олимпиады г. Москвы от 24 октября 2025 года. Официальный вариант взятый с online.olimpiada
Школьный этап ВСОШ по Информатике для Москвы 24 октября 2025 г.
Вопросы и ответы 9-11 класс
Задания раздела: Искусственный интеллект
Задание 1. Пусть k⩾2 — целое число. Будем говорить, что две точки на числовой прямой дружат, если разность их координат делится на k. Непустое множество точек назовём кластером, если любые две точки в этом множестве дружат, и к нему нельзя добавить ни одной точки, чтобы это свойство сохранилось.
При каких целых k⩾2 точки числовой прямой с координатами
1, 7, 21, 22, 28, 42, 43, 49, 63
можно разбить на два кластера?
Каждое значение kk вносите в отдельное поле. Добавляйте следующее поле с помощью «+».
→ Раскрыть ответ
Задание 2. Петя загадал два натуральных числа aa и b. Вася пытается их отгадать, задавая вопросы. Вопрос Васи состоит в том, что он называет два натуральных числа x и y. В ответ на вопрос ему Петя сообщает два числа z<t, одно из которых равно числу ax+by (какое именно, Петя не говорит).
Вася задал два вопроса: для x=4 и y=1 Петя ответил 14 и 15; для x=1 и y=4 Петя ответил 9 и 11.
Какие числа загадал Петя?
a=
b=
→ Раскрыть ответ
Задание 3. В заповеднике планируют ввести автоматический мониторинг редких розовых лемуров. Для тестирования системы была выбрана группа из 100 животных, в которой 10% составляют розовые лемуры (класс 1), а оставшиеся 90%— обычные лемуры (класс 0). Будем называть эту группу тестовой выборкой.
Модели ИИ для каждой особи из тестовой выборки сделали предсказание, к какому классу (0 или 1) относится данный лемур. Для оценки качества распознования введём следующие стандартные обозначения:
TP. Предсказан класс (1), в действительности — класс (1).
FP. Предсказан класс (1), в действительности — класс (0).
TN. Предсказан класс (0), в действительности — класс (0).
FN. Предсказан класс (0), в действительности — класс (1).
Всего в тестовой выборке P=TP+FN объектов (лемуров) класса 1 и N=TN+FP объектов класса 0.
Четыре модели ИИ (A, B, C и D) распознавали лемуров из тестовой выборки. Модель A всех лемуров отнесла к классу 0, модель B всех лемуров отнесла к классу 1. Данные о работе моделей С и D приведены в таблице ниже.
| Модель | TP | FP | TN | FN |
| C D | 7 8 | 8 14 | 82 76 | 3 2 |
Для моделей A, B, C, D вычислим следующие пять метрик M1,M2,M3,M4,M5 (если для некоторой модели возникает деление на ноль, соответствующая метрика для неё не вычисляется).
M1=TP+TNP+N (общая точность),
M2=TPTP+FN (верные на классе 1),
M3=TNTN+FP (верные на классе 0),
M4=12(M2+M3) (сбалансированная точность),
M5=TPTP+FP (точность на предсказаниях 1).
Для каждой из метрик M1,M2,…,M5 определите, для какой из моделей достигается её максимальное значение.
→ Раскрыть ответ
Задание 4. Вася тестировал модель с действительными параметрами x и y. Он выяснил, что функция потерь задаётся формулой
L(x,y)=x4+y2+2x2y+4y+6×2−4x+14.
Помогите Васе определить значения параметров (x∗,y∗), для которых значение функции потерь наименьшее. В ответ укажите x∗, y∗ и значение L(x∗,y∗).
x∗=
y∗=
L(x∗,y∗)=
→ Раскрыть ответ
Задание 5. Есть набор примеров для обучения программы, которая должна отличать два типа объектов — положительные и отрицательные. Всего в наборе N примеров, из них ровно два положительных, а остальные — отрицательные. Выбирается случайная группа из 4 примеров. Известно, что вероятность того, что в такой группе окажутся оба положительных примера, в 2 раза больше, чем вероятность того, что в группе не окажется ни одного положительного. Найдите все возможные значения N.
Каждое значение вносите в отдельное поле. Добавляйте следующее поле с помощью «+».
→ Раскрыть ответ
Задание 6. Отчет об обучении нейросети
| Имя входного файла: | стандартный ввод |
| Имя выходного файла: | стандартный вывод |
| Ограничение по времени: | 1 секунда |
| Ограничение по памяти: | 256 мегабайт |
Обучение нейронных сетей обычно делится на эпохи. За одну эпоху, в рамках обучения, модель один раз проходится по обучающему датасету.
Дима долгое время работал над новой разработкой. В процессе её обучения было целых nn эпох. После каждой эпохи, Дима записывал текущее время в формате HH:MM (например, 13:03). Теперь Диме интересно, какое минимальное количество времени могло уйти на обучение модели.
Дима сейчас очень загружен рабочими задачами, поэтому обратился за помощью к Вам. Посчитайте минимальное количество времени, которое могло уйти на обучение модели.
Формат входных данных
В первой строке входных данных даётся одно целое число n(2≤n≤104).
В следующих nn строках задаются моменты времени, когда заканчивалась очередная эпоха в формате HH:MM (24-х часовой формат)
Формат выходных данных
Выведите одно целое число: минимальное количество минут, которое могло уйти на обучение модели. Округлите ответ вниз до ближайшего целого количества минут.
Замечание
В первом тестовом примере, точно прошло 10 полных часов (14−24). А также, было 56 минут, начиная с 13:03 и до 14:00 (не 57, так как 13:03 могло быть 13:03:59). И еще 15 минут прошло с 00:00 до 00:15. Итого, 10⋅60+56+15=671
→ Раскрыть ответ
Задание 7. Специальное дерево принятия решений
| Имя входного файла: | стандартный ввод |
| Имя выходного файла: | стандартный вывод |
| Ограничение по времени: | 1 секунда |
| Ограничение по памяти: | 256 мегабайт |
Дано полное бинарное дерево принятия решений глубины n.
От корня до листа делается ровно nn шагов. На каждом шаге принимается одно из двух решений: пойти влево или вправо.
Изначально оба варианта равновероятны: у каждого ребра вероятность 1/2
Кто-то изменил устройство дерева и поменял две вероятности на ребрах на 0:
первое ребро — это a-е ребро на пути «всегда влево» (ребро между уровнями a−1 и a, если от корня на каждом шаге выбирать влево);
второе ребро — это b-е ребро на пути «всегда вправо» (ребро между уровнями b−1 и b, если от корня на каждом шаге выбирать вправо).
Все остальные ребра по-прежнему имеют вероятность 1/2, (кроме тех ребер, которые лишились соседнего ребра, у них вероятность теперь равна единице).
Исходами в этом дереве называются листы (вершины на самом нижнем уровне). Вероятность каждого исхода, это произведение вероятностей на пути до соответствующего листа.
Требуется определить, сколько различных исходов (листов дерева) всё ещё имеют ненулевую вероятность.
Формат входных данных
В единственной строке заданы три целых числа n, a, b (1≤n≤60, 1≤a,b≤n).
Формат выходных данных
Выведите одно целое число — количество листьев, которые остаются достижимыми (то есть соответствуют путям ненулевой вероятности).
Замечание
В первом тестовом примере, доступными останется лишь 2 исхода.
→ Раскрыть ответ
Задание 8. С помощью трёх моделей машинного обучения a1,a2,a3 мы хотим различать фотографии собачек (класс 0) и кошечек (класс 1). Чтобы оценить качество моделей, мы запустили их на наборе изображений, для которых известен правильный ответ.
В данной таблице формат XLSX формат CSV в каждой строке записаны четыре числа: в столбце y указан правильный класс, а в столбцах a1,a2,a3 ответы трёх моделей. Все числа равны 0 или 1.
Доверие к моделям различается; веса заданы так:
w1=2,w2=1,w3=3
Для каждой строки вычисляется взвешенная сумма:
S=w1⋅a1+w2⋅a2+w3⋅a3
Итоговый ответ равен y^=1, если S⩾3, и y^=0 иначе.
Найдите количество строк, в которых итоговый ответ y^ совпадает с правильным ответом y. В ответе укажите только это число.
→ Раскрыть ответ