Metadata
Title
Нейронные сети и deep learning
Category
courses
UUID
c0e9ebf78a0f47948bbf8c6766fbeacf
Source URL
https://dpo.cs.msu.ru/courses/%D0%BD%D0%B5%D0%B9%D1%80%D0%BE%D0%BD%D0%BD%D1%8B%D...
Parent URL
https://cs.msu.ru/en/node/135
Crawl Time
2026-03-23T19:16:19+00:00
Rendered Raw Markdown

Нейронные сети и deep learning

Source: https://dpo.cs.msu.ru/courses/%D0%BD%D0%B5%D0%B9%D1%80%D0%BE%D0%BD%D0%BD%D1%8B%D0%B5-%D1%81%D0%B5%D1%82%D0%B8-%D0%B8-deep-learning/ Parent: https://cs.msu.ru/en/node/135

Разделы

Искусственный интеллект и машинное обучение

Оценка

(0 отзыв)

60,000.00 ₽

Купить сразу

60,000.00 ₽

Купить сразу

ЦЕЛЬ РЕАЛИЗАЦИИ ПРОГРАММЫ

Основной темой данной программы является глубокое обучение, т.е. новое поколение методов, основанных на нейронных сетях, существенно улучшивших качество систем искусственного интеллекта в таких направлениях, как компьютерное зрение, распознавание речи, обработка естественного языка, обучение с подкреплением, биоинформатика. Программа охватывает основы обучения с учителем и без учителя в контексте глубоких архитектур. Кроме того, в программе детально рассматриваются два наиболее успешных класса моделей, а именно сверточные и рекуррентные нейронные сети. В прикладной части особый акцент делается на задачах компьютерного зрения и обработки естественного языка. Программа включает в себя существенную практическую компоненту в виде большого числа практических заданий.

Цель курса: охват основ обучения с учителем и без учителя в контексте глубоких архитектур.

ФОРМАЛИЗОВАННЫЕ РЕЗУЛЬТАТЫ ОБУЧЕНИЯ:

Знать\ Знать алгоритмические основы глубокого обучения, включая новейшие варианты стохастического градиентного спуска и особенности современных сверточных и рекуррентных нейронных сетей\ Быть в курсе последних разработок в области глубокого обучения для анализа изображений и обработки естественного языка\ Уметь\ Уметь прототипировать, тренировать и применять глубокие архитектуры, включая архитектуры, использующие перенос знаний с предварительно обученных моделей Уметь определять и проектировать новые глубокие архитектуры для нестандартных задач и приложений машинного обучения\ Владеть\ Владеть программными пакетами для глубокого обучения (Theano/Lasagne и другие релевантные Python-библиотеки)

Содержание курса

Основы нейросетей. Сети прямого распространения сигнала\ Простейшая нейросеть – 1 нейрон. Функции активации (линейная, пороговая, сигмоида, гиперболический тангенс, softmax, LeakyReLU, ELU, Maxout). Функциональная выразимость нейрона. Теорема об универсальной аппроксимации. Сеть прямого распространения. Обучение. Функции ошибки. Производные на компьютере. Проблема затухания градиента. Обратное распространение градиента.\ Рекуррентные и сверточные нейронные сети

Что такое изображение. Линейный подход к классификации на несколько классов. Свёрточные нейронные сети (ConvNet, CNN). Что такое свёртка (Convolution): глубина свёртки, отступ (Padding), шаг (stride), Dilation (расширение). 1×1-свёртки (Pointwise Convolutions). Реализация свёртки. Разреженные взаимодействия (sparse interactions). Pooling (агрегация, субдискретизация / subsampling), виды пулинга, Pooling layer. Устройство слоя свёрточной НС, мотивация. Перевод тензора в тензор. Визуализация признаков. Полносвязный слой. Какие бывают свёртки: Spatial Separable Convolutions, Group Convolutions, depth-wise convolution, Depth-wise separable convolution. Dropout в свёрточных сетях.

RNN (базовый блок). RNN: обучение. RNN: как решать задачи классификации. LSTM. Забывающий гейт (Forget Gate). Входной гейт (Input Gate). Обновление состояния (Cell update). Выходной гейт (Output Gate). Gated Recurrent Unit (GRU). Метод форсирования учителя (teacher forcing). Scheduled sampling. Двунаправленные (Bidirectional) RNN. Глубокие (Deep) RNN. Глубокие двунаправленные RNN. Многонаправленные RNN. Пиксельные RNN. Рекурсивные (Recursive Neural Networks) НС. Exploding / Vanishing gradients. Особенности регуляризации в RNN: Dropout. Особенности регуляризации в RNN: Batchnorm. MI (Multiplicative Integration). Интерпретация LSTM: Sentiment neuron. Применение RNN.\ Генеративные модели

Представление слов: – токенизация на подслова (byte-pair encoding (BPE), wordpiece, unigram language model, sentencepiece), – посимвольный подход (представления слов из анализа символов, Compositional Character Model, Character-Aware NLM), – гибридный подход (действуем на уровне слов, если надо – на уровне символов.

РАСПИСАНИЕ ЗАНЯТИЙ

Онлайн-вебинары.

Обучение 17 февраля 2026 – 30 апреля 2026 года.\ Преподаватели\ Смирнов И.Н. доцент кафедры общей математики\ Прусаков В.В. программист, лаборатория ОИТ

ДОКУМЕНТЫ ОБ ОКОНЧАНИИ

ДОКУМЕНТЫ ДЛЯ ЗАЧИСЛЕНИЯ

Детали курса

План не заполнен

Илья Николаевич Смирнов

Смирнов Илья Николаевич закончил факультет вычислительной математики и кибернетики Московского государственного университета имени М.В. Ломоносова в 2007г., в 2010г. с отличием окончил аспирантуру, а в 2011г. под научным руководством академика В.А. Ильина защитил кандидатскую диссертацию по теме «Управление процессом, описываемым телеграфным уравнением».

Отзывы

Средний рейтинг

0

0 оценок

Подробный рейтинг

5

0%

4

0%

3

0%

2

0%

1

0%

ПОДЕЛИТЬСЯ:

Вам может понравиться

Основы кибербезопасности

Студенты

0

0

120,000.00 ₽

Математические модели и методы управления банковскими рисками

Студенты

0

0

70,000.00 ₽

Анализ данных и машинное обучение

Студенты

0

0

120,000.00 ₽

Прикладное программирование (языки С и С++)

Студенты

20

0

120,000.00 ₽

Программирование и базы данных

Студенты

20

0

120,000.00 ₽