Введение в машинное обучение

Материалы по курсу "Введение в машинное обучение"

Машинное обучение изучается применительно к задачам компьютерного зрения. Так, первый семестр служит изучению методов сбора числовых данных из изображения/ий: средняя интенсивность, площадь бинарного объекта и тому подобное. В данном семестр будет показаны автоматические метода анализа этих собранных данных.

2019/2020 учебный год

При чтение даного курса предполагается знание языка программирования Питон и его базовых библиотек (батареек). Например, в объеме данном по ссылке: Материалы курса по Питону и его батарейкам.

Новости:

  1. Занятие 16 марта отменяется в связи с проведением консультаций по теме компьютерного зрения для одного из заводов в период с 16 по 21 марта.
  2. Занятие 9 марта отменяется в связи с празднованием 8-марта (перенос выходного).
  3. Первое занятие 2 марта 2020 г.
  4. В весеннем семестре (2020 г.) занятия (практикум) будут проходить по понеделникам в 16:45 в аудитории 13-15 ГЗ.

Фактические темы лекций:

Тема, Ссылки на заметки Дополнительные ссылки
Приближение функций ( ipynb: просмотр, скачать notebook)
Оптимизационная задача ( ipynb: просмотр, скачать notebook)
Классификация ( ipynb: просмотр, скачать notebook)
Устранение избыточных признаков ( ipynb: просмотр, скачать notebook)

Фактическое расписание занятий на мехмате:

Дата Тема
02.03.2020 Введение в машинное обучение
23.03.2020 Оптимизационная задача
30.03.2020 Устранение избыточных признаков

Фактическое расписание занятий на экономфаке:

Дата Тема
13.04.2020
  1. Введение в машинное обучение
  2. Искать заметку:pandas, series
17.04.2020
  1. Оптимизационная задача
20.04.2020
  1. Устранение избыточных признаков

Прошлые года

2018/2019 учебный год

Новости:

  1. 13 мая будет только практическое занятие, т.е. в 16:45.
  2. В связи с майскими праздниками 6 мая занятий не будет: как практикума, так и лекции.
  3. Сегодня, 1 апреля 2019 г., лекция, та которая на шестой паре, будет проходить в аудитории 16-24. Внимание, это не первоапрельская шутка!
  4. Ввиду неоднозначности (из-за пересдач) по занятости аудитории 14-08, 18 февраля лекции не будет. Но практикум в 13-15 сохраняется!
  5. Первое занятие 18 февраля 2019 г.
  6. В весенний семестр 2019 г. занятия (практикум) будут проходить по понеделникам в 16:45 в аудитории 13-15 ГЗ. Шестая пара (лекция) в 14-08.

Заметки по практикуму:
  1. часть 1. Введение в питон.
  2. часть 2. Вычисления над векторами, графика и анализ данных.
  3. Развитие понятий из питона и анализа данных.
  4. Классы в питоне и собственное распределение.
  5. Базовые понятия машинного обучения, регрессия ( ipynb: скачать notebook).
  6. Устранение избыточности в данных ( ipynb: скачать notebook).
  7. часть 1. Классификация на примере распознавания рукописных цифр ( ipynb: скачать notebook).
  8. часть 2. Деревья решения и др ( ipynb: скачать notebook).

2017/2018 учебный год

В весенний семестр 2018 г. занятия будут проходить по четвергам в 16:45 в аудитории 13-15 ГЗ. Шестая пара в 13-11, если она свободна. Первое занятие 1 марта 2018 г.

  1. 1.03.2018. Введение в питон и анализ данных.( ipynb: скачать notebook).
  2. 15.03.2018. Развитие понятий из питона и анализа данных.( ipynb: скачать notebook, csv: скачать данные).
  3. 22.03.2018. Базовые понятия машинного обучения, регрессия.( ipynb: скачать notebook).
  4. 29.03.2018. Устранение избыточности в данных.( ipynb: скачать notebook).
  5. 5.04.2018. Классификация на примере распознавания рукописных цифр.( ipynb: скачать notebook).
  6. 12.04.2018. Деревья решения и др.( ipynb: скачать notebook).

2016/2017 учебный год

В весенний семестр 2017 г. занятия будут проходить по понедельникам в 16:45 в аудитории 447 2-го учебного корпуса. Первое занятие 27 февраля.

  1. 27.02.2017. Основные понятия и определения.(pdf: просмотреть, скачать).
  2. 27.02.2017. Возможность представления фукнций. 13 проблема Гильберта. Теорема Колмогоров.
  3. 13.03.2017. Линейная регрессия.(pdf: просмотреть, скачать).
  4. 20.03.2017. Линейная модель. Классофикация. Персептрон. Метод опорных векторов.
  5. 27.03.2017. Ядерный подход. Адаптация методов: персептрон и метод опорных векторов.
  6. 03.04.2017. Лекция отменена.
  7. 10.04.2017. Многослойная нейронная сеть. Обучение. Прямой и обратный проход.
  8. 17.04.2017. Вероятностный подход. Наивный байесовский классификатор.
  9. 24.04.2017. Лекция отменена в связи со встречей представителей кафедры Теоретической Информатики со студентами.
  10. 01.05.2017. Уже традиционно, в связи с отмечанием праздника "Весны и Труда" было решено в этот день отдохнуть.
  11. 08.05.2017. Лекция отменена в предверии празднования "Дня Победы".
  12. 15.05.2017. Деревья решений...

2015/2016 учебный год.

В весенний семестр 2016 г. занятия будут проходить по понедельникам в 16:45 в аудитории 449 2-го учебного корпуса.

В честь праздника "Весны и Труда" мы не будем трудится не только 1, но и 2 мая. Поэтому, занятие 2 мая отменяется.

  1. 22 фев. Введение. Основыне определения. Регрессия. Интерполяция и Аппроксимация.
  2. 29 фев. "Галопом по Европам". Краткое введение в суть методов: деревья решений, k-ближайших соседей, k-средних. Дабы можно было сразу почувствовать суть машинного обучения.
  3. 7 марта. na: отменена в связи с праздником 8 марта.
  4. 14 мар. Теорема Колмогорова и другие. Какова сложность представления чисел.
  5. 21 мар. Введение в Нейронные сети.
  6. 28 мар. na: отменена в связи с праздником 27 марта.
  7. 4 апр. Линейные модели.
  8. 11 апр. Многослойные Нейронные сети.
  9. 18 апр. Ядровый подход.
  10. 25 апр. Вероятностный подход.
  11. 2 мая. na: отменена в связи с праздником "Весны и Труда" (1 мая).
  12. 9 мая. na: отменена в связи с празднованием "Дня победы" (9 мая).

Контрольные задания:

  1. Разработать метод автоматического выбора порогового значения по гистограмме интенсивностей.
  2. Выравнять яркость в тектовом документе, если известно, что она изменяется вдоль страницы.
  3. Бинаризация. Реализовать метод класторизации для решения задачи цветового квантования изображения, т.е. метод уменьшающий количество цветов в изображении. Фактически строиться палитра дла данного изображения.
  4. Подсчет количества объектов: посчитать количество объектов в зависимости от некой характеристики, напрмер, исходя из площади. Заранее не известно какие объекты надо будет анализировать, т.е. программа должна автоматически подстроиться под данную характеристику.
  5. ...

Контрольные вопросы:

  1. В чем разница между аппроксимацией и интерполяцией?
  2. В чем разница между регрессией и классификацией?
  3. Что таок инвариант и зачем он нужен?
  4. Как выполнить классификацию объектов по численным характеристикам?
  5. и другие.

Литература:

  1. A Course in Machine Learning: сама книга

Другие материалы

  1. Машинное обучение