Лекция №2 «Линейные модели»
Второе занятие на курсе «Нейронные сети и их применение в научных исследованиях» для восьмого потока обучения. Преподаватель: Любовь Антюфриева Дата: 17.10.2024 00:00 Заставка 00:31 Линейные модели 01:06 Линейная регрессия 01:35 Модель и её параметры 02:58 Функция потерь 04:29 Поиск локального минимума 05:24 Метод наименьших квадратов 07:06 Метрики регрессии 09:15 Модель линейной регрессии из библиотеки Sklearn 11:03 Метод градиентного спуска 11:51 Градиент 14:50 Идея градиентного спуска 20:50 Выбор скорости обучения 23:33 Единый подход к учету смещения 26:09 Необходимость нормализации 33:26 Cтохастический градиентный спуск 36:52 Условия применимости линейной регрессии 37:23 Квартет Энскомбе (Anscombe’s quartet) 40:08 Анализ остатков 44:17 Проблема корреляции признаков 48:05 Регуляризация 52:52 Линейная классификация 53:06 Постановка задачи 55:04 Переход к вероятностям 59:19 Многоклассовая классификация 01:09:25 Cross-Entropy loss 01:14:21 Метод опорных векторов (SVM) 01:15:20 1D классификация 01:16:20 Многомерная классификация 01:21:14 Обобщенные линейные модели 01:21:28 Полиномиальная модель 01:22:42 Kernel SVM 01:28:59 Наивный Байесовский классификатор 01:29:27 Пример на табличных данных 01:34:25 Практические особенности работы с линейными моделями 01:35:02 Нормализация данных 01:39:12 Борьба с переобучением Материалы лекции: Открыть в Colab: https://colab.research.google.com/drive/1QZVjBaadqfyUWF5xpmU97qqI6N6DHGpc Открыть в HTML-формате: https://msu.ai/linear_models_notebook_new Сайт: https://msu.ai VK: https://vk.com/msu_ai Telegram: https://t.me/msu_ai_channel Лекция на Rutube: Лекция в VK видео: #MSU_AI#Фонд_Интеллект