Презентация на тему: Машинное обучение

Машинное обучение
Типы машинного обучения
Статистическая теория обучения
Статистическая теория обучения
E
E
Машинное обучение
Машинное обучение
Машинное обучение
Статистический вывод
Параметрические и непараметрические методы
Машинное обучение
Машинное обучение
Машинное обучение
Машинное обучение
Машинное обучение
Машинное обучение
Машинное обучение
Машинное обучение
Степени обученности модели
Примеры недообученных и переобученных моделей
Машинное обучение
Машинное обучение
Машинное обучение
Машинное обучение
Машинное обучение
Машинное обучение
Методология CrispDM
Машинное обучение
Машинное обучение
Машинное обучение
Машинное обучение
Машинное обучение
Машинное обучение
Список литературы
Спасибо за внимание!
1/36
Средняя оценка: 4.0/5 (всего оценок: 44)
Код скопирован в буфер обмена
Скачать (6048 Кб)
1

Первый слайд презентации: Машинное обучение

Online - edu.mirea.ru Машинное обучение ФИО преподавателя : Оцоков Шамиль Алиевич e-mail: shamil24@mail.ru

Изображение слайда
2

Слайд 2: Типы машинного обучения

Индуктивное (по прецедентам) и дедуктивное. Некоторые методы индуктивного обучения были разработаны в качестве альтернативы классическим статистическим подходам. Индуктивное обучение основано на выявлении эмпирических закономерностей, дедуктивное — на формализации знаний экспертов и их использовании в качестве базы знаний. Первый тип характеризуется большим количеством данных и отсутствием или ненадобностью прошлого опыта. Второй тип обучения отличается малым массивом данных или выбором в пользу малых наборов данных, а также глубокими знаниями изучаемого вопроса.

Изображение слайда
3

Слайд 3: Статистическая теория обучения

Статистическая теория обучения — это модель для обучения машин на основе статистики и функционального анализа. Статистическая теория обучения имеет дело с задачами нахождения функции предсказывания, основанной на данных..

Изображение слайда
4

Слайд 4: Статистическая теория обучения

Изображение слайда
5

Слайд 5: E

Изображение слайда
6

Слайд 6: E

Разброс - характеризует разнообразие алгоритмов (из-за случайности обучающей выборки, в том числе шума, и стохастической природы настройки ) Смещение – способность модели алгоритмов настраиваться на целевую зависимость

Изображение слайда
7

Слайд 7

Смещение, разброс, переобучение и недообучение.

Изображение слайда
8

Слайд 8

Смещение, разброс, переобучение и недообучение.

Изображение слайда
9

Слайд 9

Смещение, разброс, переобучение и недообучение.

Изображение слайда
10

Слайд 10: Статистический вывод

Изображение слайда
11

Слайд 11: Параметрические и непараметрические методы

Изображение слайда
12

Слайд 12

Параметрические и непараметрические методы

Изображение слайда
13

Слайд 13

Параметрические и непараметрические методы

Изображение слайда
14

Слайд 14

Параметрические и непараметрические методы

Изображение слайда
15

Слайд 15

Компромисс между смещением и дисперсией

Изображение слайда
16

Слайд 16

Компромисс между смещением и дисперсией

Изображение слайда
17

Слайд 17

Компромисс между смещением и дисперсией

Изображение слайда
18

Слайд 18

Истинная функция существенно отличается от линейной

Изображение слайда
19

Слайд 19

Истинная функция существенно отличается от линейной

Изображение слайда
20

Слайд 20: Степени обученности модели

Изображение слайда
21

Слайд 21: Примеры недообученных и переобученных моделей

Изображение слайда
22

Слайд 22

Изображение слайда
23

Слайд 23

Изображение слайда
24

Слайд 24

Изображение слайда
25

Слайд 25

Изображение слайда
26

Слайд 26

Изображение слайда
27

Слайд 27

Изображение слайда
28

Слайд 28: Методология CrispDM

Изображение слайда
29

Слайд 29

Изображение слайда
30

Слайд 30

Изображение слайда
31

Слайд 31

Смещение, разброс, переобучение и недообучение. Переобучение ( overfitting ) – явление, когда ошибка на тестовой выборке заметно больше ошибки на обучающей. Это главная проблема машинного обучения: если бы такого эффекта не было (ошибка на тесте примерно совпадала с ошибкой на обучении), то всё обучение сводилось бы к минимизации ошибки на тесте (т.н. эмпирическому риску ) Недообучение ( underfitting ) – явление, когда ошибка на обучающей выборке достаточно большая, часто говорят «не удаётся настроиться на выборку». Такой странный термин объясняется тем, что недообучение при настройке алгоритмов итерационными методами (например, нейронных сетей методом обратного распространения) можно наблюдать, когда сделано слишком маленькое число итераций, т.е. «не успели обучиться»

Изображение слайда
32

Слайд 32

Смещение, разброс, переобучение и недообучение. Сложность ( complexity ) модели алгоритмов (допускает множество формализаций) – оценивает, насколько разнообразно семейство алгоритмов в модели с точки зрения их функциональных свойств (например, способности настраиваться на выборки). Повышение сложности (т.е. использование более сложных моделей) решает проблему недообучения и вызывает переобучение. Пример переобучения. y  = sin(4 x ) + шум

Изображение слайда
33

Слайд 33

Смещение, разброс, переобучение и недообучение. Пример переобучения. зашумлённой пороговой зависимости Видно, что с увеличением степени ошибка на обучающей выборке падает, а на тестовой (мы взяли очень мелкую сетку отрезка [0, 1]) – сначала падает, потом возрастает.

Изображение слайда
34

Слайд 34

Измерение качества модели через среднеквадратическое отклонение.

Изображение слайда
35

Слайд 35: Список литературы

1. Джеймс Г., Уиттон Д., Хасти Т., Тибширани Р. Введение в статистическое обучение с примерами на языке R 2. https://dyakonov.org/2018/04/25/%D1%81%D0%BC%D0%B5%D1%89%D0%B5%D0%BD%D0%B8%D0%B5-bias-%D0%B8-%D1%80%D0%B0%D0%B7%D0%B1%D1%80%D0%BE%D1%81-variance-%D0%BC%D0%BE%D0%B4%D0%B5%D0%BB%D0%B8-%D0%B0%D0%BB%D0%B3%D0%BE%D1%80%D0%B8%D1%82/ 3. Грас Data Science. Наука о данных с нуля, 2017 г. 4. Введение в машинное обучение. https ://www.coursera.org/learn/vvedenie-mashinnoe-obuchenie/lecture/CLOS0/formal-naia-postanovka-zadachi-mashinnogho-obuchieniia

Изображение слайда
36

Последний слайд презентации: Машинное обучение: Спасибо за внимание!

Изображение слайда