Презентация на тему: Нейронные сети Введение

Нейронные сети Введение
Физиологический нейрон
Блочная диаграмма нервной системы
Нейронные сети Введение
Нейронные сети Введение
Нейроны
Формальная модель нейрона
Формальная модель нейрона
Активационные функции
Модель нейрона Мак-Калока – Питца
w1=0.1, q=0, k=0.1
k=0.1, w1=0.1, w2=0.3
Кусочно-линейная
Сигмоидальная
k=0.1, w1=0.1, w2=0.3
q=0,, w1=0.1, w2=0.3
RBF (WTA)
Нейронная сеть
Слой нейросети
Режимы функционирования нейросетей
Формальная модель сети
Архитектуры НС ( классификация )
Однослойная сеть
Многослойная сеть (2 слоя )
Сеть прямого распространения
Многослойная сеть прямого распространения (к слоев)
Рекуррентные сети
Многослойные рекуррентные сети
Виды обучения
Классы алгоритмов обучения нейронных сетей
Вселенский разум
Вопрос
литература
Темы рефератов
1/34
Средняя оценка: 4.2/5 (всего оценок: 58)
Код скопирован в буфер обмена
Скачать (7268 Кб)
1

Первый слайд презентации: Нейронные сети Введение

Корлякова М.О. 2019

Изображение слайда
2

Слайд 2: Физиологический нейрон

Изображение слайда
3

Слайд 3: Блочная диаграмма нервной системы

возбуждение Рецепторы Нейронная Сеть эффекторы Отклик

Изображение слайда
4

Слайд 4

1942 – Мак-Каллок – Питц 1948 – Н.Винер – «Кибернетика» 1949 – Хебб 1949 – Аттли - обученная нейросеть 1960 – алгоритм обучения по наименьшим квадратам ( Least mean-square - LMS ) 1960-1970 – Розенблат – обучение перцептрона 1969 – Минский – Пайперт – фундаментальное ограничение линейных нейросетей.

Изображение слайда
5

Слайд 5

1967 – Кован – сигмоидальная функция 1980 – Теория Адаптивного Резонанса – А R Т 1970-1980 – самоорганизация – Карты Кохонена 1980 – Гросберг – конкурентное обучение 1982 – Хопфилд – функция энергии для описания рекуррентных сетей 1986 – Алгоритм обратного распространения по ошибке

Изображение слайда
6

Слайд 6: Нейроны

Хебба Маккалока – Питца Сигмоидный Гросберга Радиальный WTA

Изображение слайда
7

Слайд 7: Формальная модель нейрона

S f(s) b w1 wn 

Изображение слайда
8

Слайд 8: Формальная модель нейрона

Изображение слайда
9

Слайд 9: Активационные функции

Линейные. Нелинейные.

Изображение слайда
10

Слайд 10: Модель нейрона Мак-Калока – Питца

y y S S

Изображение слайда
11

Слайд 11: w1=0.1, q=0, k=0.1

S(i)=sum(X(:,i).*W); Если ((S(i)+q)*k)>=0, y(i)= 1, иначе y(i)= 0 W2=0.3 w2=-0.1

Изображение слайда
12

Слайд 12: k=0.1, w1=0.1, w2=0.3

S(i)=sum(X(:,i).*W); Если ((S(i)+q)*k)>=0, y(i)= 1, иначе y(i)= 0 q=0, q=3

Изображение слайда
13

Слайд 13: Кусочно-линейная

Y S

Изображение слайда
14

Слайд 14: Сигмоидальная

Y S

Изображение слайда
15

Слайд 15: k=0.1, w1=0.1, w2=0.3

S(i)=sum(X(:,i).*W); y(i)=1/(1+exp((-S(i)+q)/k)); q=0, q=2,

Изображение слайда
16

Слайд 16: q=0,, w1=0.1, w2=0.3

S(i)=sum(X(:,i).*W); y(i)=1/(1+exp((-S(i)+q)/k)); k=0.1, k=0.5

Изображение слайда
17

Слайд 17: RBF (WTA)

Y(r)=e (-r 2 /k) r=||X-W|| k=1 k=5

Изображение слайда
18

Слайд 18: Нейронная сеть

Число слоев/число нейронов по слоям Обратные связи Активационные функции Число входов Число выходов Алгоритм настройки весов(обучения) Тип задачи, решаемой сетью

Изображение слайда
19

Слайд 19: Слой нейросети

Группа нейронов сети: Общие функции (задачи) Общие внешние связи Общие входы Зачем выделять слой?

Изображение слайда
20

Слайд 20: Режимы функционирования нейросетей

Обучение Работа

Изображение слайда
21

Слайд 21: Формальная модель сети

f(X)=Net(X)

Изображение слайда
22

Слайд 22: Архитектуры НС ( классификация )

Тип обучения С учителем Без учителя Класс алгоритмов оучения Число слоев: Однослойные многослойные. Обратные связи: Нет – сети прямого распространения Есть – рекуррентные сети.

Изображение слайда
23

Слайд 23: Однослойная сеть

y1 y2 yp Слой 1

Изображение слайда
24

Слайд 24: Многослойная сеть (2 слоя )

yk Слой 1 Слой 2 Слой 0 W 1 W 2 1 2 m 1 2 k x1 x2 xn

Изображение слайда
25

Слайд 25: Сеть прямого распространения

1 2 i m x1 x2 x3 y 1 y m Слой 0 Слой 1

Изображение слайда
26

Слайд 26: Многослойная сеть прямого распространения (к слоев)

X1 w 1( 11) w k( 11) y 1 D 1 E 1 X2 w 2( 1s) E yi w k (i,j) y j D j Ex j Y j+1 D j+1 Xn W 1( nm) y p D p 1 k-1 k E p 1 m 1 1 s i j p - - - j+1 … … … … … -

Изображение слайда
27

Слайд 27: Рекуррентные сети

y1 y2 yn

Изображение слайда
28

Слайд 28: Многослойные рекуррентные сети

Изображение слайда
29

Слайд 29: Виды обучения

С учителем T={(Xi,di)}, i=1,N Xi- входной вектор di – выходной вектор Без учителя T={Xi}, i=1,N Xi- входной вектор

Изображение слайда
30

Слайд 30: Классы алгоритмов обучения нейронных сетей

«Правило Хебба» Коррекция по ошибке Стохастическое обучение «Правило соревнования» – конкурентное обучение

Изображение слайда
31

Слайд 31: Вселенский разум

Изображение слайда
32

Слайд 32: Вопрос

Вариант 1 Вычислить реакцию порогового нейрона с W=[ 1,-1] на входное воздействие Х= [0,1] c порогом Θ =0 Вариант 2 Вычислить реакцию сигмоидного нейрона с W=[ - 1,1] на входное воздействие Х= [ 1, 1 ] c порогом Θ =0 и наклоном k=1 Вариант 3 Вычислить реакцию линейного нейрона с W=[ - 1,-1] на входное воздействие Х= [0,1] c порогом Θ =0 и наклоном k=1 Вариант 4 Вычислить реакцию радиального нейрона с W=[ 1, 1] на входное воздействие Х= [0,1] c радиусом k=1

Изображение слайда
33

Слайд 33: литература

Комарцова Л.Г. Максимов А.В. Нейрокомпьютеры – М.:Из-во МГТУ - 2004.

Изображение слайда
34

Последний слайд презентации: Нейронные сети Введение: Темы рефератов

Критика моделей искусственного интеллекта предложенных в НФ литературе Модели формальных нейронов (не Мак-Калока-Питца): их достоинства и недостатки. Модель обучения по Дельта-правилу: исследовать ограничения и возможнсти.

Изображение слайда