Презентация на тему: Высокопроизводительные вычисления

Высокопроизводительные вычисления
Введение, закон Мура
Высокопроизводительные вычисления
Параллельность
Высокопроизводительные вычисления
Высокопроизводительные вычисления
Параллелизм на уровне данных
Высокопроизводительные вычисления
Высокопроизводительные вычисления
Мультиархитектуры
Высокопроизводительные вычисления
Мультипроцессор
Многоядерные процессоры
NUMA
Высокопроизводительные вычисления
1/15
Средняя оценка: 4.4/5 (всего оценок: 94)
Код скопирован в буфер обмена
Скачать (806 Кб)
1

Первый слайд презентации: Высокопроизводительные вычисления

Минков В.И. 2016

Изображение слайда
2

Слайд 2: Введение, закон Мура

Рост производительности обеспечивался с помощью уменьшения размеров элементов микропроцессоров. При этом падало энергопотребление и росли частоты работы, компьютеры становились все быстрее, сохраняя, в общих чертах, свою архитектуру. Менялся техпроцесс производства микросхем и мегагерцы вырастали в гигагерцы. Оказалось, частоту дальше повышать нельзя — растут токи утечки, процессоры перегреваются и обойти это не получается. Закон Мура, по которому число транзисторов и связанная с ним производительность компьютеров удваивалась каждые полтора-два года оказался сомнительным.

Изображение слайда
3

Слайд 3

Первая часть произведения — количество инструкций, выполняемых за такт (IPC, Instruction Per Clock ), вторая – кол - во тактов процессора в единицу времени, тактовая частота. Для увеличения производительности нужно поднимать тактовую частоту / увеличивать кол - во инструкций за один такт.  Рост частоты остановился - > увеличение количества исполняемых инструкций.

Изображение слайда
4

Слайд 4: Параллельность

Процессор, который умеет сам определять независимые и непротиворечащие друг другу инструкции и параллельно их выполнять, называется суперскалярным Пример: А=1 В=2 С=А+В EPIC ( explicitly parallel instruction computing ) — микропроцессорная архитектура с явным параллелизмом команд. …..? Hyper Threading   …..? Технологии параллелизма на уровне инструкций активно развивались в 90е и первую половину 2000х годов, но в настоящее время их потенциал практически исчерпан

Изображение слайда
5

Слайд 5

Под параллельными вычислениями понимают обработку данных, при которой одновременно выполняется несколько машинных операций. Дополнительной формой вычислений является конвейерная реализация обрабатывающих устройств. Параллельность

Изображение слайда
6

Слайд 6

При рассмотрении проблемы организации параллельных вычислений следует различать следующие возможные режимы выполнения независимых частей программы : параллельное выполнение - в один и тот же момент времени может выполняться несколько команд обработки данных распределенные вычисления - параллельная обработка данных, при которой используется несколько обрабатывающих устройств многозадачный режим ( режим разделения времени) - для выполнения процессов используется единственный процессор

Изображение слайда
7

Слайд 7: Параллелизм на уровне данных

Векторные процессоры относятся к  SIMD — ( single instruction, multiple data — одиночный поток команд, множественный поток данных) Графические процессоры SIMT — ( single instruction, multiple threads, одна инструкция — множество потоков). Так же как в SIMD операции производятся с массивами данных, но степеней свободы гораздо больше — для каждой ячейки обрабатываемых данных работает отдельная нить команд.

Изображение слайда
8

Слайд 8

Классификация вычислительных систем SISD  ( Single Instruction, Single Data ) - системы, в которых существует одиночный поток команд и одиночный поток данных; SIMD   ( Single Instruction, Multiple Data ) - системы c одиночным потоком команд и множественным потоком данных; MISD   ( Multiple Instruction, Single Data ) - системы, в которых существует множественный поток команд и одиночный поток данных; MIMD   ( Multiple Instruction, Multiple Data ) - системы c множественным потоком команд и множественным потоком данных; ПР — это один или несколько процессорных элементов, УУ — устройство управления, ПД — память данных

Изображение слайда
9

Слайд 9

Изображение слайда
10

Слайд 10: Мультиархитектуры

MIMD ( Multiple Instruction stream, Multiple Data stream — Множественный поток Команд, Множественный поток Данных) многопоточные программы Ускорение кода зависит от числа процессоров и параллельности кода согласно формуле

Изображение слайда
11

Слайд 11

Изображение слайда
12

Слайд 12: Мультипроцессор

Мультипроцессор  — это компьютерная система, которая содержит неск. процессоров и одно видимое для всех процессоров адресное пространство. Мультипроцессоры отличаются по организации работы с памятью. Системы с общей памятью

Изображение слайда
13

Слайд 13: Многоядерные процессоры

Общий кэш

Изображение слайда
14

Слайд 14: NUMA

NUMA ( Non-Uniform Memory Access — «неравномерный доступ к памяти» или Non-Uniform Memory Architecture — «Архитектура с неравномерной памятью») — архитектура, в которой, при общем адресном пространстве, скорость доступа к памяти зависит от ее расположения

Изображение слайда
15

Последний слайд презентации: Высокопроизводительные вычисления

Изображение слайда