Презентация на тему: ЛЕКЦИЯ 3

Реклама. Продолжение ниже
ЛЕКЦИЯ 3
1. Пример параллельно исполняемых итераций
2. Распределение итераций по потокам
3. Опция schedule( type [, chunk]) задаёт, каким образом итерации цикла распределяются между нитями:
4. Опция schedule( type [, chunk]) - продолжение
5. Демонстрация влияния опции schedule на распределение итераций по потокам
6. Распределение итераций по потокам
7. Результаты демонстрации влияния опции schedule на распределение итераций по потокам
8. Задачи ( tasks )
9. Опции д ирективы task
10. Директива ordered
11. Директива ordered и опция ordered
12. Синхронизация с использованием механизма замков ( locks )
13. Инициализация замков
14. Захват замков
15. Пример использования замков
16. Неблокирующие попытки захвата
17. Пример использования функции omp_test_lock()
18. Директива flush
19. Неявное применение директивы flush
20. Использование технологии OpenMP
21. Синхронизация и ускорение OpenMP -программ
22. Особенности использование технологии OpenMP
23. Фрагмент программы вычисления числа Пи.
24. Программа перемножения матриц
25. Времена выполнения произведения матриц на узле суперкомпьютера СКИФ МГУ «ЧЕБЫШЁВ».
26. Литература
1/27
Средняя оценка: 4.7/5 (всего оценок: 69)
Код скопирован в буфер обмена
Скачать (208 Кб)
Реклама. Продолжение ниже
1

Первый слайд презентации: ЛЕКЦИЯ 3

Распределения итераций и дополнительные сведения о синхронизации

Изображение слайда
1/1
2

Слайд 2: 1. Пример параллельно исполняемых итераций

Изображение слайда
Изображение для работы со слайдом
1/2
3

Слайд 3: 2. Распределение итераций по потокам

Изображение слайда
Изображение для работы со слайдом
1/2
4

Слайд 4: 3. Опция schedule( type [, chunk]) задаёт, каким образом итерации цикла распределяются между нитями:

static – блочно-циклическое распределение итераций цикла; размер блока – chunk. Первый блок из chunk итераций выполняет нулевой поток, второй блок — следующий и т.д. до последнего потока, затем рас- пределение снова начинается с нулевого потока. Если значение chunk не указано, то всё множество итераций делится на непрерывные куски примерно одинакового размера (конкретный способ зависит от реализации), и полученные порции итераций распределяются между потоками. dynamic – динамическое распределение итераций с фиксированным размером блока: сначала каждый поток получает chunk итераций (по умолчанию chunk=1 ), тот поток, который заканчивает выполнение своей порции итераций, получает первую свободную порцию из chunk итераций. Освободившиеся потоки получают новые порции итераций до тех пор, пока все порции не будут исчерпаны. Последняя порция может содержать меньше итераций, чем все остальные.

Изображение слайда
1/1
5

Слайд 5: 4. Опция schedule( type [, chunk]) - продолжение

guided – динамическое распределение итераций, при котором размер порции уменьшается с некоторого начального значения до величины chunk (по умолчанию chunk=1 ) пропорционально количеству ещё не распределённых итераций, делённому на количество потоков, выполняющих цикл. Размер первоначально выделяемого блока зависит от реализации. В ряде случаев такое распределение позволяет лучше сбалансировать нагрузку потоков. Количество итераций в последней порции может оказаться меньше значения chunk. auto – способ распределения итераций выбирается компилятором и/или системой выполнения. Параметр chunk при этом не задаётся. runtime – способ распределения итераций выбирается во время работы программы по значению переменной среды OMP_SCHEDULE. Параметр chunk при этом не задаётся.

Изображение слайда
1/1
6

Слайд 6: 5. Демонстрация влияния опции schedule на распределение итераций по потокам

int main(int argc, char *argv[]) { int i; #pragma omp parallel private(i) { #pragma omp for schedule (static) //#pragma omp for schedule (static, 1) //#pragma omp for schedule (static, 2) //#pragma omp for schedule (dynamic) //#pragma omp for schedule (dynamic, 2) //#pragma omp for schedule (guided) //#pragma omp for schedule (guided, 2) for (i=0; i<10; i++) { printf(" Нить % d выполнила итерацию % d\n“, omp_get_thread_num(), i); sleep(1);} } }

Изображение слайда
1/1
7

Слайд 7: 6. Распределение итераций по потокам

Изображение слайда
Изображение для работы со слайдом
1/2
Реклама. Продолжение ниже
8

Слайд 8: 7. Результаты демонстрации влияния опции schedule на распределение итераций по потокам

В ячейках таблицы указаны номера потоков, выполнявших соответствующую итерацию. Во всех случаях для выполнения параллельного цикла использовалось 4 потока. Для динамических способов распределения итераций ( dynamic, guided ) конкретное распределение между нитями может отличаться от запуска к запуску. В таблице видна разница между распределением итераций при использовании различных вариантов. К наибольшему дисбалансу привели варианты распределения (static, 2), (dynamic, 2) и (guided, 2). Во всех этих случаях одному из потоков достаётся на две итерации больше, чем остальным. В других случаях эта разница сглаживается.

Изображение слайда
1/1
9

Слайд 9: 8. Задачи ( tasks )

Директива task применяется для выделения отдельной независимой задачи: #pragma omp task [опция [[,] опция]...] Текущий поток выделяет в качестве задачи ассоциированный с директивой блок операторов. Задача может выполняться немедленно после создания или быть отложенной на неопределённое время и выполняться по частям. Размер таких частей, а также порядок выполнения частей разных отложенных задач определяется реализацией. Для гарантированного завершения в точке вызова всех запущенных задач используется директива taskwait : #pragma omp taskwait Поток, выполнивший данную директиву, приостанавливается до тех пор, пока не будут завершены все ранее запущенные данным потоком независимые задачи.

Изображение слайда
1/1
10

Слайд 10: 9. Опции д ирективы task

private( список), firstprivate( список), shared( список); if(условие) — порождение новой задачи только при выполнении некоторого условия, если условие выполняется, то задача будет выполнена текущем потоком и немедленно; untied — опция означает, что в случае откладывания задача может быть продолжена любой нитью из числа выполняющих данную параллельную область, если данная опция не указана, то задача может быть продолжена только породившей её нитью; default(private|firstprivate|shared|none) – всем переменным в задаче, которым явно не назначен класс, будет назначен класс private, firstprivate или shared соответственно; none означает, что всем переменным в задаче класс должен быть назначен явно; в языке Си задаются только варианты shared или none.

Изображение слайда
1/1
11

Слайд 11: 10. Директива ordered

Директивы ordered определяют блок внутри тела цикла, который должен выполняться в том порядке, в котором итерации идут в последовательном цикле: #pragma omp ordered. Блок операторов относится к самому внутреннему из объемлющих циклов, а в параллельном цикле должна быть задана опция ordered Поток, выполняющий первую итерацию цикла, выполняет операции данного блока. Поток, выполняющий любую следующую итерацию, должен сначала дождаться выполнения всех операций блока всеми потоками, выполняющими предыдущие итерации. Может использоваться, например, для упорядочения вывода от параллельных нитей.

Изображение слайда
1/1
12

Слайд 12: 11. Директива ordered и опция ordered

int main(int argc, char *argv[]) { int i, n; #pragma omp parallel private (i, n) { n=omp_get_thread_num(); #pragma omp for ordered for (i=0; i<5; i++) {printf(" Нить % d, итерация % d\n", n, i); #pragma omp ordered { printf("ordered: Нить % d, итерация % d\n", n, i); } } } }

Изображение слайда
1/1
13

Слайд 13: 12. Синхронизация с использованием механизма замков ( locks )

В качестве замков используются общие целочисленные переменные (размер должен быть достаточным для хранения адреса). Данные переменные должны использоваться только как параметры примитивов синхронизации. Замок может находиться в одном из трёх состояний: неинициализированный, разблокированный или заблокированный. Разблокированный замок может быть захвачен некоторым потоком. При этом он переходит в аблокированное состояние. поток, захвативший замок, и только она может его освободить, после чего замок возвращается в разблокированное состояние. Есть два типа замков: простые замки и множественные замки. Множественный замок может многократно захватываться одной нитью перед его освобождением, в то время как простой замок может быть захвачен только однажды. Для множественного замка вводится понятие коэффициента захваченности (nesting count). Изначально он устанавливается в ноль, при каждом следующем захватывании увеличивается на единицу, а при каждом освобождении уменьшается на единицу. Множественный замок считается разблокированным, если его коэффициент захваченности равен нулю.

Изображение слайда
1/1
14

Слайд 14: 13. Инициализация замков

Для инициализации простого или множественного замка используются соответственно функции : void omp_init_lock ( omp_lock_t *lock); void omp_init_nest_lock ( omp_nest_lock_t *lock); После выполнения функции замок переводится в разблокированное состояние. Для множественного замка коэффициент захваченности устанавливается в ноль. Для переведения простого или множественного замка в неинициализированное состояние используются функции: void omp_destroy_lock ( omp_lock_t *lock); void omp_destroy_nest_lock ( omp_nest_lock_t *lock);

Изображение слайда
1/1
Реклама. Продолжение ниже
15

Слайд 15: 14. Захват замков

Для захвата замков используются функции: void omp_set_lock( omp_lock_t *lock); void omp_set_nest_lock( omp_nest_lock_t *lock); Вызвавший эту функцию поток дожидается освобождения замка, а затем захватывает его. Замок при этом переводится в заблокированное состояние. Если множественный замок уже захвачен данным потоком, то он не блокируется, а коэффициент захваченности увеличивается на единицу. Для освобождения замков используются функции: void omp_unset_lock ( omp_lock_t *lock); void omp_unset_nest_lock ( omp_lock_t *lock); Вызов этой функции освобождает простой замок, если он был захвачен вызвавшем данную функцию потоком. Для множественного замка уменьшает на единицу коэффициент захваченности. Если коэффициент станет равен нулю, замок освобождается. Если после освобождения замка есть потоки, заблокированные при попытке захватить данный замок, замок будет сразу же захвачен одним из ожидающих потоков.

Изображение слайда
1/1
16

Слайд 16: 15. Пример использования замков

#include <stdio.h> #include <omp.h> omp_lock_t lock; int main(int argc, char *argv[]) { int n; omp_init_lock(&lock); #pragma omp parallel private (n) { n=omp_get_thread_num(); omp_set_lock(&lock); printf(" Начало закрытой секции, нить % d\n", n); sleep(5); printf(" Конец закрытой секции, нить % d\n", n); omp_unset_lock(&lock); } omp_destroy_lock(&lock); }

Изображение слайда
1/1
17

Слайд 17: 16. Неблокирующие попытки захвата

Для неблокирующей попытки захвата замка используются функции: int omp_test_lock(omp_lock_t *lock); int omp_test_nest_lock(omp_lock_t *lock); Данная функция реализует попытку захватить указанный замок. Если это удалось, то для простого замка функция возвращает 1, а для множественного замка – новый коэффициент захваченности. Если замок захватить не удалось, то в обоих случаях возвращается 0.

Изображение слайда
1/1
18

Слайд 18: 17. Пример использования функции omp test lock()

int main( int argc, char * argv []) { omp_lock_t lock; int n; omp_init_lock (&lock); # pragma omp parallel private (n) { n= omp_get_thread_num (); while (!omp_test_lock (&lock)) { printf (" Секция закрыта, нить % d\n", n); sleep(2); } printf (" Начало закрытой секции, нить % d\n", n); sleep(5); printf (" Конец закрытой секции, нить % d\n", n); omp_unset_lock (&lock); } omp_destroy_lock (&lock); }

Изображение слайда
1/1
19

Слайд 19: 18. Директива flush

Поскольку в современных параллельных вычислительных системах может использоваться сложная структура и иерархия памяти, пользователь должен иметь гарантии того, что в необходимые ему моменты времени все потоки будут видеть единый согласованный образ памяти. Именно для этих целей предназначена директива flush: #pragma omp flush [(список)]. Выполнение данной директивы предполагает, что значения всех переменных (или переменных из списка, если он задан), временно хранящиеся в регистрах и кэш-памяти текущего потока, будут занесены в основную память; все изменения переменных во время работы потока, станут видимы остальным потокам; если какая-то информация хранится в буферах вывода, то буферы будут сброшены и т.п. При этом операция производится только с данными вызвавшего потока, данные, изменявшиеся другими потоками, не затрагиваются. Поскольку выполнение данной директивы в полном объёме может повлечь значительных накладных расходов, а в данный момент нужна гарантия согласованного представления не всех, а лишь отдельных переменных, то эти переменные можно явно перечислить в списке директивы. До полного завершения операции никакие действия с перечисленными в ней переменными не могут производиться.

Изображение слайда
1/1
20

Слайд 20: 19. Неявное применение директивы flush

Неявно flush без параметров присутствует в директиве barrier, на входе и выходе областей действия директив parallel, critical, ordered, на выходе областей распределения работ, если не используется опция nowait, в вызовах функций omp_set_lock(), omp_unset_lock(), omp_test_lock(), omp_set_nest_lock(), omp_unset_nest_lock(), omp_test_nest_lock(), если при этом замок устанавливается или снимается, а также перед порождением и после завершения любой задачи ( task ). Кроме того, flush вызывается для переменной, участвующей в операции, ассоциированной с директивой atomic. Заметим, что flush не применяется на входе области распределения работ, а также на входе и выходе области действия директивы master.

Изображение слайда
1/1
21

Слайд 21: 20. Использование технологии OpenMP

Если целевая вычислительная платформа является многопроцессорной и/или многоядерной, то для повышения быстродействия программы чаще всего разумно порождать по одному потоку на вычислительное ядро, хотя это не является обязательным требованием. Для первоначальной отладки может быть вполне достаточно одноядерного процессора, на котором порождается несколько потоков, работающих в режиме разделения времени. Порождение и уничтожение потоков в OpenMP являются относительно недорогими операциями, однако многократное совершение этих действий (например, в цикле) может повлечь существенное увеличение времени работы программы. Для того чтобы получить параллельную версию, сначала необходимо определить ресурс параллелизма программы, то есть, найти в ней участки, которые могут выполняться независимо разными потоками. Если таких участков относительно немного, то для распараллеливания чаще всего используются конструкции, задающие статический параллелизм, например, параллельные секции или низкоуровневое распараллеливание по номеру потока.

Изображение слайда
1/1
22

Слайд 22: 21. Синхронизация и ускорение OpenMP -программ

1. Наибольший ресурс параллелизма сосредоточен в циклах, поэтому наиболее распространенным способом распараллеливания является распределение итераций циклов. Если между итерациями некоторого цикла нет информационных зависимостей, то их можно раздать разным потокам для одновременного исполнения. Различные способы распределения итераций позволяют добиваться максимально равномерной загрузки потоков. 2. Статический способ распределения итераций позволяет уже в момент написания программы точно определить, какому потоку достанутся какие итерации. Однако он не учитывает текущей загруженности процессоров, соотношения времён выполнения различных итераций и некоторых других факторов. 3. Эти факторы в той или иной степени учитываются динамическими способами распределения итераций. Кроме того, возможно отложить решение по способу распределения итераций на время выполнения программы (например, выбирать его, исходя из текущей загруженности нитей) или возложить выбор распределения на компилятор и/или систему выполнения. 4. Обмен данными в OpenMP происходит через общие переменные. Это приводит к необходимости разграничения одновременного доступа разных потоков к общим данным. Для этого предусмотрены достаточно развитые средства синхронизации. При этом нужно учитывать, что использование излишних синхронизаций может существенно замедлить программу.

Изображение слайда
1/1
23

Слайд 23: 22. Особенности использование технологии OpenMP

1. Взяв за основу последовательный код, пользователь шаг за шагом может добавлять новые директивы, описывающие параллельные области. Нет необходимости сразу распараллеливать всю программу, её создание ведется последовательно, что упрощает и процесс программирования, и отладку. 2. Нет необходимости поддерживать последовательную и параллельную версии. Директивы OpenMP просто игнорируются последовательным компилятором, а для вызова функций OpenMP могут быть подставлены специальные «заглушки» ( stubs ), текст которых приведен в описании стандарта. Они гарантируют корректную работу программы в последовательном режиме– нужно только перекомпилировать программу и подключить другую библиотеку. 3. Технология OpenMP может использоваться совместно с другими технологиями параллельного программирования, например, с MPI. Обычно в этом случае MPI используется для распределения работы между несколькими вычислительными узлами, а OpenMP затем используется для распараллеливания вычислений на одном узле.

Изображение слайда
1/1
24

Слайд 24: 23. Фрагмент программы вычисления числа Пи

//Для распараллеливания достаточно добавить в последовательную программу //всего две строчки. double f(double y) {return(4.0/(1.0+y*y));} int main() { double w, x, sum, pi; int i; int n = 1000000; w = 1.0/n; sum = 0.0; #pragma omp parallel for private(x) shared(w) reduction(+:sum) for(i=0; i < n; i++) { x = w*(i-0.5); sum = sum + f(x); } pi = w*sum; printf("pi = %f\n", pi); }

Изображение слайда
1/1
25

Слайд 25: 24. Программа перемножения матриц

#include <stdio.h> #include <omp.h> #define N 4096 double a[N][N], b[N][N], c[N][N]; int main() { int i, j, k; double t1, t2; // инициализация матриц for (i=0; i<N; i++) for (j=0; j<N; j++) a[i][j]=b[i][j]=i*j; t1=omp_get_wtime(); // основной вычислительный блок # pragma omp parallel for shared(a, b, c) private(i, j, k) for(i=0; i<N; i++){ for(j=0; j<N; j++){ c[i][j] = 0.0; for(k=0; k<N; k++) c[i][j]+=a[i][k]*b[k][j];} } t2=omp_get_wtime(); printf("Time=%lf\n", t2-t1); }

Изображение слайда
1/1
26

Слайд 26: 25. Времена выполнения произведения матриц на узле суперкомпьютера СКИФ МГУ «ЧЕБЫШЁВ»

Изображение слайда
Изображение для работы со слайдом
1/2
27

Последний слайд презентации: ЛЕКЦИЯ 3: 26. Литература

1. OpenMP Architecture Review Board (http://www.openmp.org/). 2. The Community of OpenMP Users, Researchers, Tool Developers and Providers (http://www.compunity.org/). 3. OpenMP Application Program Interface Version 3.0 May 2008 (http://www.openmp.org/mp-documents/spec30.pdf). 4. Что такое OpenMP? (http://parallel.ru/tech/tech_dev/openmp.html). 5. Воеводин В.В., Воеводин Вл.В. Параллельные вычисления. СПб.: БХВ-Петербург, 2002. - 608 с. 6. Barbara Chapman, Gabriele Jost, Ruud van der Pas. Using OpenMP: port- able shared memory parallel programming (Scientific and Engineering Computation). Cambridge, Massachusetts: The MIT Press., 2008. - 353 pp. 7. Антонов А.С. Введение в параллельные вычисления. Методическое пособие. -М.: Изд-во Физического факультета МГУ, 2002. - 70 с. 8. Антонов А.С. Параллельное программирование с использованием технологии MPI: Учебное пособие. -М.: Изд-во МГУ, 2004. - 71 с. 9. Суперкомпьютерный комплекс Московского университета ( http://parallel.ru/cluster/ ). 10. Антонов А.С. Параллельное программирование с использованием технологии OpenMP: Учебное пособие. – М.: Изд-во МГУ, 2009. – 77 с. 11. Лупин С.А., Посыпкин М. А. Технологии параллельного программирования. – М.: ИД «ФОРУМ»: ИНФРА-М, 2011. -208 с.

Изображение слайда
1/1
Реклама. Продолжение ниже