Material desenvolvido por Clynton Tomacheski para o Workshop no Flisol. Todos os exemplos foram escritos em C++. Mas é possível adaptá-los para C se for de sua preferência.
Um programa executando em uma arquitetura de memória compartilhada é dividido em um conjunto de threads de controle. Threads podem ser criadas no início do programa ou de forma dinâmica durante sua execução.
As threads dentro de um processo compartilham estado que inclui as variáveis globais, variáveis estáticas, o sistema de arquivos e o heap global. Os registros, a pilha de execução e as variáveis de pilha locais são privadas a cada thread.
Threads se comunicam implicitamente escrevendo e lendo variáveis compartilhadas, e se coordenam através de construções de sincronização.
OpenMP = Open Multi-Processing
Basicamente é uma API que permite o desenvolvimento de programas multi-thread em memória compartilhada em C/C++ e Fortran. OpenMP é fácil de usar e tem ênfase na paralelização de laços.
Contém três principais componentes:
- Diretivas de compilação
- Biblioteca de funções
- Variáveis de ambiente
Vamos testar o gcc de sua máquina para garantir que está tudo certo. Crie o arquivo main.cpp
contendo o seguinte código:
#include <iostream>
using namespace std;
int main(int argc, char *argv[])
{
cout << "Hello World!\n";
return 0;
}
Para compilar e executar o programa:
$ g++ main.cpp -o output
$ ./output
Crie o arquivo main.cpp
contendo o seguinte código:
#include <iostream>
using namespace std;
int main(int argc, char *argv[])
{
#pragma omp parallel
{
cout << "Hello World!\n";
}
return 0;
}
Para compilar e executar o programa:
$ g++ -fopenmp main.cpp -o output
$ ./output
Qual é a saída da execução? Exatamente p vezes o texto "Hello World!", sendo p o número de threads do processador. Como podemos saber quantas threads podem ser executadas em nosso computador simultâneamente? Veja em /proc/cpuinfo o campo "physical id" quantos cores tem no seu computador, ou execute:
cat /proc/cpuinfo | grep "physical id" | sort | uniq | wc -l
e no campo core id, quantas threads lógicas podem ser executadas.
# cat /proc/cpuinfo | egrep "core id|physical id" | tr -d "\n" | sed s/physical/\\nphysical/g | grep -v ^$ | sort | uniq | wc -l
Um aparte, o que são threads lógicas? Veja no documento em anexo o texto sobre SMT.
#pragma omp parallel
é uma diretiva de compilação do OpenMP que indica que o bloco de código será executado em paralelo.
Como dito anteriormente, o foco do OpenMP é a paralelização de laços. Normalmente em um algoritmo, as estruturas de loop representam a porção de código com maior custo computacional.
Sendo assim, existe a diretiva de compilação #pragma omp for
em OpenMP. A seguir, são apresentadas duas formas de paralelizar um laço:
#pragma omp parallel
{
#pragma omp for
for(int i = 0; i < n; i++)
{
cout << i << endl;
}
}
Forma reduzida:
#pragma omp parallel for
for(int i = 0; i < n; i++)
{
cout << i << endl;
}
É possível perceber que a execução do laço não segue a ordenação do vetor percorrido.
O OpenMP fornece diversas funções que permitem definir a quantidade de threads, descobrir o identificador (thread ID) da thread em execução, criar e utilizar mecanismos de sincronização, e várias outras funcionalides.
Para usar as funções da API é preciso incluir o header file omp.h
no programa. No exemplo a seguir, são utilizadas duas funções da API:
#include <stdio.h>
#include <omp.h>
int main(int argc, char *argv[])
{
omp_set_num_threads(2);
#pragma omp parallel for
for(int i = 0; i < 10; i++)
{
printf("Thread ID: %d -- index: %d\n",
omp_get_thread_num(), i);
}
}
A função omp_set_num_threads
define o número de threads que serão utilizadas durante a execução em paralelo. Já a função omp_get_thread_num
retorna o identificador único da thread que está em execução no momento.
Para ver a descrição do problema clique aqui
Para ver a descrição do problema clique aqui
Um problema muito comum em algoritmos paralelos é o acesso concorrente à um mesmo recurso, o que gera uma condição de corrida. Um exemplo é a redução de um vetor de inteiros.
Código sequencial:
#include <iostream>
using namespace std;
int main(int argc, char *argv[])
{
int sum = 0;
for(int i = 0; i < n; i++)
{
sum += array[i];
}
cout << sum << endl;
}
Usando funções omp_init_lock
, omp_set_lock
, omp_unset_lock
e omp_destroy_lock
da API do OpenMP:
#include <iostream>
#include <omp.h>
using namespace std;
int main(int argc, char *argv[])
{
omp_lock_t writelock;
omp_init_lock(&writelock);
int sum = 0;
#pragma omp parallel for
for(int i = 0; i < n; i++)
{
omp_set_lock(&writelock);
sum += array[i];
omp_unset_lock(&writelock);
}
cout << sum << endl;
omp_destroy_lock(&writelock);
}
Por fim, ainda existe outra forma! Por meio de uma diretiva de compilação:
#include <iostream>
using namespace std;
int main(int argc, char *argv[])
{
int sum = 0;
#pragma omp parallel for reduction(+:sum)
for(int i = 0; i < n; i++)
{
sum += array[i];
}
cout << sum << endl;
}