felipefreitas / Aula-1-Intro

Material das aulas de Introdução à Programação Paralela.

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

Laboratório de Introdução à Programação Paralela. OpenMP

Material desenvolvido por Clynton Tomacheski para o Workshop no Flisol. Todos os exemplos foram escritos em C++. Mas é possível adaptá-los para C se for de sua preferência.

Um programa executando em uma arquitetura de memória compartilhada é dividido em um conjunto de threads de controle. Threads podem ser criadas no início do programa ou de forma dinâmica durante sua execução.
As threads dentro de um processo compartilham estado que inclui as variáveis globais, variáveis estáticas, o sistema de arquivos e o heap global. Os registros, a pilha de execução e as variáveis de pilha locais são privadas a cada thread. Threads se comunicam implicitamente escrevendo e lendo variáveis compartilhadas, e se coordenam através de construções de sincronização.

O que é OpenMP

OpenMP = Open Multi-Processing

Basicamente é uma API que permite o desenvolvimento de programas multi-thread em memória compartilhada em C/C++ e Fortran. OpenMP é fácil de usar e tem ênfase na paralelização de laços.

Contém três principais componentes:

  • Diretivas de compilação
  • Biblioteca de funções
  • Variáveis de ambiente

Primeiro programa: Hello World! (serial)

Vamos testar o gcc de sua máquina para garantir que está tudo certo. Crie o arquivo main.cpp contendo o seguinte código:

#include <iostream>
using namespace std;

int main(int argc, char *argv[])
{
    cout << "Hello World!\n";
    return 0;
}

Para compilar e executar o programa:

$ g++ main.cpp -o output
$ ./output

Primeiro programa: Hello World! (paralelo!)

Crie o arquivo main.cpp contendo o seguinte código:

#include <iostream>
using namespace std;

int main(int argc, char *argv[])
{
    #pragma omp parallel
    {
        cout << "Hello World!\n";   
    }
    return 0;
}

Para compilar e executar o programa:

$ g++ -fopenmp main.cpp -o output
$ ./output

Qual é a saída da execução? Exatamente p vezes o texto "Hello World!", sendo p o número de threads do processador. Como podemos saber quantas threads podem ser executadas em nosso computador simultâneamente? Veja em /proc/cpuinfo o campo "physical id" quantos cores tem no seu computador, ou execute:

cat /proc/cpuinfo | grep "physical id" | sort | uniq | wc -l

e no campo core id, quantas threads lógicas podem ser executadas.

# cat /proc/cpuinfo | egrep "core id|physical id" | tr -d "\n" | sed s/physical/\\nphysical/g | grep -v ^$ | sort | uniq | wc -l

Um aparte, o que são threads lógicas? Veja no documento em anexo o texto sobre SMT.

#pragma omp parallel é uma diretiva de compilação do OpenMP que indica que o bloco de código será executado em paralelo.

Paralelizando um laço

Como dito anteriormente, o foco do OpenMP é a paralelização de laços. Normalmente em um algoritmo, as estruturas de loop representam a porção de código com maior custo computacional.

Sendo assim, existe a diretiva de compilação #pragma omp for em OpenMP. A seguir, são apresentadas duas formas de paralelizar um laço:

#pragma omp parallel
{
    #pragma omp for
    for(int i = 0; i < n; i++)
    {
        cout << i << endl;
    }
}

Forma reduzida:

#pragma omp parallel for
for(int i = 0; i < n; i++)
{
    cout << i << endl;
}

É possível perceber que a execução do laço não segue a ordenação do vetor percorrido.

Usando funções da API do OpenMP

O OpenMP fornece diversas funções que permitem definir a quantidade de threads, descobrir o identificador (thread ID) da thread em execução, criar e utilizar mecanismos de sincronização, e várias outras funcionalides.

Para usar as funções da API é preciso incluir o header file omp.h no programa. No exemplo a seguir, são utilizadas duas funções da API:

#include <stdio.h>
#include <omp.h>

int main(int argc, char *argv[])
{
    omp_set_num_threads(2);

    #pragma omp parallel for
    for(int i = 0; i < 10; i++)
    {
        printf("Thread ID: %d -- index: %d\n",
            omp_get_thread_num(), i);
    }
}

A função omp_set_num_threads define o número de threads que serão utilizadas durante a execução em paralelo. Já a função omp_get_thread_num retorna o identificador único da thread que está em execução no momento.

Problema 1 - SAXPY

Para ver a descrição do problema clique aqui

Problema 2 - Processar uma imagem

Para ver a descrição do problema clique aqui

Sincronização com OpenMP

Um problema muito comum em algoritmos paralelos é o acesso concorrente à um mesmo recurso, o que gera uma condição de corrida. Um exemplo é a redução de um vetor de inteiros.

Código sequencial:

#include <iostream>

using namespace std;

int main(int argc, char *argv[])
{
    int sum = 0;
    for(int i = 0; i < n; i++)
    {
        sum += array[i];
    }

    cout << sum << endl;
}

Usando funções omp_init_lock, omp_set_lock, omp_unset_lock e omp_destroy_lock da API do OpenMP:

#include <iostream>
#include <omp.h>

using namespace std;

int main(int argc, char *argv[])
{
    omp_lock_t writelock;
    omp_init_lock(&writelock);

    int sum = 0;
    #pragma omp parallel for
    for(int i = 0; i < n; i++)
    {
        omp_set_lock(&writelock);
        sum += array[i];
        omp_unset_lock(&writelock);
    }

    cout << sum << endl;

    omp_destroy_lock(&writelock);
}

Por fim, ainda existe outra forma! Por meio de uma diretiva de compilação:

#include <iostream>

using namespace std;

int main(int argc, char *argv[])
{
    int sum = 0;
    #pragma omp parallel for reduction(+:sum)
    for(int i = 0; i < n; i++)
    {
        sum += array[i];
    }

    cout << sum << endl;
}

Para ver um comparativo entre as abordagens clique aqui

About

Material das aulas de Introdução à Programação Paralela.

License:Other


Languages

Language:C++ 86.7%Language:Makefile 8.7%Language:C 4.7%