Computadores multicore e no processamento paralelo.

Começar. É Gratuito
ou inscrever-se com seu endereço de e-mail
Rocket clouds
Computadores multicore e no processamento paralelo. por Mind Map: Computadores multicore e no processamento paralelo.

1. Computação de alto desempenho

1.1. Computação de alto desempenho, também conhecida pela sigla HPC (High-Performance Computing), pode ser definida como um conjunto de computadores que trabalham conectados por meio de uma rede de alta velocidade.

1.2. Atende diversas áreas, como a financeira, biológica, física, médica, matemática, entre outras, nas quais demandam grande poder computacional na realização de suas tarefas. Alguns exemplos incluem processamento de imagens, mecânica dos fluidos, previsão do tempo e análises financeiras.

1.3. Qual a consequência em trabalhar com frequências maiores? Mas essa flexibilidade teve um custo, pois para atender a essa demanda, os processadores se tornaram circuitos altamente complexos, sendo necessário trabalhar com frequência na ordem de GHz e alto consumo de energia.

1.4. Sistemas híbridos customizados

1.5. Entende-se por sistemas híbridos aqueles que fazem uso de acelera-dores de hardware, como GPUs (Graphics Processing Unit) e FPGAs (Field Programmable Gate Array), em conjunto com seus processadores. Esse é um recurso que permite o aumento de desempenho computacional, além de poder melhorar significativamente a relação GFLOP/W.

1.6. Restrição dos supercomputadores e devido ao alto custo desses equipamentos somente grandes empresas e renomadas instituições de pesquisas os utilizavam, o que acabava por limitar as pesquisas a um grupo bem restrito.

2. Programação paralela e computadores multicore

2.1. O núcleo de um computador multicore, chip multiprocessador combina dois ou mais processadores em um único chip de computador

2.2. As principais variáveis em uma organização multicore, são o número de processadores no chip, o número de níveis da memória cache e a extensão em que a memória cache é compartilhada.

2.3. Os tipos de sistemas de processadores paralelos. são multiprocessadores simétricos (SMP, do inglês symmetric multiprocessor) e clusters. Mais recentemente, sistemas de acesso não uniforme à memória (NUMA, do inglês nonuniform memory acess) foram introduzidos comercialmente.

2.4. Cluster: Um grupo de computadores completo conectados trabalhando juntos como um recurso computacional unificado que pode criar a ilusão de ser apenas uma máquina.

2.5. Thread: Programa em execução com múltiplos fluxos de execução. Em sistemas paralelos, cada processo tem seu espaço de endereçamento individual e vários fluxos de execução no mesmo espaço de endereçamento

2.6. Pipeline: Uma técnica hardware que permite que a CPU realize a busca de uma ou mais instruções além da próxima a ser executada.

2.7. Os tipos de reciclagem para as placas de circuito: mecânico, químico ou térmico