Параллельные вычисления

Весенний семестр 2010/2011 учебного года

Массивно-параллельные вычисления, архитектура и среда программирования CUDA



28.02.11 Обзор параллельных решений с общей памятью. Особенности массового параллелизма SIMT. Технология NVIDIA CUDA. Архитектура GPU GF1xx.


05.03.11 Иерархия памяти CUDA. Глобальная память, структура обращений, coalescing. Параллельное решение СЛАУ.


14.03.11 Shared-память. Параллельная редукция. Организация shared-памяти и ее эффективное использование. Внутриблоковая и глобальная синхронизация.


21.03.11 Оптимизация обращений к памяти на примере транспонирования матриц. "Наивное" транспонирование. Последовательная оптимизация. Пошаговое сравнение производительности реализаций.


28.03.11  Стандартные вычислительные библиотеки. Линейная алгебра (cuBLAS). БПФ (cuFFT).


04.04.11 Текстурная память, цифровая обработка сигналов, нерегулярный параллелизм.


11.04.11 Трассировка лучей на CUDA.


18.04.11 Решение обыкновенных дифференциальных уравнений. Метод прямых и сведение уравнений в частных производных к ОДУ.


25.04.11  Решение дифференциальных уравнений в частных производных (двумерная область). Прогонка.


16.05.11 Оптимизация CUDA-программ.


23.05.11 Взаимодействие CUDA с мат. пакетами и языками более высокого уровня. Примеры для MatLab, Python.