О чем пойдет речь

27
Параллельные и распределенные вычисления на кафедре вычислительной физики Физического факультета СПбГУ С.А.Немнюгин Санкт-Петербургский государственный университет 2005

description

Параллельные и распределенные вычисления на кафедре вычислительной физики Физического факультета СПбГУ С.А.Немнюгин Санкт-Петербургский государственный университет 2005. О чем пойдет речь. Генератор событий PSM Расчеты с использованием GEANT Моделирование процессов в микроканальных пластинах - PowerPoint PPT Presentation

Transcript of О чем пойдет речь

Page 1: О чем пойдет речь

Параллельные и распределенные вычисления на кафедре

вычислительной физики Физического факультета СПбГУ

 С.А.Немнюгин

Санкт-Петербургский государственный университет

2005

Page 2: О чем пойдет речь

О чем пойдет речь

Генератор событий PSM Расчеты с использованием GEANT Моделирование процессов в

микроканальных пластинах LCG

Page 3: О чем пойдет речь

Параллельная версия генератора событий на основе партонно-струнной модели

 С.А.Немнюгин, В.М.Солодков, Г.А.Феофилов,

А.Асрян

Page 4: О чем пойдет речь

О проекте

Работа выполняется в рамках сотрудничества с Европейским центром ядерных исследований (ЦЕРН) и связана с подготовкой к проведению исследований на Большом Адронном Коллайдере (LHC) на детекторе ALICE.

Цель исследований – изучение фундаментальных свойств материи при сверхвысоких энергиях

Page 5: О чем пойдет речь

Генератор событий PSM

Программный монте-карловский генератор событий (последовательная версия) разработан Н.Амелиным на основе партонно-струнной модели, модификация которой предложена:М.А.Брауном (СПбГУ) и К.Пахаресом (Университет Сантьяго де Компостелла) [N. S. Amelin, H. Stocker, W. Greiner, N. Armesto, M. A. Braun and C. Pajares, Phys. Rev. C52 (1995) 362]

Page 6: О чем пойдет речь

Вычислительные проблемы

Для получения физически значимых результатов требуется большая статистика (104 – 106 событий)

Трудоемкость моделирования велика (>13 сек/событие на 600МГц процессоре), если учтены:

слияние (перколяция) струн жесткое перерассеяние глюонов резонансные распады перерассеяние вторичных частиц

Page 7: О чем пойдет речь

Вычислительные проблемы

Page 8: О чем пойдет речь

Вычислительные проблемы

Большой объем файлов с результатами расчетов:

1 Гбайт для 25 000 событий 20 Гбайт для 500 000 событий

Page 9: О чем пойдет речь

Решение вычислительных проблем

Разработано несколько параллельных версий генератора PSM с использованием библиотеки MPICH 1.2.4:

для кластера без файлового сервера для кластера с файловым сервером

Page 10: О чем пойдет речь

Параллельный PSM

Page 11: О чем пойдет речь

Параллельный PSM

Page 12: О чем пойдет речь

Параллельный кластер

Расчеты проводились на кластере ALICE (Петродворцовый Телекоммуникационный Центр СПбГУ):

7 двухпроцессорных вычислительных узлов (2х600 МГц, 512 Мбайт ОЗУ, 2х4,5 Гбайт жесткие диски)

+

1 сервер (1,2 ГГц, 256 Мбайт ОЗУ, 40 Гбайт жесткие диски + 300 Гбайт)

Page 13: О чем пойдет речь

Ускорение

A) HARD PART: True/False; B) STRING FUSION; C) RESONANCE DECAY; D) RESCATTERING

Page 14: О чем пойдет речь

Ускорение1000 событийTTTT---- - 02 - 224m21.353s - 02 03 - 114m13.243s - 02 03 04 - 87m59.043s - 02 03 04 05 - 62m.83.205s - 02 03 04 05 06 - 54m67.012s - 02 03 04 05 06 07 - 48m71.642s - 02 03 04 05 06 07 08 - 44m32.502s

Page 15: О чем пойдет речь

Генератор событий PSMBEAM: N,P,PBAR,D,HE,BE,B,C,O,AL,SI,S,AR,CA,CU,AG,XE,W,AU,PB,UTARGET: N,P,PBAR,D,HE,BE,B,C,O,AL,SI,S,AR,CA,CU,AG,XE,W,AU,PB,UEcm/NUCLEON: 10. < Ecm/NUCLEON (GeV) < 15000.IMPACT PARAMETER: FIXB or RANBbmin: added by PABB: 0 <= b <= B (fm), in case of IMPACT=FIXBNEVENT: 1,...HARD PART: T (D: ONLY ACTIVE FOR Ecm/NUCLEON >= 25. GeV) or FSTRING FUSION: T (D) or FRESONANCE DECAY: T (D) or FRESCATTERING: T (D) or F (WARNING!!!!: EXTREMELY TIME CONSUMING, BETTER NOT TO BE USED FOR Ecm/NUCLEON > 200 GeV WITHOUT CARE)NUCLEON PDF SET: PDFLIB NUMBERING SCHEME AS NPTYPE*1000+NGROUP*100+NSET (D: 1505, GRV 94 LO), in case of HARD PART=TNUCLEAR SF CORRECTIONS: 0=NO CORRECTION, 1=EKS98 CORRECTIONS (D), 2=ESKOLA-QIU-CZYZEWSKI CORRECTION AS F2, in case of HARD PART=T

Page 16: О чем пойдет речь

Генератор событий PSMPBPB17.3FIXB0.08.01000TTTT15051

Page 17: О чем пойдет речь

Расчеты с использованием GEANT 

В.Галицын, Ф.Ф.Валиев, С.А.Немнюгин,

Page 18: О чем пойдет речь

О проекте

Данная работа составляет часть исследований процессов формирования импульсов микроскопического тока, формируемых при поглощении гамма-излучения средой

Актуальность обусловлена возросшим вниманием к детекторам элементарных частиц, создаваемым на основе излучения вторичных электронов

Page 19: О чем пойдет речь

GEANT

GEANT – свободно-распространяемая библиотека, предназначенная для моделирования процессов взаимодействия излучения с веществом

Page 20: О чем пойдет речь

Расчеты

Расчеты проводились на кластере кафедры вычислительной физики (20 вычислительных узлов, 1,7 ГГц каждый)

Page 21: О чем пойдет речь

Расчеты процессов формирования электронной лавины в

микроканальных пластинах 

К.Зуев, Ф.Ф.Валиев, С.А.Немнюгин,

Page 22: О чем пойдет речь

МКП

Page 23: О чем пойдет речь

МКП

Page 24: О чем пойдет речь

Импульс тока на выходе МКП

Page 25: О чем пойдет речь

LCGNorduGrid 

М.М.Степанова, С.Лодыгин, С.А.Немнюгин,

Page 26: О чем пойдет речь

На физическом факультете СПбГУ создается учебный центр технологий GRID. Базой учебного центра является ресурсный центр GRID. В настоящее время ресурсный центр имеет следующую конфигурацию:•серверы служб CE (Computing Element) и SE (StorageElement)•узел с пользовательским интерфейсом (UI, User Interface)•два рабочих узла (WN, WorkNode).

Узлы объединены через коммутируемый FastEthernet 100Mbps и расположены в выделенном сегменте локальной сети. Комплекс имеет подключение к внешнему каналу.

Планируется увеличение числа рабочих узлов за счет двух вычислительных кластеров физического факультета СПбГУ. Каждый кластер содержит 10 узлов на основе Pentium с тактовой частотой 1.7 Ггц.

Page 27: О чем пойдет речь

Установлено программное обеспечение промежуточного уровня (middleware) для GRID-систем LCG-2 v.2.4.0. Базовая операционная система Linux RedHat 7.3, тестируется вариант на ScientificLinux3. Интеграция ресурсного центра в GRID EGEE осуществляется подключением к брокеру ресурсов в Институте Ядерной физики (ПИЯФ РАН, Гатчина).