MolDynGrid, Virtual Laboratory |
Привіт Гість ( Вхід | Реєстрація )
MolDynGrid, Virtual Laboratory |
Alien |
Jan 12 2010, 03:32
Пост
#46
|
Разработчик MolDynGrid Група: Trusted Members Повідомлень: 569 З нами з: 7-October 07 Користувач №: 594 Стать: Чол Парк машин: Q6600 2.4@3.0GHz\Asus p5kc\8Gb\8600GT\2 SATA: Sams 500Gb+ 500Gb + Seagate 400Gb |
MolDynGrid Virtual Laboratory
QUOTE Віртуальна лабораторія MolDynGrid створена у вересні 2008 р. для вирішення задач в галузях структурної біології і біоінформатики, які потребують значних витрат машинного часу та оперують великими об'ємами інформації. Мета створення ВО полягає в розробці ефективної інфраструктури для проведення in silico розрахунків молекулярної динаміки (МД) біологічних макромолекул (білків, нуклеїнових кислот та їхніх комплексів) у водно-іонному оточенні в часовому інтервалі до 100 нс. MolDynGrid є частиною проекту розвитку Грід-сегменту Національної академії наук України з обчислювальними кластерами Київського національного університету імені Тараса Шевченка, Інститутів молекулярної біології і генетики (ІМБіГ), клітинної біології і генетичної інженерії (ІКБГІ), теоретичної фізики (ІТФ) та ін. Використання ресурсів ВО MolDynGrid є вільним та безкоштовним для зареєстрованих членів за умови дотримання правил користування. http://moldyngrid.org QUOTE публикации 2010 года: (Show/Hide) публикации 2009 года: (Show/Hide) (Show/Hide) -------------------- |
Sergyg |
Jan 21 2010, 12:26
Пост
#47
|
Гидробиолог Група: Trusted Members Повідомлень: 947 З нами з: 1-April 09 З: Dnipropetrovsk Користувач №: 980 Стать: Чол Парк машин: мозок - понад GPU, CPU та GPU+CPU |
Молодцы, вы превзошли ожидания многих из нас
После ознакомления с презентацией появились такие мысли: Основная часть ваших работ велась на кластере из 32 Оптеронов. На сегодня 1шт. Intel i7 способна на многое, да и КвардКоре и Феном довольно сильны. Но, по всей видимости, ваши программы "общаются" именно с кластером, виртуально одной машинкой и перейти к схеме удаленных РВ, где нужно ещё засунуть алгоритмы в клиента, написать софт для сервера рассылки/приема заданий - большая ДОПОЛНИТЕЛЬНАЯ работа. Не говоря о том, что нужно как-то "разрезать" одну большую задачу на множество маленьких заданий. Но, с другой стороны, если вы это осилите, думаю, получите заметное ускорение своей работы. Многие пользователи могут выделить вашему клиенту более 2 Гб ОЗУ и даже более, если потребуется. (я вообще оч удивляюсь, что многие клиенты потребляют мало памяти, наверняка это из моральных соображений и в ущерб производительности). Хотя та же Rosetta@home требует много памяти на процесс и я вполне понимаю, почему так. Хотя, может уже не стоит связываться с ЦПУ, т.к. имеем ГПУ. (Ферми, очевидно, будет мощной штукой с её производительностью в вычислениях двойной точности и серьёзно переработанной архитектурой). Тем более, что Folding@home давно применяют Gromacs для ГПУ, вот только они там используют какой-то Brooks - вроде бы как давно устаревший и оттого довольно таки медленный. Но и они (почему-то?) не могут перейти на более эффективные алгоритмы (может, оттого, что трудно делать одинаковые задания для АМД и Нвидии? тогда нужно целиться на DirectCompute или OpenCl, ну или же CUDA с прицелом на Ферми. Но нужно где-то брать специалистов по этим делам или самим...) Знакомы ли вы с методологией проекта Rosetta@home+Fold-it ? (имхо, они (зачем-то?) убрали с сайта анимацию своих достижений в симуляции фолдинга и вообще мало делятся результатами, но моему имху кажется, что ихний подход эффективнее, чем у Folding@home. Правда, мне так и не удалось углубиться, в чем основные отличия, вроде, как минимум, в бОльшей детализации у Folding@home. (но так ли она нужна?) Также - я не силён в суперкомпьютерах, но сильно удивился, что в вашем тесте вышло, что кластер на основе (уже) очень слабых Ксеон2,33ГГц выдавали производительность на процессор - в 3 раза бОльшую, чем Ксеон3,2ГГц - за счет большей полосы пропускания между узлами. Просто интересно - это особенность используемых алгоритмов или общеизвестный факт, что 1Гбит сети оказывается явно недостаточно. А 3Д-очки - думаю, вы оцените их пользу. Может, даже "другими глазами" посмотрите на казалось бы знакомые модели молекул. (ну в презентации допущено 5 описок и 1 неясность на ровном месте, но это уже не имеет значения, если она была проанализирована целевой аудиторией) |
Alien |
Jan 22 2010, 16:47
Пост
#48
|
Разработчик MolDynGrid Група: Trusted Members Повідомлень: 569 З нами з: 7-October 07 Користувач №: 594 Стать: Чол Парк машин: Q6600 2.4@3.0GHz\Asus p5kc\8Gb\8600GT\2 SATA: Sams 500Gb+ 500Gb + Seagate 400Gb |
Основная часть ваших работ велась на кластере из 32 Оптеронов. нет, это не совсем так. До развития Грид инфраструктуры и создании лаборатории MolDynGrid, расчеты велись локально на некоторых кластерах, включая и в Институте Кибернетики НАНУ. Да, мы считали на ИМБГ-овском кластере раньше, но не более 10 нс. Он маломощный, как ты заметил.. Сейчас на нем считают или мелкие задачи или проводим анализ траекторий молекулярной динамики (МД). За последний год, наши объекты исследований мы считаем на 32 ядрах и выше, на кластерах с инфинибенд. Благодаря меньшим задержкам эффект параллелизации значительно выше, относительно 1Gbit Ethernet. Более свежую презентацию можно глянуть здесь, но тут тоже далеко не вся информация. https://moldyngrid.org/forum/uploads/MDG_Gr...eports-2009.rar (видео ролик - первый слайд презентации) На сегодня 1шт. Intel i7 способна на многое, да и КвардКоре и Феном довольно сильны. мы на квадрах и считаем на кластерах ИСМ-ы и КПИ. (Xeon E5345 и Xeon E5440) Но, по всей видимости, ваши программы "общаются" именно с кластером, виртуально одной машинкой и перейти к схеме удаленных РВ, где нужно ещё засунуть алгоритмы в клиента, написать софт для сервера рассылки/приема заданий - большая ДОПОЛНИТЕЛЬНАЯ работа. Не говоря о том, что нужно как-то "разрезать" одну большую задачу на множество маленьких заданий. Но, с другой стороны, если вы это осилите, думаю, получите заметное ускорение своей работы. да, работы много, но судя по фолдинг.хоуму - реальна для громакса. Многие пользователи могут выделить вашему клиенту более 2 Гб ОЗУ и даже более, если потребуется. (я вообще оч удивляюсь, что многие клиенты потребляют мало памяти, наверняка это из моральных соображений и в ущерб производительности). Нашим объектам с головой хватает по 512 мб\на ядро. А в целом на проект используется 600 мб, но из-за параллелизации по узлам кушается больше. Хотя, может уже не стоит связываться с ЦПУ, т.к. имеем ГПУ. (Ферми, очевидно, будет мощной штукой с её производительностью в вычислениях двойной точности и серьёзно переработанной архитектурой). Тем более, что Folding@home давно применяют Gromacs для ГПУ, вот только они там используют какой-то Brooks - вроде бы как давно устаревший и оттого довольно таки медленный. Но и они (почему-то?) не могут перейти на более эффективные алгоритмы (может, оттого, что трудно делать одинаковые задания для АМД и Нвидии? тогда нужно целиться на DirectCompute или OpenCl, ну или же CUDA с прицелом на Ферми. Но нужно где-то брать специалистов по этим делам или самим...) мне очень интересна ГПУ акселерация, но судя по патчам для громакса от создателей Folding@home, они не поддерживают ряд алгоритмов, которые необходимы нам, для получения корректных результатов. Сложность еще в том, что в Folding@home считают очень маленькие объекты в пределах нескольких а.о., у нас же комплексы большие и достигают около 10 тысяч атомов, только самого белка. Знакомы ли вы с методологией проекта Rosetta@home+Fold-it ? знаком, но уверен, что в меньшей степени чем вы. Также - я не силён в суперкомпьютерах, но сильно удивился, что в вашем тесте вышло, что кластер на основе (уже) очень слабых Ксеон2,33ГГц выдавали производительность на процессор - в 3 раза бОльшую, чем Ксеон3,2ГГц - за счет большей полосы пропускания между узлами. Просто интересно - это особенность используемых алгоритмов или общеизвестный факт, что 1Гбит сети оказывается явно недостаточно. это скорее мой недочет, просто те кому предназначалась презентация знакомы с архитектурами данных кластеров. Ксеон 2,33ГГц - 4х ядерный процессор Ксеон 3,2ГГц - 2х ядерный. Еще хотел бы отметить, что по графику Ксеон 3,2ГГц, менее мощный чем АМД 2.0, на самом деле на кластере ICBGE сейчас софтовые проблемы и Интел не проявил себя в полных силах. Так что я думаю АМД проигрывает. Но результат в графике отображает реальное состояние на данный момент. А 3Д-очки - думаю, вы оцените их пользу. Может, даже "другими глазами" посмотрите на казалось бы знакомые модели молекул. да =) (ну в презентации допущено 5 описок и 1 неясность на ровном месте, но это уже не имеет значения, если она была проанализирована целевой аудиторией) в скриншотах? насчет неясностей, тут уж сорри, она предназначалась для другой целевой аудиторией, как уже заметили. Поэтому я здесь и могу ответить на любые вопросы. -------------------- |
Lo-Fi Версія | Поточний час: 7th June 2024 - 04:06 |