Привіт Гість ( Вхід | Реєстрація )
| Alien |
Jan 31 2010, 15:26
Пост
#1
|
![]() Разработчик MolDynGrid ![]() ![]() ![]() ![]() ![]() ![]() ![]() Група: Trusted Members Повідомлень: 569 З нами з: 7-October 07 Користувач №: 594 Стать: Чол Парк машин: Q6600 2.4@3.0GHz\Asus p5kc\8Gb\8600GT\2 SATA: Sams 500Gb+ 500Gb + Seagate 400Gb |
Как насчет сделать клиенты для громакса\намда с практическим применением в НИИ академии наук Украины?
-------------------- |
![]() ![]() |
| Algon |
Jun 4 2010, 12:29
Пост
#2
|
![]() Ambulance ![]() ![]() ![]() ![]() ![]() ![]() ![]() Група: Trusted Members Повідомлень: 878 З нами з: 11-November 08 З: Бердянск, СИЗО ГУВД :) Користувач №: 862 Стать: Чол Парк машин: QX9650, Q8400S, Q8200S, Q6600, E6750, E4500, Xeon 5110, X2 5600+, M540, M420. |
Alien,
К сожалению пришлось плотно отвлечься на основную работу, так что пока все приостановилось. Еще 2-3 дня буду очень занят, потом продолжу. QUOTE Algon, поскольку ты понял весь процесс работы... скажи это реально использовать для BOINC? как создать клиентскую и серверную часть представляешь уже? вот для громакса желательно распараллелить одну такую задачу на много юзеров.. Если удастся уменьшить время выполнения одной задачи до разумных пределов - реально. Разумными на мой взгляд являются до 20 дней на современном Quad. Одну задачу в Boinc распараллеливать на несколько юзеров не получится, принципы кластера здесь неприменимы. В основном потому, что между машинами разных пользователей вообще нет прямой связи. Теоретически можно связать их через сервер и получить что-то типа огромного кластера (правда с высокими задержками), но эффективность такого решения должны оценивать вы, а не я При таком решении возникают сопутствующие проблемы: подобная система будет требовать постоянного подключения к серверу, интернет-трафик у пользователей будет значительным, что снизит количество участников. Со стороны сервера будет требоваться широкий интернет-канал с минимальными задержками и оборудование самого сервера должно быть в состоянии кроме выполнения основных функций (сходных с функциями управляющей ноды кластера) поддерживать еще и сотни или тысячи VPN-подключений. В итоге реализация подобного проекта становится довольно затратным делом, как по финансовым вложениям, так и по вложениям сил и времени. QUOTE как можно обойти такую штуку что один фрейм динамики создается всеми машинами, а следующий фрейм не будет создан без предыдущего... и если один из компов выключится, как будет перестрахован расчет? Я инженер IT, а не биолог, поэтому принципы работы Gromacs для меня непонятны Идеальным решением для Boinc является "одно задание на один компьютер". Естественно что скорость расчетов будет низкой, но вот общий объем может быть очень большим. Для обхода проблемы со сбоями/отключениями отдельных компьютеров обычно применяется принцип избыточности, то есть одно и то-же задание дается 2-3 компьютерам. Вероятность, что расчет будет прерван на всех, очень низкая, хоть один да посчитает. QUOTE со своей стороны скажу..что создаются чекпоинты, после восстановления с чекпоинта можно задать иное число ядер участвующих в расчете... система будет переразбита на другое количество ячеек и подкорректирован их размер (PME). получается, что если выключится у кого-то комп..система остановится и восстановиться расчет на новом числе ядер.. Это справедливо и имеет смысл для классического кластера при отказе/сбое ноды. Если мы все-же попытаемся реализовать концепцию "распределенного кластера", то его отказоустойчивость нужно будет обеспечивать избыточностью, о чем я говорил выше. Чекпоинты в этом случае будут гарантией от сбоя системы в целом. QUOTE есть еще вариант..ставить данный расчет лишь на те машины которые гарантируют продолжительную работу, без выключений, с хорошим пингом между собой. Да, это наиболее просто реализуемый вариант, но количество таких машин не очень большое. Нужно учитывать тот факт, что большинство участников РВ считают не на выделенных машинах. На этих-же компьютерах могут параллельно работать в Интернет, играть в игры и т.д. Наконец банально могут отключить электричество или может пропасть связь с Интернет. P.S. Возможно стоит обратиться за помощью к вашим западным коллегам? Они наверняка уже сталкивались с большинством этих проблем, возможно имеют и готовые пути их обхода или решения. Gromacs используют несколько действующих проектов РВ, даже если они не дадут готового решения - возможно подскажут, куда двигаться стоит, а куда нет, что избавит нас от многих ошибок и проблем. -------------------- (Show/Hide) |
Alien Биологический проект Jan 31 2010, 15:26
Rilian
Как насчет сделать клиенты для громакса\намд... Jan 31 2010, 16:17
Alien
Мы можем обеспечить "серверную" поддерж... Jan 31 2010, 17:00
Rilian
Мы можем обеспечить "серверную" поддер... Jan 31 2010, 17:17
Alien приемлемый дедлайн, ммм наверное это будет действи... Jan 31 2010, 17:45
Rilian я не очень понимаю. и докинг (Autodock) (могу пере... Jan 31 2010, 17:58
Alien ок, приведу в цифрах.
Что касается МД, для нас инт... Jan 31 2010, 18:25
Rilian Какие требования по памяти в MD для "интересн... Jan 31 2010, 18:35
Alien если поставить весь проект на одно ядро, то не тре... Jan 31 2010, 18:44
Rilian на автодоке сейчас считают РВ:
docking@home - собс... Jan 31 2010, 18:55
Alien чем нам поможет то, что они считают? предоставят г... Jan 31 2010, 18:58
Rilian ---
с 700МБ памяти на ВЮ на домашних компах думаю ... Jan 31 2010, 19:00
Alien такс..
1- МД это одно, а докинг это другое.. Хотя ... Jan 31 2010, 19:30
Sergyg конечно я не знаком даже с основами сегодняшнего п... Jan 31 2010, 20:40
Rilian Если мы предоставим сервер и возьмем на себя подде... Jan 31 2010, 21:00
Alien
Из темы по MolDynGrid Virtual Laboratory, в презе... Jan 31 2010, 23:12
Sergyg аааааааа, ты все же предлагаешь (пока что) рассмат... Jan 31 2010, 23:55
Rilian Alien, как насчет обычного проекта на BOINC? Строи... Feb 1 2010, 00:01
Alien так ребята не спешите комментировать, я обновил по... Feb 1 2010, 00:11
Rilian Я прочитал пост, примерно информация соответствует... Feb 1 2010, 00:18![]() ![]() |
|
Lo-Fi Версія | Поточний час: 3rd February 2026 - 15:49 |