![]() |
Привіт Гість ( Вхід | Реєстрація )
![]() |
Alien |
![]()
Пост
#1
|
![]() Разработчик MolDynGrid ![]() ![]() ![]() ![]() ![]() ![]() ![]() Група: Trusted Members Повідомлень: 569 З нами з: 7-October 07 Користувач №: 594 Стать: Чол Парк машин: Q6600 2.4@3.0GHz\Asus p5kc\8Gb\8600GT\2 SATA: Sams 500Gb+ 500Gb + Seagate 400Gb ![]() |
Как насчет сделать клиенты для громакса\намда с практическим применением в НИИ академии наук Украины?
-------------------- |
![]() ![]() |
Alien |
![]()
Пост
#2
|
![]() Разработчик MolDynGrid ![]() ![]() ![]() ![]() ![]() ![]() ![]() Група: Trusted Members Повідомлень: 569 З нами з: 7-October 07 Користувач №: 594 Стать: Чол Парк машин: Q6600 2.4@3.0GHz\Asus p5kc\8Gb\8600GT\2 SATA: Sams 500Gb+ 500Gb + Seagate 400Gb ![]() |
я не совсем понял, что означает Из темы по MolDynGrid Virtual Laboratory, в презентациях об эффективной параллелизации есть график сравнения есернет соединения с инфинибендом, между узлалами. Причем эффект в несколько раз лучше при использовании технологий с минимальными задержками.. Просто наш софт для МД, громакс, нуждается в таком аспекте. Есть программы которым некритичны задержки между узлами или компьютерами. Есернет соединение так же присудствует между домашними пользователями, разница с сервером та, что у нас задержки при есернет 0.5-0.7 мс, а между домашними компьютерами и сервером может досягать 20 мс и более, в зависимости от провайдера. ![]() Если более практично говорить, то в пределах серверного решения при разных интерконектах эсернет\инфинибенд составляет разницу в 2-3 раза.. Это при том что у инфинибенда задержки раза в 4-8 меньше чем у есернет. Есть почти прямая зависимость. Теперь если говорить о домашних пользователей соединенным есернетом, задержки будут около 10-40мс (UA-IX), а с международным трафиком или укр.телекомом будет уже 50-100 мс. Это превышает в 10-100ни раз задержку относительно сервера. Вот я не знаю как получится на практике с громаксом, который нуждается в минимальных задержках, для быстрого расчета. Потому, что теоретический прогноз говорит о неэффективном использовании ресурсов, в домашних условиях. Тут как Rilian сказал, разве что взять большим количеством ядер =). Число в 5 раз медленней это я оптимистично прикинул, на эквивалент...) насколько я понял, для одной большой молекулы тестируется множество состояний (вариантов конформации) на предмет выполнения определенного критерия (вычисление энергии связей, отбор значений с минимумом энергии), т.е. время вычислений большое из-за того, что число атомов велико и нужно выполнять просчет их взаимного расположения при каждом новом варианте конформации молекулы. нуу не совсем.. Есть 6 степеней свободы, есть белок, есть вода и соли, которые на базе силового поля (растояние между атомами и т.д) и прочих условий симуляции как давления и температура выполняют ньютоновские движения. Более конкретно и кратко можно почитать десь http://www.library.biophys.msu.ru/MolDyn . Да, здесь есть зависимость от чиста участвующих атомов, количества воды в боксе и т.д. В примитивном варианте выгладит так ![]() Кроме того ещё что-то там меняется во времени - я так и не понял, что же это за наносекунды, которых нужно хотя бы 1000? нет, это я к тому, что до 2010 года мы расчеты динамики проводили до 100 нс, теперь ходим увеличить время до 1000нс, чтоб получить больше статистики. Из остатков выветривающихся знаний могу предположить, что это симуляция естественного времени жизни молекулы белка при переходе из вторичной (или первичной?) структуры в третичную. Хотя наверняка это моё ложное предположение, ибо: насколько я помню, третичная структура является стабильной, т.е. её конформация не меняется с момента формирования и до действия внешнего фактора. Тогда нет разницы сколько будет длиться симуляция, важно просто достичь отсутствия новых, более удачных конформаций. увидеть фолдинг для нас мечта =) Объект слишком большой и требует большого расчетного времени. А так у нас целый димер, тоесть можно сказать вся четвертичная. =) Т.е. вся эта система очень быстро получает новые задания, отталкиваясь от результатов предыдущих вычислений. Кстати, не представляю себе - есть ли в кластере какой-то особый, координирующий узел (аппаратный) или аппаратно все равны, а вся корректировка заложена в общем алгоритме программы. получается так, расечты самого процесса МД, ведутся по фреймам (кадрам). В каждый фрейм заложены скоростя атомов, которые используются для последущего.. Принцип цепочки. Но для расчета одного фрейма, идет распределение вычислений по узлам и ядрам. Вот почему можно хорошо распараллелить, но при этом критично к задержкам.Т.е. грубо говоря вычисления в кластере линейны во времени: чтобы начался расчет кластера на 100-м часу его работы, нужно выполнить 99 часов предыдущих вычислений. И вся эта махина - считает много суток. Так как же "порезать" этот большой последовательно выполняющийся алгоритм на кучу маленьких для 1CPU@3.0GHz? В голову приходит только такой метод, когда на довольно мощном (кластере) выполняется какой-то предварительный расчет, относительно быстрый и неточный, но с точным определением границ. А уже множество клиентских CPU будут уточнять тот предварительный результат. этого я уже не знаю. Просто интересная тема, но ничего не понятно Плохо, что Планетачка все ещё не написал/а свой диплом (хотя кто б говорил, я свой доделывал в последние часы ) понимаю, сложно, но стараюсь объяснять. да, была бы неплохая дипломная работа для студента, с практической реализацией по всему миру, для украинского проекта =)) Хотя тут мало что придется своего писать, тут скорее проблема в настройках и адаптации. -------------------- |
![]() ![]() |
![]() |
Lo-Fi Версія | Поточний час: 4th August 2025 - 07:07 |