![]() |
Привіт Гість ( Вхід | Реєстрація )
![]() |
Burzum |
![]()
Пост
#1
|
![]() D.NET'чик ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() Група: Trusted Members Повідомлень: 1 113 З нами з: 27-April 05 З: Вінниця-Kиїв-Львів Користувач №: 106 Стать: Чол Парк машин: Майже 0 ГГц ![]() |
![]() ![]() Считаем проект видеокартами NVIDIA ТРЕБОВАНИЯ: 6.10+ версия БОИНКменеджера 384 и больше видеопамяти 19х.хх и выше дрова (на 182.хх не пашет!) (сходть к нвидии за дровами) Поставить в своей панели управления галочку напротив Use NVIDIA GPU if present (enforced by 6.10+ clients) ПОЛЕЗНЫЕ ССЫЛКИ: Самые свежие дрова от NVIDIA: http://www.nvidia.ru/Download/index.aspx?lang=ru Полая информация о вашей видеокарте, технические характеристики, текущие частоты и загрузка: http://www.techpowerup.com/gpuz/ Разгон и мониторинг видеокарт NVIDIA: http://www.evga.com/precision/ (отдается качать только через логин, но свежую версию можно и нагууглить на другом зеркале) Статистика по длине заданий на оффоруме: http://www.primegrid.com/forum_thread.php?id=2674 ЧТО СЧИТАЕМ: В данный момент (03.01.2012) для расчетах на видеокарте доступно два подпроекта: Proth Prime Search Sieve ( PPS Sieve) 4523 -> 4127 -> 2251 -> 3371 кредитов / задание Cullen/Woodall Sieve (GCW Sieve) 364.43 кредита / задание Generalized Fermat Prime Search (Genefer) 3600 кредитов / задание ВОПРОС: воткнул в систему две видеокарты разных поколений. Боинк видит только одну. Как заставить его видеть и вторую? ОТВЕТ: Для того чтобы две разные видеокарты заработали на одной системе достаточно в файле cc_config.xml который (в висте) лежит в ...ProgramData\BOINC прописать следующее: <cc_config> <options> <use_all_gpus>1</use_all_gpus> </options> </cc_config> Ели файла нет - то его нужно создать. АРХИВ: (Show/Hide) Це повідомлення відредагував x3mEn: Jan 30 2012, 22:07 |
![]() ![]() |
Bel |
![]()
Пост
#2
|
![]() Мега ранчер ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() Група: Trusted Members Повідомлень: 1 287 З нами з: 3-September 10 Користувач №: 1 476 Стать: Чол ![]() |
Из WCG форума..
================== 23/03/2012 14:12:49 | | Starting BOINC client version 6.12.34 for windows_x86_64 23/03/2012 14:12:49 | | OS: Microsoft Windows 7: Ultimate x64 Edition, Service Pack 1, (06.01.7601.00) 23/03/2012 14:12:49 | | NVIDIA GPU 0: GeForce GTX 680 (driver version 30110, CUDA version 4020, compute capability 3.0, 2048MB, 361 GFLOPS peak) 23/03/2012 19:26:49 | | Starting BOINC client version 7.0.18 for windows_x86_64 23/03/2012 19:26:49 | | OS: Microsoft Windows 7: Ultimate x64 Edition, Service Pack 1, (06.01.7601.00) 23/03/2012 19:26:49 | | NVIDIA GPU 0: GeForce GTX 680 (driver version 301.10, CUDA version 4.20, compute capability 3.0, 2048MB, 1899MB available, 50 GFLOPS peak) 23/03/2012 19:26:49 | | OpenCL: NVIDIA GPU 0: GeForce GTX 680 (driver version 301.10, device version OpenCL 1.1 CUDA, 2048MB, 1899MB available) His feeling is that 361 GFLOPS peak under BOINC v6.12.34 is an under-estimate, and 50 GFLOPS peak under BOINC v7 is certainly wrong. We need a handler for CC 3.0, and some numbers to plug into it. In code, he is getting prop.major == 3 prop.minor == 0 prop.clockRate == 705500 CU_DEVICE_ATTRIBUTE_CLOCK_RATE prop.multiProcessorCount == 8 CU_DEVICE_ATTRIBUTE_MULTIPROCESSOR_COUNT ================== Of course, the next client will understand the NVidia 3.0 drivers: "The 50 GFLOPS is the default when BOINC can't figure out anything else. This was the case because it didn't have any code for compute capability 3.x. I added the following to COPROC_NVIDIA::set_peak_flops(): case 3: default: flops_per_clock = 2; cores_per_proc = 128; I don't know if these are correct. It's too bad that NVIDIA doesn't have an API for getting these. Clock rate: the client uses a function called cuDeviceGetAttribute() to get it. NvAPI_GPU_GetAllClockFrequencies returned zero hits on Google." -- David |
![]() ![]() |
![]() |
Lo-Fi Версія | Поточний час: 3rd August 2025 - 08:24 |