SLinCA@Home

SLinCA@Home
ТипГрід, розподілені обчислення, волонтерські обчислення
РозробникІМФ НАН України
Перший випуск14 вересня 2010
ПлатформаBOINC, SZTAKI Desktop Grid, XtremWeb-HEP, OurGrid
Операційна системаLinux, Windows
Стан розробкиАльфа
Вебсайтdg.imp.kiev.ua

SLinCA@Home (Scaling Laws in Cluster Aggregation — Інваріантність щодо масштабу|Масштабоінваріантні закономірності в агрегації кластерів) — це науково-дослідний проект, який використовує комп'ютери, з'єднані глобальною мережею Інтернет, для досліджень в галузі матеріалознавства.

Вступ

[ред. | ред. код]

SLinCA@Home заснований групою наукових співробітників з Інституту металофізики ім. Г. В. Курдюмова (ІМФ) [Архівовано 3 березня 2022 у Wayback Machine.] Національної академії наук України (НАН України), Київ, Україна. Цей проект використовує програмне забезпечення Berkeley Open Infrastructure for Network Computing (BOINC) [Архівовано 17 лютого 2011 у Wayback Machine.], платформу SZTAKI Desktop Grid, та API для розподілених обчислень (DC-API) від SZTAKI. SLinCA@Home включає декілька наукових програм присвячених пошуку масштабоінваріантних закономірностей в експериментальних даних і результатах комп'ютерного моделювання.

Історія

[ред. | ред. код]

Проект SLinCA@Home раніше був запущений в січні 2009 р. як частина проекту EDGeS [Архівовано 20 січня 2022 у Wayback Machine.] Сьомої Рамкової Програми (Seventh Framework Programme — FP7) [Архівовано 26 лютого 2011 у Wayback Machine.] Європейського Союзу (ЄС) для фінансування наукових досліджень і технологічного розвитку в Європі. У 2009—2010 він використовував потужності локального «Настільного Гріда» (НГ) [Архівовано 1 березня 2011 у Wayback Machine.] ІМФ [Архівовано 3 березня 2022 у Wayback Machine.], але із грудня 2010 року використовує інфраструктуру розподілених обчислень, яка надається волонтерами для вирішення складних обчислювальних завдань, пов'язаних з пошуком масштабоінваріантних закономірностей в експериментально отриманих та модельованих наукових даних. Зараз проект управляється групою вчених з ІМФ [Архівовано 3 березня 2022 у Wayback Machine.] НАН України у тісній співпраці з партнерами з IDGF [Архівовано 24 лютого 2011 у Wayback Machine.] та Distributed Computing team 'Ukraine' [Архівовано 14 березня 2022 у Wayback Machine.]. З червня 2010 SLinCA@Home працює в рамках проекту DEGISCO FP7 [Архівовано 26 лютого 2011 у Wayback Machine.] ЄС.

Поточний статус

[ред. | ред. код]
SLinCA@Home — продуктивність за 4 тижні, станом на 16 березня 2011.

Зараз SLinCA@Home має статус альфа-версії, що пов'язано з поступовою модернізацією серверної і клієнтської частин.

За неофіційною статистикою BOINCstats [Архівовано 8 липня 2011 у Wayback Machine.] (станом на 16 березня 2011) більш ніж 2000 волонтерів з 39 країн взяли участь у проекті, зробивши його другим за популярністю BOINC проектом в Україні (після проекту Magnetism@Home [Архівовано 3 червня 2011 у Wayback Machine.], який зараз не активний).[1] Близько 700 активних користувачів забезпечують приблизно 0.5-1.5 TFLOPS[2] обчислювальної потужності, яка дозволила б SLinCA@Home потрапити в найкращу 20-ку списку TOP500 [Архівовано 12 грудня 1998 у Wayback Machine.] суперкомп'ютерів … станом на червень 2005 року.[3] :)

Зараз, одну програму (SLinCA) запущено на відкритій глобальної інфраструктурі розподілених обчислень (SLinCA@Home), а три інших (MultiScaleIVideoP, CPDynSG, LAMMPS через ІРО) перебувають в стадії тестування на закритому локальному Настільному Гріді (НГ) [Архівовано 1 березня 2011 у Wayback Machine.] ІМФ [Архівовано 3 березня 2022 у Wayback Machine.].

Програми

[ред. | ред. код]

Проект SLinCA@Home був створений для пошуку невідомих раніше масштабоінваріантних закономірностей за результатами експериментів і моделювання в наступних наукових програмах

Scaling Laws in Cluster Aggregation (SLinCA)

[ред. | ред. код]
SLinCA
ТипГрід, розподілені обчислення, волонтерські обчислення
РозробникІМФ НАН України
Перший випуск24 липня 2007
ПлатформаBOINC, SZTAKI Desktop Grid, XtremWeb-HEP, OurGrid
Операційна системаLinux (32-bit), Windows (32-bit)
Мова програмуванняC, C++
Стан розробкиАктивний
Вебсайтdg.imp.kiev.ua

SLinCA (Scaling Laws in Cluster Aggregation) є першою програмою портованою на DG інфраструктуру лабораторією фізики деформаційних процесів ІМФ [Архівовано 3 березня 2022 у Wayback Machine.] НАН України. Її метою є знайти закони масштабної інваріантності в кінетичному сценарії агрегації мономеру в кластерах різних видів і в різних наукових областях.

Процеси агрегації кластерів досліджуються в багатьох галузях науки: агрегації дефектів в матеріалознавстві, динаміці популяцій в біології, рості і розвитку міст в соціології, і т. д. Існуючі експериментальні дані свідчать про наявність ієрархічної структури на багатьох масштабних рівнях. Наявні теорії пропонують безліч сценаріїв агрегації кластерів, формування ієрархічних структур, і пояснення їх масштабоінваріантних властивостей. Для їх перевірки необхідно використовувати потужні обчислювальні ресурси для обробки величезних баз даних експериментальних результатів. Звичайне моделювання одного процесу агрегації кластерів з 106 мономерами займає приблизно 1-7 днів на одному сучасному процесорі, в залежності від кількості кроків у методі Монте-Карло. Виконання SLinCA в Гріді в інфраструктурі розподілених обчислень (ІРО), дозволяє використовувати сотні машин з достатньою обчислювальною потужністю для моделювання безлічі сценаріїв за набагато більш короткі терміни.

Типові технічні параметри для запуску ІРО-версії програми SLinCA в глобальній відкритій інфраструктурі розподілених обчислень (ІРО) (SLinCA@Home):

  • Поточні умови для 1 завдання на 1 ядро процесора (2.4 GHz): час виконання ~2-4 години; RAM<60 Мб; НЖМД<40 Мб.
  • Чекпойнтінг[що це?]: н/д (в процесі тестування).
  • Хронометраж виконання завдань: нелінійний.
Наукові результати
[ред. | ред. код]

Попередні результати програми SLinCA були отримані на EGEE обчислювальних ресурсах тестових інфраструктур CETA-CIEMAT та XtremWeb-HEP LAL; опубліковані в 2009 в стендовій доповіді 4th EDGeS training event and 3rd AlmereGrid Workshop, Алмере, Нідерланди (29-30 Березня, 2009).[4]

Плани на майбутнє
[ред. | ред. код]

Поточна версія програми SLinCA буде оновлена ​​для стабільності чекпоінта, нової функціональності та підтримки NVIDIA GPU-розрахунків для виконання аналізу швидше (за оцінками від 50 до 200 % швидше). Додаткова мета — це міграція на платформу OurGrid [Архівовано 13 червня 2021 у Wayback Machine.] для тестування і демонстрації потенційних механізмів взаємодії між світовими спільнотами з різними парадигмами розподілених обчислень. SLinCA планується портувати на платформу OurGrid [Архівовано 13 червня 2021 у Wayback Machine.], орієнтовану на підтримку пірінгових настільних грідів, які, за своєю природою, дуже відрізняються від волонтерських розподілених обчислень на базі «Настільного Гріда» (НГ) [Архівовано 1 березня 2011 у Wayback Machine.], як SZTAKI Desktop Grid.

Multiscale Image and Video Processing (MultiScaleIVideoP)

[ред. | ред. код]
MultiScaleIVideoP
ТипГрід, розподілені обчислення, волонтерські обчислення
РозробникИМФ НАН України (оболонка для середовища РО), Mathworks (бібліотеки MATLAB)
Перший випуск11 січня 2008
ПлатформаMATLAB, BOINC, SZTAKI Desktop Grid, XtremWeb-HEP
Операційна системаLinux (32-bit), Windows (32-bit)
Мова програмуванняC, C++, MATLAB
Стан розробкиАльфа
Вебсайтdg.imp.kiev.ua

Оптична мікроскопія зазвичай використовується для аналізу структурних характеристик матеріалів у вузьких діапазонах збільшення, невеликої досліджуваної області, і в статичному режимі. Однак безліч критичних процесів, пов'язаних з початком і динамічним поширенням руйнування спостерігаються в широкому часовому діапазоні від 10 −3с до 10 3с і на багатьох масштабних рівнях від 10 −6м (одиночні дефекти) до 10 −2м (пов'язані мережі дефектів). Програма Multiscale Image and Video Processing (MultiscaleIVideoP) призначена для обробки записаної еволюції матеріалів під час механічної деформації на випробувальній машині. Розрахунки включають в себе безліч параметрів фізичного процесу (швидкість, зусилля, збільшення, умови освітлення, апаратні фільтри, і т. д.) і параметрів обробки зображення (розподіл за розмірами, анізотропія, локалізація, параметри масштабування і т. д.). Тому розрахунки дуже трудомісткі і виконуються дуже повільно. Ось чому з'явилася крайня необхідність використання потужніших обчислювальних ресурсів. Виконання цієї програми в інфраструктурі розподілених обчислень (ІРО), дозволяє використовувати сотні машин з достатньою обчислювальною потужністю для обробки зображень і відео в більш широкому діапазоні масштабів і за набагато більш короткі терміни.

Типові технічні параметри для запуску ІРО-версії програми MultiScaleIVideoP на закритому локальному Настільному Гріді (НГ) [Архівовано 1 березня 2011 у Wayback Machine.] ІМФ [Архівовано 3 березня 2022 у Wayback Machine.] :

  • Поточні умови для 1 завдання на 1 ядро процесора (2.4 GHz): час виконання ~ 20-30 хв; RAM<200 Мб; НЖМД<500 Мб.
  • Чекпойнтінг: н/д (в процесі тестування).
  • Хронометраж виконання завдань: лінійний.
Наукові результати
[ред. | ред. код]

Попередні результати програми MultiScaleIVideoP були отримані на EGEE обчислювальних ресурсах тестових інфраструктур CETA-CIEMAT і XtremWeb-HEP LAL; опубліковані в 2009 в стендовій доповіді 4th EDGeS training event and 3rd AlmereGrid Workshop, Алмере, Нідерланди (29-30 березня, 2009).[5]

У січні, 2011 були отримані і опубліковані подальші результати обробки даних відеоспостереження в ході експериментів з циклічним обмеженим навантаженням алюмінієвої фольги.[6]

Плани на майбутнє
[ред. | ред. код]

Поточна версія програми MultiScaleIVideoP буде оновлена ​​для стабільності чекпоінта, нової функціональності та підтримки NVIDIA GPU-розрахунків для виконання аналізу швидше (за оцінками від 300 до 600 % швидше).

City Population Dynamics and Sustainable Growth (CPDynSG)

[ред. | ред. код]
CPDynSG
ТипГрід, розподілені обчислення, волонтерські обчислення
РозробникИМФ НАН України
Перший випуск14 квітня 2010
ПлатформаBOINC, SZTAKI Desktop Grid
Операційна системаLinux (32-bit), Windows (32-bit)
Мова програмуванняC, C++
Стан розробкиАльфа
Вебсайтdg.imp.kiev.ua

Відомо, що зростання міст (муніципалітетів, округів тощо) пояснюється міграцією, злиттям, зростанням населення і т. д. Відмічено, що розподіл міст за їх розмірами в багатьох країнах підпорядковується статичному закону. Ця залежність підтверджується даними для популяцій в різних містах в період їх початкової історії. Населення у всіх великих містах зростає набагато швидше, ніж країна в цілому за значний діапазон часу. Однак, як і в містах, які досягли зрілості, їх зростання може сповільнитися або кількість населення може навіть знизитися з причин, не пов'язаних з міграцією в ще більші міста. Різні теорії дають темпи зростання, асимптотики, і розподілу таких груп населення. Важливою особливістю програми є порівняння наявних теорій з даними спостережень та прогнозування сценаріїв динаміки стійкого зростання населення для різних національних і міжнародних регіонів. Програма City Population Dynamics and Sustainable Growth (CPDynSG) дозволяє дослідити зв'язок між величезним обсягом експериментальних даних і знайти якісну відповідність між передбаченнями різних моделей і наявними історичними даними.

Типові технічні параметри для запуску ІРО-версії програми CPDynSG на закритому локальному Настільному Гріді (НГ) [Архівовано 1 березня 2011 у Wayback Machine.] ІМФ [Архівовано 3 березня 2022 у Wayback Machine.] :

  • Поточні умови для 1 завдання на 1 ядро процесора (2.4 GHz): час виконання ~ 20-30 хв; RAM<20 Мб; НЖМД<50 Мб.
  • Чекпойнтінг: н/д (в процесі тестування).
  • Хронометраж виконання завдань: лінійний.
Наукові результати
[ред. | ред. код]

У червні-вересні 2010 року були отримані результати щодо концепції, результатів портування ІРО-версії програми CPDynSG на базі платформи Berkeley Open Infrastructure for Network Computing (BOINC) [Архівовано 17 лютого 2011 у Wayback Machine.], платформу SZTAKI Desktop Grid, і API для розподілених обчислень (DC-API) від SZTAKI, а також попередні результати для розподілу розмірів міст в кількох країнах Центральної та Східної Європи. Відзначена характерна ізоляція розподілу розмірів міст в Угорщині, а також виявлена дуже схожа еволюція розподілу за розмірами міст в Україні та Польщі. Ці результати були представлені на Cracow Grid Workshop'10 [Архівовано 28 липня 2011 у Wayback Machine.] (11-13 жовтня, 2010) в усній і стендовій[7] доповідях. Представлений стенд був відзначений нагородою «За найкращу стендову доповідь Cracow Grid Workshop'09».

Плани на майбутнє
[ред. | ред. код]

Поточна версія програми CPDynSG буде оновлена ​​для стабільності чекпоінта, нової функціональності та підтримки NVIDIA GPU-розрахунків для виконання аналізу швидше (за оцінками від 50 до 200 % швидше).

Large-scale Atomic/Molecular Massively Parallel Simulator (LAMMPS) в інфраструктурі розподілених обчислень (ІРО)

[ред. | ред. код]
LAMMPS в ІРО
ТипГрід, розподілені обчислення, волонтерські обчислення
РозробникІМФ НАН України (оболонка для середовища РО), Sandia National Laboratories (LAMMPS itself)
Перший випуск4 серпня 2010
ПлатформаBOINC, SZTAKI Desktop Grid
Операційна системаLinux (32-bit), Windows (32-bit)
Мова програмуванняC, C++
Стан розробкиАльфа
Вебсайтdg.imp.kiev.ua

Пошук нових нанорозмірних функціональних пристроїв став справжнім «Ельдорадо» сучасної науки і він стимулює «Золоту лихоманку» в сучасному матеріалознавстві. Але контрольоване виробництво нанорозмірних функціональних пристроїв вимагає ретельного вибору і настройки критичних параметрів (елементів, потенціалів взаємодії, режимів зовнішнього впливу, температури тощо) атомної самоорганізації в розроблюваних моделях і структурах для наномасштабних функціональних пристроїв. Ось чому молекулярно-динамічне моделювання процесів нановиробництва з декомпозицією фізичних параметрів і перебором параметрів методом «грубої сили» є досить перспективним. Для цієї мети був вибраний дуже популярний некомерційний пакет з відкритим кодом LAMMPS «Large-scale Atomic / Molecular Massively Parallel Simulator» (LAMMPS) [Архівовано 22 вересня 2006 у Wayback Machine.] від Sandia National Laboratories [Архівовано 15 березня 2022 у Wayback Machine.] як кандидат для портування в інфраструктуру розподілених обчислень (ІРО) на основі платформи Berkeley Open Infrastructure for Network Computing (BOINC) [Архівовано 17 лютого 2011 у Wayback Machine.], SZTAKI Desktop Grid, і API для розподілених обчислень (DC-API) від SZTAKI. Як правило, для такого моделювання нанооб'єктів з багатьма параметрами потрібно надзвичайно багато обчислювальних ресурсів. Типове моделювання досліджуваних наноструктур для однієї конфігурації фізичних параметрів — наприклад, для моделювання фізичних процесів протягом 1-10 пікосекунд металевих монокристалів (Al, Cu, Mo, ітд.) З 10 7 атомів — потрібно приблизно 1 — 7 днів на одному сучасному процесорі. Виконання LAMMPS в Гріді в інфраструктурі розподілених обчислень (ІРО) дозволяє використовувати сотні машин одночасно і отримумати величезну кількість обчислювальних ресурсів для проведення моделювання в широкому діапазоні фізичних параметрів (конфігурацій) і в набагато більш короткі терміни .

Типові технічні параметри для запуску ІРО-версії програми MultiScaleIVideoP на закритому локальному Настільному Гріді (НГ) [Архівовано 1 березня 2011 у Wayback Machine.] ІМФ [Архівовано 3 березня 2022 у Wayback Machine.] :

  • Поточні умови для 1 завдання на 1 ядро процесора (2.4 GHz): час виконання ~ 2-48 годин; RAM<500 Мб; НЖМД<1 Гб.
  • Чекпойнтінг: н/д (в процесі тестування).
  • Хронометраж виконання завдань: лінійний.
Наукові результати
[ред. | ред. код]

У вересні-жовтні 2010 отримані попередні результати були представлені в усній презентації на Міжнародній Конференції «Наноструктурні матеріали-2010»[недоступне посилання з лютого 2019], Київ, Україна [8]

Плани на майбутнє
[ред. | ред. код]

Поточна версія LAMMPS із застосуванням програми ІРО буде оновлена ​​для стабільності чекпоінта, нової функціональності та підтримки NVIDIA GPU-розрахунків для виконання аналізу швидше (за оцінками від 300 до 500 % швидше).

Партнери

[ред. | ред. код]

SLinCA@Home співпрацює з

Нагороди

[ред. | ред. код]

[[Файл:CGW 2010 best poster award.jpg|thumb|right|150px|Партнер IDGF [Архівовано 24 лютого 2011 у Wayback Machine.] Юрій Гордієнко з дипломом за найкращий постер на CGW'10 [Архівовано 25 липня 2011 у Wayback Machine.].]]

Див. також

[ред. | ред. код]

Примітки

[ред. | ред. код]
  1. BOINCstats project statistics, архів оригіналу за 8 липня 2011, процитовано 16 березня 2011
  2. SLinCA@Home Server Status. Архів оригіналу за 21 лютого 2011. Процитовано 21 березня 2011. [Архівовано 2011-02-21 у Wayback Machine.]
  3. Comparison with TOP500 supercomputers, June, 2005, архів оригіналу за 28 липня 2011, процитовано 16 березня 2011 [Архівовано 2011-07-28 у Wayback Machine.]
  4. O. Gatsenko; O. Baskova, and Y. Gordienko (March, 2009). Kinetics of Defect Aggregation in Materials Science Simulated in Desktop Grid Computing Environment Installed in Ordinary Material Science Lab (PDF). Proceedings of 3rd AlmereGrid Workshop. Архів оригіналу (PDF) за 23 лютого 2011. Процитовано 16 березня 2011. [Архівовано 2011-02-23 у Wayback Machine.]
  5. O. Baskova; O. Gatsenko, and Y. Gordienko (March, 2009). Porting Multiparametric MATLAB Application for Image and Video Processing to Desktop Grid for High-Performance Distributed Computing (PDF). Proceedings of 3rd AlmereGrid Workshop. Архів оригіналу (PDF) за 23 лютого 2011. Процитовано 16 березня 2011. [Архівовано 2011-02-23 у Wayback Machine.]
  6. O. Baskova; O. Gatsenko, O. Lodygensky, G. Fedak, and Y. Gordienko (January, 2011). Statistical Properties of Deformed Single-Crystal Surface under Real-Time Video Monitoring and Processing in the Desktop Grid Distributed Computing Environment. Т. 465. Key Engineering Materials. с. 306—309. Архів оригіналу за 26 липня 2012. Процитовано 16 березня 2011.
  7. а б O. Gatsenko; O. Baskova, and Y. Gordienko (February, 2011). Simulation of City Population Dynamics and Sustainable Growth in Desktop Grid Distributed Computing Infrastructure. Proceedings of Cracow Grid Workshop'10. Процитовано 16 березня 2011.
  8. O. Baskova; O. Gatsenko, O. Gontareva, E. Zasimchuk, and Y. Gordienko (19-22 October, 2011). Scale-Invariant Aggregation Kinetics of Nanoscale Defects of Crystalline Structure (Масштабно-інваріантна кінетика агрегації нанорозмірних дефектів кристалічної будови) (PDF). Online Proceedings of “Nanostructured materials-2010”. Архів оригіналу (PDF) за 26 липня 2012. Процитовано 16 березня 2011.
  9. O. Baskova; O. Gatsenko, and Y. Gordienko (February, 2010). Scaling-up MATLAB Application in Desktop Grid for High-Performance Distributed Computing - Example of Image and Video Processing (PDF). Proceedings of Cracow Grid Workshop'09. с. 255—263. ISBN 9788361433019. Архів (PDF) оригіналу за 26 липня 2012. Процитовано 16 березня 2011.

Посилання

[ред. | ред. код]