Подписаться на новости
  • Сенатор
  • ООО "Ай Вао"
  • Vitacoin
  • БиоМолТекст17

Распределенные вычисления: волонтеры на службе науки

Максим Малаховский,
Интернет-журнал «Распределенные вычисления»

Со времен создания первого арифмометра и до наших дней ученые всех специальностей продолжают сетовать на нехватку вычислительных ресурсов. Для особенно сложных вычислений используют запредельно дорогие в изготовлении и обслуживании, занимающие целые здания суперкомпьютеры. Но те же задачи можно выполнить с помощью обычных персоналок и даже игровых приставок – если взяться всем миром.

Гулливеры и лилипуты

Суперкомпьютерами принято называть вычислительные системы огромной производительности, которые состоят из большого количества вычислительных узлов, объединенных в единый аппаратный ресурс. Например, отечественный суперкомпьютер СКИФ МГУ содержит 1250 мощных 4-ядерных процессоров, собранных в 625 вычислительных узла на 14 монтажных шкафах. Со всей инфраструктурой СКИФ занимает помещение размером с небольшой спортзал.

ГОЛИАФЫ ВЫЧИСЛИТЕЛЬНОГО МИРА
Реальную вычислительную производительность суперкомпьютера принято определять по скорости решения методом Гаусса специальной задачи Linpack (системы из тысяч линейных уравнений). В качестве единицы измерения производительности служит Flop/s (англ. Floating point operations per second) – количество арифметических операций, выполняемых за секунду. Суперкомпьютеры способны производить триллионы операций в секунду (TFflop/s, терафлоп).
Согласно рейтингу самых производительных суперкомпьютеров мира (www.top500.org) по состоянию на ноябрь 2008 года лидирует суперкомпьютер Roadrunner из Аламосской национальной лаборатории в Нью-Мексико (США) с производительностью 1105 терафлоп. Суперкомпьютер Roadrunner применяется для моделирования подземных испытаний ядерного оружия, за что был окрещен прессой Military Supercomputer.
Российские суперкомпьютеры, в отличие от их американского «коллеги», используются на благо мирной науки. Суперкомпьютер МВС-100К из Межведомственного суперкомпьютерного центра РАН показывает скорость вычислений на уровне 71 терафлоп и занимает 35-ю строчку мирового рейтинга, что не мешает ему быть самым мощным суперкомпьютером в России и Восточной Европе. Второй по мощности российский суперкомпьютер СКИФ МГУ с более скромными 47 терафлоп расположился на 54-м месте.
МВС-100К и другие суперкомпьютеры МСЦ РАН принимают участие в общеевропейской системе DEISA – Distributed European Infrastructure for Supercomputing Applications, Распределенная европейская инфраструктура для суперкомпьютерных приложений (www.deisa.eu), которая объединяет 11 ведущих национальных европейских суперкомпьютерных центров.
Roadrunner, МВС-100К и СКИФ МГУ относится к суперкомпьютерам кластерного типа, которые все больше вытесняют супервычислители на базе интегральных схем. Основным преимуществом кластерных суперкомпьютеров является простота наращивания производительности с помощью установки новых и модернизации существующих вычислительных узлов, собранных из обычных компьютерных комплектующих.


Roadrunner – первый среди суперов.

Особняком от суперкомпьютеров держатся менее производительные вычислительные системы – кластеры, в которых функция вычислительных узлов возложена на автономные компьютеры, подключенные к скоростной сети обмена данными. Компьютеры, входящие в кластер, могут находиться в разных помещениях и даже зданиях – всюду, куда можно протянуть высокоскоростной сетевой кабель. Многие научно-исследовательские центры и крупные университеты отдают предпочтение именно кластерам, как дешевой альтернативе суперкомпьютерам, используя для этих целей парк своей компьютерной техники.

Суперкомпьютеры и кластеры различаются только внешне, по сути же они работают схожим образом и относятся к системам параллельных сетевых вычислений – grid-сетям (англ. grid – решетка, сетка). Этот тип вычислений отличается скоростным взаимодействием между собой вычислительных узлов, что позволяет моделировать протекание сложных природных процессов. Например, в 2005 году с помощью кластера из 27 компьютеров исследовательской группе Евгения Ижикевича из Института нейронаук (Сан-Диего, США) за 50 суток удалось смоделировать 1 секунду работы 100 миллиардов нейронов человеческого мозга, содержащих квадриллион синапсов.


На рисунке – упрощенная схема таламо-кортикальных взаимодействий из опубликованной в PNAS в 2008 г. статьи Ижикевича и нобелевского лауреата Джеральда Эдельмана Large-scale model of mammalian thalamocortical systems. В дополнительных материалах к статье приведены два ролика, на которых можно увидеть результаты их работы в реальном времени.

Прогнозирование погоды тоже требует значительных вычислительных мощностей – тем больших, чем более точный прогноз мы хотим получить. Как раз с этой целью Гидрометцентр России недавно обзавелся новым 30-тонным суперкомпьютером с производительностью вычислений 27 терафлоп. Эта машина существенно повысила детализацию и быстроту гидродинамического моделирования процессов в атмосфере и океане, выдавая более точные и оперативные прогнозы погоды.

Каждый час работы суперкомпьютеров расписан на многие месяцы вперед. Многочисленные исследовательские группы чуть ли не дерутся между собой, чтобы получить доступ к консолям вычислительных гигантов. И в то же время в мире простаивают без дела технические средства с совокупной мощностью, способной заткнуть за пояс весь TOP500 самых производительных суперкомпьютеров мира. Этот пока малоосвоенный резерв – наши домашние и рабочие персональные компьютеры. Любой из них можно присоединить к глобальной сети распределенных вычислений (distributed computing), которая обеспечила десятки научных проектов недостающими вычислительными ресурсами.

На домашних и офисных компьютерах центральные процессоры большую часть времени работают на «холостом» ходу – их загрузка не превышает нескольких процентов, даже когда пользователь работает в текстовом редакторе или слушает музыку. Предоставив пропадающее даром процессорное время на нужды науки, владелец ПК не чувствует неудобств (кроме разве что шума от вентиляторов из-за повышенного тепловыделения процессора) – вычисления выполняются с минимальным приоритетом, не сказываясь на работе других программ, играх, просмотре фильмов или других развлечениях. Соединение с Интернет необходимо лишь для отправки результатов на сервер и получения новых заданий – расходы на трафик вырастут незначительно на фоне обычных прогулок в сети.

Распределенные вычисления прекрасно справляются с задачами перебора – например, при поиске простых чисел или совпадения конфигурации молекул потенциальных лекарственных веществ и белков-мишеней, с обработкой данных прямых наблюдений в радиоастрономии и астрофизике, с крупномасштабным моделированием природных процессов, а также с разработкой математического аппарата научных исследований. Такая специализация объясняется трудностями налаживания эффективного взаимодействия между разбросанными по всему миру персоналками. Поэтому общая вычислительная задача не «заглатывается» целиком, как в grid-сетях, а разбивается на отдельные блоки, обсчитываемые на разных компьютерах в произвольном порядке и независимо друг от друга.

Значительно уступая профессиональным кластерным системам в удельной производительности на единичный процессор, ПК, ноутбуки и сервера участников распределенных вычислений берут числом: их армия растет стремительными темпами, тогда как запуск новых суперкомпьютеров – событие редкое, попадающее в выпуски новостей.

Ярким примером того, насколько эффективным может стать вовлечение пользователей персоналок в научные исследования, является проект Folding@home, организованный Виджаем Панде (Vijay Pande) из Стенфордского университета для моделирования фолдинга белков человеческого организма. Более 400 000 только постоянно подключенных процессоров «разогнали» проект до 5000 терафлоп. Никакой суперкомпьютер не выдержит конкуренции с распределенной сетью такой производительности, да еще ежедневно увеличивающей вычислительный потенциал за счет новых участников. Даже рекордсмен Roadrunner может похвастаться всего 1105 терафлоп при 129 600 процессорных ядрах.

ЭТИ ВАЖНЫЕ КИРПИЧИКИ ЖИЗНИ
Трудно переоценить значения белков для организма человека: ферменты участвуют в обмене веществ, тромбины помогают сворачивать кровь, иммуноглобулин защищает от болезнетворных бактерий и вирусов, гемоглобин транспортирует кислород к тканям и т.д. Эти функции белки начинают выполнять после сворачивания (фолдинга) из первоначальной линейной цепочки аминокислот в строго определенную трехмерную молекулярную структуру. Отклонения от заданной формы ведут к нарушениям свойств белка или полной его неработоспособности, а накопление неправильно свернувшихся белков в человеческом организме вызывает ряд тяжелых заболеваний: многие формы рака, болезни Альцгеймера, Паркинсона и Хантингтона, склероз, коровье бешенство, диабет II типа и многие другие.
За девятилетнюю историю развития проекту Folding@home удалось пролить свет на многие проблемы молекулярной биологии и вплотную приблизиться к давней мечте биофизиков – разгадке тайны фолдинга. Для этих целей к проекту привлечены сотни тысяч волонтеров, процессоры, видеокарты и игровые приставки которых позволили создать наиболее мощную вычислительную систему в мире. Эта система помогла смоделировать структуру первого в истории искусственного белка, исследовать мутации генов, вызывающих генетические заболевания, а также изучать влияние множества внешних и внутренних факторов на сворачивание малых и больших белков человеческого организма.

Знаменитый SETI@home – проект поиска радиосигналов из далекого космоса – располагает только 315 тысячами активных процессоров с общей скоростью выполнения операций 500 терафлоп. Хотя это и не самые высокие показатели в мире распределенных вычислений, но даже их хватает, чтобы занять почетное третье место в TOP500, оттеснив на четвертую строчку суперкомпьютер NASA – Pleiades (487 терафлоп).

Большинство проектов распределенных вычислений носят некоммерческий характер, хотя некоторые предлагают своим участникам денежное вознаграждение за искомое событие. Например, организаторы GIMPS (Great Internet Mersenne Prime Search) – проекта поиска простых чисел Мерсенна – обещают поделиться наградой в $150,000 за нахождение простого числа, состоящего из 100 миллионов цифр. Впрочем, это скорее исключение, чем правило: большинство ученых, организовавших проекты распределенных вычислений не планируют обогащения за счет использования компьютеров добровольцев и все полученные научные результаты размещают в открытом виде.

ЗОЛОТОЕ ЧИСЛО
Простыми называются числа, которое делятся на единицу и на самих себя. Числа Мерсенна – это простые числа вида 2n – 1, где n – натуральное число; названы так в честь математика Марена Мерсенна, жившего и работавшего в 17 веке во Франции. Числа Мерсенна имеют большое значение в теории чисел и криптографии.
Самое большое из известных человечеству простых чисел обнаружено 23 августа 2008 года на одном из компьютеров математического факультета Калифорнийского университета в Лос-Анджелесе (UCLA) в рамках проекта GIMPS. Это 45-е по счету простое число Мерсенна состоит из 12,978,189 разрядов и записывается в виде 243,112,609 – 1. Авторы открытия выиграли премию фонда Electronic Frontier Foundation в размере $100,000 за нахождение простого числа, содержащего более 10 млн. цифр.

Когда компьютеров еще не было

Распределенные вычисления имеют историю, которая началась еще во времена безраздельного господства счётов, как главного вычислительного инструмента.

В конце 18-го века правительство Франции решило существенно улучшить логарифмические и тригонометрические таблицы в преддверии введения метрической системы. Работа была связана с огромным по тем временам количеством расчетов, а потому ее поручили руководителю бюро переписи населения – барону Гаспару де Прони. В результате появилась его знаменитая «вычислительная мануфактура».

Барон смело взял на вооружение идею о разделении труда и перенес ее принципы на вычислительный процесс. Исполнители проекта были распределены на три уровня. Низший уровень в системе занимали обыкновенные люди-вычислители, от которых требовалось производить аккуратные арифметические действия. На втором уровне стояли образованные счетоводы, которые организовывали рутинный процесс, распределяя задания и обрабатывая полученные вычислителями данные. Высшую ступень занимали выдающиеся французские математики, среди которых были Адриен Лежандр и Лазар Карно, они готовили математическое обеспечение для вычислительной мануфактуры и обобщали полученные результаты. В итоге барону де Прони удалось организовать процесс таким образом, чтобы свести очень сложные задачи к набору рутинных операций, благодаря четкой системе контроля и хорошо отлаженной системе распределения работы между вычислителями. К сожалению, работа не была закончена из-за революционных событий 1799 года во Франции.

Идеи де Прони подтолкнули Чарльза Бэббиджа к созданию его «аналитической машины» – первого в истории прототипа ЭВМ. Компьютер на паровой тяге так и не заработал, а «вычислительные мануфактуры» применялись в исследовательских проектах вплоть до середины 20 века. В частности, их использовали при разработке первых ядерных бомб в США и Советском Союзе.

Когда компьютеры были большими

Идея совместного использования вычислительных ресурсов нескольких машин возникла еще на заре компьютерной эпохи. В 1973 г. Джон Шох и Жон Хапп из знаменитого калифорнийского научно-исследовательского центра Xerox PARC (Palo Alto Research Center), написали программу, которая по ночам запускалась в локальную сеть PARC, расползалась по работающим компьютерам и заставляла их выполнять вычисления.

Качественный скачок в обеспечении совместной работы многих компьютеров над единой задачей произошел с появлением первых персональных компьютеров и электронной почты. В 1988 г. Арьен Ленстра и Марк Менес написали программу для факторизации (разбиения на множители) длинных чисел. Для ускорения процесса программа могла запускаться на нескольких не связанных друг с другом машинах, каждая из которых обрабатывала свой небольшой фрагмент числа. Новые блоки заданий рассылались на компьютеры участников с центрального сервера проекта по обычной электронной почте. Для успешного разложения на множители числа длиной в сто знаков этому сообществу потребовалось два года и несколько сотен персональных компьютеров. С успешным завершением проекта Ленстра-Менеса на древе эволюции вычислительных систем выросла новая жизнеспособная ветвь – распределенные вычисления.

Развитие grid-сетей тем временем шло своим чередом и ознаменовалось в 1994 году появлением в NASA виртуального кластера «Беовульф», техническое и программное обеспечение для которого подготовили Дональд Бекер и Томас Стерлинг. «Беовульф» состоял из 16 обычных компьютеров, объединенных в единую скоростную сеть с постоянным обменом информации между процессорами. С момента появления кластерных вычислительных систем суперкомпьютеры утратили свое монопольное положение «королей» вычислительного мира.

После успешного окончания проекта Ленстра-Менеса в ходу были проекты различных математических исследований. В 1993 г. участники одного из таких проектов факторизовали число длиной 129, потом – 130 знаков. Затем пошла мода на поиск простых чисел. Эти проекты не отличались ни технической проработанностью, ни большим количеством участников. Но так продолжалось недолго.

Когда компьютеров стало много

28 января 1997 г. стартовал конкурс RSA Data Security на решение задачи взлома методом простого перебора 56-битного ключа шифрования информации RC5-32/12/7. Благодаря хорошей технической и организационной подготовке проект, организованный некоммерческим объединением distributed.net, быстро получил широкую известность и привлек внимание мировой общественности к распределенным вычислениям.

17 мая 1999 г. Дэвид Геди и Крэйг Кэснов из Лаборатории космических исследований Калифорнийского университета в Беркли запустили распределенный проект поиска сигналов внеземных цивилизаций SETI@home (SETI – Search for Extraterrestrial Intelligence at Home), который до сих пор остается одним из наиболее массовых проектов. Огромной популярности способствовало то, что впервые была переведена на рельсы распределенных вычислений интригующая научная задача, далекая от скучной факторизации или взлома очередного ключа.

ШУМНЫЕ СОСЕДИ
В ночь на 15 августа 1977 года радиотелескоп «Большое ухо» (Big Ear Radio Obsevatory)  университета Огайо зафиксировал на длине волны 21 см, шедший из созвездия Стрельца, радиовсплеск необычной природы. Сигнал значительно выделялся на фоне космического шума, а его мощность нарастала и ниспадала по кривой Гаусса, то есть соответствовала ожидаемым характеристикам искусственного сигнала внеземного происхождения. В ту ночь за оборудованием следил Джерри Эман, который на распечатке пометил полученный сигнал восторженным «wow!» («вау!»), под таким названием и вошедшего в историю проекта SETI. Сигнал был пойман лишь один раз – сколько «Большое ухо» ни сканировал после этот участок неба, но ничего, кроме обычного шума, больше поймать не удалось.
Другой известный случай обнаружения аномального сигнала произошел с помощью проекта распределенных вычислений SETI@home. На компьютеры его участников отправляются блоки заданий, «нарезанные» из записей космического шума радиотелескопа обсерватории Аресибо в Пуэрто-Рико. Анализируются узкий диапазон вокруг 1420 МГц, как теоретически наиболее перспективной радиочастоты для обнаружения сигналов от источников, расположенных в радиусе одной тысячи световых лет. В марте 2003 года на этой частоте был пойман таинственный сигнал, маркированный как SHGb02+14a, который шел из области космоса между созвездиями Овна и Рыб. Мощность радиосигнала существенно превосходила обычный уровень фонового шума, однако его амплитуда «дрейфовала» со скоростью до 37 Гц в секунду. Искусственная природа сигнала была поставлена под большое сомнение, хотя сам факт события весьма взбудоражил сообщество SETI и укрепил в решимости продолжать поиски внеземного разума.
Последний по времени загадочный всплеск радиоволн был зафиксирован в конце 2006 года сотрудниками Университета Западной Виржинии. Пиковая мощность миллисекундного затухающего сигнала была настолько большой по меркам радиоастрономии, что не позволила идентифицировать ни с одним известным космическим телом. Расстояние до источника всплеска оценивается в 1 миллиард световых лет в направлении галактики Малое Магелланово облако. Сигнал поймали на частоте около 1,5 ГГц, которая не охвачена проектом SETI@home. Вернее, была не охвачена до лета 2008 года, когда в SETI@home стартовал подпроект Astropulse для анализа широкого диапазона длин волн. Теперь у нас больше шансов не пропустить «весточку» от братьев по разуму, а также стать первооткрывателями космических объектов неизвестной науке природы.

Распределенные вычисления многим обязаны организаторам SETI@home из Беркли, в особенности – появлением универсальной платформы BOINC (Berkeley Open Infrastructure for Network Computing) для запуска новых проектов. Первоначально BOINC разрабатывался исключительно для SETI@home, но вскоре достоинства программного комплекса смогли оценить и другие научные коллективы. Сегодня количество проектов на этой платформе уже перевалило за сотню. За такой вклад в развитие науки разработчики BOINC неоднократно награждались американским Национальным научным фондом.

На компьютеры пользователей устанавливается клиентская часть платформы, так называемый BOINC-клиент. Эта удобная программа позволяет подключаться сразу к нескольким проектам, вести статистику своего участия в них и наблюдать за протеканием вычислений. Практически каждый, кто обладает базовыми навыками программирования и у кого найдется достойная поддержки научная идея, может организовать собственный проект распределенных вычислений на основе BOINC. Так сделал, например, физик Константин Метлов из Донецкого физико-технического института (ДонФТИ). Практически в одиночку ученый смог запустить проект Magnetism@home по расчету магнитных конфигураций цилиндрических наноэлементов. Несмотря на сложную для понимания научную тему, проект быстро набрал нужные вычислительные ресурсы.

Развитие распределенных вычислений продолжается семимильными шагами. Под ружье научного прогресса поставлены даже видеокарты и игровые приставки. Видеть в качестве вычислительного ресурса такие устройства непривычно, но на практике они могут дать фору самому мощному компьютеру. К примеру, в проекте Folding@home уже с лета 2006 года используют потенциал 8-ядерных процессоров Cell игровых приставок Play Station 3, способных выдать порядка 20 гигафлоп, что на порядок больше, чем у обычного офисного компьютера. Благодаря соглашению с компанией Sony программа для моделирования динамики фолдинга белков встроена в приставки изначально, но владелец устройства сам вправе решать – подключаться ему или нет к проекту. Осенью того же года в Folding@home смогли освоить вычислительные возможности графических процессоров видеокарт компании ATI, а в 2008 году очередь дошла и до видеокарт NVIDIA. Многоядерные графические процессоры оправдали все надежды, показывая феноменальную производительность в 100 гигафлоп. Этот технологический прорыв сделал Folding@home наиболее мощной вычислительной системой на планете.

На любой вкус и цвет

Передний край науки в физике, астрономии, биологии, математике и криптографии, химии, информационных технологиях, экологии – эти направления широко представлены в мире распределенных вычислений и имеют многочисленных сторонников.

Очень популярен проект LHC@home, участники которого сначала помогали Европейской организации по ядерным исследованиям (ЦЕРН) проектировать знаменитый Большой адронный коллайдер, а теперь просчитывают орбиты протонов и тяжелых ионов уже для подготовки непосредственных экспериментов на этом крупнейшем ускорителе заряженных частиц. Похожая история повторяется в проекте Muon1: компьютеры добровольцев рассчитывают параметры базовой конструкции «Фабрики нейтрино» (Neutrino Factory) – будущего ускорителя, способного порождать потоки легких нейтральных частиц – нейтрино.

Большое поле приложения вычислительных мощностей наших компьютеров предлагает астрономия. После SETI@home в исследовании загадок Вселенной нет равных проекту Einstein@home – совместному детищу ученых из Института Альберта Эйнштейна в Берлине, Массачусетского технологического института и др. научных организаций. Проект занят наблюдением вращающихся нейтронных звезд (пульсаров) с целью обнаружения гравитационных волн, предсказанных Эйнштейном в рамках Общей теории относительности. Для этого более 100 тысяч компьютеров активных участников проекта круглосуточно анализируют данные с двух интерферометров гравитационно-волновых обсерваторий LIGO (Laser Interferometer Gravitational-Wave Observatory) и германского интерферометра GEO 600.

Галактика Млечный Путь, в которой сияет наше светило, уже продолжительное время «поглощает» одно из карликовых звездных скоплений из созвездия Стрельца. Проект Milkyway@home, поддерживаемый Ренселлеровским политехническим институтом, должен ответить на вопрос: насколько в будущем окажется перекроенной карта нашей галактики в результате действия порожденных слиянием мощных приливных звездных потоков. Более масштабную задачу поставили перед собой организаторы проекта Cosmology@home из Иллинойского университета – найти такую космологическую модель Вселенной, которая наилучшим образом согласовывалась бы с данными астрономических наблюдений и значениями физических постоянных. На этом фоне таким приземленным кажется Orbit@home – проект наблюдения за астероидами, кометами и другими малыми телами Солнечной системы, которые могут представлять угрозу столкновения с Землей. Проект использует данные наземной сети телескопов и взят на финансирование NASA.

В изучении белков помимо Folding@home участвуют другие проекты: Rosetta@home, Predictor@home, SIMAP, Human Proteome Folding (WCG) и другие. На этом перечень биоинформационных исследований с помощью распределенных вычислений далеко не исчерпывается. Многое в этой области сделано объединением World Community Grid (WCG) и его главным спонсором – компанией IBM. Задачей WCG является организационно-техническая поддержка целой группы проектов, большинство которых относятся к области медицины человека. Например, разработкой новых средств профилактики синдрома приобретенного иммунодефицита (СПИД) занимается проект FightAIDS@home, организованный учеными из Исследовательского института Скриппса в Ла-Джолле (Калифорния). Проект Help Conquer Cancer Института рака в Онтарио анализирует данные рентгеновской кристаллографии белков, участвующих в развитии раковых заболеваний. Результаты этих исследований помогут лучше понять природу рака, разработать новые способы его диагностики и лечения. Discovering Dengue Drugs – проект Медицинского отделения Техасского университета в Галвестоне, где с успехом ищут перспективные ингибиторы протеазы вирусов семейства Flaviviridae. Эти вирусы ответственны за возникновение вспышек лихорадки Денге, желтой лихорадки и лихорадки Западного Нила, от которых особенно сильно страдают развивающиеся страны.

Подключайтесь – это просто!

  • Зарегистрируйтесь на сайте World Community Grid.
  • Скачайте, установите и откройте BOINC-менеджер.
  • Войдите в режим Advanced View, найдите в меню «Сервис» пункт «Добавить проект». В перечне проектов выберите World Community Grid (или другой, если он вам понравится больше).
  • Выберите научно-исследовательские программы, в которых вы хотите участвовать (желательно поставить флажок возле надписи “If there is no work available for my computer for the projects I have selected above, please send me work from another project.”)
  • После этого BOINC предложит вам ввести ваши логин и пароль и начнёт загрузку файлов проекта.
  • Посетите страницу со своей учетной записью и присоединитесь к команде распределенных вычислений Russia, или к любой другой, или даже создайте собственную команду.

Математические проекты первыми освоили возможности распределенных вычислений и с тех пор нисколько не сбавили обороты. В проекте Seventeen or Bust продолжаются поиски наименьшего числа Серпинского. Простые числа сразу нескольких видов определяют в PrimeGrid, а вот простые числа Вифериха ищут в одноименном чешском проекте Wieferich@home. Гипотезу Гольдбаха доказывают участники GoldbachConjectureVerification. Новые делители чисел Ферма вычисляют на компьютерах, подключенных к проекту Fermat Search. Это только малая часть математических проектов. В области криптографии, тесно связанной с математикой, многое сделано сообществом distributed.net, которое запустило серию проектов проверки алгоритма шифрования RC5 и поиск оптимальных линеек Голомба – OGR. Для разнообразия также можно поучаствовать в проекте Enigma@home по дешифровке последней из нерасшифрованных немецких радиограмм, датируемой 1942 годом.

В наши дни ученые испытывают большие сложности в разработке искусственного интеллекта. Возможно, эта задача будет впервые решена в распределенном проекте Artificial Intelligence System канадской компании Intelligence Realm, которая создает глобальную нейронную сеть на компьютерах участников. С другой стороны к решению проблемы искусственного интеллекта подбираются в проекте FreeHAL@home – попытке воссоздания поведения человека на основе компьютерного моделирования лингвистического способа познания мира.

Теоретическая химия тоже завоевала место под солнцем распределенных вычислений. Например, ученые из Мюнстерского университета в рамках проекта QMC@home (Quantum Monte Carlo At Home) отрабатывают применимость алгоритмов статистических методов Монте-Карло в решении задач квантовой химии. С помощью того же Монте-Карло совершенствуют методологию моделирования межатомного взаимодействия в твердых телах в Техасском университете в городе Остин. Для вычислительной поддержки этих исследований создан проект eOn, где уже достигнуты успехи в исследовании каталитических реакций в присутствии наночастиц.

Климатологи относятся к группе ученых, которым нужно особенно много вычислительных ресурсов для совершенствования методов моделирования. Одним из инструментов такого рода является ClimatePrediction – проект Оксфордского университета по изучению изменений климата. С 2002 года участники проекта успели проверить более 400 тысяч вариантов климатических моделей с общим модельным временем 40 миллионов лет. Это позволило значительно повысить точность прогнозирования параметров нашего климатического будущего.

Как видим, распределенные вычисления проникли во многие отрасли науки, превратившись в надежного партнера ученых. Миллионы людей из статистов научного прогресса превратились в его непосредственных участников. Международная аудитория распределенных вычислений растет, объединяя людей из разных стран в едином стремлении к раскрытию тайн мироздания.

Сокращенный вариант статьи опубликован в «Популярной механике» № 6-2009

Портал «Вечная молодость» http://vechnayamolodost.ru/
02.06.2009

Читать статьи по темам:

распределенные вычисления Версия для печати
Ошибка в тексте?
Выдели ее и нажми ctrl + enter
назад

Читать также:

World Community Grid: помоги вылечить мышечную дистрофию!

Проект распределенных вычислений «Помоги вылечить мышечную дистрофию – фаза 2» работает при поддержке объединения World Community Grid. Подключитесь к проекту в составе команды распределенных вычислений Russia!

читать

Новый проект распределенных вычислений: лекарства от гриппа

Цель проекта – поиск новых препаратов, которые останавливают распространение вируса гриппа в организме человека. За примером актуальности проекта далеко ходить не надо – как раз сейчас мир опасается возможной пандемии гриппа А/H1N1.

читать

Fold.it: играем в фолдинг белков!

Ключевой особенностью FoldIt по сравнению с другими проектами по компьютерному фолдингу белков является то, что он требует от участника нечто большее, чем просто неиспользуемое процессорное время его персоналки.

читать

Распределенные вычисления для персонализированной медицины

Для выполнения работ в рамках совместного проекта по развитию персонализированной медицины, получившего в прошлом октябре грант Национальных институтов здравоохранения в размере 2,5 миллионов долларов США, ученые используют тканевые микрочипы, алгоритмы распознавания образов и сетевые суперкомпьютерные вычисления.

читать

World Community Grid: присоединяйтесь к сети распределенных вычислений!

В мире существует около 650 миллионов персональных компьютеров, причем большинство из них при работе задействует лишь малую часть своей мощности. В то же время эти неиспользованные ресурсы могут быть направлены на благо всего человечества. С этой целью в 2004 году была создана система World Community Grid – крупнейшая глобальная вычислительная система для решения важнейших гуманитарных проблем.

читать