___________
Шикота Светлана Каликстовна
Аннотация
Тема статьи – развитие информационной, вычислительной и телекоммуникационной инфраструктуры исследовательского центра. Обсуждаются состояние инфраструктуры некоторых российских исследовательских центров и стратегия внедрения новых технологий на примере использования программно-аппаратных решений в Научном центре РАН в Черноголовке.
Ключевые слова: информационное развитие, научно-исследовательский центр, инфокоммуникационные технологии, распределенные системы совместной работы, программно-аппаратная инфраструктура.
Актуальность проблемы обусловлена ростом конкуренции в научной деятельности под влиянием нескольких факторов. Во-первых, ускорился темп обмена научной информацией. Издатели научной периодики начали переходить на безбумажный процесс подготовки и выпуска журналов, включая прием текстов, их рецензирование и издание в электронной форме. Например, зачастую публикация статьи в электронной форме с присвоением ей идентификатора цифрового объекта (digital object identifier – doi, универсальный указатель местонахождения объекта в мировой компьютерной сети [1]) происходит задолго до появления бумажной версии. Во-вторых, значительно изменилась структура научных коллективов, которые все чаще представляют собой виртуальные сообщества, члены которых работают в разных лабораториях и географически могут находиться далеко друг от друга. Такие коллективы имеют более широкие возможности как с точки зрения доступа к научной информации, так и с точки зрения ее распространения. В-третьих, расширились источники финансирования научных работ: ими могут быть как национальные, так и зарубежные научные фонды. В-четвертых, финансирующие организации придают все большее внимание глобальным системам учета научной продуктивности, таким как индексы цитирования [2]. Это далеко не полный перечень факторов усиления научной конкуренции; их число постоянно увеличивается по мере развития глобализации научной деятельности [3].
Постановка задачи. Успешное проведение научных исследований сотрудниками, студентами и аспирантами научного центра предполагает наличие современной информационной, телекоммуникационной и вычислительной инфраструктуры, которая способна обеспечить быстрый и эффективный доступ к научной информации, обмен научной информацией с коллегами и возможность совместной научной работы. Представляется естественным решить эту задачу таким образом, чтобы новые информационно-телекоммуникационные технологии и актуальная научная информация доставлялись непосредственно в кабинет исследователя. С учетом того, что большая часть исследований сегодня проводится научными коллективами, сотрудники которых находятся в разных географических точках, есть необходимость создания психологического эффекта полного присутствия и визуального контакта. Для решения этой задачи научное сообщество применяет свободное программное обеспечение [4].
Стратегия внедрения новых технологий. Для устойчивого развития инфокоммуникационной инфраструктуры научного центра необходим выбор стратегии внедрения программных, аппаратных и технологических решений [5]. Необходимо обеспечить преемственность технологических решений таким образом, чтобы максимально исключить возможность отказа отдельных элементов системы и гарантировать эволюционное развитие как системы в целом, так и ее компонентов. Важно, чтобы взаимосвязь отдельных частей целого позволяла системе развиваться без перестройки ее составных элементов. Необходимо планировать взаимосвязь отдельных частей системы для их интеграции в единое целое, поэтому предпочтительнее использовать системы, основанные на устоявшихся стандартах, иначе можно зайти в тупик, из которого выбираться всегда непросто и накладно. Тем не менее не следует отказываться от старых эффективных решений , чтобы обеспечить преемственность решений и стиля работы. Стратегически важным также является использование в качестве базы свободно распространяемого программного обеспечения.
Свободное программное обеспечение (СПО) – программное обеспечение, распространяемое на условиях свободного лицензионного договора [6]. Использование СПО открывает разработчику инфокоммуникационных систем следующие возможности: 1) запускать программу для любых целей; 2) изучать, как работает программа, и адаптировать ее для своих нужд; 3) распространять копии программы; 4) улучшать программу и публиковать результаты работы по улучшению программы на пользу всему сообществу. Таким образом, применение СПО, с одной стороны, позволяет экономить средства на лицензионных отчислениях, с другой – создавать сложные, многокомпонентные системы, в полном объеме отвечающие потребностям конечного пользователя – сотрудника, аспиранта, студента научного центра [4].
Исследовательская деятельность научного коллектива. Для разработки тактики создания и внедрения новых информационно-коммуникационных технологий (ИКТ) и систем важно принимать во внимание уже сложившийся стиль научной работы коллектива, который зависит от многих факторов, таких, как область исследований, законодательная база, существующие административные подходы, культурные особенности коллектива [7]. Подробный анализ составляющих научной деятельности приведен в статье [5]. При разработке новых ИКТ и систем требуется в первую очередь проведение глубоких исследований по составу и характеру научной активности коллектива с целью выявления общих черт деятельности для дальнейшего использования результатов анализа при создании востребованных компонентов.
Рассмотрим подходы, развиваемые в российских научных центрах.
Санкт-Петербургский научный центр РАН. Региональная объединенная компьютерная сеть образования, науки и культуры Санкт-Петербурга (РОКСОН) [8] создана в 1994 г. и обеспечивает доступ к отечественным и зарубежным информационным и вычислительным ресурсам для организаций науки, образования, культуры, медицины и государственного управления. Возможность подключения организаций Санкт-Петербурга к региональной сети и доступ к ресурсам интернета обеспечиваются наличием 9 опорных узлов в различных районах города и развитой канальной инфраструктурой. Сеть предоставляет высокоскоростной доступ к следующим локальным вычислительным ресурсам: кластерам Санкт-Петербургского филиала Межведомственного суперкомпьютерного центра РАН, Санкт-Петербургского института информатики и автоматизации РАН, Петербургского института ядерной физики им. Б.П. Константинова РАН.
Информационная инфраструктура сети включает: сервер видеоконференцсвязи, потоковый видеосервер СПбНЦ РАН, сервер электронных библиотек РФФИ, базу данных «Российская академия наук в персоналиях за 200 лет (1724–1924 гг.)», сайт СПбНЦ РАН, информационную систему «Этнография народов России», электронную коллекцию «Русские в Казахстане», электронную коллекцию «Россия и Белоруссия: этнокультурный диалог», звуковую коллекцию русской речи и др.
Сибирское отделение РАН. Региональная корпоративная сеть передачи данных Сибирского отделения РАН поддерживается Институтом вычислительных технологий СО РАН [9] и используется для внедрения ИКТ. Сеть объединяет научные центры, расположенные в Новосибирске, Иркутске, Томске, Красноярске и других городах Сибири, и обслуживает более 150 организаций научной, образовательной и социальной сфер с общим числом пользователей более 40 тысяч. В рамках проекта «Корпоративное облако СО РАН» ведутся работы по созданию инфраструктуры предоставления централизованных сервисов коммуникаций и совместной работы для организаций Сибирского отделения РАН в виде корпоративного облака. Предполагается, что разрабатываемая инфраструктура обеспечит возможность предоставления следующих сервисов: электронной почты, сервисов мгновенных сообщений, передачи файлов, совместного доступа к рабочему столу и отдельным приложениям, аудио- и видеосвязи, в том числе в режиме конференций, интеграцию с телефонными сетями общего пользования и большой комплекс портальных технологий для совместной работы.
Объединенный институт ядерных исследований (ОИЯИ). Сетевая инфраструктура ОИЯИ [10] – сложный комплекс многофункционального сетевого оборудования и специализированного программного обеспечения. Этот комплекс является фундаментом для развивающейся информационно-вычислительной инфраструктуры ОИЯИ. К основным задачам сетевой инфраструктуры следует отнести: создание единого информационного пространства имеющихся вычислительных ресурсов и ресурсов хранения данных для всех категорий пользователей ОИЯИ, организацию доступа к сегменту ГРИД ОИЯИ как значимой части распределенной российской структуры ГРИД, обеспечение доступа к ресурсам интернета для пользователей ОИЯИ, поддержку общих сетевых сервисов – электронной почты, файлового обмена, dns, безопасности и пр.
Центральный информационно-вычислительный комплекс (ЦИВК) ОИЯИ логически построен как единый информационно-вычислительный ресурс для всех проектов, в которых участвуют сотрудники ОИЯИ. Все вычислительные ресурсы и ресурсы для хранения данных обслуживаются единым базовым программным обеспечением, позволяющим использовать ресурсы ЦИВК как в международных проектах распределенных вычислений (wLCG, EGEE, PANDA-GRID, CBM), так и локально пользователями ОИЯИ.
Казанский научный центр РАН. Магистральная высокопроизводительная телекоммуникационная система обеспечивает взаимодействие локальных сетей Научного центра, ИОФХ им. А.Е. Арбузова КазНЦ РАН и КФТИ им. Е.К. Завойского КазНЦ РАН [11]. На базе телекоммуникационной системы центра действует единая телефонная система с общим внутренним номерным полем в зданиях перечисленных учреждений. Функционируют вычислительные кластеры: суперкомпьютер КазФ МСЦ РАН МВС-100К\КазФ, получивший имя «Сююмбике», и вычислительный кластер на базе Microsoft Windows Server 2008 HPC edition.
Национальный исследовательский центр «Курчатовский институт». В составе Курчатовского НБИКС-центра (центр нано-, био-, информационных, когнитивных, социогуманитарных наук и технологий) функционирует центр высокопроизводительных вычислений [12], основными направлениями деятельности которого являются: проведение высокопроизводительных вычислений, обеспечивающих задачи моделирования процессов на АЭС и АПЛ и инженерных расчетов для создания новых материалов на основе нано- и биотехнологий, а также проведение вычислений с высокой пропускной способностью на базе ГРИД-технологий, нацеленных на обработку и анализ данных с мегаустановок. Для проведения работ по этим направлениям используются недавно созданные суперкомпьютеры, представляющие собой сильно связанные кластеры, которые объединены системной сетью InfiniBand, а также слабо связанные кластеры, петабайтные массивы хранения данных и программное обеспечение промежуточного уровня ГРИД.
Элементы инфокоммуникационной инфраструктуры НЦЧ РАН. Научный центр РАН в Черноголовке объединяет 13 учреждений четырех отделений РАН: физики, химии, наук о Земле и отделения нанотехнологий и информационных технологий, ведущих современные исследования по различным направлениям науки. Для успешного выполнения исследований необходим качественный доступ к современным информационным технологиям, включая сети передачи данных, вычислительные и библиотечные ресурсы и т.п. Поскольку все научные организации объединены под руководством НЦЧ РАН, это дает уникальную возможность построения единой информационной инфраструктуры и координации деятельности специалистов разного профиля.
Компьютерная сеть для науки и образования ChANT объединяет все учреждения, входящие в структуру Научного центр РАН в Черноголовке [13]. Основная цель сети состоит в обеспечении научной деятельности сотрудников, аспирантов и студентов учреждений центра путем оптимизации доступа к полным версиям журнальных статей отечественных и зарубежных изданий, обеспечения доступа к авторским веб-страницам журналов и страницам рецензентов, веб-страницам конференций, научных учреждений по всему миру, предоставления доступа к базам данных и информационным ресурсам для науки, к информационным и вычислительным ресурсам сети ChANT (базы данных, компьютерные кластеры, архивы программного обеспечения, информационные серверы), разработки и внедрения новых информационных технологий.
Компьютерная сеть ChANT обеспечивает доступ сотрудникам, аспирантам и студентам научного центра к таким уникальным программно-аппаратным системам, как система для проведения распределенных видеосеминаров и конференций ВидеоГрид [14], система визуализации сверхвысокого разрешения Видеостена [15], веб-ориентированный производственно-исследовательский центр в области вычислительной физики Компфиз [16], архив свободно распространяемого программного обеспечения ftp.chant.ru [17], единая электронная система библиотечных сервисов (ЕЭСБС) [18].
Можно сделать вывод, что на сегодняшний день основное внимание в научных центрах уделяется трем составляющим инфраструктуры: телекоммуникационной, вычислительной и базам данных.
Работы в Научном центре РАН в Черноголовке ведутся с учетом современных тенденций развития инфокоммуникационной инфраструктуры в развитых странах Европы и Северной Америки. Ниже приведено краткое описание построенных информационно-коммуникационных средств и систем.
Видеогрид. Важной составляющей работы любого коллектива являются не только обмен/обработка полученных данных, но и живое общение участников совместной работы. Существует множество систем, которые позволяют облегчить общение между людьми, находящимися в разных географических точках. Одна из самых популярных – Skype. Однако Skype не предоставляет полного набора сервисов, необходимых для совместной работы. Участникам распределенного научного коллектива нужна система, обладающая возможностью масштабирования до различных уровней общения: персональный уровень (точка – точка), уровень лаборатории, учреждения и конференции. Также должна быть обеспечена возможность совместного просмотра презентаций, фото- и видеоинформации, совместной работы над документами. Всем этим требованиям удовлетворяет разработанный в Аргонской национальной лаборатории инструментарий для организации работы виртуального коллектива AccessGrid.
AccessGrid начал развиваться как СПО для организации работы виртуальных коллективов. Головная организация – Отдел математики и компьютерных наук Аргонской национальной лаборатории (MCS/ANL), руководитель проекта – заместитель директора отдела Я. Форстер [19]. В Научном центре РАН в Черноголовке при содействии специалистов MCS/ANL реализована программно-аппаратная система Видеогрид [14], базирующаяся на инструментарии AcccessGrid и обеспечивающая удаленное взаимодействие на трех уровнях: персональном, уровне лаборатории и уровне конференции.
ВидеоГрид персонального уровня развернут на ноутбуке. В состав системы уровня лаборатории входит проектор высокого разрешения, рабочая станция с картой захвата видео, видеокамера, а также комплект звукового оборудования. Наибольший интерес представляет программно-аппаратная система ВидеоГрид, реализованная на уровне конференции. Ее аппаратная часть включает: устройство отображения информации – два проектора стандартного разрешения, один проектор высокого разрешения, четыре управляемых видеокамеры, два компьютера, осуществляющие захват видео (каждый компьютер обслуживает две камеры), два компьютера, осуществляющие вывод видео, презентаций и т.п., звуковое оборудование – микрофоны, микшер, система звукоусиления.
Программная часть ВидеоГрид состоит из Venue-сервера и конечных узлов Nodes. Venue-сервер предоставляет виртуальную площадку для встречи участников распределенного коллектива, а также обеспечивает возможность запуска распределенных приложений (например, совместный просмотр веб-страниц), общих хранилищ файлов, информацию о правах пользователей и т.д. Система авторизации и идентификации пользователей целиком заимствована из грид-среды Globus Toolkit и базируется на сертификатах SSL. Пользователь, получивший сертификат в одном месте, сразу становится идентифицированным и на всех других Venue-серверах. Конечный узел Nodes – узел пользователя системы, он осуществляет ввод/вывод аудио- и видеоинформации и позволяет пользователям взаимодействовать с распределенными приложениями. Для обмена видеоинформацией используется приложение VIC (Videoconferencing Tool), а для обмена аудиоинформацией – приложение RAT (Robust Audio Tool).
Система позволяет проводить распределенные видео-конференции практически с неограниченным числом участников, обеспечивает минимальную задержку при передаче аудиоинформации (например, научные сети Евросоюза ~0,2 сек., США ~0,5 сек., Японии ~1,1 сек.) и высокое качество видеокартинки. Презентация докладчика выводится на отдельный экран. Таким образом, система позволяет видеть одновременно и докладчика, и презентацию, и аудиторию, что обеспечивает эффект полного присутствия (рис. 1)
Видеостена. Многие естественно-научные дисциплины требуют детального отображения (визуализации) результатов моделирования, электронных карт и других изображений, количество пикселей в которых многократно превышает разрешение нынешних компьютерных дисплеев. Поэтому для реалистической визуализации больших изображений можно использовать множество дисплеев, параллельно отображающих детальные фрагменты одного изображения сверхвысокого разрешения. Эту задачу позволяет решить программное обеспечение SAGE (Scalable Adaptive Graphics Environment) [20], разработанное в Лаборатории электронной визуализации Чикагского университета Иллинойс (EVL UIC).
С использованием программного обеспечения SAGE в НЦЧ РАН создан программно-аппаратный комплекс, состоящий из вычислительного кластера, мозаичной стены и сетевого оборудования [15]. Кластер Wall позволяет отображать рисунки/фото/видео сверхвысокого разрешения (46 мегапикселей и формат 4К – 4096х2160 пикселей) и в реальном времени производить обработку и графическое представление больших объемов данных, используя вычислительные и визуализирующие узлы кластера. При этом каждый компьютер кластера отображает на двух дисплеях часть общей картины. Всего используется 20 дисплеев, подключенных к 10 визуализирующим узлам кластера (рис. 2). Программное обеспечение SAGE позволяет распараллелить не только процесс вывода данных на экран, но и сам процесс подготовки данных. Сейчас ведутся работы по подключению видеостены в качестве экрана для видеоконференций с использованием ВидеоГрид.
Рис. 2. Отображение на видеостене карты Московской области (слева) и фотографии фрески из Ферапонтова монастыря работы Дионисия с сыновьями (справа)
Компфиз. Использование перечисленных выше программно-аппаратных комплексов требует наличия специальных знаний в области программирования. Далеко не каждый исследователь ими обладает, поэтому, как уже говорилось выше, в последнее время особенно актуальной становится задача создания таких программных средств и систем, которые позволяли бы исследователям, не обладающим глубокими познаниями в области программирования, без затруднений пользоваться современной вычислительной, информационной и визуализирующей инфраструктурой. Примером такой системы служит программно-аппаратная платформа Компфиз. Она предоставляет пользователю следующие возможности:
1) доступ ко всем функциям платформы Компфиз через веб-портал с использованием стандартного браузера, в том числе к интерактивным и графическим инструментам моделирования;
2) визуализация результатов расчетов;
3) распределенная разработка и интеграция новых инструментов для поддержки моделирования, осуществляемого междисциплинарными коллективами специалистов;
4) механизмы интеграции новых аппаратных ресурсов (кластеров, систем хранения данных, систем визуализации и пр.) в состав вычислительной инфраструктуры, поддерживаемой платформой Компфиз;
5) организация и управление информационной средой взаимодействия групп специалистов;
6) организация образовательных процессов.
Платформа в целом и отдельные ее компоненты полностью базируются на свободно распространяемом программном обеспечении.
Заключение. Для проверки правильности выбранной стратегии был проведен эксперимент по интеграции трех современных инфокоммуникационных технологий: системы видеоконференций, телемедицины и облачных технологий. Для этого в программно-аппаратный комплекс ОАО «Российская корпорация ракетно-космического приборостроения и информационных систем», реализующий облачную технологию, была установлена программно-аппаратная система ВидеоГрид и произведено подключение приборов кабинета функциональной диагностики и компьютерного оборудования кабинета врача. На работу по подготовке эксперимента было потрачено два рабочих дня четырех квалифицированных специалистов. На рисунке 3 показан ход эксперимента, проведенного 1 июля 2011 г., за которым наблюдали члены совета генеральных и главных конструкторов, ведущих ученых и специалистов в области высокотехнологичных секторов экономики при Правительстве Российской Федерации.
Сложность внедрения новых информационных технологий в повседневную научную работу связана в первую очередь с консерватизмом исследователей. Традиционно наименее консервативными и легко восприимчивыми к новшествам являются ученые, работающие в области физики, в особенности в физике высоких энергий. Именно в этом сообществе была разработана мировая паутина, достоинства которой сегодня осознало все человечество. Именно в этом сообществе были реализованы идеи Грид-технологии – был создан вычислительный Грид и с его помощью получен новый результат – открыта новая элементарная частица, по свойством похожая на бозон Хиггса [21]. Мы надеемся, что первые шаги по внедрению новых ИКТ, предпринимаемые в Научном центре РАН в Черноголовке, со временем будут восприняты и по достоинству оценены научным сообществом.
Рис. 3. Визуализация интеграции трех инфокоммуникационных технологий:
слева – проведение УЗИ-диагностики, справа – кабинет врача – узкого специалиста, внизу в центре – действующий аппарат УЗИ
Литература
1. PASKI N. Digital Object Identifier (DOI®) system // Encyclopedia of Library and Information Sciences (Taylor & Francis, 2010). doi:10.1081/E-ELIS3-120044418
2. http://thomsonreuters.com/products_services/science/science_products/a-z/web_of_science/
3. ЩУР Л.Н. Роль инфокоммуникационных технологий в развитии процесса глобализации научных исследований // Информационное общество. 2012. № 5. С. 16-24.
4. ИВАННИКОВ В.П. Что такое СПО // Перспективные компьютерные системы: устройства, методы и концепции: материалы семинара (Таруса 02–04 марта 2011 г.) / Под ред. Р.Р. Назирова, Л.Н. Щура. М.: Институт космических исследований, 2011. С. 106–114.
5. ЩУР Л.Н., МЕНЬШУТИН А.Ю., ШИКОТА С.К. Инфокоммуникационное обеспечение исследовательского центра: задачи и инфраструктура // Информационное общество. 2011. № 6. С. 58–65.
6. http://www.gnu.org/licenses/gpl.html
7. KENNA R. and BERCHE B. Critical mass and the dependency of research quality on group size// Scientometrics. 2011. 86. P 527–540.
8. http://www.nw.ru/welcome.html
9. http://net.sbras.ru/default.aspx
10. http://lit.jinr.ru/
11. http://www.knc.ru/
12. http://www.nrcki.ru/
13. ШИКОТА С.К. и др. Региональная сеть для науки и образования ChANT как инфраструктура для Грид-приложений // Труды 4-ой международной конференции ГРИД'2010 «Распределенные вычисления и Грид-технологии в науке и образовании». Дубна, 28 июня– 03 июля 2010. Дубна, 2010. C 345–351.
14. ШИКОТА С.К. и др. Система проведения видеосеминаров Видео-ГРИД // Вычислительные технологии в естественных науках. Системы глобального масштаба: материалы семинара. Таруса 09–11 июня 2010 г. М.: Институт космических исследований, 2010. С. 137–147.
15. GRID-Facility for Business Incubator of Russian Academy of Science in Chernogolovka / Aldoshin S.M., Krashakov S.A., Menshutin A.Yu., Shikota S.K., Shchur V.L., Shchur L.N. // Proceedings of the 3rd International Conference GRID-2008. Dubna, 30 june – 04 july 2008. Дубна, 2008. С. 76–80.
16. ШИКОТА С.К., МЕНЬШУТИН А.Ю., ЩУР Л.Н. Программно-аппаратная платформа для научных исследований в области вычислительной физики // Программная инженерия. 2012. № 8. С.16–22.
17. КРАШАКОВ С.А., МЕНЬШУТИН А.Ю., ЩУР Л.Н. Архив СПО ftp.chg.ru // Всероссийская конференция "Свободное программное обеспечение – 2010": тезисы докладов. Санкт-Петербург, 26–27 октября 2010 г. СПб., 2010. С. 20,21.
18. ШИКОТА С.К., КРАШАКОВ С.А., ЩУР Л.Н. Электронная библиотека научного центра // XIV Всероссийская научная конференция “RCDL’2012: Электронные библиотеки: перспективные методы и технологии, электронные коллекции”: материалы конференции. Переславль-Залесский, 15–18 октября 2012 г. Переславль-Залесский, 2012. С. 236–240.
19. http://accessgrid.org.
20. RENAMBOT L., RAO A., SINGH R., et al. SAGE: the Scalable Adaptive Graphics Environment. Proceedings of WACE 2004. Sept. 23–24, 2004.
21. http://cms.web.cern.ch/news/observation-new-particle-mass-125-gev
________________________________________
Шикота Светлана Каликстовна - программист Научного центра РАН в Черноголовке
© Информационное общество, 2013 вып. 1-2, с. 102-111.