Простой способ удаленного управления в ANSYS Remote Solve Manager (RSM)

Простой способ удаленного управления в ANSYS Remote Solve Manager (RSM)

В прошлый раз я показал вам способ как, используя RSM, управлять очередью расчетов на вашем локальном компьютере. Возможно, он был похож на привычный вам способ решения задач, но вы можете применять данный способ и для решения на удаленных компьютерах!

 

Вспомните, насколько удобной была организация расчетов, описанная в предыдущей статье, и сравните с тем, сколько операций нужно произвести для запуска расчёта на удаленном компьютере «вручную»:

  • Сохранение / архивирование проекта в целом или поиск *.dat файла для отправки на расчёт.
  • Копирование файлов по локальной сети либо с помощью Dropbox или его аналогов.
  • Вход с удаленного компьютера, запуск программного обеспечения, а при необходимости, настройка его для работы в пакетном режиме, открытие файлов и запуск процесса расчёта.
  • Копирование файлов результатов обратно на ваш компьютер, при этом нужно быть аккуратным с перезаписью файлов и следить за их версиями.
  • Загрузка результатов в программное обеспечение на локальном компьютере.

Все эти шаги можно осуществить с помощью RSM. Более того, на расчётной машине можно вовсе не использовать графическую карту, и оптимизировать её конфигурацию чисто под расчеты.

Начиная с версии R18, настройка RSM для работы на удаленном компьютере стала несколько проще, главным образом, благодаря тому, что вам больше не требуется присоединяться к домену Windows. Это означает, что нет необходимости создавать сложную доменную инфраструктуру для использования удалённых вычислительных ресурсов. Любой заинтересованный инженер с правами администратора и доступом к вычислительному серверу сможет провести настройку самостоятельно.

С версии 19.2 настройка упростилась ещё больше, в том числе для сети, состоящей из нескольких компьютеров: появилась утилита ARC Configuration с графическим интерфейсом, позволяющая организовать очередь задач для нескольких машин или распределить расчёты по нескольким компьютерам.

Сначала приведу некоторые термины, которые нам понадобятся далее:

  • Remote Solve Manager (RSM) – инструмент для управления удалёнными расчётами, встроенный в ANSYS. Предоставляет средства для мониторинга расчёта и передачи данных между машинами. Служит связью между ANSYS и существующей вычислительной системой.
  • ANSYS RSM Cluster (ARC) – это представленный в 18 версии ANSYS планировщик задач, который можно использовать в случае, если у вас еще нет стороннего планировщика (например, Microsoft HPC или LSF). RSM требует обязательного использования планировщика, поэтому нужно установить либо ARC, либо другие утилиты.
  • Главный узел (Master Node) и вычислительный узел (Compute Node): узлы ARC могут иметь один из двух статусов. Главный узел выполняет распределительные и контрольные функции и требуется для построения кластера машин для распределенных вычислений. Он также может выполнять вычислительные функции. В данной статье рассматривается пример с использованием только одного компьютера, так что главный и вычислительный узлы совпадают.
  • RSM-очередь и ARC-очередь. К сожалению, вне зависимости от выбранного планировщика, вам придется настраивать две очереди: и в планировщике (ARC или др.), и в RSM.
  • Кластер: для целей данной статьи, «Кластер» представляет собой один компьютер – в учебных целях рассмотрена упрощённая постановка задачи.

Настройка удаленной машины (Remote Machine)

Вам нужно будет проделать данные действия только один раз. После этого любому, кто захочет использовать компьютер для удаленного расчета, нужно будет настроить только локальную машину (Local Machine), эти настройки будут описаны далее.

Настройка с помощью графического интерфейса ARC Configuration

Запустите утилиту ARC Configuration из меню «Пуск» с правами администратора. Для запуска сервисов главного и вычислительного узлов на удалённой машине нажмите соответствующие кнопки «Start».

Запустите утилиту ARC Configuration из меню «Пуск» с правами администратора

Настройка с помощью командной строки

Для версий 19.0 и ранее большая часть настроек выполняется с помощью командной строки (Command Prompt) из меню «Пуск», запущенной от имени администратора (Run As Administrator). Для пользователей Linux нужно будет обязательно выполнить один из нескольких вариантов: использовать команду sudo; войти в систему как суперпользователь (root) или как пользователь с достаточными для настройки правами.

Для включения службы RSM введите в командной строке:

"%ANSYS180_DIR%\RSM\bin\AnsConfigRSM.exe"

Для более новых версий (например, для версии 2019R2), формат команды будет следующим (194 – внутренний номер версии 2019R2):

"%AWP_ROOT194%\RSM\bin\AnsConfigRSM.exe"

В консоли должен отобразиться текстовый отчёт о запуске службы, без каких-либо сообщений об ошибках.

Для настройки в Linux вам необходимо заменить два символа % по краям на один символ $ в начале команды, а расширение файла .exe на .sh.

Чтобы нам не приходилось каждый раз добавлять в начало команды имя папки, можно добавить нужный путь в переменную среды «PATH»:

set PATH=%PATH%;"%ANSYS180_DIR%\RSM\ARC\tools\%ANSYS_SYSDIR%\"

Для новых версий команда имеет вид:

set PATH=%PATH%;"%AWP_ROOT194%\RSM\ARC\tools\%ANSYS_SYSDIR%\"

Если вы ввели что-то неправильно, то на следующих шагах вы получите сообщение: “___ is not recognized as an internal or external command».

Для Linux: замените set на export и символы % на $ в начале каждой переменной.

В версии 18.0 требуется переключить ARC в расширенный режим:

arcswitchmode -advanced

Наконец, можно запустить сервисы ARC Master Service и ARC Node Service (сервисы главного и вычислительного узлов) – в рассматриваемом примере компьютер будет и получать, и запускать задания:

installservice -arcmaster
installservice -arcnode

При желании вы можете установить ограничения на используемое количество ядер и дисковое пространство. Выполните следующую команду, чтобы получить справку о том, как это сделать:

arcconfig node modify

Добавление разрешений в брандмауэр

Если вы используете брандмауэр Windows или другой брандмауэр, необходимо открыть порты 11180,12180,13180,40000-59999 (протокол TCP).

Создание сетевой папки для промежуточного хранения данных

Последний шаг в настройке удалённой машины – это создание доступной по сети промежуточной папки, которую затем можно будет использовать для передачи данных:

  1. Создайте папку с именем «Staging» (или любым другим именем)
  2. Щелкните на ней правой кнопкой мыши и выберите «Предоставить доступ к»/ Share With -> «Отдельные пользователи»/ Specific People.
  3. В открывшемся окне вы можете просто выбрать текущего пользователя

После этого откроется окно с расположением созданной папки, которое выглядит примерно так: \\computer\Staging. Сохраните этот путь, он понадобится для дальнейшей настройки.

Для Linux воспользуйтесь сетевой файловой системой NFS или программами, работающими с сетевым протоколом SMB.

Настройка локальной машины

Настройка на локальной машине производится через графический интерфейс утилиты RSM Configuration, которая предназначена для управления доступом к очередям расчёта, заданным на удалённой машине. В меню «Пуск» выберите «RSM Configuration».

В программе выполните следующие действия:

  1. Нажмите кнопку «Add HPC Resourse» («Add Cluster» для версии 18.0) на панели инструментов. Также эта команда доступна по щелчку правой кнопкой мыши по дереву кластеров.

    Нажмите кнопку «Add HPC Resourse» («Add Cluster» для версии 18.0) на панели инструментов

  2. Введите имя кластера, которое будет отображаться в Workbench Mechanical.
  3. Введите в поле Submit Host имя удалённого компьютера, являющегося главным узлом, из выпадающего списка выберите его операционную систему.
  4. Оставьте тип кластера без изменений (ARC).

    Оставьте тип кластера без изменений (ARC).

  5. Нажмите «Apply», а затем перейдите на вкладку «File Management» (управление файлами).
  6. Выберите подходящий к вашим условиям вариант передачи данных. Если вы используете скоростную локальную сеть, лучшим вариантом будет «RSM internal file transfer mechanism». Больше о различиях предлагаемых вариантов вы можете узнать в справочной системе, либо нажав на ссылки «Tell me More».
  7. Введите, если требуется, путь к сетевой папке, которую вы ранее создали и настроили на удалённом компьютере.

    Введите, если требуется, путь к сетевой папке, которую вы ранее создали и настроили на удалённом компьютере

  8. Нажмите «Apply», а затем перейдите на вкладку «Queues» (очереди расчётов).
  9. Нажмите кнопку «Import/Refresh HPC Queues» для импорта очередей с удалённого компьютера.

    Нажмите кнопку «Import/Refresh HPC Queues» для импорта очередей с удалённого компьютера

  10. Введите учетные данные (машина\имя пользователя и пароль), так, как если бы вы входили на удаленный компьютер, и нажмите OK.
  11. В случае успеха список очередей в RSM будет пополнен доступными очередями из кластера. Убедитесь, что очередь по умолчанию (default) включена (enabled).
  12. Нажмите кнопку «Apply».
  13. Проверьте очередь, нажав кнопку «Submit». Через несколько мгновений тест должен успешно завершиться. Поздравляю, ваша новая RSM очередь готова к использованию!
  14. Теперь её можно добавить в ANSYS Mechanical (выберите в меню File > Solve Process Settings, либо Tools > Solve Process Settings для версий до 2019R2, и нажмите «Add Queue»).

    Теперь её можно добавить в ANSYS Mechanical (выберите в меню File > Solve Process Settings, либо Tools > Solve Process Settings для версий до 2019R2, и нажмите «Add Queue»)

  15. Для отправки модели на расчёт в очередь выберите соответствующий вариант в выпадающем списке у кнопки Solve.

    Для отправки модели на расчёт в очередь выберите соответствующий вариант в выпадающем списке у кнопки Solve

Для контроля над очередями и загрузкой кластера можно использовать утилиты RSM Job Monitoring и RSM Cluster Monitoring, соответственно. Они доступны в меню «Пуск».

Источник: www.ansys.soften.com.ua


Печать   Электронная почта