Карты адаптера MCX555A-ECAT ConnectX®-5 InfiniBand представляют собой высокопроизводительное и гибкое решение с возможностью подключения до двух портов InfiniBand 100 Гбит/с и Ethernet, низкой задержкой и высокой скоростью передачи сообщений, а также встроенным коммутатором PCIe и разгрузкой NVMe over Fabrics. .
MCX555A-ECAT Эти интеллектуальные адаптеры с поддержкой удаленного прямого доступа к памяти (RDMA) обеспечивают расширенные возможности разгрузки приложений для высокопроизводительных вычислений (HPC), облачных гипермасштабируемых платформ и платформ хранения данных. Карты адаптера ConnectX-5 для серверов PCIe Gen3 и Gen4 доступны в виде стоячих карт PCIe и форм-факторов Open Compute Project (OCP) Spec 2.0. Некоторые модели также поддерживают технологии NVIDIA Multi-Host™ и NVIDIA Socket Direct.
Технические характеристики MCX555A-ECAT
Номер модели
MCX555A-ECAT
MCX556A-ECAT
MCX556A-ECUT
MCX556A-EDAT
Поддерживаемые скорости InfiniBand
100 Гбит/с и ниже
100 Гбит/с и ниже
100 Гбит/с и ниже
100 Гбит/с и ниже
Поддерживаемые скорости Ethernet
100GbE и ниже
100GbE и ниже
100GbE и ниже
100GbE и ниже
Тип интерфейса
1x КСФП28
2x КСФП28
2x КСФП28
2x КСФП28
Хост-интерфейс
Ген3 x16
Ген3 x16
Ген3 x16
Ген4 x16
Дополнительные возможности
–
–
UEFI включен
ConnectX-5 Ex
Основные характеристики MCX555A-ECAT
> Сопоставление тегов и разгрузка рандеву
> Адаптивная маршрутизация на надежном транспорте
> Разгрузка пакетного буфера для фона
контрольно-пропускной пункт
> Встроенный переключатель PCIe
> Поддержка PCIe Gen4
> Соответствует RoHS
ПРЕИМУЩЕСТВА MCX555A-ECAT
2×400Гбит/с
Квантум-2
InfiniBand или
Спектр-4 Ethernet
переключатель к переключателю и
переключиться на DGX-H100
Среды высокопроизводительных вычислений
ConnectX-5 предлагает улучшения для инфраструктуры HPC, предоставляя MPI и SHMEM/ PGAS, а также разгрузку сопоставления тегов рандеву, аппаратную поддержку внеочередных операций записи и чтения RDMA, а также дополнительную поддержку сетевых атомарных операций и операций PCIe. ConnectX-5 расширяет возможности сети RDMA, дополняя возможности адаптивной маршрутизации коммутатора и поддерживая данные, доставляемые вне очереди, сохраняя при этом семантику упорядоченного завершения, обеспечивая многопутевую надежность и эффективную поддержку всех сетевых топологий, включая DragonFly и DragonFly+. ConnectX-5 также поддерживает пакетную разгрузку буфера для фоновой контрольной точки без вмешательства в основные операции ЦП, а также инновационную службу динамического подключенного транспорта (DCT), обеспечивающую исключительную масштабируемость вычислительных систем и систем хранения.
Среды хранения
Устройства хранения данных NVMe набирают популярность, предлагая очень быстрый доступ к хранилищу. Протокол NVMe over Fabrics (NVMe-oF) использует подключение RDMA для удаленного доступа. ConnectX-5 предлагает дополнительные улучшения, обеспечивая целевую разгрузку NVMe-oF, обеспечивая высокоэффективный доступ к хранилищу NVMe без вмешательства ЦП и, таким образом, повышая производительность и снижая задержки. Стандартные протоколы доступа к блокам и файлам могут использовать RDMA для высокопроизводительного доступа к хранилищу. Консолидированная сеть вычислений и хранения данных обеспечивает значительные преимущества по производительности по сравнению с многокомпонентными сетями.
Портфель адаптерных карт
Карты адаптера ConnectX-5 InfiniBand доступны в нескольких форм-факторах, включая низкопрофильный стоячий PCIe, Open Compute Project (OCP) Spec 2.0 Type 1 и OCP 2.0 Type 2. Технология NVIDIA Multi-Host позволяет подключать несколько хостов к одной сети. один адаптер путем разделения интерфейса PCIe на несколько независимых интерфейсов. В портфолио также предлагаются конфигурации NVIDIA Socket Direct, которые позволяют серверам без слотов x16 PCIe разделить 16-канальную шину PCIe карты на две 8-канальные шины на выделенных картах, соединенных жгутом. Это обеспечивает скорость порта 100 Гбит/с даже для серверов без слота x16 PCIe. Socket Direct также включает NVIDIA GPUDirect® RDMA для всех пар ЦП/ГП, гарантируя, что все графические процессоры связаны с ЦП, расположенными рядом с платой адаптера, и включает Intel® DDIO в обоих сокетах, создавая прямое соединение между сокетами и платой адаптера.
Интерфейс PCI Express
> Совместимость с PCIe Gen 4.0, 3.0, 2.0 и 1.1
Скорость соединения > 2,5, 5,0, 8, 16 ГТ/с
> Автоматическое согласование полос x16, x8, x4, x2 или x1
> Атомный PCIe
> Советы по обработке пакетов уровня транзакций (TLP) (TPH)
> Коммутатор PCIe с ограничением нисходящего порта (DPC)
> Служба контроля доступа (ACS) для безопасной одноранговой связи
> Расширенный отчет об ошибках (AER)
> Идентификатор адресного пространства процесса (PASID)
> Службы перевода адресов (ATS)
> Поддержка IBM CAPI v2 ( интерфейс процессора Coherent Accelerator)
> Поддержка механизмов MSI/MSI-X
Операционные системы/дистрибутивы (1)
> RHEL/CentOS
> Окна
> FreeBSD
> ВМваре
> Корпоративное распространение OpenFabrics (OFED)
> Дистрибутив OpenFabrics для Windows (WinOF-2)
Возможности подключения
> Совместимость с коммутаторами InfiniBand (до 100 Гбит/с)
> Совместимость с коммутаторами Ethernet (до 100GbE)
> Пассивный медный кабель с защитой от электростатического разряда
> Разъемы с питанием для поддержки оптических и активных кабелей