CONTACT US

Получить запрос

MCX555A-ECAT (1)
MCX555A-ECAT (1)

Сетевая карта МелланоксMellanox MCX555A-ECAT ConnectX-5 EDR IB (100 Гбит/с) и однопортовый QSFP28 100GbE

Категория:
Свяжись с нами

Сетевая карта МелланоксMellanox MCX555A-ECAT ConnectX-5 EDR IB (100 Гбит/с) и однопортовый QSFP28 100GbE

Карты адаптера MCX555A-ECAT ConnectX®-5 InfiniBand представляют собой высокопроизводительное и гибкое  решение с возможностью подключения до двух портов InfiniBand 100 Гбит/с и Ethernet, низкой задержкой  и высокой скоростью передачи сообщений, а также встроенным коммутатором PCIe и разгрузкой NVMe over Fabrics. .

MCX555A-ECAT Эти интеллектуальные адаптеры с поддержкой удаленного прямого доступа к памяти (RDMA) обеспечивают  расширенные возможности разгрузки приложений для высокопроизводительных вычислений (HPC), облачных  гипермасштабируемых платформ и платформ хранения данных.  Карты адаптера ConnectX-5 для серверов PCIe Gen3 и Gen4 доступны в виде стоячих  карт PCIe и форм-факторов Open Compute Project (OCP) Spec 2.0. Некоторые модели также поддерживают  технологии NVIDIA Multi-Host™ и NVIDIA Socket Direct.

Технические характеристики MCX555A-ECAT

Номер модели MCX555A-ECAT MCX556A-ECAT MCX556A-ECUT MCX556A-EDAT
Поддерживаемые скорости InfiniBand 100 Гбит/с и ниже 100 Гбит/с и ниже 100 Гбит/с и ниже 100 Гбит/с и ниже
Поддерживаемые скорости Ethernet 100GbE и ниже 100GbE и ниже 100GbE и ниже 100GbE и ниже
Тип интерфейса 1x КСФП28 2x КСФП28 2x КСФП28 2x КСФП28
Хост-интерфейс Ген3 x16 Ген3 x16 Ген3 x16 Ген4 x16
Дополнительные возможности UEFI включен ConnectX-5 Ex

Основные характеристики MCX555A-ECAT 

> Сопоставление тегов и разгрузка рандеву

> Адаптивная маршрутизация на надежном транспорте

> Разгрузка пакетного буфера для фона

контрольно-пропускной пункт

> Встроенный переключатель PCIe

> Поддержка PCIe Gen4

> Соответствует RoHS

ПРЕИМУЩЕСТВА MCX555A-ECAT 

2×400Гбит/с

Квантум-2

InfiniBand или

Спектр-4 Ethernet

переключатель к переключателю и

переключиться на DGX-H100

Среды высокопроизводительных вычислений

ConnectX-5 предлагает улучшения для инфраструктуры HPC, предоставляя MPI и SHMEM/ PGAS, а также разгрузку сопоставления тегов рандеву, аппаратную поддержку внеочередных операций записи и чтения RDMA, а также дополнительную поддержку сетевых атомарных операций и операций PCIe. ConnectX-5 расширяет возможности сети RDMA, дополняя возможности адаптивной маршрутизации коммутатора и поддерживая данные, доставляемые вне очереди, сохраняя при этом семантику упорядоченного завершения, обеспечивая многопутевую надежность и эффективную поддержку всех сетевых топологий, включая DragonFly и DragonFly+. ConnectX-5 также поддерживает пакетную разгрузку буфера для фоновой контрольной точки без вмешательства в основные операции ЦП, а также инновационную службу динамического подключенного транспорта (DCT), обеспечивающую исключительную масштабируемость вычислительных систем и систем хранения.
Среды хранения
Устройства хранения данных NVMe набирают популярность, предлагая очень быстрый доступ к хранилищу. Протокол NVMe over Fabrics (NVMe-oF) использует подключение RDMA для удаленного доступа. ConnectX-5 предлагает дополнительные улучшения, обеспечивая целевую разгрузку NVMe-oF, обеспечивая высокоэффективный доступ к хранилищу NVMe без вмешательства ЦП и, таким образом, повышая производительность и снижая задержки. Стандартные протоколы доступа к блокам и файлам могут использовать RDMA для высокопроизводительного доступа к хранилищу. Консолидированная сеть вычислений и хранения данных обеспечивает значительные преимущества по производительности по сравнению с многокомпонентными сетями.
Портфель адаптерных карт
Карты адаптера ConnectX-5 InfiniBand доступны в нескольких форм-факторах, включая низкопрофильный стоячий PCIe, Open Compute Project (OCP) Spec 2.0 Type 1 и OCP 2.0 Type 2. Технология NVIDIA Multi-Host позволяет подключать несколько хостов к одной сети. один адаптер путем разделения интерфейса PCIe на несколько независимых интерфейсов. В портфолио также предлагаются конфигурации NVIDIA Socket Direct, которые позволяют серверам без слотов x16 PCIe разделить 16-канальную шину PCIe карты на две 8-канальные шины на выделенных картах, соединенных жгутом. Это обеспечивает скорость порта 100 Гбит/с даже для серверов без слота x16 PCIe. Socket Direct также включает NVIDIA GPUDirect® RDMA для всех пар ЦП/ГП, гарантируя, что все графические процессоры связаны с ЦП, расположенными рядом с платой адаптера, и включает Intel® DDIO в обоих сокетах, создавая прямое соединение между сокетами и платой адаптера.

Интерфейс PCI Express

> Совместимость с PCIe Gen 4.0, 3.0, 2.0 и 1.1

Скорость соединения > 2,5, 5,0, 8, 16 ГТ/с

> Автоматическое согласование полос x16, x8, x4, x2 или x1

> Атомный PCIe

> Советы по обработке пакетов уровня транзакций (TLP)  (TPH)

> Коммутатор PCIe  с ограничением нисходящего порта (DPC)

> Служба контроля доступа (ACS) для  безопасной одноранговой связи

> Расширенный отчет об ошибках (AER)

> Идентификатор адресного пространства процесса (PASID)

> Службы перевода адресов (ATS)

> Поддержка IBM CAPI v2 (  интерфейс процессора Coherent Accelerator)

> Поддержка механизмов MSI/MSI-X

Операционные системы/дистрибутивы (1)

> RHEL/CentOS

> Окна

> FreeBSD

> ВМваре

> Корпоративное распространение OpenFabrics  (OFED)

> Дистрибутив OpenFabrics для Windows  (WinOF-2)

Возможности подключения

> Совместимость с коммутаторами InfiniBand  (до 100 Гбит/с)

> Совместимость с  коммутаторами Ethernet (до 100GbE)

> Пассивный медный кабель с  защитой от электростатического разряда

> Разъемы с питанием для  поддержки оптических и активных кабелей

Получить предложение

Связаться с нами

  • ООО Хуэйлянь наука и технология группа
  • +86 18618394729elva@cnstarsurge.com
  • RM 2209, 22/F, 655 NATHAN ROAD, МОНГ КОК, ГОНКОНГ
  • Запрос цитаты

    Request Inquery