브레이크아웃 모드에서는 어떤 Arista 100G 트랜시버와 케이블을 사용할 수 있습니까?

FiberMall 사진

파이버몰

오전 6시 59분에 답변됨

여러 Arista 100G 트랜시버와 케이블을 브레이크아웃 모드에서 사용할 수 있습니다. 즉, 25개의 XNUMXG 채널로 분할할 수 있습니다. 여기에는 다음이 포함됩니다.

  • QSFP-100G-SR4: 100GBASE-SR4 QSFP 광 트랜시버, 병렬 OM70을 통해 최대 3m 또는 OM100 다중 모드 광섬유를 통해 4m
  • QSFP-100G-XSR4: 100GBASE-XSR4 QSFP 광 트랜시버, 병렬 OM150을 통해 최대 3m 또는 OM300 다중 모드 광섬유를 통해 4m
  • QSFP-100G-PSM4: 100GBASE-PSM4 40G/100G 이중 속도 QSFP 광 트랜시버, 병렬 SMF를 통해 최대 500m
  • QSFP-100G-PLRL4: 100GBASE-PLRL4 40G/100G 이중 속도 QSFP 광 트랜시버, 병렬 SMF를 통해 최대 2km
  • CAB-QQ-100G-xM: 100GBASE-CR4 QSFP - QSFP Twinax 구리 케이블, 0.5m - 5m
  • CAB-Q-4S-100G-xM: 100GBASE-CR4 QSFP - 4 x 25GbE SFP Twinax 구리 케이블, 1m - 5m
  • AOC-QQ-100G-xM: 100GbE QSFP - QSFP 활성 광 케이블, 1m~30m
  • AOC-Q-4S-100G-xM: Arista AOC-Q-4S-100G-xM 호환 QSFP28~4x25G SFP28 브레이크아웃 활성 광 케이블, 3m~30m

이러한 트랜시버와 케이블은 아래 표에 표시된 대로 브레이크아웃 모드에서 사용될 때 관련 산업 표준과 상호 운용 가능합니다.

테이블

사람들은 또한 묻는다.

지능형 컴퓨팅 센터 네트워크 설계에서 코어 포트 비율 분석

GPU 클러스터 네트워크 설계의 두 가지 핵심 원칙: 코어 포트 정의 지능형 컴퓨팅 센터를 위한 일반적인 스파인-리프(CLOS) 네트워크 아키텍처에서: 일관된 액세스 포트 대 코어 포트 비율 리프 스위치의 "다운링크 포트"(서버 연결에 사용됨)의 수와 대역폭은 일반적으로 1:1의 고정되고 충분한 비율을 유지해야 합니다.

NVIDIA Spectrum-X 네트워크 플랫폼 아키텍처 백서

AI 성능 및 효율성 향상 AI 워크로드 수요는 전례 없는 속도로 증가하고 있으며, 생성형 AI의 도입은 급증하고 있습니다. 매년 새로운 AI 개발 센터들이 생겨나고 있습니다. 인공지능 기술의 개발 및 운영에 전념하는 이러한 시설들은 클라우드 영역으로 점차 확장되고 있습니다.

NVIDIA GB200 NVL72: 랙 규모 AI 컴퓨팅의 새로운 기준을 제시합니다

대규모 언어 모델(LLM) 및 전문가 혼합(MoE) 아키텍처의 폭발적인 성장은 컴퓨팅 인프라의 기본 논리를 근본적으로 재편하고 있습니다. 모델 매개변수가 1조 개를 넘어서면서 표준 네트워킹으로 연결된 독립형 서버를 중심으로 하는 기존 클러스터 아키텍처는 물리적 및 경제적 한계에 도달하고 있습니다. 이러한 상황에서 NVIDIA의 GB200 NVL72는

800G 스위치 심층 분석 보고서: 아키텍처 진화, 시장 현황 및 미래 전망

서론: AI 시대의 네트워크 인프라 재구축 - 클라우드 컴퓨팅에서 AI 팩토리로의 패러다임 전환 전 세계 데이터 센터 네트워크는 지난 10년 동안 가장 심오한 변화를 겪고 있습니다. 이전에는 네트워크 아키텍처가 주로 클라우드 컴퓨팅과 인터넷 애플리케이션 트래픽 패턴을 중심으로 설계되었으며, "남북" 클라이언트-서버 모델이 지배적이었습니다. 그러나

LPO 광 모듈 링크에서 DSP 칩을 제거해야 하는 이유는 무엇입니까? 

광 모듈 업계에 종사하다 보면 "LPO에서 DSP 칩을 제거해야 한다"는 말을 자주 듣게 됩니다. 왜 그럴까요? 이 질문에 답하려면 먼저 두 가지 핵심 개념, 즉 LPO란 무엇이며 광 모듈에서 DSP의 역할이 무엇인지 명확히 해야 합니다. 그러면 그 이유를 설명할 수 있을 것입니다.

글로벌 400G 이더넷 스위치 시장 및 기술 아키텍처 심층 연구 보고서: AI 기반 네트워크 재구조화 및 생태계 진화 

요약 보고서: 디지털 경제와 인공지능(AI) 기술의 폭발적인 성장에 힘입어 전 세계 데이터 센터 네트워크 인프라는 100G에서 400G/800G로의 전환이라는 역사적으로 중요한 시점에 와 있습니다. 대규모 언어 모델(LLM)의 파라미터가 수조 단위를 돌파하고 고성능 컴퓨팅(HPC)에 대한 수요가 증가함에 따라,

관련 기사

800g sr8 및 400g sr4

800G SR8 및 400G SR4 광 트랜시버 모듈 호환성 및 상호 연결 테스트 보고서

버전 변경 로그 작성기 V0 샘플 테스트 Cassie 테스트 목적 테스트 대상: 800G OSFP SR8/400G OSFP SR4/400G Q112 SR4. 해당 테스트를 수행함으로써 테스트 매개변수는 관련 산업 표준을 충족하며 테스트 모듈은 일반적으로 Nvidia(Mellanox) MQM9790 스위치, Nvidia(Mellanox) ConnectX-7 네트워크 카드 및 Nvidia(Mellanox) BlueField-3에 사용될 수 있습니다. 기초

자세히보기»
AI 클러스터

지능형 컴퓨팅 센터 네트워크 설계에서 코어 포트 비율 분석

GPU 클러스터 네트워크 설계의 두 가지 핵심 원칙: 코어 포트 정의 지능형 컴퓨팅 센터를 위한 일반적인 스파인-리프(CLOS) 네트워크 아키텍처에서: 일관된 액세스 포트 대 코어 포트 비율 리프 스위치의 "다운링크 포트"(서버 연결에 사용됨)의 수와 대역폭은 일반적으로 1:1의 고정되고 충분한 비율을 유지해야 합니다.

자세히보기»
NVIDIA Spectrum-X 네트워크 플랫폼

NVIDIA Spectrum-X 네트워크 플랫폼 아키텍처 백서

AI 성능 및 효율성 향상 AI 워크로드 수요는 전례 없는 속도로 증가하고 있으며, 생성형 AI의 도입은 급증하고 있습니다. 매년 새로운 AI 개발 센터들이 생겨나고 있습니다. 인공지능 기술의 개발 및 운영에 전념하는 이러한 시설들은 클라우드 영역으로 점차 확장되고 있습니다.

자세히보기»
NVIDIA

NVIDIA GB200 NVL72: 랙 규모 AI 컴퓨팅의 새로운 기준을 제시합니다

대규모 언어 모델(LLM) 및 전문가 혼합(MoE) 아키텍처의 폭발적인 성장은 컴퓨팅 인프라의 기본 논리를 근본적으로 재편하고 있습니다. 모델 매개변수가 1조 개를 넘어서면서 표준 네트워킹으로 연결된 독립형 서버를 중심으로 하는 기존 클러스터 아키텍처는 물리적 및 경제적 한계에 도달하고 있습니다. 이러한 상황에서 NVIDIA의 GB200 NVL72는

자세히보기»
800G 스위치 보고서

800G 스위치 심층 분석 보고서: 아키텍처 진화, 시장 현황 및 미래 전망

서론: AI 시대의 네트워크 인프라 재구축 - 클라우드 컴퓨팅에서 AI 팩토리로의 패러다임 전환 전 세계 데이터 센터 네트워크는 지난 10년 동안 가장 심오한 변화를 겪고 있습니다. 이전에는 네트워크 아키텍처가 주로 클라우드 컴퓨팅과 인터넷 애플리케이션 트래픽 패턴을 중심으로 설계되었으며, "남북" 클라이언트-서버 모델이 지배적이었습니다. 그러나

자세히보기»
400G 글로벌 시장

글로벌 400G 이더넷 스위치 시장 및 기술 아키텍처 심층 연구 보고서: AI 기반 네트워크 재구조화 및 생태계 진화 

요약 보고서: 디지털 경제와 인공지능(AI) 기술의 폭발적인 성장에 힘입어 전 세계 데이터 센터 네트워크 인프라는 100G에서 400G/800G로의 전환이라는 역사적으로 중요한 시점에 와 있습니다. 대규모 언어 모델(LLM)의 파라미터가 수조 단위를 돌파하고 고성능 컴퓨팅(HPC)에 대한 수요가 증가함에 따라,

자세히보기»
위쪽으로 스크롤