O módulo 400G-BIDI da Arista pode ser dividido em 4 links 100G-BIDI ou 4 links 100G-SR1.2. Qual é a diferença entre 100G-BIDI e 100G-SR1.2?

FiberMall

FiberMall

Respondida às 9h02

A diferença entre 100G-BIDI e 100G-SR1.2 está principalmente no número de pistas ópticas e na solução de modulação. 100G-BIDI usa duas pistas ópticas, uma para cada direção, em uma fibra multimodo LC duplex. O 100G-SR1.2 usa quatro pistas ópticas, duas para cada direção, na mesma fibra. 100G-BIDI usa modulação NRZ (Non-Return-to-Zero), o que significa que cada bit é codificado como um único símbolo. 100G-SR1.2 usa modulação PAM4 (Pulse Amplitude Modulation), o que significa que cada símbolo codifica dois bits. O PAM4 permite taxas de dados mais altas com taxas de transmissão mais baixas, mas também introduz mais ruído e complexidade. Tanto o 100G-BIDI quanto o 100G-SR1.2 são compatíveis com o padrão IEEE802.3bm 100GBASE-SR4. A principal vantagem do 100G-BIDI é que ele pode reutilizar a infraestrutura 40G-BIDI existente e reduzir o custo do cabeamento de fibra. A principal vantagem do 100G-SR1.2 é que ele pode interoperar com o 400G-SR4.2 e fornecer uma solução preparada para o futuro para maior demanda de largura de banda.

Outra diferença entre 100G-BIDI (100G-SRBD) e 100G-SR1.2 é o FEC (Forward Error Correction) utilizado. Os módulos 100G-BIDI (100G-SRBD) foram amplamente implantados para operação 100G em MMF duplex e usam uma implementação FEC que foi desenvolvida antes da padronização IEEE de KP-FEC para módulos 50G baseados em PAM-4. Devido às diferenças na implementação do FEC, os módulos 100G-SRBD e 100G-SR1.2 não são interoperáveis ​​entre si.

As pessoas também perguntam

Cluster A100/H100/GH200: Arquitetura de rede e requisitos de módulo óptico

Os data centers tradicionais passaram por uma transição de uma arquitetura de três camadas para uma arquitetura leaf-spine, principalmente para acomodar o crescimento do tráfego leste-oeste dentro do data center. À medida que o processo de migração de dados para a nuvem continua a acelerar, a escala dos data centers de computação em nuvem continua a se expandir. Formulários

Desenvolvimento de PCIE

Em 2012, a comunicação entre duas placas foi realizada por fibra óptica utilizando o protocolo PCIE. As vantagens de fazer isso são: a porta óptica reservada permite que os dois dispositivos sejam fisicamente separados, e a interface óptica e a memória reservadas são compatíveis e podem ser acessadas uma pela outra.

Desbloqueando o poder das GPUs NVIDIA H100 em servidores de alto desempenho

O cenário de alta pressão da computação contemporânea, caracterizado pelo aumento do volume de dados e pelos crescentes requisitos computacionais, testemunhou o surgimento da GPU NVIDIA H100, pioneira em servidores de alto desempenho. O artigo procura revelar os recursos revolucionários, bem como as novas tecnologias por trás da GPU NVIDIA H100, que

Desbloqueando o potencial dos cabos Nvidia MPO para redes de fibra de última geração

Na vanguarda da inovação, os cabos MPO da Nvidia estão no mundo atual em constante mudança das telecomunicações e redes de data centers. Eles prometem um impulso significativo para as redes de fibra em termos de capacidade, eficiência e escalabilidade. Este artigo procura avaliar as diversas possibilidades offpor essas soluções de cabeamento avançadas com respeito

Apresentando a plataforma NVIDIA HGX: acelerando a IA e a computação de alto desempenho

A plataforma HGX da NVIDIA é um avanço inovador em IA e HPC. Ele foi projetado para atender às crescentes demandas de energia dos ambientes atuais com uso intensivo de dados e mesclado com a tecnologia de GPU de ponta; ele oferece excelente eficiência de processamento e flexibilidade. Esta introdução tem como objetivo dar aos leitores uma visão preliminar

A revolucionária Nvidia DGX GH200: impulsionando o futuro dos supercomputadores de IA

A Nvidia DGX GH200 representa uma mudança de paradigma em inteligência artificial (IA) e aprendizado de máquina, inaugurando um novo capítulo para supercomputadores de IA. Ele foi projetado como um sistema de ponta capaz de lidar com cargas de trabalho complexas de IA com poder computacional, rapidez e eficiência energética incomparáveis ​​que atendem às necessidades crescentes. Este artigo

Artigos Relacionados

800g sr8 e 400g sr4

Relatório de teste de interconexão e compatibilidade de módulos transceptores ópticos 800G SR8 e 400G SR4

Gravador de log de alteração de versão V0 Teste de amostra Cassie Finalidade do teste Objetos de teste: 800G OSFP SR8/400G OSFP SR4/400G Q112 SR4. Ao realizar testes correspondentes, os parâmetros de teste atendem aos padrões relevantes da indústria, e os módulos de teste podem ser normalmente usados ​​para switch Nvidia (Mellanox) MQM9790, placa de rede Nvidia (Mellanox) ConnectX-7 e Nvidia (Mellanox) BlueField-3, estabelecendo um fundação para

Leia mais »
topologia em escala de meta-rede-escala de 32k

Cluster A100/H100/GH200: Arquitetura de rede e requisitos de módulo óptico

Os data centers tradicionais passaram por uma transição de uma arquitetura de três camadas para uma arquitetura leaf-spine, principalmente para acomodar o crescimento do tráfego leste-oeste dentro do data center. À medida que o processo de migração de dados para a nuvem continua a acelerar, a escala dos data centers de computação em nuvem continua a se expandir. Formulários

Leia mais »
Diagrama de link de fibra PCIE GEN4

Desenvolvimento de PCIE

Em 2012, a comunicação entre duas placas foi realizada por fibra óptica utilizando o protocolo PCIE. As vantagens de fazer isso são: a porta óptica reservada permite que os dois dispositivos sejam fisicamente separados, e a interface óptica e a memória reservadas são compatíveis e podem ser acessadas uma pela outra.

Leia mais »
Desbloqueando o poder das GPUs NVIDIA H100 em servidores de alto desempenho

Desbloqueando o poder das GPUs NVIDIA H100 em servidores de alto desempenho

O cenário de alta pressão da computação contemporânea, caracterizado pelo aumento do volume de dados e pelos crescentes requisitos computacionais, testemunhou o surgimento da GPU NVIDIA H100, pioneira em servidores de alto desempenho. O artigo procura revelar os recursos revolucionários, bem como as novas tecnologias por trás da GPU NVIDIA H100, que

Leia mais »
A revolucionária Nvidia DGX GH200: impulsionando o futuro dos supercomputadores de IA

A revolucionária Nvidia DGX GH200: impulsionando o futuro dos supercomputadores de IA

A Nvidia DGX GH200 representa uma mudança de paradigma em inteligência artificial (IA) e aprendizado de máquina, inaugurando um novo capítulo para supercomputadores de IA. Ele foi projetado como um sistema de ponta capaz de lidar com cargas de trabalho complexas de IA com poder computacional, rapidez e eficiência energética incomparáveis ​​que atendem às necessidades crescentes. Este artigo

Leia mais »

Deixe um comentário

Voltar ao Topo