Quais são as diferenças entre o switch principal e o switch normal?

Um switch core não é um tipo de switch, mas um switch colocado na camada core (o backbone da rede).

Geralmente, as redes corporativas de grande escala e os cibercafés precisam adquirir switches centrais para obter fortes recursos de expansão de rede para proteger o investimento original. Quando o número de computadores chega a 50, esses locais podem usar switches centrais. Um roteador é suficiente quando os computadores são menos de 50. O chamado switch de núcleo é para a arquitetura de rede. Se for uma pequena rede local com vários computadores, um switch pequeno com 8 portas pode ser chamado de switch central.

Diferenças entre o switch principal e o switch comum

  • A diferença entre os portos

O número de portas de switch padrão é geralmente 24-48, e a maioria das portas de rede são portas Gigabit Ethernet ou Fast Ethernet. A função principal é acessar os dados do usuário ou agregar alguns dados do switch na camada de acesso. Esse tipo de switch pode configurar o protocolo de roteamento simples Vlan e algumas funções SNMP simples, com largura de banda de backplane relativamente pequena.

  • A diferenças entre conectar ou acessar a rede

A parte da rede que lida diretamente com a conexão ou acesso à rede dos usuários é geralmente chamada de camada de acesso, e a parte entre a camada de acesso e a camada central é chamada de camada de distribuição ou camada de agregação. A finalidade da camada de acesso é permitir que os usuários finais se conectem à rede, de modo que o switch da camada de acesso tenha as características de baixo custo e alta densidade de portas.

O switch da camada de agregação é o ponto de agregação de vários switches da camada de acesso e deve ser capaz de lidar com todo o tráfego dos dispositivos da camada de acesso e fornecer uplinks para a camada central. Portanto, os switches da camada de agregação têm maior desempenho, menos interfaces e taxas de comutação mais altas.

A parte principal da rede é chamada de camada central. O principal objetivo da camada de núcleo é fornecer uma estrutura de transmissão de backbone otimizada e confiável por meio de encaminhamento de comunicação de alta velocidade. Portanto, o aplicativo de switch da camada principal tem maior confiabilidade, desempenho e taxa de transferência.

diferentes camadas da rede

Diferentes camadas da rede

Vantagens dos Core Switches

Comparados aos switches comuns, os switches de data center precisam ter as seguintes características: cache grande, alta capacidade, virtualização, FCoE, tecnologia TRILL de camada 2, escalabilidade e redundância de módulo.

  • Tecnologia de cache grande

O switch do data center mudou o método de armazenamento em cache da porta de saída do switch tradicional. Adota uma arquitetura de cache distribuído, e o cache é muito maior que o do switch comum. A capacidade de cache pode chegar a mais de 1G, enquanto o switch geral pode atingir apenas 2-4m. Para cada porta, a capacidade do cache de tráfego de intermitência pode atingir 200ms sob a condição de velocidade de linha completa de 10 Gigabits, de modo que, no caso de tráfego de intermitência, o cache grande ainda possa garantir perda zero de pacotes no encaminhamento de rede, o que é adequado apenas para um grande número de servidores no data center e o tráfego de intermitência.

  • Equipamentos de alta capacidade

O tráfego de rede no data center tem as características de agendamento de aplicativos de alta densidade e buffer de pico de pico. No entanto, comutadores comuns não conseguem identificar e controlar com precisão os serviços com a finalidade de interconexão. Nem eles podem obter resposta rápida e perda zero de pacotes, portanto, a continuidade dos negócios não pode ser garantida. A confiabilidade do sistema depende principalmente da confiabilidade do equipamento.

Portanto, os switches comuns não podem atender às necessidades dos data centers. Interruptores de data center precisam ter características de encaminhamento de alta capacidade e suportar placas de 10 Gigabits de alta densidade, ou seja, placas de 48 Gigabits de 10 portas. Para encaminhamento, os switches do data center só podem usar a arquitetura de comutação distribuída CLOS.

Além disso, com a popularidade de 40G e 100G, placas de 40G com suporte para 8 portas e placas de 100G com suporte para 4 portas estão gradualmente se tornando comercialmente disponíveis. Além disso, placas 40G e 100G para switches de data center já entraram no mercado, atendendo assim a demanda por aplicações de alta densidade em data centers.

  • Tecnologia de virtualização

O equipamento de rede no data center precisa ter as características de alto gerenciamento e alta segurança e confiabilidade. Portanto, os switches no data center também precisam oferecer suporte à virtualização. A virtualização é transformar recursos físicos em recursos logicamente gerenciáveis ​​para quebrar as barreiras da estrutura física.

Usando a tecnologia de virtualização, vários dispositivos de rede podem ser gerenciados de maneira unificada. Os serviços em um único dispositivo podem ser completamente isolados, o que pode reduzir os custos de gerenciamento do data center em 40% e aumentar a utilização de TI em aproximadamente 25%.

tecnologia de virtualização

tecnologia de virtualização

  • Tecnologia TRILL

Em termos de construção de uma rede de camada dois no data center, o padrão original é o protocolo FTP. Mas tem os seguintes defeitos:

- O STP funciona através do bloqueio de portas, e todos os links redundantes não encaminham dados, resultando em desperdício de recursos de banda larga.

- A rede tem apenas uma árvore de abrangência e os pacotes de dados devem passar pela ponte raiz, o que afeta a eficiência de encaminhamento de toda a rede.

Portanto, STP não será mais adequado para a expansão de data centers supergrandes. TRILL surge para compensar esses defeitos de STP. O protocolo TRILL combina efetivamente a configuração e a flexibilidade da Camada 2 com a convergência e a escala da Camada 3. Toda a rede pode ser encaminhada sem loops sem a necessidade de configuração na segunda camada. A tecnologia TRILL é um recurso básico da Camada 2 dos switches de data center, que não está disponível em switches comuns.

  • Tecnologia FCoE

Os data centers tradicionais geralmente têm uma rede de dados e uma rede de armazenamento. O surgimento da tecnologia FCOE torna possível a convergência de rede. FCoE é uma tecnologia que encapsula quadros de dados de uma rede de armazenamento em quadros Ethernet para encaminhamento. A realização dessa tecnologia de fusão deve ocorrer nos switches do data center, e os switches comuns geralmente não possuem essas funções.

Funções como agregação de link, redundância, empilhamento e backup a quente também são muito importantes, que determinam o desempenho, a eficiência e a estabilidade dos switches centrais em aplicações práticas.

Link de agregação

A agregação de link é a combinação de dois ou mais canais de dados em um único canal que aparece como um link lógico de maior largura de banda. A agregação de link geralmente é usada para conectar um ou mais dispositivos com requisitos de largura de banda alta, como servidores ou farms de servidores conectados a uma rede de backbone. Ele pode ser usado para estender a largura de banda do link e fornecer maior confiabilidade de conexão.

Por exemplo, a empresa tem dois andares, que administram negócios diferentes. As redes nos dois andares eram originalmente separadas, mas é inevitável que a mesma empresa tivesse interação. Neste momento, podemos abrir a rede entre os dois andares, para que os departamentos com conexão mútua possam se comunicar em alta velocidade. Como mostrado abaixo:

Figura 1: uma interface Eth-Trunk para conectar o switch A e o switch B

Uma interface Eth-Trunk para conectar o switch A e o switch B

Conforme mostrado na figura acima, SwitchA e SwitchB estão conectados às redes VLAN10 e VLAN20 respectivamente através de links Ethernet, e há uma grande quantidade de tráfego de dados entre SwitchA e SwitchB.

O usuário espera que uma largura de banda de link maior possa ser fornecida entre SwitchA e SwitchB para que as mesmas VLANs possam se comunicar entre si. Enquanto isso, os usuários também esperam fornecer um certo grau de redundância para garantir a confiabilidade da transmissão de dados e links.

Crie uma interface Eth-Trunk e adicione interfaces de membro para aumentar a largura de banda do link. Dois switches são configurados com Eth-Trunk1 e, em seguida, as portas das três linhas que precisam se comunicar são adicionadas a Eth-Trunk1, e o tronco de porta é definido para permitir a passagem da VLAN correspondente. Desta forma, a rede nos dois andares pode se comunicar normalmente.

Redundância de links

Para manter a estabilidade da rede, em um ambiente de rede composto por vários switches, algumas conexões de backup são usadas para melhorar a eficiência e a estabilidade da rede. As conexões de backup aqui também são chamadas de links de backup ou links redundantes.

Empilhamento de interruptores

Conectados por meio de cabos de empilhamento proprietários, vários switches podem ser empilhados em um único switch lógico. Todos os switches neste switch lógico compartilham as mesmas informações de configuração e roteamento. O desempenho de um switch lógico não será afetado quando um switch individual for adicionado e removido.

Os tipos de portas ópticas de switch incluem SFP, 10G SFP+, 25G SFP28, 40G QSFP+, 100G QSFP28, etc. Precisamos selecionar o módulo óptico correto para inserir no switch para uso normal. Por exemplo, as portas SFP podem ser inseridas em módulos ópticos SFP e as portas 10G SFP+ são para módulos ópticos 10G. 100G QSFP28 porta precisa ser inserida em módulos ópticos 100G QSFP28.

Se quisermos interligar um switch com uma porta elétrica e um switch com uma porta óptica, podemos usar Cobre SFP. Ele é usado para converter a porta óptica em uma porta elétrica para que possamos usar um cabo de rede para conectar os dois switches.

Os switches empilhados são conectados por dois loops. O hardware do switch é responsável pelo balanceamento de carga dos pacotes de dados nos loops duplos. O loop atua como o backplane desse grande switch lógico. Quando ambos os loops estão funcionando normalmente, a taxa de transmissão dos pacotes de dados nesse switch lógico é de 32 Gbps.

Quando um quadro de dados precisa ser transmitido, o software do switch calculará qual loop está mais disponível e, em seguida, o quadro de dados será enviado para esse loop. Se um cabo de empilhamento falhar, os switches em ambas as extremidades do cabo com falha detectarão a falha e desconectarão o loop afetado, enquanto o switch lógico ainda poderá trabalhar em um estado de loop único com uma taxa de transferência de pacotes de 16 Gbps. Os interruptores são empilhados em cadeia. Consulte a figura a seguir para o método de conexão.

Figura 2: Os switches são empilhados em cadeia

 Os interruptores são empilhados em cadeia

O empilhamento aumenta a estabilidade das portas do switch e da largura de banda.

Backup a Quente (HSRP)

O switch principal é o núcleo e o coração de toda a rede. Se ocorrer uma falha fatal do switch principal, a rede local será paralisada, o que causa perdas inestimáveis. Portanto, quando escolhemos comutadores de núcleo, geralmente vemos que alguns comutadores de núcleo estão equipados com funções como empilhamento ou backup a quente.

O uso de hot backup para switches centrais é uma escolha inevitável para melhorar a confiabilidade da rede. Quando um switch de núcleo não pode funcionar, todas as suas funções são assumidas por outro roteador de backup no sistema até que o roteador em questão volte ao normal. Este é o Hot Standby Router Protocol (HSRP).

A condição para realizar o HSRP é que existam vários switches de núcleo no sistema e eles formem um “grupo de backup ativo”, que forma um roteador virtual. A qualquer momento, apenas um roteador em um grupo está ativo e encaminha pacotes de dados. Se o roteador ativo falhar, um roteador de backup será selecionado para substituir o ativo, mas o host na rede tratará o roteador como não alterado. Portanto, o host permanece conectado e não é afetado pela falha, o que resolve melhor o problema de comutação do switch central.

Para reduzir o tráfego de dados da rede, depois que o switch core ativo e o switch core de backup são configurados, eles enviam pacotes HSRP regularmente. Se o comutador de núcleo ativo falhar, o comutador de núcleo de backup assume o papel de comutador de núcleo ativo. Se o switch core de backup falhar ou se tornar o switch core ativo, outro switch core será selecionado como switch core de backup.

Quando a linha de um switch de camada de acesso para o switch de núcleo principal falha, ele alterna para a máquina em espera.

 

Cenário um de falha de link de dados

 Cenário um de falha de link de dados

Quando o link de dados do switch da camada de acesso 1 conectado ao switch core A falha, o link de dados do switch 1 da camada de acesso é comutado para o switch core B, mas durante o período de comutação, o switch 1 da camada de acesso perde seis pacotes de dados , como mostrado acima.

 

Cenário dois de falha do link de dados

Cenário dois de falha do link de dados

Quando o link principal entre o servidor e o switch principal A falha (como linha, placa de rede, etc.), e quando a placa de rede principal do servidor é comutada para a placa de rede em espera, seis pacotes de dados serão perdidos. Mas quando o link principal for restaurado, o servidor mudará automaticamente da placa de rede em espera para a placa de rede principal e os pacotes de dados não serão perdidos durante essa mudança.

Deixe um comentário

Voltar ao Topo