Juniper NETWORKS Cloud Native Contrail Networking Istruzioni
RETI Juniper Cloud Native Contrail Networking

Introduzione

Rete di contrail nativa del cloud finitaview

RIEPILOGO
Ulteriori informazioni sulla rete Contrail nativa del cloud (CN2).

IN QUESTA SEZIONE

  • Vantaggi della rete di contrail nativa del cloud | 4

NOTA: Questa sezione ha lo scopo di fornire una breve panoramicaview della soluzione Cloud Native Contrail Networking di Juniper Networks e potrebbe contenere una descrizione delle funzionalità non supportate nella distribuzione Kubernetes che stai utilizzando. Consulta le note sulla versione di Cloud-Native Contrail Networking per informazioni sulle funzionalità della versione corrente per la tua distribuzione. Se non diversamente indicato, tutti i riferimenti a Kubernetes in questo Overview sono realizzate in modo generico e non intendono individuare una distribuzione particolare.

Nella versione 23.4, il Cloud-Native Contrail Networking è supportato su quanto segue:

  • (A monte) Kubernetes
  • Turno aperto di Red Hat
  • Amazon EKS
  • Allevatore RKE2

Contrail Networking è una soluzione SDN che automatizza la creazione e la gestione di reti virtualizzate per connettere, isolare e proteggere carichi di lavoro e servizi cloud senza soluzione di continuità su cloud privati ​​e pubblici.

Cloud-Native Contrail Networking (CN2) porta questo ricco set di funzionalità SDN in modo nativo su Kubernetes come piattaforma di rete e plug-in CNI (Container Network Interface).

Riprogettato per architetture cloud-native, CN2 fa un passo avantitagTutti i vantaggi offerti da Kubernetes, da DevOps semplificato alla scalabilità chiavi in ​​mano, il tutto basato su una piattaforma ad alta disponibilità. Questi vantaggi includono l'utilizzo di strumenti e pratiche Kubernetes standard per gestire Contrail durante tutto il suo ciclo di vita:

  • Gestisci CN2 utilizzando Kubernetes standard e strumenti di terze parti.
  • Ridimensiona CN2 aggiungendo o rimuovendo nodi.
  • Configurare CN2 utilizzando le definizioni delle risorse personalizzate (CRD).
  • Aggiorna il software CN2 applicando i manifest aggiornati.
  • Disinstallare CN2 eliminando gli spazi dei nomi e le risorse Contrail (dove supportato).

Più che un plug-in CNI, CN2 è una piattaforma di rete che fornisce sicurezza e rete virtuale end-to-end dinamica per carichi di lavoro di macchine virtuali e containerizzati nativi del cloud, in ambienti di elaborazione e storage multi-cluster, il tutto da un punto centrale di controllo. Supporta la multitenancy rigida per ambienti singoli o multi-cluster condivisi tra più tenant, team, applicazioni o fasi di progettazione, scalabile fino a migliaia di nodi.

L'implementazione CN2 è costituita da un set di controller Contrail che risiedono sui nodi del piano di controllo Kubernetes o sui nodi di lavoro a seconda della distribuzione. I controller Contrail gestiscono un insieme distribuito di piani dati implementati da un plug-in CNI e vRouter su ogni nodo. L'integrazione di un vRouter completo insieme ai carichi di lavoro fornisce a CN2 la flessibilità necessaria per supportare un'ampia gamma di requisiti di rete, dai piccoli cluster singoli alle implementazioni multi-cluster, tra cui:

  • Rete overlay completa che include bilanciamento del carico, sicurezza e multi-tenancy, VPN elastiche e resilienti e servizi gateway in implementazioni a cluster singolo e multi-cluster
  • Controller di rete altamente disponibile e resiliente che supervisiona tutti gli aspetti della configurazione di rete e dei piani di controllo
  • Servizi di analisi che utilizzano telemetria e strumenti di monitoraggio e presentazione standard del settore come Prometheus e Granma
  • Supporto sia per i runtime CRI-O che per quelli dei container
  • Supporto per carichi di lavoro di container e VM (utilizzando kubevirt)
  • Supporto per l'accelerazione del piano dati DPDK

Il controller Contrail rileva automaticamente eventi di provisioning del carico di lavoro come l'istanziazione di un nuovo carico di lavoro, eventi di provisioning della rete come la creazione di una nuova rete virtuale, instradamento di aggiornamenti da fonti interne ed esterne ed eventi di rete imprevisti come errori di collegamenti e nodi. Il controller Contrail segnala e registra questi eventi ove appropriato e riconfigura il piano dati vRouter secondo necessità.

Sebbene ogni singolo nodo possa contenere un solo controller Contrail, una distribuzione tipica contiene più controller in esecuzione su più nodi. Quando sono presenti più controller Contrail, i controller si mantengono sincronizzati utilizzando iBGP per scambiare percorsi. Se un controller Contrail si guasta, i controller Contrail sugli altri nodi conservano tutte le informazioni del database e continuano a fornire il piano di controllo della rete senza interruzioni.

Sui nodi di lavoro in cui risiedono i carichi di lavoro, ciascun vRouter stabilisce comunicazioni con due controller Contrail, in modo tale che il vRouter possa continuare a ricevere istruzioni se uno qualsiasi dei controller non funziona.

Supportando Kubernetes in modo nativo, la soluzione CN2 sfrutta la semplicità, la flessibilità, la scalabilità e la disponibilità intrinseche dell'architettura Kubernetes, supportando al contempo un ricco set di funzionalità SDN in grado di soddisfare i requisiti delle aziende e dei fornitori di servizi. Le aziende e i fornitori di servizi possono ora gestire Contrail utilizzando strumenti e processi DevOps semplificati e familiari senza la necessità di apprendere un nuovo paradigma di gestione del ciclo di vita (LCM).

Vantaggi della rete di contrail nativa del cloud

  • Supporta un ricco set di funzionalità di rete per le tue reti overlay.
  • Distribuisci una soluzione SDN altamente scalabile e altamente disponibile su distribuzioni Kubernetes sia upstream che commerciali.
  • Gestisci CN2 utilizzando strumenti e pratiche familiari e standard del settore.
  • Facoltativamente, utilizzare CN2 Web Ul per configurare e monitorare la tua rete.
  • Sfrutta le competenze dei tuoi ingegneri DevOps esistenti per rendere rapidamente operativo CN2.
  • Combinalo con i dispositivi fabric e le soluzioni di gestione del fabric Juniper Networks oppure utilizza le tue reti fabric o cloud di terze parti.

Terminologia

Tabella 1: Terminologia

Termine Senso
Piano di controllo Kubernetes Il piano di controllo Kubernetes è la raccolta di pod che gestiscono carichi di lavoro containerizzati sui nodi di lavoro in un cluster.
Nodo del piano di controllo Kubernetes Questa è la macchina virtuale o fisica che ospita il piano di controllo Kubernetes, precedentemente noto come nodo master.
Nodo del server Nella terminologia Rancher, un nodo server è un nodo del piano di controllo Kubernetes.

Tabella 1: Terminologia (continua)

Termine Senso
Nodo Kubernetes o nodo di lavoro Chiamato anche nodo di lavoro, un nodo Kubernetes è una macchina virtuale o fisica che ospita carichi di lavoro containerizzati in un cluster. Per ridurre l'ambiguità, in questo documento lo chiameremo rigorosamente nodo di lavoro.
Nodo agente Nella terminologia Rancher, un nodo agente è un nodo di lavoro Kubernetes.
Nodo di calcolo contrail Ciò equivale a un nodo di lavoro. È il nodo in cui Contrail vRouter fornisce la funzione del piano dati.
Piano di controllo della rete Il piano di controllo della rete fornisce la funzionalità SDN principale. Utilizza BGP per interagire con peer come altri controller e router gateway e XMPP per interagire con i componenti del piano dati. CN2 supporta un'architettura centralizzata del piano di controllo della rete in cui il demone di routing viene eseguito centralmente all'interno del controller Contrail e apprende e distribuisce percorsi da e ai componenti del piano dati. Questa architettura centralizzata facilita l'astrazione, l'orchestrazione e l'automazione della rete virtuale.
Piano di configurazione della rete Il piano di configurazione di rete interagisce con i componenti del piano di controllo Kubernetes per gestire tutte le risorse CN2. Le risorse CN2 vengono configurate utilizzando le definizioni delle risorse personalizzate (CRD).
Piano dati di rete Il piano dati di rete risiede su tutti i nodi e interagisce con i carichi di lavoro containerizzati per inviare e ricevere traffico di rete. Il suo componente principale è Contrail vRouter.
Controllore di contraccolpo Questa è la parte di CN2 che fornisce la configurazione di rete e la funzionalità del piano di controllo della rete. Questo nome è puramente concettuale: non esiste un oggetto o un'entità controller Contrail corrispondente nell'interfaccia utente.
Nodo del controllore di contrail Questo è il nodo del piano di controllo o nodo di lavoro in cui risiede il controller Contrail. In alcune distribuzioni Kubernetes, il controller Contrail risiede sui nodi del piano di controllo. In altre distribuzioni, il controller Contrail risiede sui nodi di lavoro.
Gruppo centrale In una distribuzione multi-cluster, questo è il cluster Kubernetes centrale che ospita il controller Contrail.
Termine Senso
Cluster del carico di lavoro In una distribuzione multi-cluster, questo è il cluster distribuito che contiene i carichi di lavoro.

Componenti CN2

L'architettura CN2 è composta da pod che eseguono le funzioni del piano di configurazione della rete e del piano di controllo della rete, e da pod che eseguono le funzioni del piano dei dati di rete.

  • Il piano di configurazione di rete si riferisce alla funzionalità che consente a CN2 di gestire le proprie risorse e interagire con il resto del piano di controllo Kubernetes.
  • Il piano di controllo della rete rappresenta la funzionalità SDN completa di CN2. Utilizza BGP per comunicare con altri controller e XMPP per comunicare con i componenti del piano dati distribuito sui nodi di lavoro.
  • Il piano dati di rete si riferisce alla funzione di trasmissione e ricezione dei pacchetti su ogni nodo, in particolare sui nodi di lavoro in cui risiedono i carichi di lavoro.

I pod che eseguono le funzioni di configurazione e del piano di controllo risiedono sui nodi del piano di controllo Kubernetes. I pod che eseguono le funzioni del piano dati risiedono sia sui nodi del piano di controllo Kubernetes che sui nodi di lavoro Kubernetes.

La Tabella 2 a pagina 7 descrive i principali componenti di CN2. A seconda della configurazione, potrebbero esserci anche altri componenti (non mostrati) che eseguono funzioni ausiliarie come la gestione dei certificati e il monitoraggio dello stato.

Tabella 2: Componenti CN2}

Nome del baccello Dove Descrizione
Piano di configurazione1 contrail-k8s-apiserver Nodo del piano di controllo Questo pod è un server API aggregato che costituisce il punto di ingresso per la gestione di tutte le risorse Contrail. È registrato con il cubo regolare EPiServer come servizio API. Il normale cube-EPiServer inoltra tutte le richieste relative alla rete al contrail-k8s-apiserver per la gestione. È presente un pod contrail-k8s-apiserver per nodo del piano di controllo Kubernetes.
contrail-k8s-controller Nodo del piano di controllo Questo pod esegue la funzione del ciclo di controllo Kubernetes per riconciliare le risorse di rete. Monitora costantemente le risorse di rete per assicurarsi che lo stato effettivo di una risorsa corrisponda allo stato previsto. È presente un pod contrail-k8s-controller per nodo del piano di controllo Kubernetes.
contrail-k8s-kubemanager Nodo del piano di controllo Questo pod è l'interfaccia tra le risorse Kubernetes e le risorse Contrail. Controlla il kube-apiserver per verificare le modifiche alle normali risorse Kubernetes come il servizio e lo spazio dei nomi e agisce su qualsiasi modifica che influisca sulle risorse di rete. In una distribuzione a cluster singolo, è presente un pod contrail-k8s-kubemanager per nodo del piano di controllo Kubernetes. In una distribuzione multi-cluster, è inoltre presente un pod contrail-k8s-kubemanager per ogni cluster di carico di lavoro distribuito.

Tabella 2: Componenti CN2 (continua)

Nome del baccello Dove Descrizione
Piano di controllo1 controllo delle scie di condensazione Nodo del piano di controllo Questo pod passa la configurazione ai nodi di lavoro ed esegue l'apprendimento e la distribuzione del percorso. Controlla il kube-apiserver per qualsiasi cosa influenzi il piano di controllo della rete e quindi comunica con i suoi peer BGP e/o agenti router (su XMPP) come appropriato. È presente un pod di controllo della condensa per nodo del piano di controllo Kubernetes.
Piano dati contrail-vrouter-nodi Nodo lavoratore Questo pod contiene l'agente vRouter e il vRouter stesso. L'agente vRouter agisce per conto del vRouter locale quando interagisce con il controller Contrail. C'è un agente per nodo. L'agente stabilisce sessioni XMPP con due controller Contrail per eseguire le seguenti funzioni:
  • traduce la configurazione dal piano di controllo in oggetti comprensibili dal vRouter
  • si interfaccia con il piano di controllo per la gestione delle rotte
  • raccoglie ed esporta statistiche dal piano dati

Il vRouter fornisce la funzione di invio e ricezione di pacchetti per i pod e i carichi di lavoro co-localizzati. Fornisce la funzionalità plug-in CNI.

maestri-del-router-di-scie Nodo del piano di controllo Questo pod fornisce le stesse funzionalità del pod contrail-vrouter-nodes, ma risiede sui nodi del piano di controllo.

Tabella 2: Componenti CN2 (continua)

Nome del baccello Dove Descrizione
1I componenti che compongono il piano di configurazione della rete e il piano di controllo della rete sono collettivamente chiamati controller Contrail.

Figura 1 a pagina 9 mostra questi componenti nel contesto di un cluster Kubernetes.

Per chiarezza e per ridurre il disordine, le figure non mostrano i pod del piano dati sul nodo con il controller Contrail.

Figura 1: Componenti CN2
Componenti
"Quando viene eseguito su Kubernetes o Rancher RKE2 upstream, il controller Contrail memorizza tutti i dati del cluster CN2 nel database principale di Kubernetes etch per impostazione predefinita. Quando viene eseguito su Open Shift, il controller Contrail memorizza tutti i dati del cluster CN2 nel proprio database Contrail etch.

kube-apiserver è il punto di ingresso per le chiamate API REST Kubernetes per il cluster. Dirige tutte le richieste di rete al contrail-k8s-apiserver, che è il punto di ingresso per le chiamate API Contrail. Il contrail-k8s-apiserver traduce le richieste di rete in entrata in chiamate API REST ai rispettivi oggetti CN2. In alcuni casi, queste chiamate possono far sì che il controller Contrail invii messaggi XMPP all'agente vRouter su uno o più nodi di lavoro o invii messaggi BGP (non mostrati) ad altri nodi del piano di controllo o router esterni. Questi messaggi XMPP e BGP vengono inviati al di fuori delle normali comunicazioni da nodo a nodo Kubernetes.

I componenti contrail-k8s-kubemanager (cluster) sono presenti solo nelle distribuzioni multi-cluster. Per ulteriori informazioni sui diversi tipi di distribuzione, vedere Modelli di distribuzione.

Figura 2 a pagina 10 mostra un cluster con più controller Contrail. Questi controller risiedono sui nodi del piano di controllo. I componenti Kubernetes comunicano tra loro utilizzando REST. I controller Contrail si scambiano percorsi tra loro utilizzando iBGP, al di fuori della normale interfaccia REST di Kubernetes. Per motivi di ridondanza, gli agenti vRouter sui nodi di lavoro stabiliscono sempre comunicazioni XMPP con due controller Contrail.

Figura 2: più controllori di contrail
Controllori di contrail multipli
"-" RIPOSO
«—> BGP
«—> RESTO e XMPP

Modelli di distribuzione

RIEPILOGO
Ulteriori informazioni su cluster singolo e multi-cluster CN2.

IN QUESTA SEZIONE

  • Distribuzione a cluster singolo | 11
  • Distribuzione multi-cluster | 12

Cloud-Native Contrail Networking (CN2) è disponibile sia come piattaforma di rete integrata in un singolo cluster Kubernetes sia come piattaforma di rete centralizzata per più cluster Kubernetes distribuiti. In entrambi i casi, Contrail funziona come componente integrato della tua infrastruttura controllando dove vengono istanziati i carichi di lavoro e collegando tali carichi di lavoro alle reti overlay appropriate.

Distribuzione a cluster singolo

Cloud-Native Contrail Networking (CN2) è disponibile come piattaforma di rete integrata in un singolo cluster Kubernetes, osservando dove vengono istanziati i carichi di lavoro e collegando tali carichi di lavoro alle reti overlay appropriate.

In una distribuzione a cluster singolo (Figura 3 a pagina 12), il controller Contrail si trova nel piano di controllo Kubernetes e fornisce la configurazione di rete e i piani di controllo di rete per il cluster host. I componenti del piano dati Contrail si trovano in tutti i nodi e forniscono la funzione di invio e ricezione dei pacchetti per i carichi di lavoro.

Figura 3: distribuzione a cluster singolo
Cluster singolo

Distribuzione multi-cluster

In una distribuzione multi-cluster (Figura 4 a pagina 13), il controller Contrail risiede nel proprio cluster Kubernetes e fornisce la rete ad altri cluster. Il cluster Kubernetes in cui risiede il controller Contrail è chiamato cluster centrale. I cluster Kubernetes che ospitano i carichi di lavoro sono chiamati cluster di carichi di lavoro distribuiti.

Figura 4: distribuzione multi-cluster
Distribuzione multi-cluster

Centralizzare la funzione di rete in questo modo semplifica non solo la configurazione e la gestione, ma anche l'applicazione di policy e sicurezza di rete coerenti.

Figura 5 a pagina 14 fornisce maggiori dettagli su questa configurazione. Il controller Contrail si trova nel piano di controllo Kubernetes del cluster centrale e contiene un kubemanager per ogni cluster di carico di lavoro che serve. In genere non sono presenti nodi di lavoro nel cluster centrale. Invece, i carichi di lavoro risiedono nei nodi di lavoro nei cluster di carichi di lavoro distribuiti. Il plug-in Contrail CNI e vRouter si trovano nei nodi di lavoro dei cluster del carico di lavoro. Il piano di controllo Kubernetes nei cluster del carico di lavoro non contiene alcun componente del controller Contrail.

Figura 5: componenti multi-cluster
Componenti multi-cluster

Il controller Contrail multi-cluster differisce dal controller Contrail single-cluster in due modi principali:

  • Il controller Contrail multi-cluster dispone di un pod contrail-k8s-kubemanager istanziato per ogni cluster di carico di lavoro distribuito. Come parte della procedura per connettere un cluster di carico di lavoro distribuito al cluster centrale, crei e assegni esplicitamente una distribuzione contrail-k8s-kubemanager che controlla le modifiche alle risorse che influiscono sul cluster di carico di lavoro assegnato.
  • Il controller Contrail multi-cluster utilizza la tecnologia di sorveglianza multi-cluster per rilevare le modifiche nei cluster del carico di lavoro distribuito.

La funzione del pod multi-cluster contrail-k8s-kubemanager è identica alla sua controparte a cluster singolo. Controlla le modifiche alle normali risorse Kubernetes che influiscono sul cluster assegnato e agisce di conseguenza sulle modifiche.

Tutti gli altri componenti Contrail in una distribuzione multi-cluster si comportano allo stesso modo di una distribuzione a cluster singolo. Il piano di controllo della rete, ad esample, comunica con i componenti del piano dati utilizzando XMPP, al di fuori dei normali canali REST Kubernetes. Per questo motivo, il piano di controllo della rete è indifferente al fatto che i componenti del piano dati con cui comunica risiedano nello stesso cluster o in cluster diversi. L'unico requisito è che i componenti del piano dati siano raggiungibili.

Requisiti di sistema

Tabella 3: Requisiti di sistema per l'installazione upstream di Kubernetes con CN2

Macchina processore Memoria RAM Magazzinaggio Appunti
Nodi del piano di controllo 1 8 32 GB 400 GB Il processore deve supportare il set di istruzioni AVX2 se esegue DPDK.
Nodi di lavoro2 4 16 GB 100 GB Il processore deve supportare il set di istruzioni AVX2 se si esegue DPDK.
  1. include nodi in cluster singoli, cluster centrali e cluster di carichi di lavoro distribuiti. 
  2. In base ai requisiti del carico di lavoro.

Installare

Sopraview

IN QUESTA SEZIONE

  • Vantaggi di Kubernetes upstream con Contrail | 17

Upstream Kubernetes è una versione open source di Kubernetes gestita dalla Cloud Native Computing Foundation (CNCF). È costituito dai componenti principali che forniscono l'infrastruttura per l'orchestrazione dei contenitori. Costituisce la base per le distribuzioni commerciali Kubernetes (in altre parole, è "a monte" di altre distribuzioni).

Kubernetes upstream non include alcun componente aggiuntivo per il monitoraggio e la gestione del ciclo di vita del cluster. È quindi rivolto alle organizzazioni che hanno la capacità di mettere insieme da sole una soluzione di orchestrazione utilizzabile. È utile anche per gli utenti che desiderano ottenere rapidamente un'installazione semplice e operativa.

Anche Kubernetes upstream non include un plug-in CNI. Dopo aver installato un nuovo cluster, dovrai installare un plug-in CNI per quel cluster. Con CN2 è sufficiente eseguire il deployer Contrail fornito. Il distributore Contrail viene eseguito in un contenitore e si comporta esattamente come qualsiasi altra applicazione Kubernetes. Il dispositivo di distribuzione installa e fornisce la gestione del ciclo di vita per i componenti CN2.

Una volta installato CN2, puoi gestirlo utilizzando kubectl e altri strumenti Kubernetes standard. Se installi anche Contrail Analytics, otterrai Prometheus, Graafian e altri software di monitoraggio open source installati automaticamente, con l'ulteriore vantaggio che CN2 funzionerà perfettamente con queste ultime applicazioni senza che siano necessarie ulteriori configurazioni.

Vantaggi di Kubernetes upstream con Contrail

  • Piattaforma Kubernetes open source insieme a CNI leader del settore
  • Installa solo ciò che ti serve, completamente personalizzabile
  • Ideale per installazioni roll-your-own e proof-of-concept
  • Il distributore Contrail facilita l'installazione

Prima di installare

  1. Configura un account con Juniper Networks in modo da poter scaricare i manifest CN2 dal sito di download di Juniper Networks (https:/support.juniper.net/support/downloads/?p=contrail-networking) e accedere al repository del contenitore su https:/enterprise -hub.juniper.net.
  2. Configura la rete Fabric e collega i tuoi nodi al Fabric. L'example reti utilizzate in questo documento sono mostrate nelle rispettive sezioni di installazione.
  3. Scarica i manifest di Contrail Networking (“Manifest” a pagina 38) ed estrai il tgz sull'host su cui prevedi di eseguire l'installazione. Questo host deve essere in grado di raggiungere i nodi del cluster.
  4. Configura le credenziali di accesso al repository nei manifest scaricati. Aggiungi le credenziali di accesso al repository ai manifest contrail-manifests-k8s e contrail-tools. Vedere "Configurare le credenziali del repository" a pagina 74 per un modo per eseguire questa operazione.
  5. Configurare i nodi del cluster.
    a. Installa un nuovo sistema operativo su tutti i server/VM che utilizzerai come nodi del cluster. Assicurarsi che le versioni del sistema operativo e del kernel sui nodi del cluster siano nell'elenco dei sistemi operativi e dei kernel supportati (vedere la matrice delle integrazioni testate CN2 all'indirizzo https:/www.juniper.net/documentation/us/en/software/cn-cloud-native/ cn2-tested-integrations/cn-cloud-native-tested-integrations/concept/cn-cloud-nativetestintegrations.html).
    b. Disabilitare l'offload del checksum di trasmissione su qualsiasi nodo del cluster che sia una VM. È necessario disabilitare l'offload in modo persistente (che sopravviva ai riavvii). Esistono diversi modi per eseguire questa operazione, inclusa la disabilitazione dell'offload del checksum di trasmissione nella definizione della VM. Utilizza il metodo che funziona meglio nella tua configurazione.
    c. Configurare il sistema operativo su ciascun nodo almeno per quanto segue:
    • indirizzo IP statico e maschera come da example cluster che desideri installare (ad esample, da 172.16.0.11/24 a 172.16.0.13/24 nel nostro singolo cluster example) e gateway
    • accesso a uno o più server DNS
      NOTA: Se stai utilizzando systemd-resolved su Ubuntu, assicurati che /etc/resolv.conf sia collegato a /run/systemd/resolve/resolv. conf e non in /run/system/resolve/stubresolv. conf.
    • Connettività SSH incluso accesso root SSH NTP (deve essere chrony)
      I nodi del cluster nel nostro example eseguono Ubuntu.
      d. Se hai intenzione di eseguire con un piano dati DPDK, prepara ogni nodo del cluster che esegue DPDK. Per un exampPer informazioni su come eseguire questa operazione, vedere "Preparare un nodo cluster per DPDK" a pagina 77.
  6. Installa gli strumenti Contrail. Vedere "Installare Contrail Tools" a pagina 36.
  7. Installa contrailstatus sulla macchina su cui prevedi di eseguire kubectl. Contrailstatus è un plug-in kubectl che puoi utilizzare per eseguire query sui microservizi Contrail e sulle risorse specifiche di Contrail. L'eseguibile contrailstatus è incluso nel pacchetto degli strumenti scaricati. Estrai e copia l'eseguibile kubectl-contrailstatus in /usr/local/bin.
    Se stai installando un multi-cluster, ripeti i passaggi da 3 a 7 per ciascun cluster.

Installare la rete condivisa a cluster singolo CN2

RIEPILOGO
Vedi esample su come installare un singolo cluster CN2 in una distribuzione in cui il traffico Kubernetes e il traffico CN2 condividono la stessa rete

IN QUESTA SEZIONE

  • Installare la rete condivisa a cluster singolo CN2 in esecuzione piano dati in modalità kernel | 21
  • Installa la rete condivisa a cluster singolo CN2 che esegue il piano dati DPDK | 23

In una distribuzione di rete condivisa a cluster singolo:

  • CN2 è la piattaforma di rete e il plug-in CNI per quel cluster. Il controller Contrail viene eseguito nel piano di controllo Kubernetes e i componenti del piano dati Contrail vengono eseguiti su tutti i nodi del cluster.
  • Il traffico Kubernetes e CN2 condividono un'unica rete.

La Figura 6 a pagina 20 mostra il cluster che creerai se segui la rete condivisa a cluster singolo esample. Il cluster è costituito da un singolo nodo del piano di controllo e due nodi di lavoro.

Tutti i nodi mostrati possono essere VM o server bare metal.

Figura 6: Rete condivisa a cluster singolo CN2
Rete condivisa a cluster singolo
 Tutte le comunicazioni tra i nodi nel cluster e tra nodi e siti esterni avvengono sulla singola rete virtuale fabric 172.16.0.0/24. La rete fabric fornisce il substrato su cui viene eseguito il cluster.

L'amministratore locale viene mostrato collegato a una rete separata raggiungibile tramite un gateway. Questo è tipico di molte installazioni in cui l'amministratore locale gestisce la struttura e il cluster dalla LAN aziendale. Nelle procedure che seguono, faremo riferimento alla stazione dell'amministratore locale come al computer locale.

NOTA: A connettere insieme tutti i nodi del cluster è la struttura del data center, mostrata nell'esempioample come una singola sottorete. Nelle installazioni reali, la struttura del data center è una rete di switch spine e foglie che forniscono la connettività fisica per il cluster. In un data center gestito da Apstra, questa connettività verrebbe specificata tramite le reti virtuali sovrapposte create sugli switch della struttura sottostante.

Le procedure in questa sezione mostrano gli esample su come utilizzare i manifesti forniti per creare la distribuzione CN2 specificata. Non sei limitato alla distribuzione descritta in questa sezione né sei limitato all'utilizzo dei manifest forniti. CN2 supporta un'ampia gamma di distribuzioni troppo numerose per essere trattate in dettaglio. Utilizzare l'es. fornitoamples come punto di partenza per creare il tuo manifest personalizzato in base alla tua situazione specifica.

Installare la rete condivisa a cluster singolo CN2 che esegue il piano dati in modalità kernel
Utilizzare questa procedura per installare CN2 in una distribuzione di rete condivisa a cluster singolo che esegue un piano dati in modalità kernel.

Il manifest che utilizzerai in questo exampla procedura del file è single-cluster/ single_cluster_deployer_example.yaml. La procedura presuppone che tu abbia inserito questo manifest in una directory manifests.

  1. Crea un cluster Kubernetes. Puoi seguire l'example procedura in “Creare un cluster Kubernetes”
    a pagina 66 oppure è possibile utilizzare qualsiasi altro metodo. Creare il cluster con le seguenti caratteristiche:
    • Il cluster non dispone di plug-in CNI.
    • Disabilita DNS locale del nodo.
  2. Applicare il manifesto del distributore Contrail.
    Installa la rete condivisa a cluster singolo
    Potrebbero essere necessari alcuni minuti prima che i nodi e i pod vengano attivati.
  3. Utilizza i comandi kubectl standard per verificare la distribuzione.
    a. Mostra lo stato dei nodi.
    Installa la rete condivisa a cluster singolo
    Puoi vedere che i nodi ora sono sollevati. Se i nodi non sono attivi, attendi qualche minuto e ricontrolla.
    b. Mostra lo stato dei pod.
    Installa la rete condivisa a cluster singolo
    Tutti i pod ora dovrebbero avere lo STATO In esecuzione. In caso contrario, aspetta un po'. utes per i baccelli a venire
    c. Se alcuni pod rimangono inattivi, esegui il debug della distribuzione come fai normalmente. Utilizza il comando kubectl description per capire perché un pod non viene visualizzato. Un errore comune è un problema di rete o firewall che impedisce al nodo di raggiungere il repository Juniper Networks. Ecco un example di un problema DNS.
    Accedi a ciascun nodo che presenta un problema e controlla la risoluzione dei nomi per enterprise-hub.juniper.net. Per esampon:
    Installa la rete condivisa a cluster singolo
    NOTA: Sebbene enterprise-hub.juniper.net non sia configurato per rispondere ai ping, possiamo utilizzare il comando ping per verificare la risoluzione del nome di dominio.
    In questo example, il nome di dominio non si risolve. Controlla la configurazione del server dei nomi di dominio per assicurarti che sia corretta.
    Per esempioample, in un sistema Ubuntu che esegue systemd risolto, controlla che /etc/resolv.conf sia collegato a /run/systemd/resolve/resolv.conf come descritto nel passaggio 5 in "Prima di installare" a pagina 18 e controlla che il tuo server DNS è elencato correttamente in quello file.
    d. Se riscontri un problema che non riesci a risolvere o se hai commesso un errore durante l'installazione, disinstalla semplicemente CN2 e ricomincia da capo. Per disinstallare CN2, vedere “Disinstallare CN2” a pagina 55.
  4. (Facoltativo) Esegui controlli post-volo. Vedere “Eseguire controlli preflight e postflight” a pagina 51.

Installare la rete condivisa a cluster singolo CN2 che esegue il piano dati DPDK

Utilizzare questa procedura per installare CN2 in una distribuzione di rete condivisa a cluster singolo che esegue un piano dati DPDK.

Il manifest che utilizzerai in questo exampla procedura del file è single-cluster/ single_cluster_deployer_example.yaml. La procedura presuppone che tu abbia inserito questo manifest in una directory manifests.

  1. Crea un cluster Kubernetes. Puoi seguire l'example in “Creare un cluster Kubernetes” a pagina 66 oppure è possibile utilizzare qualsiasi altro metodo. Creare il cluster con le seguenti caratteristiche:
    • Il cluster non dispone di plug-in CNI.
    • Disabilita DNS locale del nodo.
    • Abilita la versione multus 0.3.1.
  2. Specificare i nodi DPDK.
    Per ogni nodo che esegue DPDK, etichettalo come segue:
    Installa la rete condivisa a cluster singolo

    Etichettando i nodi in questo modo, CN2 utilizzerà la configurazione DPDK specificata nel manifest.
  3. Applicare il manifesto del distributore Contrail.
    Installa la rete condivisa a cluster singolo
    Potrebbero essere necessari alcuni minuti prima che i nodi e i pod vengano attivati.
  4. Utilizza i comandi kubectl standard per verificare la distribuzione.
    a. Mostra lo stato dei nodi.
    Installa la rete condivisa a cluster singolo
    Puoi vedere che i nodi ora sono sollevati. Se i nodi non sono attivi, attendi qualche minuto e ricontrolla.
    b. Mostra lo stato dei pod.
    Installa la rete condivisa a cluster singolo
    Installa la rete condivisa a cluster singolo
    Tutti i pod ora dovrebbero avere lo STATO In esecuzione. In caso contrario, attendere qualche minuto affinché i baccelli vengano fuori.
    c. Se alcuni pod rimangono inattivi, esegui il debug della distribuzione come fai normalmente. Utilizza il comando kubectl description per capire perché un pod non viene visualizzato. Un errore comune è un problema di rete o firewall che impedisce al nodo di raggiungere il repository Juniper Networks. Ecco un example di un problema DNS.
    Accedi a ciascun nodo che presenta un problema e controlla la risoluzione dei nomi per enterprise-hub.juniper.net. Per esampon:
    Installa la rete condivisa a cluster singolo
    NOTA: Sebbene enterprise-hub.juniper.net non sia configurato per rispondere ai ping, possiamo utilizzare il comando ping per verificare la risoluzione del nome di dominio.
    In questo example, il nome di dominio non si risolve. Controlla la configurazione del server dei nomi di dominio per assicurarti che sia corretta.
    Per esempioample, in un sistema Ubuntu che esegue systemd risolto, controlla che /etc/resolv. conf sia collegato a /run/systemd/resolve/resolv.conf come descritto nel passo 5 in “Prima di installare” a pagina 18 e controlla che il tuo server DNS sia elencato correttamente in quello file.
    d. Se riscontri un problema che non riesci a risolvere o se hai commesso un errore durante l'installazione, disinstalla semplicemente CN2 e ricomincia da capo. Per disinstallare CN2, vedere “Disinstallare CN2” a pagina 55.
  5. (Facoltativo) Esegui controlli portlight. Vedere "Eseguire controlli preflight e portlight" a pagina 51.

Installare CN2 multirete a cluster singolo

RIEPILOGO
Vedi esample su come installare un singolo cluster CN2 in una distribuzione in cui il traffico Kubernetes e il traffico CN2 passano su reti separate.

IN QUESTA SEZIONE

  • Installa CN2 multirete a cluster singolo che esegue il piano dati in modalità kernel | 28
  • Installa CN2 multirete a cluster singolo che esegue il piano dati DPDK | 30

In una distribuzione multi-rete a cluster singolo:

  • CN2 è la piattaforma di rete e il plug-in CNI per quel cluster. Il controller Contrail viene eseguito nel piano di controllo Kubernetes e i componenti del piano dati Contrail vengono eseguiti su tutti i nodi del cluster.
  • Il traffico del cluster è separato su due reti. Il traffico del piano di controllo Kubernetes attraversa una rete mentre il controllo Contrail e il traffico dati attraversano la seconda rete. È anche possibile (ma meno comune) separare il traffico su più di due reti, ma questo va oltre lo scopo di questi exampmeno.

Figura 7 a pagina 27 mostra il cluster che creerai se segui questo cluster singolo multi-rete example. Il cluster è costituito da un singolo nodo del piano di controllo, due nodi di lavoro e due sottoreti.

Tutti i nodi mostrati possono essere VM o server bare metal.

Figura 7: Cluster singolo multirete CN2
Multirete a cluster singolo
Il traffico del piano di controllo Kubernetes passa sulla rete virtuale del fabric 172.16.0.0/24 mentre il controllo Contrail e il traffico dati passano sulla rete virtuale del fabric 10.16.0.0/24. Le reti fabric forniscono il sottofondo su cui viene eseguito il cluster.

L'amministratore locale viene mostrato collegato a una rete separata raggiungibile tramite un gateway. Questo è tipico di molte installazioni in cui l'amministratore locale gestisce la struttura e il cluster dalla LAN aziendale. Nelle procedure che seguono, faremo riferimento alla stazione dell'amministratore locale come al computer locale.

NOTA: A connettere insieme tutti i nodi del cluster è la struttura del data center, mostrata nell'esempioample come due sottoreti. Nelle installazioni reali, la struttura del data center è una rete di switch spine e foglie che forniscono la connettività fisica per il cluster.

In un data center gestito da Astra, questa connettività verrebbe specificata tramite le reti virtuali sovrapposte create sugli switch della struttura sottostante.

Le procedure in questa sezione mostrano gli esample su come utilizzare i manifesti forniti per creare la distribuzione CN2 specificata. Non sei limitato alla distribuzione descritta in questa sezione né sei limitato all'utilizzo dei manifest forniti. CN2 supporta un'ampia gamma di distribuzioni troppo numerose per essere trattate in dettaglio. Utilizzare l'es. fornitoamples come punto di partenza per creare il tuo manifest personalizzato in base alla tua situazione specifica.

Installa CN2 multirete a cluster singolo che esegue il piano dati in modalità kernel

Utilizzare questa procedura per installare CN2 in una distribuzione multirete a cluster singolo che esegue un piano dati in modalità kernel.
Il manifest che utilizzerai in questo exampla procedura del file è single-cluster/ single_cluster_deployer_example.yaml. La procedura presuppone che tu abbia inserito questo manifest in una directory manifests.

  1. Crea un cluster Kubernetes. Puoi seguire l'example procedura in “Creare un cluster Kubernetes”
    a pagina 66 oppure è possibile utilizzare qualsiasi altro metodo. Creare il cluster con le seguenti caratteristiche:
    • Il cluster non dispone di plug-in CNI.
    • Disabilita DNS locale del nodo.
  2. Modifica il file single_cluster_deployer_example.yaml per configurare il controllo Contrail e la rete dati.
    Puoi specificare la rete Contrail utilizzando una ConfigMap contrail-network-config. Il file single_cluster_deployer_exampil manifest le.yaml contiene un ex commentatoample su come configurare un ConfigMap contrail-network-config.
    Rimuovere il commento da tali righe e specificare la sottorete e il gateway appropriati oppure copiare e incollare quanto segue nel manifest.
    Installa la rete condivisa a cluster singolo
    La sottorete e il gateway specificati sono il controllo Contrail, la rete dati e il gateway, che nel nostro example è la rete 10.16.0.0/24.
  3. Applicare il manifesto del distributore Contrail.
    Installa la rete condivisa a cluster singolo
    Potrebbero essere necessari alcuni minuti prima che i nodi e i pod vengano attivati.
  4. Utilizza i comandi kubectl standard per verificare la distribuzione.
    a. Mostra lo stato dei nodi.
    Installa la rete condivisa a cluster singolo
    b. Mostra lo stato dei pod.
    Installa la rete condivisa a cluster singolo
    Tutti i pod ora dovrebbero avere lo STATO In esecuzione. In caso contrario, attendere qualche minuto affinché i baccelli vengano fuori.
    c. Se alcuni pod rimangono inattivi, esegui il debug della distribuzione come fai normalmente. Utilizza il comando kubectl description per capire perché un pod non viene visualizzato. Un errore comune è un problema di rete o firewall che impedisce al nodo di raggiungere il repository Juniper Networks.
    Ecco un example di un problema DNS.
    Accedi a ciascun nodo che presenta un problema e controlla la risoluzione dei nomi per enterprise-hub.juniper.net. Per
    exampon:
    Installa la rete condivisa a cluster singolo
    NOTA: Sebbene enterprise-hub.juniper.net non sia configurato per rispondere ai ping, possiamo utilizzare il comando ping per verificare la risoluzione del nome di dominio.
    In questo example, il nome di dominio non si risolve. Controlla la configurazione del server dei nomi di dominio per assicurarti che sia corretta.
    Per esempioample, in un sistema Ubuntu che esegue systemd risolto, controlla che /etc/resolv.conf sia collegato a /run/systemd/resolve/resolv.conf come descritto nel passaggio 5 in “Prima di installare” a pagina 18 e controlla che il tuo DNS il server è elencato correttamente in quello file.
    d. Se riscontri un problema che non riesci a risolvere o se hai commesso un errore durante l'installazione, disinstalla semplicemente CN2 e ricomincia da capo. Per disinstallare CN2, vedere “Disinstallare CN2” a pagina 55.
  5. (Facoltativo) Esegui controlli post-volo. Vedere “Eseguire controlli preflight e postflight” a pagina 51.

Installo CN2 multirete a cluster singolo con piano dati DPDK

Utilizzare questa procedura per installare CN2 in una distribuzione multirete a cluster singolo che esegue un piano dati DPDK.

Il manifest che utilizzerai in questo exampla procedura del file è single-cluster/ single_cluster_deployer_example.yaml. La procedura presuppone che tu abbia inserito questo manifest in una directory manifests.

  1. Crea un cluster Kubernetes. Puoi seguire l'example in “Creare un cluster Kubernetes” a pagina 66 oppure è possibile utilizzare qualsiasi altro metodo. Creare il cluster con le seguenti caratteristiche:
    • Il cluster non dispone di plug-in CNI.
    • Disabilita DNS locale del nodo.
    • Abilita la versione 0.3.1 di molts.
  2. Modifica il file single_cluster_deployer_example.yaml per configurare il controllo Contrail e la rete dati.
    Puoi specificare la rete Contrail utilizzando una ConfigMap contrail-network-config. Il file single_cluster_deployer_exampil manifest le.yaml contiene un ex commentatoample su come configurare un ConfigMap contrail-network-config.
    Rimuovere il commento da tali righe e specificare la sottorete e il gateway appropriati oppure copiare e incollare quanto segue nel manifest.
    Installa la rete condivisa a cluster singolo
    La sottorete e il gateway specificati sono il controllo Contrail, la rete dati e il gateway, che nel nostro example è la rete 10.16.0.0/24.
  3. Specificare i nodi DPDK.
    Per ogni nodo che esegue DPDK, etichettalo come segue:
    Installa la rete condivisa a cluster singolo
    Etichettando i nodi in questo modo, CN2 utilizzerà la configurazione DPDK specificata nel manifest.
  4. Applicare il manifesto del distributore Contrail.
    Installa la rete condivisa a cluster singolo
    Potrebbero essere necessari alcuni minuti prima che i nodi e i pod vengano attivati.
  5. Utilizza i comandi kubectl standard per verificare la distribuzione
    a. Mostra lo stato dei nodi.
    Installa la rete condivisa a cluster singolo
    Puoi vedere che i nodi ora sono sollevati. Se i nodi non sono attivi, attendi qualche minuto e ricontrolla
    b. Mostra lo stato dei pod.
    Installa la rete condivisa a cluster singolo
    Tutti i pod ora dovrebbero avere lo STATO In esecuzione. In caso contrario, aspetta un po'. utes per i baccelli a venire
    c. Se alcuni pod rimangono inattivi, esegui il debug della distribuzione come fai normalmente. Utilizza il comando kubectl description per capire perché un pod non viene visualizzato. Un errore comune è un problema di rete o firewall che impedisce al nodo di raggiungere il repository Juniper Networks. Ecco un example di un problema DNS.
    Accedi a ciascun nodo che presenta un problema e controlla la risoluzione dei nomi per enterprise-hub.juniper.net. Per esampon:
    Installa la rete condivisa a cluster singolo
    NOTA: Sebbene enterprise-hub.juniper.net non sia configurato per rispondere ai ping, possiamo utilizzare il comando ping per verificare la risoluzione del nome di dominio.
    In questo example, il nome di dominio non si risolve. Controlla la configurazione del server dei nomi di dominio per assicurarti che sia corretta.
    Per esempioample, in un sistema Ubuntu che esegue systemd risolto, controlla che /etc/resolv.conf sia collegato a /run/systemd/resolve/resolv.conf come descritto nel passaggio 5 in “Prima di installare” a pagina 18 e controlla che il tuo DNS il server è elencato correttamente in quello file.
    d. Se riscontri un problema che non riesci a risolvere o se hai commesso un errore durante l'installazione, disinstalla semplicemente CN2 e ricomincia da capo. Per disinstallare CN2, vedere “Disinstallare CN2” a pagina 55.
  6. (Facoltativo) Esegui controlli post-volo. Vedere “Eseguire controlli preflight e postflight” a pagina 51.

Installare la rete condivisa multi-cluster CN2

RIEPILOGO
Vedi esample su come installare CN2 multi-cluster in una distribuzione in cui il traffico Kubernetes e il traffico CN2 condividono la stessa rete all'interno di ciascun cluster

IN QUESTA SEZIONE

  • Installare la rete condivisa multi-cluster CN2 35

In una distribuzione di rete condivisa multi-cluster:

  • CN2 è la piattaforma di rete centrale e il plug-in CNI per più cluster di carichi di lavoro distribuiti. Il controller Contrail viene eseguito nel piano di controllo Kubernetes nel cluster centrale e i componenti del piano dati Contrail vengono eseguiti sui nodi di lavoro nei cluster di carichi di lavoro distribuiti.
  • Il traffico Kubernetes e CN2 all'interno di ciascun cluster condivide un'unica rete.

Figura 8 a pagina 34 mostra il cluster che creerai se segui la configurazione multi-cluster. Il cluster centrale è costituito da 3 nodi del piano di controllo Kubernetes che eseguono il controller Contrail. Questo controller Contrail centralizzato fornisce la rete per i cluster di carichi di lavoro distribuiti. In questo esample, esiste un cluster distribuito costituito da un singolo nodo del piano di controllo e due nodi di lavoro. I nodi di lavoro sul cluster del carico di lavoro distribuito contengono i componenti del piano dati Contrail.

Figura 8: Multi-cluster CN2
Multi-cluster CN2
Il cluster centrale si collega alla rete 172.16.0.0/24 mentre il cluster del carico di lavoro distribuito si collega alla rete 10.16.0.0/24. Un gateway situato tra le reti fornisce l'accesso a ciascuna
accesso diverso ed esterno per il download di immagini dai repository Juniper Networks.

L'amministratore locale viene mostrato collegato a una rete separata raggiungibile tramite un gateway. Questo è tipico di molte installazioni in cui l'amministratore locale gestisce la struttura e il cluster dalla LAN aziendale. Nelle procedure che seguono, faremo riferimento alla stazione dell'amministratore locale come al computer locale.

NOTA: Il collegamento di tutti i nodi del cluster insieme è la struttura del data center, che è semplificata nell'esempioample in una singola sottorete per cluster. Nelle installazioni reali, la struttura del data center è una rete di switch spine e foglie che forniscono la connettività fisica per il cluster.
In un data center gestito da Apstra, questa connettività verrebbe specificata tramite le reti virtuali sovrapposte create sugli switch della struttura sottostante.

Per installare CN2 in una distribuzione multi-cluster, crea prima il cluster centrale e poi collega i cluster di carichi di lavoro distribuiti al cluster centrale uno per uno. Come per la distribuzione a cluster singolo, inizierai con un nuovo cluster senza plug-in CNI installato e quindi installerai CN2 su di esso.

Le procedure in questa sezione mostrano gli esample su come utilizzare i manifesti forniti per creare la distribuzione CN2 specificata. Non sei limitato alla distribuzione descritta in questa sezione né sei limitato all'utilizzo dei manifest forniti. CN2 supporta un'ampia gamma di distribuzioni troppo numerose per essere trattate in dettaglio. Utilizzare l'es. fornitoamples come punto di partenza per creare il tuo manifest per la tua situazione specifica.

Installare la rete condivisa multi-cluster CN2

Utilizzare questa procedura per installare CN2 in una distribuzione di rete condivisa multi-cluster che esegue un piano dati in modalità kernel.

Il manifest che utilizzerai in questo exampla procedura del file è multi-cluster/central_cluster_deployer_example.yaml. La procedura presuppone che tu abbia inserito questo manifest in una directory manifests.

  1. Creare il cluster centrale.
    Segui l'example in “Creare un cluster Kubernetes” a pagina 66 oppure è possibile utilizzare qualsiasi altro metodo. Creare il cluster con le seguenti caratteristiche:
    • Il cluster non dispone di plug-in CNI.
    • Disabilita DNS locale del nodo.
      Personalizza di conseguenza la procedura con il numero desiderato di piano di controllo e nodi di lavoro.
  2. Installare CN2 sul cluster centrale.
    a. Applicare il manifest del cluster centrale (central_cluster_deployer_example.yaml). Questo manifest crea gli spazi dei nomi e altre risorse richieste dal cluster centrale. Crea inoltre la distribuzione contrailk8s-deployer, che distribuisce CN2 e fornisce la gestione del ciclo di vita per i componenti CN2.
    Installa la rete condivisa a cluster singolo
    b. Controlla che tutti i pod siano ora attivi. L'operazione potrebbe richiedere alcuni minuti.
    Installa la rete condivisa a cluster singolo
    Ora hai creato il cluster centrale.
  3. Segui "Collegare un cluster di carico di lavoro" a pagina 57 per creare e collegare un cluster di carico di lavoro distribuito al cluster centrale.
  4. Ripeti il ​​passaggio 3 per ogni cluster di carico di lavoro che desideri creare e collegare.
  5. (Facoltativo) Esegui controlli portlight. Vedere "Eseguire controlli preflight e portlight" a pagina 51.
    NOTA: Esegui i controlli portlight solo dal cluster centrale.

Installa gli strumenti Contrail

RIEPILOGO
Scopri come installare gli strumenti che possono semplificare l'installazione di CN2

IN QUESTA SEZIONE

  • Installare il Contrail Readiness Controller | 37

Gli strumenti Contrail sono implementati all'interno del framework del controller Contrail Readiness. Il controller esegue gli strumenti, raccoglie e presenta i risultati in modo asincrono su richiesta.

Dovrai configurare il framework del controller ContrailReadiness prima di poter eseguire qualsiasi strumento. Quando viene visualizzato il controller, segui la procedura relativa allo strumento che desideri eseguire.

  • “controlli preliminari” a pagina 51
  • “controlli post-volo” a pagina 51
  •  “Disinstallazione CN2” a pagina 55

Installa il controller ContrailReadiness

Utilizzare questa procedura per installare il controller ContrailReadiness. Il controller ContrailReadiness è necessario prima di poter eseguire qualsiasi strumento.

È possibile installare il controller ContrailReadiness prima o dopo l'installazione di CN2. L'installazione del controller prima di installare CN2 consente di eseguire controlli preliminari sul cluster.

  1. Individua la directory contrail-tools/contrail-readiness dal pacchetto CN2 Tools scaricato.
  2. Se non lo hai già fatto, assicurati di aver popolato i manifest degli strumenti con le credenziali di accesso al repository. Vedere "Configurare le credenziali del repository" a pagina 74 per un modo per eseguire questa operazione.
  3. Applicare le definizioni delle risorse personalizzate Contrail Readiness.
    Installa la rete condivisa a cluster singolo
  4. Crea la mappa di configurazione dal manifest distribuito che intendi utilizzare o che hai utilizzato per installare questo cluster. Assegnare il nome yam alla mappa di configurazione distribuita.
    Installa la rete condivisa a cluster singolo
    dove è il percorso completo del manifest distribuito che desideri applicare o che hai applicato.
  5. Applicare la patch alla mappa di configurazione con le informazioni del registro.
    Installa la rete condivisa a cluster singolo
  6. Creare il controller di preparazione al contrail.
    Installa la rete condivisa a cluster singolo
    Verificare che il controller si sia alzato.

Manifesti

RIEPILOGO
Forniamo sample manifest per semplificare l'installazione. È possibile scaricare questi manifest dal sito di download del software Juniper Networks o da GitHub.

IN QUESTA SEZIONE

  • Manifesta nella versione 23.4 | 38
  • Strumenti Contrail nella versione 23.4 | 39
  • Contrail Analytics nella versione 23.4 | 40

Manifesta nella versione 23.4

Il pacchetto manifest Kubernetes CN2 Upstream si chiama Deployment Manifests for K8s ed è disponibile per il download dal sito di download del software Juniper Networks (https:/support.juniper.net/
support/downloads/?p=contrail-networking) o da githu (https://github.com/Juniper/contrailnetworking/tree/main/releases/23.4/k8s).

NOTA: I manifest forniti potrebbero non essere compatibili tra le versioni. Assicurati di utilizzare i manifest per la versione che stai eseguendo. In pratica, ciò significa che non dovresti modificare l'immagine tag nei manifest forniti.

Se stai scaricando dal sito di download del software Juniper Networks, avrai bisogno di un account per scaricare. Se non disponi di un account, contatta il tuo rappresentante di vendita Juniper Networks per farne creare uno per te.

La tabella seguente elenca i singoli manifesti del cluster presenti nel pacchetto.

Tabella 4: Manifest di cluster singolo per Kubernetes upstream per la versione 23.4

Manifstime Descrizione
k8s/single_cluster/ singolo_cluster_deployer_example.yaml Contiene i manifesti per installare Contrail in un singolo cluster.

La tabella seguente elenca i manifesti specifici per la configurazione di un multi-cluster.

Tabella 5: Manifest multi-cluster per Kubernetes upstream per la versione 23.4

Manifesti Descrizione
k8s/multi-cluster/distributore_centrale_cluster_example.yaml Distributore di contrail e risorse necessarie per il cluster centrale in una configurazione multi-cluster.
k8s/multi-cluster/ distribuito_cluster_certmanager_example.yaml Manifesti di Contrail cert-manager per crittografare la gestione di Contrail e le comunicazioni del piano di controllo.
k8s/multi-cluster/ distribuito_cluster_deployer_example.yaml Distributore di contrail e risorse necessarie per i cluster di carichi di lavoro distribuiti in una configurazione multi-cluster.
k8s/multi-cluster/ distribuito_cluster_vrouter_example.yaml Contrail vRouter per i cluster di carichi di lavoro distribuiti in una configurazione multi-cluster.

Strumenti di contrail

Il pacchetto opzionale Contrail Tools si chiama Contrail Tools ed è disponibile per il download dal download del software Juniper Networks https://support.juniper.net/support/downloads/?p=contrail-sito di networking. Gli strumenti Contrail sono compatibili con CN2 solo all'interno della stessa versione.

Avrai bisogno di un account per scaricare. Se non disponi di un account, contatta il tuo rappresentante di vendita Juniper Networks per farne creare uno per te.

La tabella seguente elenca gli strumenti che forniamo.

Tabella 6: Manifest degli strumenti per la versione 23.4

Utensili Descrizione
contrail-tools/contrail-readiness/contrail-readiness-controller. yaml Il controller ContrailReadiness che esegue i controlli preflight e postflight
contrail-tools/contrail-readiness/contrail-readiness-preflight.yaml Risorsa personalizzata di preflight ContrailReadiness
contrail-tools/contrail-readiness/contrail-readiness-postflight.yaml Risorsa personalizzata postflight ContrailReadiness
contrail-tools/contrail-readiness/contrail-readiness-uninstall.yaml ContrailReadiness disinstalla la risorsa personalizzata
strumenti-per-le-scie-di-condensa/prontezza-per-le-scie-di-condensa/crds ContrailReadiness definizioni di risorse personalizzate per gli strumenti supportati
strumenti-di-sconvezione/kubectl-contrailstatus-.catrame Il plug-in kubectl contrailstatus
contrail-tools/cn2_debug_infra-.catrame L'utilità di debug CN2
contrail-tools/uninstall.tar.gz Obsoleto

Contrail Analytics nella versione 23.4

Il pacchetto opzionale Contrail Analytics si chiama Analytics Deployed ed è disponibile per il download dal download del software Juniper Networks https://support.juniper.net/support/downloads/?p=contrail-sito di networking. Seleziona il pacchetto Contrail Analytics dalla stessa pagina di rilascio in cui selezioni i manifest Contrail Networking. Contrail Analytics è compatibile con Contrail Networking solo all'interno della stessa versione.

Avrai bisogno di un account per scaricare. Se non disponi di un account, contatta il tuo rappresentante di vendita Juniper Networks per farne creare uno per te.

Per installare Contrail Analytics, vedere Installare Contrail Analytics e CN2 Web Sezione UL.

Monitor

Sopraview

"Puoi monitorare CN2 nello stesso modo in cui monitori altri componenti Kubernetes, utilizzando kubectl o altri metodi Kubernetes standard.

Puoi anche installare il pacchetto opzionale Contrail Analytics, che racchiude Prometheus, Grafana, Fluentd e altri popolari software open source insieme agli esportatori di telemetria Contrail per fornirti informazioni dettagliate sullo stato generale di salute, sulle prestazioni e sulle tendenze del traffico della rete. Incluso con Contrail Analytics è il CN2 Web UI, che è possibile utilizzare per monitorare e configurare i componenti CN2.

Inoltre, forniamo un plug-in kubectl che puoi richiamare per verificare lo stato dei componenti CN2 dalla riga di comando. Il plug-in contrail status consente di interrogare i componenti di configurazione, controllo e piano dati di CN2, nonché le relazioni BGP e XMPP.

Installa Contrail Analytics e CN2 Web Ul

Utilizzare questa procedura per installare Contrail Analytics e CN2 Web UI.

Contrail Analytics integra popolari software open source come Prometheus, Grafana e Fluentd insieme agli esportatori di telemetria CN2 per fornire un metodo standard di settore per monitorare e analizzare la rete e l'infrastruttura di rete. Le informazioni raccolte includono log, parametri, stato di vari componenti e flussi.

Il pacchetto con Contrail Analytics è il CN2 Web UI, che consente di monitorare e configurare i componenti CN2.

Quando installi Contrail Analytics, tutti i componenti di analisi sono preconfigurati per funzionare tra loro. YHai la possibilità di installare Contrail Analytics con una singola istanza di Prometheus o con il supporto HA Prometheus. HA Prometheus per Contrail Analytics è un pre tecnicoview caratteristica.

NOTA: Utilizziamo i grafici Helm per installare Contrail Analytics. Installa Helm 3.0 o versione successiva sull'host che stai utilizzando per installare Contrail Analytics.

  1. Individua il pacchetto Contrail Analytics che hai scaricato.
  2. Per installare Contrail Analytics con una singola istanza di Prometheus:
    Installa la rete condivisa a cluster singolo
    L'opzione –create-namespace crea lo spazio dei nomi contrail-analytics. Puoi omettere questa opzione se per il tuo cluster è già definito lo spazio dei nomi contrail-analytics.
    Contrail Analytics è installato come servizio Node Port. Puoi raggiungere il servizio specificando l'indirizzo IP di qualsiasi nodo che esegue Contrail Analytics. Per impostazione predefinita, la porta da utilizzare è 30443.
  3. Per installare Contrail Analytics con il supporto HA Prometheus (Tech Preview):
    NOTA: Questa funzionalità è classificata come Juniper CN2 Technology Preview caratteristica. Queste funzionalità sono "così come sono" e sono per uso volontario. Il supporto Juniper tenterà di risolvere eventuali problemi riscontrati dai clienti durante l'utilizzo di queste funzionalità e creerà segnalazioni di bug per conto dei casi di supporto. Tuttavia, Juniper potrebbe non fornire servizi di supporto completi a Tech Preview caratteristiche.
    Per ulteriori informazioni, fare riferimento al manuale “Juniper CN2 Technology Previews (Preparazione tecnicaviews)” a pagina 82 o contattare il supporto Juniper.
    a. Estrai il file thanos-values.yaml file dal pacchetto Contrail Analytics.
    Installa la rete condivisa a cluster singolo
    Contrail Analytics utilizza Thanos per fornire elevata disponibilità per Prometheus. Thanos è un insieme di componenti open source che si integrano perfettamente con Prometheus per fornire un sistema metrico altamente disponibile.
    b. Installa Contrail Analytics (facendo riferimento a thanos-values.yaml) file.
    Installa la rete condivisa a cluster singolo
    L'opzione –create-namespace crea lo spazio dei nomi contrail-analytics. Puoi omettere questa opzione se per il tuo cluster è già definito lo spazio dei nomi contrail-analytics.
    Contrail Analytics è installato come servizio NodePort. Puoi raggiungere il servizio specificando l'indirizzo IP di qualsiasi nodo che esegue Contrail Analytics. Per impostazione predefinita, la porta da utilizzare è 3044 3.
  4. Verificare che i componenti di analisi siano installati e in esecuzione.
    Installa la rete condivisa a cluster singolo
  5.  Dopo aver installato Contrail Analytics, puoi accedere a Grafana o CN2 Web UI. Per accedere a Grafana, puntare il browser su https:// 30443/grafana/. Assicurati di includere il finale /. Il nome utente/password predefinito dell'amministratore di Grafana è adnin/prom-operator. Per accedere al CN2 Web Ul, punta il browser su https:// :30443. Il CN2 predefinito Web Il nome utente/password Ul è super/contrail123.}
    NOTA: Il CN2 Web Ul è classificato come Juniper CN2 Technology Preview caratteristica. Queste funzionalità sono "così come sono" e sono per uso volontario. Il supporto Juniper tenterà di risolvere eventuali problemi riscontrati dai clienti durante l'utilizzo di queste funzionalità e creerà segnalazioni di bug per conto dei casi di supporto. Tuttavia, Juniper potrebbe non fornire servizi di supporto completi a Tech Preview caratteristiche.
    Per ulteriori informazioni, fare riferimento al manuale “Juniper CN2 Technology Previews (Preparazione tecnicaviews)” a pagina 82 o contattare il supporto Juniper.
  6. Per disinstallare Contrail Analytics:
    Installa la rete condivisa a cluster singolo
  7. Per aggiornare l'analisi delle contracce:
    Installa la rete condivisa a cluster singolo
    o (per l'aggiornamento HA)
    Installa la rete condivisa a cluster singolo

Logo aziendale

Documenti / Risorse

RETI Juniper Cloud Native Contrail Networking [pdf] Istruzioni
Rete di Contrail nativa del cloud, Cloud, Rete di Contrail nativa, Rete di Contrail

Riferimenti

Lascia un commento

Il tuo indirizzo email non verrà pubblicato. I campi obbligatori sono contrassegnati *