Pannello di controllo Linux KVM Nexus
“
Specifiche:
- libvirt version: 4.5.0-23.el7_7.1.x86_64
- Versione Nexus Dashboard: 8.0.0
Istruzioni per l'uso del prodotto:
Passaggio 1: scarica l'immagine della dashboard Cisco Nexus
- Passare al
Pagina di download del software. - Fare clic su Nexus Dashboard Software.
- Scegli la versione desiderata di Nexus Dashboard da sinistra
barra laterale. - Scarica l'immagine Cisco Nexus Dashboard per Linux KVM
(nd-dk9..qcow2). - Copiare l'immagine sul server KVM Linux:
# scp nd-dk9..qcow2 root@indirizzo_server:/home/nd-base
Passaggio 2: creare le immagini disco richieste per i nodi
- Accedi al tuo host KVM come root.
- Creare una directory per lo snapshot del nodo.
- Crea uno snapshot dell'immagine base qcow2:
# qemu-img create -f qcow2 -b /home/nd-base/nd-dk9..qcow2 /home/nd-node1/nd-node1-disk1.qcow2
Nota: per RHEL 8.6, utilizzare un parametro aggiuntivo come specificato in
manuale. - Crea un'immagine disco aggiuntiva per ogni nodo:
# qemu-img create -f qcow2 /home/nd-node1/nd-node1-disk2.qcow2 500G
- Ripetere il passaggio precedente per gli altri nodi.
Passaggio 3: creare una VM per il primo nodo
- Aprire la console KVM e fare clic su Nuova macchina virtuale.
Domande frequenti:
D: Quali sono i requisiti di distribuzione per Nexus Dashboard in
Linux KVM?
A: La distribuzione richiede la versione libvirt
4.5.0-23.el7_7.1.x86_64 e Nexus Dashboard versione 8.0.0.
D: Come posso verificare la latenza I/O per la distribuzione?
A: Per verificare la latenza I/O, creare una directory di test, eseguire il comando
comando specificato utilizzando fio e confermare che la latenza è inferiore
20ms.
D: Come faccio a copiare l'immagine Cisco Nexus Dashboard su Linux?
Server KVM?
A: Puoi usare scp per copiare l'immagine sul server. Fai riferimento a
Per i passaggi dettagliati, vedere il passaggio 1 delle istruzioni.
“`
Distribuzione in Linux KVM
· Prerequisiti e linee guida, a pagina 1 · Distribuzione di Nexus Dashboard in Linux KVM, a pagina 2
Prerequisiti e linee guida
Prima di procedere con la distribuzione del cluster Nexus Dashboard in Linux KVM, è necessario: · Assicurarsi che il fattore di forma KVM supporti i requisiti di scalabilità e servizi. Il supporto di scalabilità e servizi e il co-hosting variano in base al fattore di forma del cluster. È possibile utilizzare lo strumento di pianificazione della capacità di Nexus Dashboard per verificare che il fattore di forma virtuale soddisfi i requisiti di distribuzione. · Review e completare i prerequisiti generali descritti in Prerequisiti: Nexus Dashboard. · Review e completare eventuali prerequisiti aggiuntivi descritti nelle Note di rilascio per i servizi che si intende distribuire. · Assicurarsi che la famiglia di CPU utilizzata per le VM della Nexus Dashboard supporti il set di istruzioni AVX. · Assicurarsi di disporre di risorse di sistema sufficienti:
Distribuzione in Linux KVM 1
Distribuzione di Nexus Dashboard in Linux KVM
Distribuzione in Linux KVM
Tabella 1: Requisiti di distribuzione
Requisiti · Le distribuzioni KVM sono supportate solo per i servizi Nexus Dashboard Fabric Controller. · È necessario eseguire la distribuzione in CentOS 7.9 o Red Hat Enterprise Linux 8.6 · È necessario disporre delle versioni supportate di Kernel e KVM: · Per CentOS 7.9, Kernel versione 3.10.0-957.el7.x86_64 e KVM versione
libvirt-4.5.0-23.el7_7.1.x86_64
· Per RHEL 8.6, versione del kernel 4.18.0-372.9.1.el8.x86_64 e versione KVM libvert
8.0.0
· 16 vCPU · 64 GB di RAM · Disco da 550 GB
Ogni nodo richiede una partizione disco dedicata. Il disco deve avere una latenza I/O di 20 ms o inferiore.
Per verificare la latenza I/O: 1. Creare una directory di prova.
Per esempioample, test-data. 2. Eseguire il seguente comando:
# fio –rw=write –ioengine=sync –fdatasync=1 –directory=test-data –size=22m –bs=2300 –name=mytest
3. Dopo aver eseguito il comando, confermare che 99.00th=[ ] nel file fsync/fdatasync/sync_fileLa sezione _range è inferiore a 20 ms.
· Si consiglia di distribuire ciascun nodo Nexus Dashboard in un hypervisor KVM diverso.
Distribuzione di Nexus Dashboard in Linux KVM
Questa sezione descrive come distribuire il cluster Cisco Nexus Dashboard in Linux KVM.
Prima di iniziare · Assicurati di soddisfare i requisiti e le linee guida descritti in Prerequisiti e linee guida, a pagina 1.
Distribuzione in Linux KVM 2
Distribuzione in Linux KVM
Distribuzione di Nexus Dashboard in Linux KVM
Procedura
Fase 1 Fase 2 Fase 3
Passo 4
Scarica l'immagine della dashboard Cisco Nexus. a) Vai alla pagina di download del software.
https://software.cisco.com/download/home/286327743/type/286328258
b) Fare clic su Software Nexus Dashboard. c) Dalla barra laterale sinistra, selezionare la versione di Nexus Dashboard che si desidera scaricare. d) Scaricare l'immagine Cisco Nexus Dashboard per Linux KVM (nd-dk9. .qcow2). Copia l'immagine sui server KVM Linux in cui ospiterai i nodi. Puoi usare scp per copiare l'immagine, ad esempioampon:
# scp nd-dk9. .qcow2 root@ :/home/nd-base
I passaggi seguenti presuppongono che l'immagine sia stata copiata nella directory /home/nd-base.
Crea le immagini disco necessarie per il primo nodo. Creerai uno snapshot dell'immagine base qcow2 che hai scaricato e utilizzerai gli snapshot come immagini disco per le VM dei nodi. Dovrai anche creare una seconda immagine disco per ogni nodo. a) Accedi al tuo host KVM come utente root. b) Crea una directory per lo snapshot del nodo.
I passaggi seguenti presuppongono che tu abbia creato lo snapshot nella directory /home/nd-node1.
# mkdir -p /home/nd-node1/ # cd /home/nd-node1
c) Creare lo snapshot. Nel comando seguente, sostituire /home/nd-base/nd-dk9. .qcow2 con la posizione dell'immagine di base creata nel passaggio precedente.
# qemu-img create -f qcow2 -b /home/nd-base/nd-dk9. .qcow2 /home/nd-node1/nd-node1-disk1.qcow2
Nota: se si esegue la distribuzione in RHEL 8.6, potrebbe essere necessario fornire un parametro aggiuntivo per definire anche il formato dello snapshot di destinazione. In tal caso, aggiornare il comando precedente come segue: # qemu-img create -f qcow2 -b /home/nd-base/nd-dk9.2.1.1a.qcow2 /home/nd-node1/nd-node1-disk1.qcow2 -F qcow2
d) Creare l'immagine disco aggiuntiva per il nodo. Ogni nodo richiede due dischi: uno snapshot dell'immagine base qcow2 della Nexus Dashboard e un secondo disco da 500 GB.
# qemu-img create -f qcow2 /home/nd-node1/nd-node1-disk2.qcow2 500G
Ripetere il passaggio precedente per creare le immagini disco per il secondo e il terzo nodo. Prima di procedere al passaggio successivo, è necessario disporre di quanto segue:
· Per il primo nodo, directory /home/nd-node1/ con due immagini disco:
Distribuzione in Linux KVM 3
Distribuzione di Nexus Dashboard in Linux KVM
Distribuzione in Linux KVM
Passo 5
· /home/nd-node1/nd-node1-disk1.qcow2, che è uno snapshot dell'immagine base qcow2 scaricata nel passaggio 1.
· /home/nd-node1/nd-node1-disk2.qcow2, che è un nuovo disco da 500 GB che hai creato.
· Per il secondo nodo, directory /home/nd-node2/ con due immagini disco: · /home/nd-node2/nd-node2-disk1.qcow2, che è uno snapshot dell'immagine qcow2 di base scaricata nel passaggio 1.
· /home/nd-node2/nd-node2-disk2.qcow2, che è un nuovo disco da 500 GB che hai creato.
· Per il terzo nodo, directory /home/nd-node3/ con due immagini disco: · /home/nd-node1/nd-node3-disk1.qcow2, che è uno snapshot dell'immagine qcow2 di base scaricata nel passaggio 1.
· /home/nd-node1/nd-node3-disk2.qcow2, che è un nuovo disco da 500 GB che hai creato.
Creare la VM del primo nodo. a) Aprire la console KVM e fare clic su Nuova macchina virtuale.
È possibile aprire la console KVM dalla riga di comando utilizzando il comando virt-manager. Se l'ambiente KVM Linux non dispone di un'interfaccia grafica desktop, eseguire il comando seguente e procedere al passaggio 6.
virt-install –import –name –memoria 65536 –vcpus 16 –os-type generico –percorso disco=/percorso/verso/disco1/nd-node1-d1.qcow2,formato=qcow2,bus=virtio –percorso disco=/percorso/verso/disco2/nd-node1-d2.qcow2,formato=qcow2,bus=virtio –bridge di rete= ,modello=virtio –bridge di rete= ,model=virtio –console pty,target_type=serial –noautoconsole –autostart
b) Nella schermata Nuova VM, seleziona l'opzione Importa immagine disco esistente e fai clic su Avanti. c) Nel campo Fornisci percorso di archiviazione esistente, fai clic su Sfoglia e seleziona nd-node1-disk1.qcow2 file.
Si consiglia di archiviare l'immagine del disco di ciascun nodo su una propria partizione del disco.
d) Selezionare Generico per il tipo di sistema operativo e la versione, quindi fare clic su Avanti. e) Specificare 64 GB di memoria e 16 CPU, quindi fare clic su Avanti. f) Immettere il nome della macchina virtuale, ad esempioample nd-node1 e controlla la configurazione Personalizza prima
opzione di installazione. Quindi fare clic su Fine. Nota: è necessario selezionare la casella di controllo Personalizza configurazione prima dell'installazione per poter apportare le personalizzazioni del disco e della scheda di rete necessarie per il nodo.
Si aprirà la finestra con i dettagli della VM.
Nella finestra dei dettagli della VM, modifica il modello del dispositivo NIC: a) Seleziona NIC b) Per il modello del dispositivo, selezionare e1000. c) Per la sorgente di rete, selezionare il dispositivo bridge e fornire il nome del bridge "mgmt".
Nota
Distribuzione in Linux KVM 4
Distribuzione in Linux KVM
Distribuzione di Nexus Dashboard in Linux KVM
Fase 6 Fase 7
La creazione di dispositivi bridge esula dallo scopo di questa guida e dipende dalla distribuzione e dalla versione del sistema operativo. Per ulteriori informazioni, consultare la documentazione del sistema operativo, ad esempio "Configurazione di un bridge di rete" di Red Hat.
Nella finestra dei dettagli della VM, aggiungere una seconda scheda di rete:
a) Fare clic su Aggiungi hardware. b) Nella schermata Aggiungi nuovo hardware virtuale, selezionare Rete. c) Per Origine di rete, scegliere il dispositivo bridge e fornire il nome del bridge "dati" creato. d) Lasciare il valore predefinito dell'indirizzo Mac. e) Per Modello dispositivo, scegliere e1000.
Nella finestra dei dettagli della VM, aggiungere la seconda immagine del disco:
a) Fare clic su Aggiungi hardware. b) Nella schermata Aggiungi nuovo hardware virtuale, selezionare Archiviazione. c) Per il driver del bus del disco, scegliere IDE. d) Selezionare Seleziona o crea archiviazione personalizzata, fare clic su Gestisci e selezionare nd-node1-disk2.qcow2 file che hai creato. e) Fai clic su Fine per aggiungere il secondo disco.
Nota: assicurarsi di abilitare l'opzione Copia configurazione CPU host nell'interfaccia utente di Virtual Machine Manager.
Infine, fare clic su Inizia installazione per terminare la creazione della VM del nodo.
Ripetere i passaggi precedenti per distribuire il secondo e il terzo nodo, quindi avviare tutte le VM.
Nota: se si sta distribuendo un cluster a nodo singolo, è possibile saltare questo passaggio.
Aprire una delle console del nodo e configurarne le informazioni di base. Se l'ambiente KVM Linux non dispone di un'interfaccia grafica desktop, eseguire la console virsh. comando per accedere alla console del nodo. a) Premere un tasto qualsiasi per iniziare la configurazione iniziale.
Ti verrà chiesto di eseguire l'utilità di configurazione iniziale:
[ OK ] Avviato atomix-boot-setup. Avvio del job iniziale cloud-init (pre-networking)… Avvio di logrotate… Avvio di logwatch… Avvio di keyhole…
[ OK ] Avviato keyhole. [ OK ] Avviato logrotate. [ OK ] Avviato logwatch.
Premi un tasto qualsiasi per eseguire la configurazione di primo avvio su questa console...
b) Inserire e confermare la password di amministratore
Questa password verrà utilizzata per l'accesso SSH dell'utente di salvataggio e come password iniziale dell'interfaccia grafica.
Nota: è necessario fornire la stessa password per tutti i nodi, altrimenti la creazione del cluster non riuscirà.
Password amministratore: Reinserisci la password amministratore:
Distribuzione in Linux KVM 5
Distribuzione di Nexus Dashboard in Linux KVM
Distribuzione in Linux KVM
Fase 8 Fase 9 Fase 10
c) Inserire le informazioni sulla rete di gestione.
Rete di gestione: Indirizzo IP/Maschera: 192.168.9.172/24 Gateway: 192.168.9.1
d) Solo per il primo nodo, designarlo come "Cluster Leader".
Accederai al nodo leader del cluster per terminare la configurazione e completare la creazione del cluster.
È questo il leader del cluster?: y
e) Rifview e confermare le informazioni inserite.
Ti verrà chiesto se desideri modificare le informazioni inserite. Se tutti i campi sono corretti, seleziona "n" per procedere. Se desideri modificare una qualsiasi delle informazioni inserite, seleziona "y" per riavviare lo script di configurazione di base.
Per favore riview la rete di gestione della configurazione:
Gateway: 192.168.9.1 Indirizzo IP/Maschera: 192.168.9.172/24 Leader del cluster: sì
Reinserire la configurazione? (y/N): n
Ripetere il passaggio precedente per configurare le informazioni iniziali per il secondo e il terzo nodo.
Non è necessario attendere il completamento della configurazione del primo nodo: è possibile iniziare a configurare gli altri due nodi contemporaneamente.
Nota: è necessario fornire la stessa password per tutti i nodi, altrimenti la creazione del cluster non riuscirà.
I passaggi per distribuire il secondo e il terzo nodo sono identici, con l'unica eccezione che è necessario indicare che non sono il Cluster Leader.
Attendere il completamento del processo di bootstrap iniziale su tutti i nodi.
Dopo aver fornito e confermato le informazioni sulla rete di gestione, la configurazione iniziale sul primo nodo (Cluster Leader) configura la rete e visualizza l'interfaccia utente, che verrà utilizzata per aggiungere altri due nodi e completare la distribuzione del cluster.
Attendi l'avvio del sistema: [#########################] Sistema attivo al 100%, attendi che l'interfaccia utente sia online.
Interfaccia utente di sistema online, accedi a https://192.168.9.172 per continuare.
Apri il tuo browser e vai su https:// per aprire la GUI.
Il resto del flusso di lavoro di configurazione avviene tramite l'interfaccia grafica utente (GUI) di uno dei nodi. È possibile scegliere uno qualsiasi dei nodi distribuiti per avviare il processo di bootstrap, senza dover accedere o configurare direttamente gli altri due nodi.
Inserisci la password che hai fornito in un passaggio precedente e fai clic su Accedi
Distribuzione in Linux KVM 6
Distribuzione in Linux KVM
Distribuzione di Nexus Dashboard in Linux KVM
Passo 11
Fornire i dettagli del cluster. Nella schermata Dettagli cluster della procedura guidata di creazione cluster, fornire le seguenti informazioni:
Distribuzione in Linux KVM 7
Distribuzione di Nexus Dashboard in Linux KVM
Distribuzione in Linux KVM
a) Fornire il nome del cluster per questo cluster Nexus Dashboard. Il nome del cluster deve essere conforme ai requisiti RFC-1123.
b) (Facoltativo) Se si desidera abilitare la funzionalità IPv6 per il cluster, selezionare la casella di controllo Abilita IPv6. c) Fare clic su +Aggiungi provider DNS per aggiungere uno o più server DNS.
Dopo aver inserito le informazioni, fai clic sull'icona del segno di spunta per salvarle. d) (Facoltativo) Fai clic su +Aggiungi dominio di ricerca DNS per aggiungere un dominio di ricerca.
Distribuzione in Linux KVM 8
Distribuzione in Linux KVM
Distribuzione di Nexus Dashboard in Linux KVM
Dopo aver inserito le informazioni, clicca sull'icona del segno di spunta per salvarle.
e) (Facoltativo) Se si desidera abilitare l'autenticazione del server NTP, selezionare la casella di controllo Autenticazione NTP e fare clic su Aggiungi chiave NTP. Nei campi aggiuntivi, fornire le seguenti informazioni: · Chiave NTP: una chiave crittografica utilizzata per autenticare il traffico NTP tra la Nexus Dashboard e il/i server NTP. Nel passaggio successivo verranno definiti i server NTP e più server NTP possono utilizzare la stessa chiave NTP.
· ID chiave: a ogni chiave NTP deve essere assegnato un ID chiave univoco, che viene utilizzato per identificare la chiave appropriata da utilizzare durante la verifica del pacchetto NTP.
· Tipo di autenticazione: questa versione supporta i tipi di autenticazione MD5, SHA e AES128CMAC.
· Scegliere se questa chiave è attendibile. Le chiavi non attendibili non possono essere utilizzate per l'autenticazione NTP.
Nota: dopo aver inserito le informazioni, fare clic sull'icona del segno di spunta per salvarle. Per l'elenco completo dei requisiti e delle linee guida per l'autenticazione NTP, consultare Prerequisiti e linee guida.
f) Fare clic su +Aggiungi nome host/indirizzo IP NTP per aggiungere uno o più server NTP. Nei campi aggiuntivi, fornire le seguenti informazioni: · Host NTP: è necessario fornire un indirizzo IP; i nomi di dominio completi (FQDN) non sono supportati.
· ID chiave: se si desidera abilitare l'autenticazione NTP per questo server, fornire l'ID chiave della chiave NTP definita nel passaggio precedente. Se l'autenticazione NTP è disabilitata, questo campo è disattivato.
· Scegliere se questo server NTP è Preferito.
Dopo aver inserito le informazioni, fai clic sull'icona del segno di spunta per salvarle. Nota: se il nodo a cui hai effettuato l'accesso è configurato solo con un indirizzo IPv4, ma hai selezionato Abilita IPv6 in un passaggio precedente e hai fornito un indirizzo IPv6 per un server NTP, riceverai il seguente errore di convalida:
Questo perché il nodo non ha ancora un indirizzo IPv6 (lo fornirete nel passaggio successivo) e non è in grado di connettersi a un indirizzo IPv6 del server NTP. In questo caso, è sufficiente completare l'inserimento delle altre informazioni richieste come descritto nei passaggi successivi e fare clic su Avanti per passare alla schermata successiva in cui verranno forniti gli indirizzi IPv6 per i nodi.
Se si desidera fornire server NTP aggiuntivi, fare nuovamente clic su +Aggiungi host NTP e ripetere questo sottopassaggio.
g) Fornire un server proxy, quindi fare clic su Convalida.
Distribuzione in Linux KVM 9
Distribuzione di Nexus Dashboard in Linux KVM
Distribuzione in Linux KVM
Passo 12
Per i cluster che non dispongono di connettività diretta al cloud Cisco, consigliamo di configurare un server proxy per stabilire la connettività. Ciò consente di ridurre il rischio derivante dall'esposizione a hardware e software non conformi nei fabric.
È anche possibile scegliere di fornire uno o più indirizzi IP con cui comunicare, ignorando il proxy, facendo clic su +Aggiungi Ignora host.
Il server proxy deve avere quanto segue URLs abilitato:
dcappcenter.cisco.com svc.intersight.com svc.ucs-connect.com svc-static1.intersight.com svc-static1.ucs-connect.com
Se si desidera saltare la configurazione del proxy, fare clic su Salta proxy.
h) (Facoltativo) Se il server proxy richiede l'autenticazione, abilitare Autenticazione richiesta per il proxy, fornire le credenziali di accesso, quindi fare clic su Convalida.
i) (Facoltativo) Espandere la categoria Impostazioni avanzate e modificare le impostazioni se necessario.
Nelle impostazioni avanzate puoi configurare quanto segue:
· Fornire una rete di app e una rete di servizi personalizzate.
La rete overlay dell'applicazione definisce lo spazio di indirizzamento utilizzato dai servizi dell'applicazione in esecuzione nella Dashboard Nexus. Il campo è precompilato con il valore predefinito 172.17.0.1/16.
La rete dei servizi è una rete interna utilizzata dalla Nexus Dashboard e dai suoi processi. Il campo è precompilato con il valore predefinito 100.80.0.0/16.
Se in precedenza hai selezionato l'opzione Abilita IPv6, puoi anche definire le subnet IPv6 per le reti App e Service.
Le reti di applicazioni e servizi sono descritte nella sezione Prerequisiti e linee guida riportata in precedenza in questo documento.
j) Fare clic su Avanti per continuare.
Nella schermata Dettagli nodo, aggiorna le informazioni del primo nodo.
Hai definito la rete di gestione e l'indirizzo IP per il nodo a cui hai effettuato l'accesso durante la configurazione iniziale del nodo nei passaggi precedenti, ma devi anche fornire le informazioni sulla rete dati per il nodo prima di poter procedere con l'aggiunta degli altri nodi primari e la creazione del cluster.
Distribuzione in Linux KVM 10
Distribuzione in Linux KVM
Distribuzione di Nexus Dashboard in Linux KVM
Distribuzione in Linux KVM 11
Distribuzione di Nexus Dashboard in Linux KVM
Distribuzione in Linux KVM
a) Fare clic sul pulsante Modifica accanto al primo nodo.
Distribuzione in Linux KVM 12
Distribuzione in Linux KVM
Distribuzione di Nexus Dashboard in Linux KVM
Passo 13
Il numero di serie del nodo, le informazioni sulla rete di gestione e il tipo vengono compilati automaticamente, ma è necessario fornire altre informazioni.
b) Fornire il nome del nodo. Il nome del nodo verrà impostato come nome host, quindi deve rispettare i requisiti RFC-1123.
c) Dal menu a discesa Tipo, seleziona Primario. I primi 3 nodi del cluster devono essere impostati come Primari. I nodi secondari verranno aggiunti in un passaggio successivo, se necessario, per abilitare il co-hosting dei servizi e una scalabilità maggiore.
d) Nell'area Rete dati, fornire le informazioni sulla rete dati del nodo. È necessario fornire l'indirizzo IP della rete dati, la netmask e il gateway. Facoltativamente, è possibile fornire anche l'ID VLAN per la rete. Per la maggior parte delle distribuzioni, è possibile lasciare vuoto il campo ID VLAN. Se è stata abilitata la funzionalità IPv6 in una schermata precedente, è necessario fornire anche l'indirizzo IPv6, la netmask e il gateway. Nota: se si desidera fornire informazioni IPv6, è necessario farlo durante il processo di bootstrap del cluster. Per modificare la configurazione IP in un secondo momento, è necessario ridistribuire il cluster. Tutti i nodi del cluster devono essere configurati solo con IPv4, solo con IPv6 o con IPv4/IPv6 dual stack.
e) (Facoltativo) Se il cluster è distribuito in modalità L3 HA, abilitare BGP per la rete dati. La configurazione BGP è necessaria per la funzionalità IP persistenti utilizzata da alcuni servizi, come Insights e Fabric Controller. Questa funzionalità è descritta più dettagliatamente nelle sezioni "Prerequisiti e linee guida" e "Indirizzi IP persistenti" della Guida utente di Cisco Nexus Dashboard. Nota: è possibile abilitare BGP in questo momento o nell'interfaccia utente grafica di Nexus Dashboard dopo la distribuzione del cluster.
Se si sceglie di abilitare BGP, è necessario fornire anche le seguenti informazioni: · ASN (BGP Autonomous System Number) di questo nodo. È possibile configurare lo stesso ASN per tutti i nodi o un ASN diverso per nodo.
· Per IPv6 puro, l'ID router di questo nodo. L'ID router deve essere un indirizzo IPv4, ad esempioampil 1.1.1.1
· Dettagli peer BGP, che includono l'indirizzo IPv4 o IPv6 del peer e l'ASN del peer.
f) Fare clic su Salva per salvare le modifiche. Nella schermata Dettagli nodo, fare clic su Aggiungi nodo per aggiungere il secondo nodo al cluster. Se si sta distribuendo un cluster a nodo singolo, saltare questo passaggio.
Distribuzione in Linux KVM 13
Distribuzione di Nexus Dashboard in Linux KVM
Distribuzione in Linux KVM
a) Nell'area Dettagli distribuzione, fornire l'indirizzo IP di gestione e la password per il secondo nodo
Distribuzione in Linux KVM 14
Distribuzione in Linux KVM
Distribuzione di Nexus Dashboard in Linux KVM
Passo 14
Durante i passaggi iniziali di configurazione del nodo sono state definite le informazioni sulla rete di gestione e la password.
b) Fare clic su Convalida per verificare la connettività al nodo. Il numero di serie del nodo e le informazioni sulla rete di gestione vengono compilati automaticamente dopo la convalida della connettività.
c) Fornire il nome per il nodo. d) Dal menu a discesa Tipo, selezionare Primario.
I primi 3 nodi del cluster devono essere impostati come Primari. I nodi secondari verranno aggiunti in un secondo momento, se necessario, per abilitare il co-hosting dei servizi e una scalabilità maggiore.
e) Nell'area Rete dati, fornire le informazioni sulla rete dati del nodo. È necessario fornire l'indirizzo IP della rete dati, la netmask e il gateway. Facoltativamente, è possibile fornire anche l'ID VLAN per la rete. Per la maggior parte delle distribuzioni, è possibile lasciare vuoto il campo ID VLAN. Se è stata abilitata la funzionalità IPv6 in una schermata precedente, è necessario fornire anche l'indirizzo IPv6, la netmask e il gateway.
Nota: se si desidera fornire informazioni IPv6, è necessario farlo durante il processo di bootstrap del cluster. Per modificare la configurazione IP in un secondo momento, sarà necessario ridistribuire il cluster. Tutti i nodi del cluster devono essere configurati solo con IPv4, solo con IPv6 o con IPv4/IPv6 dual stack.
f) (Facoltativo) Se il cluster è distribuito in modalità L3 HA, abilitare BGP per la rete dati. La configurazione BGP è necessaria per la funzionalità IP persistenti utilizzata da alcuni servizi, come Insights e Fabric Controller. Questa funzionalità è descritta più dettagliatamente nelle sezioni "Prerequisiti e linee guida" e "Indirizzi IP persistenti" della Guida utente di Cisco Nexus Dashboard.
Nota: è possibile abilitare BGP in questo momento o nell'interfaccia utente grafica della dashboard Nexus dopo aver distribuito il cluster.
Se si sceglie di abilitare BGP, è necessario fornire anche le seguenti informazioni: · ASN (BGP Autonomous System Number) di questo nodo. È possibile configurare lo stesso ASN per tutti i nodi o un ASN diverso per nodo.
· Per IPv6 puro, l'ID router di questo nodo. L'ID router deve essere un indirizzo IPv4, ad esempioampil 1.1.1.1
· Dettagli peer BGP, che includono l'indirizzo IPv4 o IPv6 del peer e l'ASN del peer.
g) Fare clic su Salva per salvare le modifiche. h) Ripetere questo passaggio per l'ultimo (terzo) nodo primario del cluster. Nella pagina Dettagli nodo, verificare le informazioni fornite e fare clic su Avanti per continuare.
Distribuzione in Linux KVM 15
Distribuzione di Nexus Dashboard in Linux KVM
Distribuzione in Linux KVM
Passo 15
Fase 16 Fase 17
Selezionare la modalità di distribuzione per il cluster. a) Selezionare i servizi che si desidera abilitare.
Prima della release 3.1(1), era necessario scaricare e installare i singoli servizi una volta completata la distribuzione iniziale del cluster. Ora è possibile scegliere di abilitare i servizi durante l'installazione iniziale.
Nota: a seconda del numero di nodi nel cluster, alcuni servizi o scenari di cohosting potrebbero non essere supportati. Se non riesci a scegliere il numero di servizi desiderato, fai clic su Indietro e assicurati di aver specificato un numero sufficiente di nodi secondari nel passaggio precedente.
b) Fare clic su Aggiungi IP/pool di servizi persistenti per fornire uno o più IP persistenti richiesti dai servizi Insights o Fabric Controller.
Per ulteriori informazioni sugli IP persistenti, consultare la sezione Prerequisiti e linee guida.
c) Fare clic su Avanti per procedere.
Nella schermata Riepilogo, riview e verificare le informazioni di configurazione, quindi fare clic su Salva per creare il cluster.
Durante il bootstrap del nodo e l'avvio del cluster, l'avanzamento complessivo e quello di ciascun nodo verranno visualizzati nell'interfaccia utente. Se non vedi l'avanzamento del bootstrap, aggiorna manualmente la pagina nel browser per aggiornarne lo stato.
La formazione del cluster e l'avvio di tutti i servizi potrebbero richiedere fino a 30 minuti. Al termine della configurazione del cluster, la pagina verrà ricaricata con l'interfaccia grafica Nexus Dashboard.
Verificare che il cluster sia integro.
Potrebbero essere necessari fino a 30 minuti affinché il cluster si formi e tutti i servizi vengano avviati.
Distribuzione in Linux KVM 16
Distribuzione in Linux KVM
Distribuzione di Nexus Dashboard in Linux KVM
Una volta che il cluster diventa disponibile, è possibile accedervi accedendo a uno qualsiasi degli indirizzi IP di gestione dei nodi. La password predefinita per l'utente amministratore è la stessa scelta per l'utente di ripristino per il primo nodo. Durante questo periodo, l'interfaccia utente mostrerà un banner in alto con la dicitura "L'installazione del servizio è in corso, le attività di configurazione della dashboard Nexus sono attualmente disabilitate":
Dopo che l'intero cluster è stato distribuito e tutti i servizi sono stati avviati, è possibile controllare Overview pagina per garantire che il cluster sia integro:
In alternativa, puoi accedere a un nodo qualsiasi tramite SSH come rescue-user utilizzando la password fornita durante la distribuzione del nodo e utilizzando il comando acs health per controllare lo stato::
· Mentre il cluster converge, potresti vedere i seguenti output:
$ acs salute
L'installazione di k8s è in corso
$ acs salute
Servizi k8s non nello stato desiderato – […] $ acs health
k8s: Il cluster Etcd non è pronto · Quando il cluster è attivo e funzionante, verrà visualizzato il seguente output:
Distribuzione in Linux KVM 17
Distribuzione di Nexus Dashboard in Linux KVM
Distribuzione in Linux KVM
Passo 18
$ acs health Tutti i componenti sono sani
Nota In alcune situazioni, potresti spegnere e riaccendere un nodo e trovarlo bloccato in questo stato.tage: distribuisci i servizi di sistema di base. Ciò è dovuto a un problema con etcd sul nodo dopo un riavvio del cluster pND (Physical Nexus Dashboard). Per risolvere il problema, immettere il comando acs reboot clean sul nodo interessato.
Dopo aver distribuito la dashboard e i servizi Nexus, puoi configurare ciascun servizio come descritto nei relativi articoli di configurazione e funzionamento.
· Per Fabric Controller, consultare il white paper sulla configurazione della persona NDFC e la libreria di documentazione. · Per Orchestrator, consultare la pagina della documentazione. · Per Insights, consultare la libreria di documentazione.
Distribuzione in Linux KVM 18
Documenti / Risorse
![]() |
Dashboard CISCO Linux KVM Nexus [pdf] Istruzioni Pannello di controllo Linux KVM Nexus, pannello di controllo KVM Nexus, pannello di controllo Nexus |