Logo Passei Direto
Buscar
Material
páginas com resultados encontrados.
páginas com resultados encontrados.
details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

Prévia do material em texto

vSphere Storage
Atualizar 3
VMware vSphere 7.0
VMware ESXi 7.0
vCenter Server 7.0
Este documento foi traduzido automaticamente do inglês. Se você observar 
algum erro de tradução, deixe seu feedback na parte inferior da página 
específica da publicação no VMware Docs.
Você pode encontrar a documentação técnica mais atualizada no site da VMware, em:
https://docs.vmware.com/br/
VMware, Inc.
3401 Hillview Ave.
Palo Alto, CA 94304
www.vmware.com
VMware Brasil
Rua Surubim, 504 4º andar CEP 04571-050
Cidade Monções
São Paulo
SÃO PAULO: 04571-050
Brasil
Tel: +55 11 55097200
Fax: + 55. 11. 5509-7224
www.vmware.com/br
Copyright 
©
 2009-2021 VMware, Inc. Todos os direitos reservados. Informações sobre direitos autorais e 
marca registrada.
vSphere Storage
VMware, Inc. Traduzido automaticamente 2
https://docs.vmware.com/br/
https://docs.vmware.com/copyright-trademark.html
https://docs.vmware.com/copyright-trademark.html
Conteúdo
Sobre o vSphere Storage 14
Informações atualizadas 15
1 Introdução ao armazenamento 16
Modelos de virtualização de armazenamento tradicionais 16
Modelos de armazenamento definido por software 18
APIs de armazenamento do vSphere 19
2 Introdução a um modelo de armazenamento tradicional 21
Tipos de armazenamento físico 21
Armazenamento local 21
Armazenamento em rede 22
Representações de destino e de dispositivo 27
Como o Virtual Mac aprimora o Access Storage 28
Características do dispositivo de armazenamento 29
Comparando tipos de armazenamento 32
Adaptadores de armazenamento compatíveis 33
Exibir informações do adaptador de armazenamento 33
Características do repositório de dados 35
Exibir Informações do Repositório de Dados 37
Usando a memória persistente 38
Monitorar as estatísticas do repositório de dados PMem 40
3 Visão geral do uso do ESXi com uma SAN 42
ESXi e casos de uso de SAN 43
Específicos do uso do armazenamento SAN com ESXi 44
ESXi Hosts e várias matrizes de armazenamento 44
Tomando decisões de LUN 44
Usar o esquema preditivo para tomar decisões LUN 45
Usar o esquema adaptativo para tomar decisões LUN 46
Selecionando locais de máquina virtual 46
Aplicativos de gerenciamento de terceiros 47
Considerações de backup do armazenamento SAN 47
Usando pacotes de backup de terceiros 48
4 Usando o ESXi com Fibre Channel SAN 50
Conceitos de SAN Fibre Channel 50
VMware, Inc. Traduzido automaticamente 3
Portas em SAN Fibre Channel 51
Tipos de matriz de armazenamento Fibre Channel 51
Usando o zoneamento com SANs Fibre Channel 52
Como as máquinas virtuais acessam dados em uma SAN Fibre Channel 53
5 Configurando o armazenamento Fibre Channel 54
ESXi Requisitos de SAN Fibre Channel 54
ESXi Restrições à SAN Fibre Channel 55
Definindo alocações de LUN 55
Definindo HBAs Fibre Channel 56
Etapas de instalação e configuração 56
Virtualização de ID de porta N 56
Como o acesso ao LUN baseado em NPIV funciona 57
Requisitos para usar o NPIV 57
Recursos e limitações de NPIV 58
Configurar ou modificar atribuições WWN 58
6 Configurando o Fibre Channel sobre Ethernet 60
Adaptadores Fibre Channel over Ethernet 60
Diretrizes de configuração para o FCoE de software 61
Configurar a rede para o FCoE de software 62
Adicionar Adaptadores FCoE de Software 63
7 Inicializando ESXi pela SAN Fibre Channel 65
Benefícios da inicialização a partir de SAN 65
Requisitos e considerações ao inicializar do SAN Fibre Channel 66
Preparando-se para a inicialização a partir da SAN 66
Configurar componentes de SAN e sistema de armazenamento 67
Configurar o adaptador de armazenamento para inicializar a partir da SAN 68
Configurar o sistema para inicializar a partir da mídia de instalação 68
Configurar o Emulex HBA para inicializar a partir da SAN 69
Ativar o prompt do BootBIOS 69
Ativar o BIOS 69
Configurar o QLogic HBA para inicializar a partir da SAN 70
8 Inicializando ESXi com o Software FCoE 72
Requisitos e considerações para inicialização FCoE de software 72
Configurar a inicialização FCoE do software 73
Configurar os parâmetros de inicialização do FCoE do software 74
Instalar e inicializar ESXi a partir do software FCoE LUN 74
Solucionando problemas de inicialização do a partir do software FCoE para um host ESXi 75
vSphere Storage
VMware, Inc. Traduzido automaticamente 4
9 Boas práticas para armazenamento Fibre Channel 76
Prevenção de problemas de SAN Fibre Channel 76
Desativar o registro automático do host ESXi 77
Otimizando o desempenho do armazenamento SAN Fibre Channel 78
Desempenho da matriz de armazenamento 78
Desempenho do servidor com Fibre Channel 78
10 Usando o ESXi com o iSCSI SAN 80
Sobre iSCSI SAN 80
Caminhos múltiplos iSCSI 81
Nós e portas na SAN iSCSI 82
convenções de nomenclatura iSCSI 82
Iniciadores iSCSI 83
Usando o protocolo iSER com ESXi 84
Estabelecendo conexões iSCSI 85
Tipos de sistema de armazenamento iSCSI 85
Descoberta, autenticação e controle de acesso 86
Como as máquinas virtuais acessam dados em uma SAN iSCSI 87
Correção de erros 88
11 Configurando o armazenamento e os adaptadores iSCSI e iSER 90
ESXi Recomendações e restrições da iSCSI SAN 91
Configurando parâmetros iSCSI para adaptadores 91
Configurar adaptadores iSCSI de hardware independentes 93
Exibir adaptadores iSCSI de hardware independentes 93
Editar configurações de rede para iSCSI de hardware 94
Configurar adaptadores iSCSI de hardware dependente 95
Considerações sobre iSCSI de hardware dependente 96
Exibir Adaptadores iSCSI de Hardware Dependente 97
Determinar a associação entre iSCSI e adaptadores de rede 98
Configurar o adaptador iSCSI de software 98
Ativar ou desativar o adaptador iSCSI de software 99
Configurar o iSER com ESXi 100
Instalar e exibir um adaptador de rede compatível com RDMA 101
Habilite o VMware adaptador iSER 102
Modificar propriedades gerais para adaptadores iSCSI ou iSER 105
Configurando a rede para iSCSI e iSER 106
Vários adaptadores de rede na configuração do iSCSI ou do iSER 107
Práticas recomendadas para configurar a rede com software iSCSI 109
Configurar a associação de porta para iSCSI ou iSER 113
Gerenciando a rede iSCSI 117
vSphere Storage
VMware, Inc. Traduzido automaticamente 5
Solução de problemas de rede iSCSI 118
Usando quadros jumbo com iSCSI e iSER 118
Habilitar quadros jumbo para rede 119
Habilitar quadros jumbo para iSCSI de hardware independente 119
Configurar a descoberta dinâmica ou estática para iSCSI e iSER no host ESXi 120
Remover destinos iSCSI dinâmicos ou estáticos 121
Configurando parâmetros do CHAP para adaptadores de armazenamento iSCSI ou iSER 122
Selecionando o método de autenticação CHAP 122
Configurar o CHAP para o adaptador de armazenamento iSCSI ou iSER 124
Configurar o CHAP para o destino 125
Configurando parâmetros avançados para iSCSI 127
Configurar parâmetros avançados para iSCSI no host ESXi 128
iSCSI Session Management 129
Revisar Sessões iSCSI 130
Adicionar Sessões iSCSI 130
Remover Sessões iSCSI 131
12 Inicializando a partir do iSCSI SAN 132
Recomendações gerais para inicialização a partir de iSCSI SAN 132
Preparar a SAN iSCSI 133
Configurar o adaptador iSCSI de hardware independente para inicialização por SAN 134
Definir as configurações de inicialização do iSCSI 134
13 Boas práticas para armazenamento iSCSI 136
Prevenção de problemas de SAN iSCSI 136
Otimizando o desempenho do armazenamento iSCSI SAN 137
Desempenho do sistema de armazenamento 137
Desempenho do servidor com iSCSI 138
Desempenho da rede 139
Verificando as estatísticas do switch Ethernet 141
14 Gerenciamento de dispositivos de armazenamento 143
Características do dispositivo de armazenamento 143
Exibir dispositivos de armazenamento para um host ESXi 145
Exibir dispositivos de armazenamento para um adaptador 146
Formatos de setor de dispositivo 146
Identificadores e nomes de dispositivos de armazenamento 148
Dispositivos NVMe com identificadores de dispositivo NGUID 150
Atualizar hosts ESXi sem estado com dispositivos NVMe somente NGUID para a versão7.0.x
151
Renomear dispositivos de armazenamento 153
Operações de nova verificação de armazenamento 154
vSphere Storage
VMware, Inc. Traduzido automaticamente 6
Executar nova verificação de armazenamento 155
Executar nova verificação do adaptador 155
Alterar o número de dispositivos de armazenamento verificados 155
Identificando problemas de conectividade do dispositivo 156
Detectando condições de PDL 157
Realizando a remoção do dispositivo de armazenamento planejado 158
Recuperando-se de condições de PDL 160
Como lidar com condições transitórias de APD 160
Verificar o status da conexão de um dispositivo de armazenamento no host ESXi 163
Ativar ou desativar o localizador LED em ESXi dispositivos de armazenamento 163
Apagar dispositivos de armazenamento 164
Alterar as configurações de reserva perene 164
15 Trabalhando com dispositivos flash 166
Marcando dispositivos de armazenamento 167
Marcar dispositivos de armazenamento como flash 168
Marcar dispositivos de armazenamento como locais 168
Monitorar dispositivos flash 169
Boas práticas para dispositivos flash 169
Estimativa da vida útil dos dispositivos flash 169
Sobre o recurso de flash virtual 171
Considerações para o recurso Flash Virtual 171
Configurar recurso de flash virtual 171
Remover recurso de flash virtual 172
Definir alarme para uso do flash virtual 173
Configurar o cache do host com o repositório de dados VMFS 173
Mantendo os discos flash livres de VMFS 174
16 Sobre o armazenamento NVMe VMware 176
VMware Conceitos NVMe 176
Arquitetura e componentes básicos do VMware NVMe 178
Requisitos e limitações do VMware armazenamento NVMe 181
Configurando a Ethernet sem perdas para NVMe sobre RDMA 183
Configurar adaptadores para armazenamento NVMe sobre RDMA (RoCE v2) 184
Exibir Adaptadores de Rede RDMA 185
Configurar VMkernel Binding para o adaptador RDMA 186
Configurar adaptadores para NVMe sobre armazenamento TCP 194
Configurar VMkernel Binding para o adaptador TCP 194
Habilitar NVMe sobre RDMA e adaptadores de software TCP 200
Adicionar controlador para NVMe sobre telas 201
Remover NVMe sobre RDMA e adaptadores de software TCP 202
vSphere Storage
VMware, Inc. Traduzido automaticamente 7
17 Trabalhando com repositórios de dados 204
Tipos de datastores 204
Noções básicas sobre repositórios de dados VMFS 206
Versões dos repositórios de dados VMFS 206
Repositórios de dados VMFS como repositórios 208
Compartilhando um repositório de dados VMFS entre hosts 209
Atualizações de Metadados do VMFS 210
Mecanismos de bloqueio do VMFS 210
Formatos de snapshot no VMFS 215
Atualizando repositórios de dados VMFS 216
Noções básicas sobre repositórios de dados do sistema de arquivos de rede 217
Protocolos NFS e ESXi 217
Diretrizes e requisitos de armazenamento NFS 219
Configurações de firewall para armazenamento NFS 223
Usando conexões roteadas de camada 3 para acessar o armazenamento NFS 225
Usando o Kerberos para NFS 4.1 225
Configurar o ambiente de armazenamento NFS 226
Configurar ESXi hosts para autenticação Kerberos 227
Coletando informações estatísticas para armazenamento NFS 230
Criação de repositórios de dados 231
Criar um repositório de dados VMFS 231
Criar um repositório de dados NFS 233
Criar um repositório de dados vVols 235
Gerenciando repositórios de dados VMFS duplicados 235
Montar uma cópia do datastore do VMFS 236
Aumentar a capacidade do repositório de dados VMFS 237
Habilitar ou desabilitar o suporte para discos virtuais clusterizados no datastore VMFS6 239
Operações administrativas para datastores 240
Alterar o nome do datastore 241
Desmontar repositórios de dados 241
Montar repositórios de dados 242
Remover repositórios de dados VMFS 243
Usar o navegador do repositório de dados 244
Desativar filtros de armazenamento 248
Configurar o espelhamento de disco dinâmico 249
Coletando informações de diagnóstico para ESXi hosts em um datastore VMFS 250
Configurar um arquivo como local de despejo de memória 251
Desativar e excluir um arquivo de despejo de memória 253
Verificando a consistência dos metadados com o VOMA 253
Usar VOMA para verificar a consistência de metadados 256
Configurando o cache de blocos de ponteiros do VMFS 257
vSphere Storage
VMware, Inc. Traduzido automaticamente 8
Obter informações para o cache de blocos de ponteiros do VMFS 258
Alterar o tamanho do cache do bloco de ponteiros 259
18 Noções básicas sobre caminhos múltiplos e failover 261
Failover com Fibre Channel 261
Failover baseado em host com iSCSI 262
Failover baseado em matriz com iSCSI 264
Failover de caminho e máquinas virtuais 265
Definir tempo limite no SO convidado do Windows 266
Arquitetura de armazenamento conectável e gerenciamento de caminhos 266
Sobre a arquitetura de armazenamento conectável 268
VMware Plug-in de vários caminhos nativos 269
Plug-ins e políticas de seleção de caminho 271
VMware SATPs 273
VMware Esquemas de seleção de caminho e plug-in de alto desempenho 275
Como visualizar e gerenciar caminhos 282
Exibir caminhos de dispositivo de armazenamento 283
Exibir caminhos do repositório de dados 283
Alterar a política de seleção de caminho 284
Alterar parâmetros padrão para robin round de latência 285
Desativar caminhos de armazenamento 286
Usando regras de reivindicação 286
Considerações sobre vários caminhos 287
Listar regras de reivindicação de caminhos múltiplos para o host 288
Adicionar regras de reivindicação de vários caminhos 289
Excluir regras de reivindicação de vários caminhos 293
Caminhos de máscara 294
Desmascarar Caminhos 296
Definir regras de SATP do NMP 296
Agendamento de filas para E / Ss da máquina virtual 298
Editar agendamento de E / S por arquivo no vSphere Client 298
Usar comandos esxcli para ativar ou desativar o agendamento de E / S por arquivo 299
19 Mapeamento de dispositivo bruto 301
Sobre o mapeamento de dispositivos brutos 301
Benefícios do mapeamento de dispositivos brutos 302
Considerações e limitações do RDM 305
Características de mapeamento de dispositivo bruto 305
Modos de compatibilidade física e virtual de RDM 305
Resolução de nome dinâmico 306
Mapeamento de dispositivo bruto com clusters de máquina virtual 306
vSphere Storage
VMware, Inc. Traduzido automaticamente 9
Comparando modos de acesso ao dispositivo SCSI disponíveis 307
Criar máquinas virtuais com RDMs 307
Gerenciar caminhos para um LUN mapeado 309
Máquinas virtuais com RDMs devem ignorar o cache do SCSI INQUIRY 310
20 Gerenciamento baseado em políticas de armazenamento 312
Políticas de armazenamento de máquina virtual 313
Fluxo de trabalho para políticas de armazenamento de máquina virtual 313
Preenchendo a interface de políticas de armazenamento de VM 314
Usar provedores de armazenamento para preencher a interface de políticas de 
armazenamento de VM 315
Atribuir tags a datastores 316
Sobre regras e conjuntos de regras 318
Criando e gerenciando políticas de armazenamento de VM 320
Criar uma política de armazenamento de VM para serviços de dados baseados em host 321
Criar uma política de armazenamento de VM para vVols 323
Criar uma política de armazenamento de VM para posicionamento baseado em tag 325
Editar ou clonar uma política de armazenamento de VM 327
Sobre os componentes da política de armazenamento 327
Criar componentes de política de armazenamento 329
Editar ou clonar componentes de política de armazenamento 330
Políticas de armazenamento e máquinas virtuais 331
Atribuir políticas de armazenamento a máquinas virtuais 331
Alterar a atribuição de política de armazenamento para arquivos e discos de máquina virtual
333
Verificar a conformidade de uma política de armazenamento de VM 334
Localizar recurso de armazenamento compatível para máquina virtual fora de conformidade
335
Reaplicar política de armazenamento de máquina virtual 336
Políticas de armazenamento padrão 336
Alterar a política de armazenamento padrão para um datastore 337
21 Usando provedores de armazenamento 339
Sobre os provedoresde armazenamento 339
Provedores de armazenamento e representação de dados 340
Requisitos e considerações do provedor de armazenamento 341
Registrar provedores de armazenamento 342
Exibir informações do provedor de armazenamento 343
Gerenciar provedores de armazenamento 343
22 Trabalhando com VMware vSphere Virtual Volumes (vVols) 345
Sobre o vVols 345
vSphere Storage
VMware, Inc. Traduzido automaticamente 10
vVols Conceitos 346
Objetos de volume virtual 347
vVols Provedores de Armazenamento 349
vVols Contentores de armazenamento 350
Protocolo Endpoints 351
Vinculando e desvinculando volumes virtuais a endpoints de protocolo 351
vVols Repositórios de dados 352
vVols e políticas de armazenamento de VM 353
vVols e protocolos de armazenamento 353
Arquitetura do vVols 355
vVols e VMware Certificate Authority 357
Instantâneos de volume virtual 358
Antes de ativar vVols 359
Sincronizar o vSphere Storage Environment com um servidor de horário de rede 360
Configurar o vVols 360
Registrar provedores de armazenamento para vVols 361
Criar um repositório de dados vVols 362
Revisar e gerenciar endpoints de protocolo 363
Alterar a política de seleção de caminho para um endpoint de protocolo 363
Provisionar máquinas virtuais em repositórios de dados vVols 364
vVols e Replicação 365
Requisitos para replicação com vVols 366
vVols e grupos de replicação 367
vVols e domínios de falha 367
vVols Fluxo de trabalho de replicação 369
Diretrizes de replicação e considerações 370
Boas práticas para trabalhar com vVols 371
Diretrizes e limitações ao usar vVols 371
Boas práticas para provisionamento de contêineres de armazenamento 372
Boas práticas para o desempenho de vVols 373
Solucionando problemas do vVols 374
Comandos vVols e esxcli 375
Coletando informações estatísticas para vVols 375
vVols Datastore está inacessível 376
Falhas ao migrar VMs ou implantar OVFs de VM para repositórios de dados vVols 377
23 Filtrando a E / S da máquina virtual 378
Sobre os filtros de E / S 378
Tipos de filtros de E / S 379
Componentes de filtragem de E / S 380
Provedores de armazenamento para filtros de E / S 381
vSphere Storage
VMware, Inc. Traduzido automaticamente 11
Usando dispositivos de armazenamento Flash com filtros de cache de E / S 382
Requisitos do sistema para filtros de E / S 383
Configurar filtros de E / S no ambiente vSphere 383
Instalar filtros de E / S em um cluster 384
Exibir filtros de E / S e provedores de armazenamento 384
Habilitar os serviços de dados de filtro de E / S em discos virtuais 385
Atribuir a política de filtro de E / S a máquinas virtuais 386
Gerenciamento de filtros de E / S 387
Desinstalar filtros de E / S de um cluster 388
Atualizar filtros de E / S em um cluster 388
Diretrizes e práticas recomendadas do filtro de E / S 389
Migrando máquinas virtuais com filtros de E / S 390
Como lidar com falhas de instalação do filtro de E / S 390
Instalar filtros de E / S em um único host ESXi 391
24 Aceleração de hardware de armazenamento 392
Benefícios da aceleração de hardware 392
Requisitos de aceleração de hardware 393
Status de suporte à aceleração de hardware 393
Aceleração de hardware para dispositivos de armazenamento de bloco 393
Desativar a aceleração de hardware para dispositivos de armazenamento de bloco 394
Gerenciamento da aceleração de hardware em dispositivos de armazenamento de bloco
395
Aceleração de hardware em dispositivos NAS 400
Habilitar snapshots nativos de NAS em máquinas virtuais 402
Considerações de aceleração de hardware 403
25 Provisionamento de armazenamento e recuperação de espaço 404
Provisionamento dinâmico de discos virtuais 404
Sobre as políticas de provisionamento de disco virtual 405
Criar discos virtuais provisionados finos 406
Exibir Recursos de Armazenamento da Máquina Virtual 407
Determinar o formato do disco de uma máquina virtual 408
Inflar discos virtuais finos 408
Manipulando a assinatura excessiva do repositório de dados 409
ESXi e provisionamento dinâmico de matriz 410
Monitorando o uso do espaço 410
Identificar dispositivos de armazenamento com provisionamento dinâmico 411
Recuperação do espaço de armazenamento 412
Solicitações de recuperação de espaço de repositórios de dados VMFS 414
Solicitações de recuperação de espaço de sistemas operacionais convidados 419
vSphere Storage
VMware, Inc. Traduzido automaticamente 12
26 Introdução ao Cloud Native Storage 421
Cloud Native Storage Conceitos e terminologia 421
Componentes do Cloud Native Storage 424
Usando o vSAN File Service para provisionar volumes de arquivos 427
Cloud Native Storage Usuários 428
Cloud Native Storage for vSphere Administrators 429
Requisitos e limitações de Cloud Native Storage 429
Cloud Native Storage Funções e privilégios 434
Criar uma política de armazenamento para o Kubernetes 435
Configurar máquinas virtuais de cluster do Kubernetes 437
Monitorar volumes de contêiner em clusters do Kubernetes 438
Usar criptografia com armazenamento nativo da nuvem 439
27 Usando vmkfstools 441
Sintaxe do comando vmkfstools 441
As opções de comando vmkfstools 442
-v Suboption 443
Opções do sistema de arquivos 443
Opções de disco virtual 446
Opções do dispositivo de armazenamento 453
vSphere Storage
VMware, Inc. Traduzido automaticamente 13
Sobre o vSphere Storage
O vSphere Storage descreve as tecnologias de armazenamento virtualizado e definido por 
software que o VMware ESXi™ e o VMware vCenter Server® oferecem e explica como configurar 
e usar essas tecnologias.
Em VMware, valorizamos a inclusão. Para promover esse princípio dentro de nossa comunidade 
de clientes, parceiros e interna, criamos conteúdo usando uma linguagem inclusiva.
Público-alvo
Estas informações são para administradores de sistema experientes que estão familiarizados 
com as tecnologias de virtualização de armazenamento e máquina virtual, operações de centro 
de dados e conceitos de armazenamento SAN.
VMware, Inc. Traduzido automaticamente 14
Informações atualizadas
Este vSphere Storage é atualizado a cada nova versão do produto ou quando necessário.
Esta tabela fornece o histórico de atualizações do vSphere Storage .
Revisão Descrição
29 DE OUT DE 2021 Pequenas atualizações.
21 DE OUT DE 2021 Atualização de Configurando o acesso à rede para o compartilhamento de arquivos do vSAN para 
indicar que o uso de um vNIC dedicado para o tráfego de arquivos não é obrigatório.
05 DE OUT DE 2021 Versão inicial.
VMware, Inc. Traduzido automaticamente 15
Introdução ao armazenamento 1
O vSphere oferece suporte a várias opções de armazenamento e funcionalidades em ambientes 
de armazenamento tradicionais e definidos por software. Uma visão geral de alto nível dos 
elementos e aspectos de armazenamento do vSphere ajuda você a planejar uma estratégia de 
armazenamento adequada para o seu centro de dados virtual.
Este capítulo inclui os seguintes tópicos:
n Modelos de virtualização de armazenamento tradicionais
n Modelos de armazenamento definido por software
n APIs de armazenamento do vSphere
Modelos de virtualização de armazenamento tradicionais
Geralmente, a virtualização de armazenamento refere-se a uma abstração lógica de recursos 
de armazenamento físico e capacidades de máquinas virtuais e seus aplicativos. O ESXi fornece 
virtualização de armazenamento em nível de host.
No ambiente do vSphere , um modelo tradicional é criado em torno das seguintes tecnologias de 
armazenamento e ESXi e vCenter Server funcionalidades de virtualização.
Armazenamento local e em rede
Em ambientes de armazenamento tradicionais, o ESXi processo de gerenciamento de 
armazenamento começa com o espaço de armazenamento que seu administrador de 
armazenamento pré-aloca em diferentes sistemas de armazenamento. O ESXi oferece 
suporte ao armazenamento local e ao armazenamento em rede.
Consulte Tipos de armazenamento físico.
Redes de área de armazenamento
Uma rede de área de armazenamento (SAN) é uma rede de alta velocidade especializadaque conecta sistemas de computador, ou ESXi hosts, a sistemas de armazenamento de 
alto desempenho. O ESXi pode usar protocolos Fibre Channel ou iSCSI para se conectar a 
sistemas de armazenamento.
Consulte Capítulo 3 Visão geral do uso do ESXi com uma SAN.
Fibre Channel
VMware, Inc. Traduzido automaticamente 16
O Fibre Channel (FC) é um protocolo de armazenamento que o SAN usa para transferir 
o tráfego de dados dos servidores host do ESXi para o armazenamento compartilhado. O 
protocolo empacota comandos SCSI em quadros FC. Para se conectar ao FC SAN, seu host 
usa adaptadores de barramento de host Fibre Channel (HBAs).
Consulte Capítulo 4 Usando o ESXi com Fibre Channel SAN.
Internet SCSI
Internet iSCSI (iSCSI) é um transporte SAN que pode usar conexões Ethernet entre sistemas 
de computador, ou ESXi hosts, e sistemas de armazenamento de alto desempenho. Para se 
conectar aos sistemas de armazenamento, seus hosts usam adaptadores iSCSI de hardware 
ou iniciadores iSCSI de software com adaptadores de rede padrão.
Consulte Capítulo 10 Usando o ESXi com o iSCSI SAN.
Dispositivo de armazenamento ou LUN
No contexto do ESXi, os termos dispositivo e LUN são usados de forma intercambiável. 
Normalmente, ambos os termos significam um volume de armazenamento que é apresentado 
ao host a partir de um sistema de armazenamento em bloco e está disponível para 
formatação.
Consulte Representações de destino e de dispositivo e Capítulo 14 Gerenciamento de 
dispositivos de armazenamento.
Discos Virtuais
Uma máquina virtual em um host ESXi usa um disco virtual para armazenar seu sistema 
operacional, arquivos de aplicativo e outros dados associados a suas atividades. Os discos 
virtuais são arquivos físicos grandes, ou conjuntos de arquivos, que podem ser copiados, 
movidos, arquivados e copiados como qualquer outro arquivo. Você pode configurar 
máquinas virtuais com vários discos virtuais.
Para acessar discos virtuais, uma máquina virtual usa controladores SCSI virtuais. Esses 
controladores virtuais incluem BusLogic Parallel, LSI Logic Parallel, LSI Logic SAS e VMware 
Paravirtual. Esses controladores são os únicos tipos de controladores SCSI que uma máquina 
virtual pode ver e acessar.
Cada disco virtual reside em um datastore que é implantado no armazenamento físico. Do 
ponto de vista da máquina virtual, cada disco virtual aparece como se fosse uma unidade 
SCSI conectada a um controlador SCSI. O fato de o armazenamento físico ser acessado por 
meio de adaptadores de armazenamento ou de rede no host normalmente é transparente 
para o sistema operacional convidado da VM e os aplicativos.
VMware vSphere® VMFS
Os datastores que você implanta em dispositivos de armazenamento em bloco usam o 
formato nativo do vSphere Virtual Machine File System (VMFS). É um formato de sistema de 
arquivos de alto desempenho que é otimizado para o armazenamento de máquinas virtuais.
Consulte Noções básicas sobre repositórios de dados VMFS.
vSphere Storage
VMware, Inc. Traduzido automaticamente 17
NFS
Um cliente NFS integrado ao ESXi usa o protocolo Network File System (NFS) sobre TCP / 
IP para acessar um volume NFS localizado em um servidor NAS. O host ESXi pode montar o 
volume e usá-lo como um armazenamento de dados NFS.
Consulte Noções básicas sobre repositórios de dados do sistema de arquivos de rede.
Mapeamento de dispositivo bruto
Além dos discos virtuais, o vSphere oferece um mecanismo chamado de mapeamento de 
dispositivo bruto (RDM). O RDM é útil quando um sistema operacional convidado dentro de 
uma máquina virtual requer acesso direto a um dispositivo de armazenamento. Para obter 
informações sobre RDMs, consulte Capítulo 19 Mapeamento de dispositivo bruto.
Modelos de armazenamento definido por software
Além de abstrair as capacidades de armazenamento subjacentes das VMs, como fazem os 
modelos de armazenamento tradicionais, o armazenamento definido por software abstrai os 
recursos de armazenamento.
Com o modelo de armazenamento definido por software, uma máquina virtual se torna uma 
unidade de provisionamento de armazenamento e pode ser gerenciada por meio de um 
mecanismo flexível baseado em políticas. O modelo envolve as seguintes vSphere tecnologias.
VMware vSphere® Virtual Volumes™ (vVols)
A funcionalidade vVols altera o paradigma de gerenciamento de armazenamento 
de gerenciar o espaço dentro de repositórios de dados para gerenciar objetos de 
armazenamento abstratos manipulados por matrizes de armazenamento. Com o vVols, 
uma máquina virtual individual, não o repositório de dados, torna-se uma unidade de 
gerenciamento de armazenamento. E o hardware de armazenamento obtém controle 
completo sobre o conteúdo, layout e gerenciamento do disco virtual.
Consulte Capítulo 22 Trabalhando com VMware vSphere Virtual Volumes (vVols).
VMware vSAN
vSAN é uma camada distribuída de software que é executada de forma nativa como parte do 
hipervisor. vSAN agrega dispositivos de capacidade local ou de conexão direta de um cluster 
de host ESXi e cria um único pool de armazenamento compartilhado em todos os hosts no 
cluster vSAN.
Consulte o Administrando VMware vSAN .
Gerenciamento baseado em políticas de armazenamento
O Storage Policy Based Management (SPBM) é uma estrutura que fornece um único painel de 
controle em vários serviços de dados e soluções de armazenamento, incluindo vSAN e vVols. 
Usando políticas de armazenamento, a estrutura alinha as demandas de aplicativos de suas 
máquinas virtuais com os recursos fornecidos por entidades de armazenamento.
vSphere Storage
VMware, Inc. Traduzido automaticamente 18
Consulte Capítulo 20 Gerenciamento baseado em políticas de armazenamento.
Filtros de E / S
Os filtros de E / S são componentes de software que podem ser instalados em ESXi hosts 
e podem oferecer serviços de dados adicionais para máquinas virtuais. Dependendo da 
implementação, os serviços podem incluir replicação, criptografia, cache e assim por diante.
Consulte Capítulo 23 Filtrando a E / S da máquina virtual.
APIs de armazenamento do vSphere
As APIs de armazenamento são uma família de APIs usadas por provedores de hardware, 
software e armazenamento de terceiros para desenvolver componentes que aprimoram vários 
recursos e soluções do vSphere.
Esta publicação de armazenamento descreve várias APIs de armazenamento que contribuem 
para o seu ambiente de armazenamento. Para obter informações sobre outras APIs dessa família, 
incluindo vSphere APIs - Data Protection, consulte o site VMware.
APIs do vSphere para reconhecimento de armazenamento
Também conhecidas como VASA, essas APIs, fornecidas por terceiros ou oferecidas por 
VMware, permitem comunicações entre vCenter Server e o armazenamento subjacente. Por 
meio do VASA, as entidades de armazenamento podem informar vCenter Server sobre suas 
configurações, recursos e integridade e eventos de armazenamento. Em troca, o VASA pode 
fornecer requisitos de armazenamento de VM de vCenter Server para uma entidade de 
armazenamento e garantir que a camada de armazenamento atenda aos requisitos.
O VASA se torna essencial quando você trabalha com vVols, vSAN, APIs do vSphere para 
filtragem de E / S (VAIO) e políticas de VM de armazenamento. Consulte o Capítulo 21 Usando 
provedores de armazenamento.
APIs do vSphere para integração de matriz
Essas APIs, também conhecidas como VAAI, incluem os seguintes componentes:
n APIs de aceleração de hardware. Ajude as matrizes a serem integradas ao vSphere, para 
que o vSphere possa descarregar determinadas operações de armazenamento para a matriz. 
Essa integração reduz significativamente a sobrecarga da CPU no host. Consulte Capítulo 24 
Aceleração de hardware de armazenamento.
n APIs de provisionamento dinâmico de matriz. Ajuda a monitorar o uso de espaço em matrizes 
de armazenamento com provisionamento dinâmico para evitar condições de falta de espaço 
e para executar a recuperação de espaço. Consulte ESXi e provisionamento dinâmico de 
matriz.
vSphere Storage
VMware,Inc. Traduzido automaticamente 19
APIs do vSphere para caminhos múltiplos
Conhecidas como Arquitetura de Armazenamento Conectável (PSA), essas APIs permitem 
que os parceiros de armazenamento criem e entreguem plug-ins de vários caminhos e 
balanceamento de carga otimizados para cada matriz. Os plug-ins se comunicam com matrizes 
de armazenamento e determinam a melhor estratégia de seleção de caminho para aumentar o 
desempenho de E / S e a confiabilidade do host ESXi para a matriz de armazenamento. Para 
obter mais informações, consulte Arquitetura de armazenamento conectável e gerenciamento de 
caminhos.
vSphere Storage
VMware, Inc. Traduzido automaticamente 20
Introdução a um modelo de 
armazenamento tradicional 2
A configuração do seu armazenamento ESXi em ambientes tradicionais do inclui a configuração 
de seus sistemas e dispositivos de armazenamento, a habilitação de adaptadores de 
armazenamento e a criação de repositórios de dados.
Este capítulo inclui os seguintes tópicos:
n Tipos de armazenamento físico
n Adaptadores de armazenamento compatíveis
n Características do repositório de dados
n Usando a memória persistente
Tipos de armazenamento físico
Em ambientes de armazenamento tradicionais, o processo de gerenciamento de armazenamento 
ESXi começa com o espaço de armazenamento que o administrador de armazenamento pré-
aloca em diferentes sistemas de armazenamento. ESXi é compatível com armazenamento local e 
armazenamento em rede.
Armazenamento local
O armazenamento local pode ser discos rígidos internos localizados dentro do host ESXi. Ele 
também pode incluir sistemas de armazenamento externo localizados fora do e conectados ao 
host diretamente por meio de protocolos como SAS ou SATA.
O armazenamento local não requer uma rede de armazenamento para se comunicar com o host. 
Você precisa de um cabo conectado à unidade de armazenamento e, quando necessário, de um 
HBA compatível em seu host.
A ilustração a seguir mostra uma máquina virtual usando armazenamento SCSI local.
VMware, Inc. Traduzido automaticamente 21
Figura 2-1. Armazenamento local
ESXi Host
vmdk
SCSI Device
VMFS
Neste exemplo de topologia de armazenamento local, o host ESXi usa uma única conexão com 
um dispositivo de armazenamento. Nesse dispositivo, você pode criar um repositório de dados 
VMFS, usado para armazenar arquivos de disco da máquina virtual.
Embora essa configuração de armazenamento seja possível, ela não é uma prática recomendada. 
O uso de conexões únicas entre dispositivos de armazenamento e hosts cria pontos únicos de 
falha (SPOF) que podem causar interrupções quando uma conexão se torna não confiável ou 
falha. No entanto, como a maioria dos dispositivos de armazenamento local não oferece suporte 
a várias conexões, não é possível usar vários caminhos para acessar o armazenamento local.
O ESXi é compatível com vários dispositivos de armazenamento local, incluindo dispositivos SCSI, 
IDE, SATA, USB, SAS, flash e NVMe.
Observação Você não pode usar unidades IDE / ATA ou USB para armazenar máquinas virtuais.
O armazenamento local não oferece suporte ao compartilhamento entre vários hosts. Apenas um 
host tem acesso a um repositório de dados em um dispositivo de armazenamento local. Como 
resultado, embora você possa usar o armazenamento local para criar VMs, não é possível usar 
VMware recursos que exigem armazenamento compartilhado, como HA e vMotion.
No entanto, se você usar um cluster de hosts que têm apenas dispositivos de armazenamento 
locais, poderá implementar vSAN. vSAN transforma recursos de armazenamento local em 
armazenamento compartilhado definido por software. Com o vSAN, você pode usar recursos 
que exigem armazenamento compartilhado. Para obter detalhes, consulte a documentação do 
Administrando VMware vSAN .
Armazenamento em rede
O armazenamento em rede consiste em sistemas de armazenamento externo que seu host do 
ESXi usa para armazenar arquivos da máquina virtual remotamente. Normalmente, o host acessa 
esses sistemas em uma rede de armazenamento de alta velocidade.
vSphere Storage
VMware, Inc. Traduzido automaticamente 22
Os dispositivos de armazenamento em rede são compartilhados. Os datastores em dispositivos 
de armazenamento em rede podem ser acessados por vários hosts simultaneamente. O ESXi 
oferece suporte a várias tecnologias de armazenamento em rede.
Além do armazenamento em rede tradicional abordado neste tópico, o VMware oferece suporte 
ao armazenamento compartilhado virtualizado, como o vSAN. O vSAN transforma os recursos de 
armazenamento interno de seus hosts do ESXi em armazenamento compartilhado que fornece 
recursos como alta disponibilidade e vMotion para máquinas virtuais. Para obter detalhes, 
consulte a documentação do Administrando VMware vSAN .
Observação O mesmo LUN não pode ser apresentado a um host ESXi ou a vários hosts por 
meio de protocolos de armazenamento diferentes. Para acessar o LUN, os hosts devem sempre 
usar um único protocolo, por exemplo, somente Fibre Channel ou somente iSCSI.
Fibre Channel (FC)
Armazena arquivos de máquina virtual remotamente em uma rede de área de armazenamento 
(SAN) FC. FC SAN é uma rede de alta velocidade especializada que conecta seus hosts a 
dispositivos de armazenamento de alto desempenho. A rede usa o protocolo Fibre Channel para 
transportar o tráfego SCSI de máquinas virtuais para os dispositivos FC SAN.
Para se conectar ao FC SAN, seu host deve estar equipado com adaptadores de barramento de 
host Fibre Channel (HBAs). A menos que você use o armazenamento de conexão direta Fibre 
Channel, você precisa de switches Fibre Channel para rotear o tráfego de armazenamento. Se o 
seu host contiver adaptadores FCoE (Fibre Channel over Ethernet), você poderá se conectar aos 
seus dispositivos Fibre Channel compartilhados usando uma rede Ethernet.
Observação A partir do vSphere 7.0, o VMware não é mais compatível com o software FCoE 
em ambientes de produção.
O armazenamento de canal de fibra descreve máquinas virtuais usando armazenamento de canal 
de fibra.
vSphere Storage
VMware, Inc. Traduzido automaticamente 23
Figura 2-2. Armazenamento de canal de fibra
ESXi Host
vmdk
Fibre
Channel Array
VMFS
SAN
Fibre
Channel
HBA
Nessa configuração, um host se conecta a uma malha SAN, que consiste em switches Fibre 
Channel e matrizes de armazenamento, usando um adaptador Fibre Channel. Os LUNs de uma 
matriz de armazenamento se tornam disponíveis para o host. Você pode acessar os LUNs e 
criar repositórios de dados para suas necessidades de armazenamento. Os datastores usam o 
formato VMFS.
Para obter informações específicas sobre como configurar o SAN Fibre Channel, consulte 
Capítulo 4 Usando o ESXi com Fibre Channel SAN.
Internet SCSI (iSCSI)
Armazena arquivos da máquina virtual em dispositivos de armazenamento iSCSI remotos. O iSCSI 
empacota o tráfego de armazenamento SCSI no protocolo TCP / IP, para que ele possa viajar 
através de redes TCP / IP padrão em vez da rede FC especializada. Com uma conexão iSCSI, 
seu host atua como o iniciador que se comunica com um destino, localizado em sistemas de 
armazenamento iSCSI remotos.
O ESXi oferece os seguintes tipos de conexões iSCSI:
Hardware iSCSI
vSphere Storage
VMware, Inc. Traduzido automaticamente 24
Seu host se conecta ao armazenamento por meio de um adaptador de terceiros capaz de 
descarregar o iSCSI e o processamento de rede. Os adaptadores de hardware podem ser 
dependentes e independentes.
Software iSCSI
Seu host usa um iniciador iSCSI baseado em software no VMkernel para se conectar ao 
armazenamento. Com esse tipo de conexão iSCSI, seu host precisa apenas de um adaptador 
de rede padrão para conectividade de rede.
Você deve configurar os iniciadores iSCSI para que o host acesse e exiba os dispositivos de 
armazenamento iSCSI.
O armazenamento iSCSI descreve diferentes tipos de iniciadores iSCSI.
Figura 2-3. Armazenamento iSCSI
iSCSI Array
VMFS VMFS
LAN LAN
iSCSI 
HBA
Ethernet
NIC
ESXiHost
Software
Adapter
vmdk vmdk
No exemplo à esquerda, o host usa o adaptador iSCSI de hardware para se conectar ao sistema 
de armazenamento iSCSI.
No exemplo correto, o host usa um adaptador de software iSCSI e uma NIC Ethernet para se 
conectar ao armazenamento iSCSI.
Os dispositivos de armazenamento iSCSI do sistema de armazenamento se tornam disponíveis 
para o host. Você pode acessar os dispositivos de armazenamento e criar datastores VMFS para 
suas necessidades de armazenamento.
vSphere Storage
VMware, Inc. Traduzido automaticamente 25
Para obter informações específicas sobre como configurar o SAN iSCSI, consulte Capítulo 10 
Usando o ESXi com o iSCSI SAN.
Armazenamento conectado à rede (NAS)
Armazena arquivos da máquina virtual em servidores de arquivos remotos acessados por uma 
rede TCP / IP padrão. O cliente NFS integrado ao ESXi usa o protocolo Network File System 
(NFS) versão 3 e 4.1 para se comunicar com os servidores NAS / NFS. Para conectividade de 
rede, o host requer um adaptador de rede padrão.
Você pode montar um volume NFS diretamente no host ESXi. Em seguida, use o datastore NFS 
para armazenar e gerenciar máquinas virtuais da mesma maneira que usa os datastores VMFS.
O armazenamento NFS descreve uma máquina virtual usando o armazenamento de dados NFS 
para armazenar seus arquivos. Nessa configuração, o host se conecta ao servidor NAS, que 
armazena os arquivos do disco virtual, por meio de um adaptador de rede regular.
Figura 2-4. Armazenamento NFS
ESXi Host
NAS
Appliance
vmdk
NFS
LAN
Ethernet
NIC
Para obter informações específicas sobre como configurar o armazenamento NFS, consulte 
Noções básicas sobre repositórios de dados do sistema de arquivos de rede.
vSphere Storage
VMware, Inc. Traduzido automaticamente 26
Shared Serial Attached SCSI (SAS)
Armazena máquinas virtuais em sistemas de armazenamento SAS conectados diretamente que 
oferecem acesso compartilhado a vários hosts. Esse tipo de acesso permite que vários hosts 
acessem o mesmo datastore VMFS em um LUN.
NVMe sobre armazenamento de telas
O VMware NVMe sobre Fabrics (NVMe-oF) fornece uma conectividade de distância entre 
um host e um dispositivo de armazenamento de destino em uma matriz de armazenamento 
compartilhada. O VMware é compatível com NVMe sobre RDMA (com tecnologia RoCE v2), 
NVMe sobre Fibre Channel (FC-NVMe) e transportes NVMe sobre TCP / IP. Para obter mais 
informações, consulte Capítulo 16 Sobre o armazenamento NVMe VMware.
Representações de destino e de dispositivo
No contexto ESXi, o termo de destino identifica uma única unidade de armazenamento que 
o host pode acessar. Os termos dispositivo de armazenamento e LUN descrevem um volume 
lógico que representa o espaço de armazenamento em um destino. No contexto ESXi, ambos 
os termos também significam um volume de armazenamento que é apresentado ao host de um 
destino de armazenamento e está disponível para formatação. O dispositivo de armazenamento 
e o LUN são frequentemente usados de forma intercambiável.
Diferentes fornecedores de armazenamento apresentam os sistemas de armazenamento para 
ESXi hosts de maneiras diferentes. Alguns fornecedores apresentam um único destino com 
vários dispositivos de armazenamento ou LUNs, enquanto outros apresentam vários destinos 
com um LUN cada.
Figura 2-5. Representações de destino e LUN
Storage Array
Target
LUN LUN LUN
Storage Array
Target TargetTarget
LUN LUN LUN
Nesta ilustração, três LUNs estão disponíveis em cada configuração. Em um caso, o host se 
conecta a um destino, mas esse destino tem três LUNs que podem ser usados. Cada LUN 
representa um volume de armazenamento individual. No outro exemplo, o host detecta três 
destinos diferentes, cada um com um LUN.
Os destinos que são acessados por meio da rede têm nomes exclusivos que são fornecidos 
pelos sistemas de armazenamento. Os destinos iSCSI usam nomes iSCSI. Os destinos do Fibre 
Channel usam World Wide Names (WWNs).
Observação O ESXi não oferece suporte ao acesso ao mesmo LUN por meio de protocolos de 
transporte diferentes, como iSCSI e Fibre Channel.
vSphere Storage
VMware, Inc. Traduzido automaticamente 27
Um dispositivo, ou LUN, é identificado pelo seu nome UUID. Se um LUN for compartilhado por 
vários hosts, ele deverá ser apresentado a todos os hosts com o mesmo UUID.
Como o Virtual Mac aprimora o Access Storage
Quando uma máquina virtual se comunica com seu disco virtual armazenado em um repositório 
de dados, ela emite comandos SCSI. Como os repositórios de dados podem existir em vários 
tipos de armazenamento físico, esses comandos são encapsulados em outros formulários, 
dependendo do protocolo que o host ESXi usa para se conectar a um dispositivo de 
armazenamento.
ESXi é compatível com os protocolos Fibre Channel (FC), Internet SCSI (iSCSI), Fibre Channel 
sobre Ethernet (FCoE) e NFS. Independentemente do tipo de dispositivo de armazenamento 
usado pelo host, o disco virtual sempre aparece na máquina virtual como um dispositivo SCSI 
montado. O disco virtual oculta uma camada de armazenamento físico do sistema operacional da 
máquina virtual. Isso permite que você execute sistemas operacionais que não são certificados 
para equipamentos de armazenamento específicos, como SAN, dentro da máquina virtual.
Observação A partir do vSphere 7.0, o VMware não oferece mais suporte ao software FCoE em 
ambientes de produção.
O gráfico a seguir mostra cinco máquinas virtuais usando diferentes tipos de armazenamento 
para ilustrar as diferenças entre cada tipo.
Figura 2-6. Máquinas virtuais acessando diferentes tipos de armazenamento
iSCSI Array
VMFS VMFS
LAN LAN
iSCSI
HBA
Ethernet
NIC
ESXi Host
Requires TCP/IP Connectivity
Software
iSCSI
Adapter
NAS 
Appliance
NFS
LAN
Ethernet
NIC
Fibre
Channel Array
VMFS
VMFS
vmdk
vmdk vmdk vmdk vmdk
SAN
Fibre
Channel
HBASCSI Device
Observação Este diagrama é apenas para fins conceituais. Não é uma configuração 
recomendada.
vSphere Storage
VMware, Inc. Traduzido automaticamente 28
Características do dispositivo de armazenamento
Quando seu host ESXi se conecta a sistemas de armazenamento baseados em bloco, LUNs ou 
dispositivos de armazenamento compatíveis com ESXi ficam disponíveis para o host.
Depois que os dispositivos forem registrados com seu host, você poderá exibir todos os 
dispositivos locais e em rede disponíveis e revisar suas informações. Se você usar plug-ins de 
vários caminhos de terceiros, os dispositivos de armazenamento disponíveis por meio dos plug-
ins também aparecerão na lista.
Observação Se uma matriz oferecer suporte ao acesso de unidade lógica assimétrica implícita 
(ALUA) e tiver apenas caminhos em espera, o registro do dispositivo falhará. O dispositivo pode 
se registrar no host depois que o destino ativa um caminho em espera e o host o detecta 
como ativo. O parâmetro avançado do sistema /Disk/FailDiskRegistration controla esse 
comportamento do host.
Para cada adaptador de armazenamento, você pode exibir uma lista separada de dispositivos de 
armazenamento disponíveis para esse adaptador.
Geralmente, ao analisar os dispositivos de armazenamento, você vê as seguintes informações.
Tabela 2-1. Informações do dispositivo de armazenamento
Informações do dispositivo 
de armazenamento Descrição
Nome Também chamado de Nome para Exibição. É um nome que o host ESXi atribui 
ao dispositivo com base no tipo de armazenamento e no fabricante. Geralmente, 
você pode alterar esse nome para um nome de sua escolha. Consulte Renomear 
dispositivos de armazenamento.
Identificador Um identificador universalmente exclusivo que é intrínseco ao dispositivo. Consulte 
Identificadores e nomes de dispositivos de armazenamento.
Estado operacional Indica se o dispositivo está conectado ou desconectado. Consulte Desanexar 
dispositivos de armazenamento.
LUN Número da Unidade Lógica (LUN) dentro do destino SCSI. O número do LUN é 
fornecido pelo sistema de armazenamento. Se um destino tiver apenas um LUN, o 
númerodo LUN será sempre zero (0).
Tipo Tipo de dispositivo, por exemplo, disco ou CD-ROM.
Tipo de unidade Informações sobre se o dispositivo é uma unidade flash ou uma unidade de disco 
rígido normal. Para obter informações sobre unidades flash e dispositivos NVMe, 
consulte Capítulo 15 Trabalhando com dispositivos flash.
Transporte Protocolo de transporte usado pelo host para acessar o dispositivo. O protocolo 
depende do tipo de armazenamento que está sendo usado. Consulte Tipos de 
armazenamento físico.
Capacidade Capacidade total do dispositivo de armazenamento.
Proprietário O plug-in, como o NMP ou um plug-in de terceiros, que o host usa para 
gerenciar caminhos para o dispositivo de armazenamento. Consulte Arquitetura de 
armazenamento conectável e gerenciamento de caminhos.
vSphere Storage
VMware, Inc. Traduzido automaticamente 29
Tabela 2-1. Informações do dispositivo de armazenamento (continuação)
Informações do dispositivo 
de armazenamento Descrição
Aceleração de hardware Informações sobre se o dispositivo de armazenamento ajuda o host com operações 
de gerenciamento de máquina virtual. O status pode ser Com suporte, Sem suporte ou 
Desconhecido. Consulte Capítulo 24 Aceleração de hardware de armazenamento.
Formato do setor Indica se o dispositivo usa um formato de setor tradicional, 512n ou avançado, como 
512e ou 4Kn. Consulte Formatos de setor de dispositivo.
Localização Um caminho para o dispositivo de armazenamento no diretório / vmfs / 
devices / .
Formato da Partição Um esquema de partição usado pelo dispositivo de armazenamento. Pode ser do 
formato MBR (registro mestre de inicialização) ou da tabela de partição GUID (GPT). 
Os dispositivos GPT podem oferecer suporte a repositórios de dados maiores que 2 
TB. Consulte Formatos de setor de dispositivo.
Partições Partições primárias e lógicas, incluindo um repositório de dados VMFS, se configurado.
Políticas de vários caminhos Política de Seleção de Caminho e Política de Tipo de Matriz de Armazenamento que 
o host usa para gerenciar caminhos para o armazenamento. Consulte Capítulo 18 
Noções básicas sobre caminhos múltiplos e failover.
Caminhos Caminhos usados para acessar o armazenamento e seu status. Consulte Desativar 
caminhos de armazenamento.
Exibir dispositivos de armazenamento para um host ESXi
Exibir todos os dispositivos de armazenamento disponíveis para um host ESXi. Se você usar 
plug-ins de vários caminhos de terceiros, os dispositivos de armazenamento disponíveis por meio 
dos plug-ins também aparecerão na lista.
A exibição Dispositivos de armazenamento permite listar os dispositivos de armazenamento dos 
hosts, analisar suas informações e modificar propriedades.
Procedimentos
1 No vSphere Client, navegue até o host ESXi.
2 Clique na guia Configurar (Configure).
3 Em Armazenamento (Storage), clique em Dispositivos de Armazenamento (Storage 
Devices).
Todos os dispositivos de armazenamento disponíveis para o host estão listados na tabela 
Dispositivos de armazenamento.
4 Para exibir os detalhes de um dispositivo específico, selecione o dispositivo na lista.
5 Use os ícones para realizar tarefas básicas de gerenciamento de armazenamento.
A disponibilidade de ícones específicos depende do tipo de dispositivo e da configuração.
vSphere Storage
VMware, Inc. Traduzido automaticamente 30
Ícone Descrição
Atualizar Atualize as informações sobre adaptadores de armazenamento, 
topologia e sistemas de arquivos.
Desanexar Desanexe o dispositivo selecionado do host.
Anexar Anexe o dispositivo selecionado ao host.
Renomear Altere o nome de exibição do dispositivo selecionado.
Ligar LED Ligue o LED localizador para os dispositivos selecionados.
Desligar o LED Desligue o LED localizador dos dispositivos selecionados.
Marcar como disco flash Marque os dispositivos selecionados como discos flash.
Marcar como disco rígido Marque os dispositivos selecionados como discos HDD.
Marcar como local Marque os dispositivos selecionados como locais para o host.
Marcar como remoto Marque os dispositivos selecionados como remotos para o host.
Apagar partições Apague partições nos dispositivos selecionados.
Marcar como permanentemente 
reservada
Marque o dispositivo selecionado como sempre reservado.
Desmarcar como permanentemente 
reservada
Apague a reserva perene do dispositivo selecionado.
6 Use as seguintes abas para acessar informações adicionais e modificar as propriedades do 
dispositivo selecionado.
Guia Descrição
Propriedades Visualizar propriedades e características do dispositivo. Visualizar e 
modificar políticas de caminhos múltiplos para o dispositivo.
Caminhos Exibir os caminhos disponíveis para o dispositivo. Desative ou ative um 
caminho selecionado.
Detalhes da Partição Exibe informações sobre partições e seus formatos.
 
Exibir dispositivos de armazenamento para um adaptador
Exibir uma lista de dispositivos de armazenamento acessíveis por meio de um adaptador de 
armazenamento específico em um host ESXi.
Procedimentos
1 No vSphere Client, navegue até o host ESXi.
2 Clique na guia Configurar (Configure).
3 Em Armazenamento (Storage), clique em Adaptadores de Armazenamento (Storage 
Adapters).
Todos os adaptadores de armazenamento instalados no host estão listados na tabela 
Adaptadores de Armazenamento.
vSphere Storage
VMware, Inc. Traduzido automaticamente 31
4 Selecione o adaptador na lista e clique na guia Dispositivos (Devices).
São exibidos os dispositivos de armazenamento que o host pode acessar por meio do 
adaptador.
5 Use os ícones para realizar tarefas básicas de gerenciamento de armazenamento.
A disponibilidade de ícones específicos depende do tipo de dispositivo e da configuração.
Ícone Descrição
Atualizar Atualize as informações sobre adaptadores de armazenamento, topologia e sistemas de arquivos.
Desanexar Desanexe o dispositivo selecionado do host.
Anexar Anexe o dispositivo selecionado ao host.
Renomear Altere o nome de exibição do dispositivo selecionado.
Comparando tipos de armazenamento
Se uma certa funcionalidade do vSphere é suportada pode depender da tecnologia de 
armazenamento que você usa.
A tabela a seguir compara tecnologias de armazenamento em rede que ESXi suporta.
Tabela 2-2. Armazenamento em rede compatível com ESXi
Tecnologia Protocolos Transferências Interface
Fibre Channel FC / SCSI Bloquear acesso a dados / 
LUN
FC HBA
Fibre Channel 
sobre Ethernet
FCoE / SCSI Bloquear acesso a dados / 
LUN
n Converged Network Adapter (hardware 
FCoE)
n NIC com suporte a FCoE (software FCoE)
Observação A partir do vSphere 7.0, 
o VMware não oferece mais suporte 
ao software FCoE em ambientes de 
produção.
iSCSI IP / SCSI Bloquear acesso a dados / 
LUN
n iSCSI HBA ou NIC habilitado para iSCSI 
(hardware iSCSI)
n Adaptador de rede (software iSCSI)
NAS IP / NFS Arquivo (sem acesso direto 
ao LUN)
Adaptador de rede
A tabela a seguir compara os recursos do vSphere que diferentes tipos de armazenamento 
suportam.
vSphere Storage
VMware, Inc. Traduzido automaticamente 32
Tabela 2-3. Recursos do vSphere compatíveis com o armazenamento
Tipo de 
armazenamen
to Boot VM v Motion
Repositório de 
dados RDM
Cluster de 
VM
VMware HA 
e DRS
APIs de 
armazen
amento 
- 
Proteçã
o de 
dados
Armazenamen
to local
Sim Não VMFS Não Sim Não Sim
Fibre Channel Sim Sim VMFS Sim Sim Sim Sim
iSCSI Sim Sim VMFS Sim Sim Sim Sim
NAS sobre 
NFS
Sim Sim NFS 3 e NFS 
4.1
Não Não Sim Sim
Observação O armazenamento local oferece suporte a um cluster de máquinas virtuais em 
um único host (também conhecido como cluster em uma caixa). É necessário um disco virtual 
compartilhado. Para obter mais informações sobre essa configuração, consulte a documentação 
Gerenciamento de Recursos do vSphere .
Adaptadores de armazenamento compatíveis
Os adaptadores de armazenamento fornecem conectividade para seu host ESXi a uma rede ou 
unidade de armazenamento específica.
O ESXi é compatível com diferentes classes de adaptadores, incluindo SCSI, iSCSI,RAID, 
Fibre Channel, Fibre Channel sobre Ethernet (FCoE) e Ethernet. ESXi acessa os adaptadores 
diretamente por meio de drivers de dispositivo no VMkernel.
Dependendo do tipo de armazenamento usado, talvez seja necessário habilitar e configurar um 
adaptador de armazenamento no host.
Para obter informações sobre como configurar adaptadores FCoE de software, consulte Capítulo 
6 Configurando o Fibre Channel sobre Ethernet.
Para obter informações sobre como configurar diferentes tipos de adaptadores iSCSI, consulte 
Capítulo 11 Configurando o armazenamento e os adaptadores iSCSI e iSER.
Observação A partir do vSphere 7.0, o VMware não oferece mais suporte ao software FCoE em 
ambientes de produção.
Exibir informações do adaptador de armazenamento
Um host ESXi usa adaptadores de armazenamento para acessar diferentes dispositivos de 
armazenamento. Você pode exibir detalhes dos adaptadores de armazenamento disponíveis e 
revisar suas informações.
vSphere Storage
VMware, Inc. Traduzido automaticamente 33
Pré-requisitos
Você deve habilitar determinados adaptadores, por exemplo, o software iSCSI ou FCoE, antes de 
poder visualizar suas informações. Para configurar adaptadores, consulte o seguinte:
n Capítulo 11 Configurando o armazenamento e os adaptadores iSCSI e iSER
n Capítulo 6 Configurando o Fibre Channel sobre Ethernet
Procedimentos
1 No vSphere Client, navegue até o host ESXi.
2 Clique na guia Configurar (Configure).
3 Em Armazenamento (Storage), clique em Adaptadores de Armazenamento (Storage 
Adapters).
4 Use os ícones para realizar tarefas do adaptador de armazenamento.
A disponibilidade de ícones específicos depende da configuração de armazenamento.
Ícone Descrição
Adicionar adaptador de 
software
Adicione um adaptador de armazenamento. Aplica-se ao software iSCSI e ao 
software FCoE.
Atualizar Atualize as informações sobre adaptadores de armazenamento, topologia e 
sistemas de arquivos no host.
Verificar novamente o 
armazenamento
Verifique novamente todos os adaptadores de armazenamento no host para 
descobrir dispositivos de armazenamento ou repositórios de dados VMFS recém-
adicionados.
Verificar novamente o 
adaptador
Verifique novamente o adaptador selecionado para descobrir os dispositivos de 
armazenamento recém-adicionados.
5 Para exibir os detalhes de um adaptador específico, selecione o adaptador na lista.
6 Use as guias em Detalhes do adaptador para acessar informações adicionais e modificar as 
propriedades do adaptador selecionado.
Guia Descrição
Propriedades(Properties) Revise as propriedades gerais do adaptador que normalmente incluem um nome 
e um modelo do adaptador e identificadores exclusivos formados de acordo com 
padrões de armazenamento específicos. Para adaptadores iSCSI e FCoE, use essa 
guia para configurar propriedades adicionais, por exemplo, autenticação.
Dispositivos(Devices) Visualize os dispositivos de armazenamento que o adaptador pode acessar. Use a 
aba para executar tarefas básicas de gerenciamento de dispositivos. Consulte Exibir 
dispositivos de armazenamento para um adaptador.
Caminhos (Paths ) Liste e gerencie todos os caminhos que o adaptador usa para acessar dispositivos 
de armazenamento.
Destinos (Targets) (Fibre 
Channel e iSCSI)
Revise e gerencie os destinos acessados por meio do adaptador.
vSphere Storage
VMware, Inc. Traduzido automaticamente 34
Guia Descrição
Vinculação de Porta 
de Rede (Network Port 
Binding) (somente iSCSI)
Configure a associação de portas para adaptadores iSCSI de hardware e software 
dependentes.
Opções avançadas 
(Advanced Options) 
(somente iSCSI)
Configure parâmetros avançados para iSCSI.
Características do repositório de dados
Os repositórios de dados são contêineres lógicos, análogos aos sistemas de arquivos, que 
ocultam as especificações de cada dispositivo de armazenamento e fornecem um modelo 
uniforme para o armazenamento de arquivos de máquinas virtuais. Você pode exibir todos os 
datastores disponíveis para seus hosts e analisar suas propriedades.
Os repositórios de dados são adicionados a vCenter Server das seguintes maneiras:
n Você pode criar um repositório de dados VMFS, um repositório de dados NFS versão 3 ou 
4.1 ou um repositório de dados vVols usando o assistente de Novo repositório de dados. Um 
datastore vSAN é criado automaticamente quando você habilita vSAN.
n Quando você adiciona um host ESXi a vCenter Server, todos os repositórios de dados no 
host são adicionados a vCenter Server.
A tabela a seguir descreve os detalhes do datastore que você pode ver ao revisar os datastores 
por meio do vSphere Client. Determinadas características podem não estar disponíveis ou 
aplicáveis a todos os tipos de repositórios de dados.
Tabela 2-4. Informações do Repositório de Dados
Informações do 
Repositório de 
Dados Tipo de datastore aplicável Descrição
Nome VMFS
NFS
vSAN
vVol
Nome editável que você atribui a um repositório de 
dados. Para obter informações sobre como renomear 
um repositório de dados, consulte Alterar o nome do 
datastore.
Tipo VMFS
NFS
vSAN
vVol
Sistema de arquivos que o repositório de dados usa. 
Para obter informações sobre repositórios de dados 
VMFS e NFS e como gerenciá-los, consulte Capítulo 17 
Trabalhando com repositórios de dados.
Para obter informações sobre vSAN repositórios 
de dados, consulte a documentação Administrando 
VMware vSAN .
Para obter mais informações sobre vVols, consulte 
Capítulo 22 Trabalhando com VMware vSphere Virtual 
Volumes (vVols).
vSphere Storage
VMware, Inc. Traduzido automaticamente 35
Tabela 2-4. Informações do Repositório de Dados (continuação)
Informações do 
Repositório de 
Dados Tipo de datastore aplicável Descrição
Suporte do 
dispositivo
VMFS
NFS
vSAN
Informações sobre o armazenamento subjacente, 
como um dispositivo de armazenamento no qual o 
repositório de dados está implantado (VMFS), servidor 
e pasta (NFS) ou grupos de discos (vSAN).
Protocolo Endpoints vVol Informações sobre endpoints de protocolo 
correspondentes. Consulte Protocolo Endpoints.
Extensões VMFS Extensões individuais que o datastore abrange e sua 
capacidade.
Tipo de unidade VMFS Tipo do dispositivo de armazenamento subjacente, 
como uma unidade flash ou uma unidade HHD comum. 
Para obter detalhes, consulte Capítulo 15 Trabalhando 
com dispositivos flash.
Capacidade VMFS
NFS
vSAN
vVol
Inclui capacidade total, espaço provisionado e espaço 
livre.
Ponto de 
montagem
VMFS
NFS
vSAN
vVol
Um caminho para o repositório de dados no diretório / 
vmfs / volumes / do host.
Conjuntos de 
Recursos
VMFS
Observação Um datastore VMFS de 
várias extensões assume os recursos 
de apenas uma de suas extensões.
NFS
vSAN
vVol
Informações sobre os serviços de dados de 
armazenamento que a entidade de armazenamento 
subjacente fornece. Você não pode modificá-los.
Storage I/O Control VMFS
NFS
Informações sobre se a priorização de E / S de 
armazenamento em todo o cluster está ativada. 
Consulte a documentação do Gerenciamento de 
Recursos do vSphere .
Aceleração de 
hardware
VMFS
NFS
vSAN
vVol
Informações sobre se a entidade de armazenamento 
subjacente oferece suporte à aceleração de hardware. 
O status pode ser Com suporte, Sem suporte ou 
Desconhecido. Para obter detalhes, consulte Capítulo 
24 Aceleração de hardware de armazenamento.
Observação O NFS 4.1 não é compatível com a 
Aceleração de Hardware.
vSphere Storage
VMware, Inc. Traduzido automaticamente 36
Tabela 2-4. Informações do Repositório de Dados (continuação)
Informações do 
Repositório de 
Dados Tipo de datastore aplicável Descrição
Tags VMFS
NFS
vSAN
vVol
Recursos de repositório de dados que você define e 
associa a repositórios de dados em uma forma de 
tags. Para obter informações, consulte Atribuir tags a 
datastores.
Conectividade com 
Hosts
VMFS
NFS
vVol
Hosts nos quais o datastore está montado.
Multipathing VMFS
vVol
Política de seleção de caminho que o host usa 
para acessar o armazenamento. Paraobter mais 
informações, consulte Capítulo 18 Noções básicas 
sobre caminhos múltiplos e failover.
Exibir Informações do Repositório de Dados
Acesse a exibição Datastores com o navegador vSphere Client.
Use a exibição Repositórios de dados para listar todos os repositórios de dados disponíveis no 
inventário de infraestrutura do vSphere, analisar as informações e modificar as propriedades.
Procedimentos
1 Navegue até qualquer objeto de inventário que seja um objeto pai válido de um repositório 
de dados, como um host, um cluster ou um centro de dados, e clique na guia Datastores 
(Datastores).
Os repositórios de dados que estão disponíveis no inventário aparecem no painel central.
2 Use as opções de um menu de atalho do datastore para realizar tarefas básicas para um 
datastore selecionado.
A disponibilidade de opções específicas depende do tipo de repositório de dados e de sua 
configuração.
Opção Descrição
Registrar VM (Register VM) Registre uma máquina virtual existente no inventário. Consulte a 
documentação do Administração da Máquina Virtual do vSphere .
Aumentar a capacidade do datastore 
(Increase Datastore Capacity)
Aumente a capacidade do repositório de dados VMFS ou adicione uma 
extensão. Consulte Aumentar a capacidade do repositório de dados 
VMFS.
Procurar arquivos (Browse Files) Navegue até o navegador de arquivos do repositório de dados. 
Consulte Usar o navegador do repositório de dados.
Renomear(Rename) Altere o nome do repositório de dados. Consulte Alterar o nome do 
datastore.
vSphere Storage
VMware, Inc. Traduzido automaticamente 37
Opção Descrição
Montar repositório de dados (Mount 
Datastore)
Monte o repositório de dados em determinados hosts. Consulte Montar 
repositórios de dados.
Desmontar repositório de dados 
(Unmount Datastore)
Desmonte o datastore de determinados hosts. Consulte Desmontar 
repositórios de dados.
Modo de Manutenção (Maintenance 
Mode)
Use o modo de manutenção de repositório de dados. Consulte a 
documentação do Gerenciamento de Recursos do vSphere .
Configurar Storage I/O Control (VMFS) Habilite Storage I/O Control para o repositório de dados VMFS. Consulte 
a documentação do Gerenciamento de Recursos do vSphere .
Editar Recuperação de Espaço (Edit 
Space Reclamation ) (VMFS)
Altere as configurações de recuperação de espaço para o repositório de 
dados VMFS. Consulte Alterar configurações de recuperação de espaço.
Excluir Datastore (Delete Datastore) 
(VMFS)
Remova o repositório de dados VMFS. Consulte Remover repositórios 
de dados VMFS.
Tags e atributos personalizados (Tags & 
Custom Attributes)
Use tags para codificar informações sobre o repositório de dados. 
Consulte Atribuir tags a datastores.
3 Para exibir detalhes específicos do datastore, clique em um datastore selecionado.
4 Use as guias para acessar informações adicionais e modificar as propriedades do repositório 
de dados.
Guia Descrição
Resumo(Summary) Visualize as estatísticas e a configuração do repositório de dados selecionado.
Monitoramento(Monitor) Visualize alarmes, dados de desempenho, alocação de recursos, eventos e outras 
informações de status para o repositório de dados.
Configurar (Configure) Visualize e modifique as propriedades do repositório de dados. Os itens de menu que 
você pode ver dependem do tipo de repositório de dados.
Permissões (Permissions) Atribua ou edite permissões para o datastore selecionado.
Arquivos(Files) Navegue até o navegador de arquivos do repositório de dados.
Hosts (Hosts) Visualize os hosts onde o datastore está montado.
VMs Visualize as máquinas virtuais que residem no repositório de dados.
Usando a memória persistente
O ESXi é compatível com dispositivos de memória persistente da próxima geração, também 
conhecidos como dispositivos de memória não volátil (NVM). Esses dispositivos combinam 
desempenho e velocidade da memória com a persistência do armazenamento tradicional. Eles 
podem manter os dados armazenados por meio de reinicializações ou falhas na fonte de energia.
Máquinas virtuais que exigem alta largura de banda, baixa latência e persistência podem se 
beneficiar dessa tecnologia. Os exemplos incluem VMs com bancos de dados de aceleração e 
carga de trabalho de análise.
vSphere Storage
VMware, Inc. Traduzido automaticamente 38
Para usar a memória persistente com seu host ESXi, você deve estar familiarizado com os 
seguintes conceitos.
PMem Datastore
Depois de adicionar memória persistente ao host ESXi, o host detecta o hardware e o 
formata e monta como um repositório de dados PMem local. ESXi usa VMFS-L como um 
formato de sistema de arquivos. Há suporte apenas para um datastore PMem local por host.
Observação Quando você gerencia a memória física persistente, certifique-se de evacuar 
todas as VMs do host e colocá-lo no modo de manutenção.
Para reduzir a sobrecarga administrativa, o repositório de dados PMem oferece um 
modelo de gerenciamento simplificado. As tarefas tradicionais do datastore geralmente 
não se aplicam ao datastore porque o host executa automaticamente todas as operações 
necessárias em segundo plano. Como administrador, você não pode exibir o datastore na 
exibição Datastores do vSphere Client ou executar outras ações regulares do datastore. A 
única operação disponível para você é o monitoramento de estatísticas para o repositório de 
dados PMem.
O repositório de dados PMem é usado para armazenar dispositivos NVDIMM virtuais e discos 
virtuais tradicionais de uma VM. O diretório inicial da VM com os arquivos vmx e vmware.log 
não pode ser colocado no datastore PMem.
Modos de acesso do PMem
ESXi expõe a memória persistente a uma VM em dois modos diferentes. As VMs com 
reconhecimento de PMem podem ter acesso direto à memória persistente. VMs tradicionais 
podem usar discos virtuais rápidos armazenados no repositório de dados PMem.
Modo de acesso direto
Nesse modo, também chamado de modo virtual de PMem (vPMem), uma região de PMem 
pode ser apresentada a uma VM como um módulo virtual não volátil de módulo de memória 
dupla em linha (NVDIMM). A VM usa o módulo NVDIMM como uma memória endereçável por 
byte padrão que pode persistir em ciclos de energia.
Você pode adicionar um ou vários módulos NVDIMM ao provisionar a VM.
As VMs devem ter a versão de hardware ESXi 6.7 ou posterior e ter um SO guest com 
reconhecimento de PMem. O dispositivo NVDIMM é compatível com os sistemas operacionais 
convidados mais recentes que suportam memória persistente, por exemplo, o Windows 2016.
Cada dispositivo NVDIMM é automaticamente armazenado no repositório de dados PMem.
Modo de disco virtual
Esse modo, também chamado de modo discos virtuais PMem (vPMemDisk), está disponível 
para qualquer VM tradicional e é compatível com qualquer versão de hardware, incluindo 
todas as versões herdadas. As VMs não precisam ser compatíveis com PMem. Ao usar esse 
modo, você cria um disco virtual SCSI regular e anexa uma política de armazenamento de 
vSphere Storage
VMware, Inc. Traduzido automaticamente 39
PMem VM ao disco. A política coloca automaticamente o disco no repositório de dados 
PMem.
Política de armazenamento do PMem
Para colocar o disco virtual no repositório de dados PMem, você deve aplicar a política de 
armazenamento padrão PMem local-host ao disco. A política não é editável.
A política pode ser aplicada apenas a discos virtuais. Como o diretório inicial da VM não 
reside no repositório de dados PMem, certifique-se de colocá-lo em qualquer repositório de 
dados padrão.
Depois de atribuir a política de armazenamento do PMem ao disco virtual, não é possível 
alterar a política por meio da caixa de diálogo Configuração de edição da VM . Para alterar a 
política, migre ou clone a VM.
O gráfico a seguir ilustra como os componentes de memória persistente interagem.
Direct-access
mode
Virtual disk
mode
NVDMM
device
PMem Storage
Policy
Virtual disk
PMem Datastore
Persistent Memory
PMem-aware VM Traditional VM
Para obter informações sobre como configurare gerenciar VMs com NVDIMMs ou discos de 
memória virtual persistente, consulte a documentação Gerenciamento de Recursos do vSphere e 
Administração da Máquina Virtual do vSphere .
Monitorar as estatísticas do repositório de dados PMem
Você pode usar o vSphere Client e o comando esxcli para revisar a capacidade do repositório 
de dados PMem e alguns de seus outros atributos.
No entanto, ao contrário dos repositórios de dados regulares, como VMFS ou vVol, o repositório 
de dados PMem não aparece na exibição de Repositórios de Dados do vSphere Client. As tarefas 
administrativas regulares do repositório de dados não se aplicam a ele.
vSphere Storage
VMware, Inc. Traduzido automaticamente 40
Procedimentos
u Revise as informações do repositório de dados PMem.
Opção Descrição
vSphere Client a Navegue até o host ESXi e clique em Resumo (Summary).
b No painel Hardware, verifique se Memória Persistente é exibida e revise 
sua capacidade.
comando esxcli Use esxcli storage filesystem list para listar o repositório de dados 
PMem.
 
Exemplo: Exibindo o datastore PMem
A seguinte amostra de saída aparece quando você usa o comando esxcli storage 
filesystem list para listar o datastore.
# esxcli storage filesystem list
Mount Point Volume Name UUID Mounted Type Size 
Free
---------------------- ---------------- ------------- -------- ------- ------------ 
------------
/vmfs/volumes/5xxx... ds01-102 5xxx... true VMFS-6 14227079168 
12718178304
/vmfs/volumes/59ex... ds02-102 59ex... true VMFS-6 21206401024 
19697500160
/vmfs/volumes/59bx... 59bx... true vfat 4293591040 
4274847744
/vmfs/volumes/pmem:5ax... PMemDS-56ax... pmem:5a0x... true PMEM 12880707584 
11504975872
vSphere Storage
VMware, Inc. Traduzido automaticamente 41
Visão geral do uso do ESXi com 
uma SAN 3
Usar o ESXi com uma SAN melhora a flexibilidade, a eficiência e a confiabilidade. Usar o ESXi 
com uma SAN também oferece suporte a tecnologias de gerenciamento centralizado, failover e 
balanceamento de carga.
A seguir estão os benefícios de usar ESXi com uma SAN:
n Você pode armazenar dados com segurança e configurar vários caminhos para o seu 
armazenamento, eliminando um único ponto de falha.
n Usar uma SAN com sistemas ESXi estende a resistência a falhas para o servidor. 
Quando você usa o armazenamento SAN, todos os aplicativos podem ser reiniciados 
instantaneamente em outro host após a falha do host original.
n Você pode realizar a migração dinâmica de máquinas virtuais usando o VMware vMotion.
n Use VMware High Availability (HA) em conjunto com uma SAN para reiniciar as máquinas 
virtuais em seu último estado conhecido em um servidor diferente se o host falhar.
n Use VMware Fault Tolerance (FT) para replicar máquinas virtuais protegidas em dois hosts 
diferentes. As máquinas virtuais continuarão a funcionar sem interrupção no host secundário 
se o principal falhar.
n Use o VMware Distributed Resource Scheduler (DRS) para migrar máquinas virtuais de um 
host para outro para balanceamento de carga. Como o armazenamento está em uma matriz 
SAN compartilhada, os aplicativos continuam sendo executados sem problemas.
n Se você usar VMware clusters DRS, coloque um host ESXi no modo de manutenção para que 
o sistema migre todas as máquinas virtuais em execução para outros ESXi. Em seguida, você 
pode realizar atualizações ou outras operações de manutenção no host original.
A portabilidade e o encapsulamento de VMware máquinas virtuais complementam a natureza 
compartilhada desse armazenamento. Quando as máquinas virtuais estão localizadas no 
armazenamento baseado em SAN, você pode encerrar rapidamente uma máquina virtual em 
um servidor e ligá-la em outro servidor, ou suspendê-la em um servidor e retomar a operação 
em outro servidor na mesma rede. Essa capacidade permite migrar recursos de computação, 
mantendo o acesso compartilhado consistente.
Este capítulo inclui os seguintes tópicos:
n ESXi e casos de uso de SAN
VMware, Inc. Traduzido automaticamente 42
n Específicos do uso do armazenamento SAN com ESXi
n ESXi Hosts e várias matrizes de armazenamento
n Tomando decisões de LUN
n Selecionando locais de máquina virtual
n Aplicativos de gerenciamento de terceiros
n Considerações de backup do armazenamento SAN
ESXi e casos de uso de SAN
Quando usado com uma SAN, o ESXi pode se beneficiar de vários recursos do vSphere, incluindo 
Storage vMotion, Distributed Resource Scheduler (DRS), High Availability e assim por diante.
Usar o ESXi com um SAN é eficaz para as seguintes tarefas:
Consolidação de armazenamento e simplificação do layout de armazenamento
Se você estiver trabalhando com vários hosts e cada host estiver executando várias 
máquinas virtuais, o armazenamento nos hosts não será mais suficiente. Talvez seja 
necessário usar armazenamento externo. A SAN pode fornecer uma arquitetura de sistema 
simples e outros benefícios.
Manutenção sem tempo de inatividade
Ao realizar a manutenção de ESXi host ou infraestrutura, use o vMotion para migrar máquinas 
virtuais para outro host. Se o armazenamento compartilhado estiver na SAN, você poderá 
realizar a manutenção sem interrupções para os usuários das máquinas virtuais. Os processos 
de trabalho da máquina virtual continuam durante a migração.
Balanceamento de carga
Você pode adicionar um host a um cluster DRS, e os recursos do host se tornam parte 
dos recursos do cluster. A distribuição e o uso de recursos de CPU e memória para todos 
os hosts e máquinas virtuais no cluster são monitorados continuamente. O DRS compara 
essas métricas a um uso de recurso ideal. O uso ideal considera os atributos dos pools de 
recursos e das máquinas virtuais do cluster, a demanda atual e o destino de desequilíbrio. Se 
necessário, o DRS realiza ou recomenda migrações de máquinas virtuais.
Recuperação de desastre
Você pode usar o VMware High Availability para configurar vários hosts ESXi como 
um cluster. O cluster fornece recuperação rápida de interrupções e alta disponibilidade 
econômica para aplicativos em execução em máquinas virtuais.
Migrações de matriz simplificadas e atualizações de armazenamento
Ao comprar novos sistemas de armazenamento, use o Storage vMotion para realizar 
migrações em tempo real de máquinas virtuais do armazenamento existente para seus novos 
destinos. Você pode realizar as migrações sem interrupções das máquinas virtuais.
vSphere Storage
VMware, Inc. Traduzido automaticamente 43
Específicos do uso do armazenamento SAN com ESXi
O uso de uma SAN com um host ESXi difere do uso tradicional da SAN de várias maneiras.
Quando você usa o armazenamento SAN com ESXi, as seguintes considerações se aplicam:
n Você não pode usar as ferramentas de administração da SAN para acessar sistemas 
operacionais de máquinas virtuais que residem no armazenamento. Com as ferramentas 
tradicionais, você pode monitorar apenas o sistema operacional VMware ESXi. Você usa o 
vSphere Client para monitorar máquinas virtuais.
n O HBA visível para as ferramentas de administração da SAN é parte do sistema ESXi, não 
parte da máquina virtual.
n Normalmente, seu sistema ESXi executa vários caminhos para você.
ESXi Hosts e várias matrizes de armazenamento
Um host ESXi pode acessar dispositivos de armazenamento apresentados de várias matrizes de 
armazenamento, incluindo matrizes de diferentes fornecedores.
Quando você usa várias matrizes de diferentes fornecedores, as seguintes considerações se 
aplicam:
n Se o seu host usa o mesmo SATP para várias matrizes, tenha cuidado ao alterar o PSP 
padrão para esse SATP. A alteração se aplica a todas as matrizes. Para obter informações 
sobre SATPs e PSPs, consulte Capítulo 18 Noções básicas sobre caminhos múltiplos e 
failover.
n Algumas matrizes de armazenamento fazem recomendações sobre a profundidade da fila e 
outras configurações. Normalmente, essas configuraçõessão definidas globalmente no nível 
do host ESXi. Alterar as configurações de uma matriz afeta outras matrizes que apresentam 
LUNs para o host. Para obter informações sobre como alterar a profundidade da fila, consulte 
o artigo da base de conhecimento VMware em http://kb.vmware.com/kb/1267.
n Use o zoneamento de único iniciador-único-alvo ao zonear ESXi hosts para matrizes Fibre 
Channel. Com esse tipo de configuração, os eventos relacionados à malha que ocorrem em 
uma matriz não afetam outras matrizes. Para obter mais informações sobre zoneamento, 
consulte Usando o zoneamento com SANs Fibre Channel.
Tomando decisões de LUN
Você deve planejar como configurar o armazenamento para seus sistemas ESXi antes de 
formatar LUNs com repositórios de dados VMFS.
Quando você toma sua decisão de LUN, as seguintes considerações se aplicam:
n Cada LUN deve ter o nível de RAID e a característica de armazenamento corretos para os 
aplicativos em execução em máquinas virtuais que usam o LUN.
n Cada LUN deve conter apenas um repositório de dados VMFS.
vSphere Storage
VMware, Inc. Traduzido automaticamente 44
http://kb.vmware.com/kb/1267
n Se várias máquinas virtuais acessarem o mesmo VMFS, use compartilhamentos de disco para 
priorizar máquinas virtuais.
Talvez você queira menos LUNs maiores pelos seguintes motivos:
n Mais flexibilidade para criar máquinas virtuais sem solicitar mais espaço ao administrador de 
armazenamento.
n Mais flexibilidade para redimensionar discos virtuais, fazer snapshots e assim por diante.
n Menos repositórios de dados VMFS para gerenciar.
Você pode querer mais LUNs menores pelos seguintes motivos:
n Menos espaço de armazenamento desperdiçado.
n Diferentes aplicativos podem precisar de diferentes características de RAID.
n Mais flexibilidade, pois a política de caminhos múltiplos e os compartilhamentos de disco são 
definidos por LUN.
n O uso do Microsoft Cluster Service exige que cada recurso de disco do cluster esteja em seu 
próprio LUN.
n Melhor desempenho porque há menos contenção para um único volume.
Quando a caracterização de armazenamento de uma máquina virtual não está disponível, pode 
não ser fácil determinar o número e o tamanho dos LUNs a serem provisionados. Você pode 
experimentar usando um esquema preditivo ou adaptativo.
Usar o esquema preditivo para tomar decisões LUN
Ao configurar o armazenamento para sistemas ESXi, antes de criar repositórios de dados VMFS, 
você deve decidir sobre o tamanho e o número de LUNs a serem provisionados. Você pode 
experimentar usando o esquema preditivo.
Procedimentos
1 Provisione vários LUNs com diferentes características de armazenamento.
2 Crie um repositório de dados VMFS em cada LUN, rotulando cada repositório de dados de 
acordo com suas características.
3 Crie discos virtuais para conter os dados para aplicativos de máquina virtual nos repositórios 
de dados VMFS criados em LUNs com o nível de RAID apropriado para os requisitos dos 
aplicativos.
4 Use compartilhamentos de disco para distinguir máquinas virtuais de alta prioridade e baixa 
prioridade.
Observação Os compartilhamentos de disco são relevantes apenas dentro de um 
determinado host. Os compartilhamentos atribuídos a máquinas virtuais em um host não têm 
efeito em máquinas virtuais em outros hosts.
5 Execute os aplicativos para determinar se o desempenho da máquina virtual é aceitável.
vSphere Storage
VMware, Inc. Traduzido automaticamente 45
Usar o esquema adaptativo para tomar decisões LUN
Ao configurar o armazenamento para ESXi hosts, antes de criar repositórios de dados VMFS, 
você deve decidir sobre o número e o tamanho dos LUNS a serem provisionados. Você pode 
experimentar usando o esquema adaptativo.
Procedimentos
1 Provisione um LUN grande (RAID 1 + 0 ou RAID 5), com o cache de gravação ativado.
2 Crie um VMFS nesse LUN.
3 Crie quatro ou cinco discos virtuais no VMFS.
4 Execute os aplicativos para determinar se o desempenho do disco é aceitável.
Resultados
Se o desempenho for aceitável, você poderá colocar discos virtuais adicionais no VMFS. Se o 
desempenho não for aceitável, crie um novo LUN grande, possivelmente com um nível de RAID 
diferente, e repita o processo. Use a migração para que você não perca os dados das máquinas 
virtuais ao recriar o LUN.
Selecionando locais de máquina virtual
Quando você está trabalhando para otimizar o desempenho de suas máquinas virtuais, o local de 
armazenamento é um fator importante. Dependendo das suas necessidades de armazenamento, 
você pode selecionar um armazenamento com alto desempenho e alta disponibilidade ou um 
armazenamento com baixo desempenho.
O armazenamento pode ser dividido em diferentes camadas, dependendo de vários fatores:
n Alto Nível. Oferece alto desempenho e alta disponibilidade. Pode oferecer snapshots 
integrados para facilitar os backups e as restaurações point-in-time (PiT). Oferece suporte à 
replicação, redundância total do processador de armazenamento e unidades SAS. Usa eixos 
de alto custo.
n Mid Tier. Oferece desempenho de médio alcance, menor disponibilidade, alguma redundância 
de processador de armazenamento e unidades SCSI ou SAS. Pode oferecer snapshots. Usa 
eixos de médio custo.
n Camada Inferior. Oferece baixo desempenho e pouca redundância de armazenamento 
interno. Usa unidades SCSI low-end ou SATA.
Nem todas as VMs devem estar no armazenamento de melhor desempenho e mais disponível 
durante todo o ciclo de vida.
Quando você decide onde colocar uma máquina virtual, as seguintes considerações se aplicam:
n Criticidade da VM
n Requisitos de desempenho e disponibilidade
vSphere Storage
VMware, Inc. Traduzido automaticamente 46
n Requisitos de restauração de PiT
n Requisitos de backup e replicação
Uma máquina virtual pode alterar as camadas ao longo de seu ciclo de vida devido a alterações 
de gravidade ou de tecnologia. A crítica é relativa e pode mudar por vários motivos, incluindo 
mudanças na organização, processos operacionais, requisitos regulamentares, planejamento de 
desastres e assim por diante.
Aplicativos de gerenciamento de terceiros
Você pode usar aplicativos de gerenciamento de terceiros com seu host ESXi.
A maioria dos hardwares SAN são fornecidos com o software de gerenciamento de 
armazenamento. Em muitos casos, esse software é um aplicativo da Web que pode ser 
usado com qualquer navegador da Web conectado à sua rede. Em outros casos, esse 
software normalmente é executado no sistema de armazenamento ou em um único servidor, 
independentemente dos servidores que usam a SAN para armazenamento.
Use este software de gerenciamento de terceiros para as seguintes tarefas:
n Gerenciamento de matriz de armazenamento, incluindo criação de LUN, gerenciamento de 
cache de matriz, mapeamento de LUN e segurança de LUN.
n Configuração de replicação, pontos de verificação, snapshots ou espelhamento.
Se você executar o software de gerenciamento de SAN em uma máquina virtual, obterá os 
benefícios de uma máquina virtual, incluindo failover com vMotion e VMware HA. Devido ao nível 
adicional de indireção, no entanto, o software de gerenciamento pode não ver a SAN. Nesse 
caso, você pode usar um RDM.
Observação Se uma máquina virtual pode executar o software de gerenciamento com êxito 
depende do sistema de armazenamento específico.
Considerações de backup do armazenamento SAN
Ter uma estratégia de backup adequada é um dos aspectos mais importantes do gerenciamento 
de SAN. No ambiente da SAN, os backups têm dois objetivos. O primeiro objetivo é arquivar 
dados online em mídia offline. Esse processo é repetido periodicamente para todos os dados 
online em um agendamento. O segundo objetivo é fornecer acesso a dados offline para 
recuperação de um problema. Por exemplo, a recuperação de banco de dados muitas vezes 
requer uma recuperação de arquivos de log arquivados que não estão online no momento.
O agendamento de um backup depende de vários fatores:
n Identificação de aplicativos críticos que exigemciclos de backup mais frequentes em um 
determinado período.
n Ponto de recuperação e metas de tempo de recuperação. Considere a precisão do seu ponto 
de recuperação e quanto tempo você deseja esperar por ele.
vSphere Storage
VMware, Inc. Traduzido automaticamente 47
n A taxa de alteração (RoC) associada aos dados. Por exemplo, se você estiver usando a 
replicação síncrona / assíncrona, o RoC afetará a quantidade de largura de banda necessária 
entre os dispositivos de armazenamento primário e secundário.
n Impacto geral sobre um ambiente de SAN, desempenho de armazenamento e outros 
aplicativos.
n Identificação dos períodos de pico de tráfego na SAN. Os backups agendados durante esses 
períodos de pico podem atrasar os aplicativos e o processo de backup.
n Tempo para agendar todos os backups no centro de dados.
n Tempo necessário para fazer backup de um aplicativo individual.
n Disponibilidade de recursos para o arquivamento de dados, como acesso à mídia offline.
Inclua um objetivo de tempo de recuperação para cada aplicativo ao projetar sua estratégia 
de backup. Ou seja, considere o tempo e os recursos necessários para realizar um backup. 
Por exemplo, se um backup agendado armazenar tantos dados que a recuperação exigir uma 
quantidade de tempo considerável, examine o backup agendado. Execute o backup com mais 
frequência, para que seja feito o backup de menos dados por vez e o tempo de recuperação 
diminua.
Se um aplicativo exigir recuperação dentro de um determinado período de tempo, o processo de 
backup deverá fornecer um cronograma e um processamento de dados específico para atender 
aos requisitos. A recuperação rápida pode exigir o uso de volumes de recuperação que residem 
no armazenamento online. Esse processo ajuda a minimizar ou eliminar a necessidade de acessar 
mídia offline lenta para componentes de dados ausentes.
Usando pacotes de backup de terceiros
Você pode usar soluções de backup de terceiros para proteger dados do sistema, do aplicativo 
e do usuário em suas máquinas virtuais.
As APIs de armazenamento - Proteção de dados que VMware oferece podem funcionar com 
produtos de terceiros. Ao usar as APIs, o software de terceiros pode realizar backups sem 
carregar ESXi hosts com o processamento de tarefas de backup.
Os produtos de terceiros que usam as APIs de armazenamento - Proteção de dados podem 
realizar as seguintes tarefas de backup:
n Execute um backup de imagem completo, diferencial e incremental e a restauração de 
máquinas virtuais.
n Execute um backup em nível de arquivo de máquinas virtuais que usam os sistemas 
operacionais Windows e Linux compatíveis.
n Garanta a consistência dos dados usando o Microsoft Volume Shadow Copy Services (VSS) 
para máquinas virtuais que executam sistemas operacionais Microsoft Windows compatíveis.
vSphere Storage
VMware, Inc. Traduzido automaticamente 48
Como as APIs de Armazenamento - Proteção de Dados usam os recursos de snapshot do VMFS, 
os backups não exigem que você pare as máquinas virtuais. Esses backups são ininterruptos, 
podem ser realizados a qualquer momento e não precisam de janelas de backup estendidas.
Para obter informações sobre as APIs de armazenamento - Proteção de dados e integração com 
produtos de backup, consulte o site VMware ou entre em contato com o fornecedor.
vSphere Storage
VMware, Inc. Traduzido automaticamente 49
Usando o ESXi com Fibre Channel 
SAN 4
Quando você configura hosts ESXi para usar matrizes de armazenamento FC SAN, 
considerações especiais são necessárias. Esta seção fornece informações introdutórias sobre 
como usar o ESXi com uma matriz FC SAN.
Este capítulo inclui os seguintes tópicos:
n Conceitos de SAN Fibre Channel
n Usando o zoneamento com SANs Fibre Channel
n Como as máquinas virtuais acessam dados em uma SAN Fibre Channel
Conceitos de SAN Fibre Channel
Se você for um administrador do ESXi planejando configurar hosts para trabalhar com SANs, 
deverá ter um conhecimento prático dos conceitos de SAN. Você pode encontrar informações 
sobre SANs na versão impressa e na Internet. Como esse setor muda constantemente, verifique 
esses recursos com frequência.
Se você é novo na tecnologia SAN, familiarize-se com a terminologia básica.
Uma rede de área de armazenamento (SAN) é uma rede especializada de alta velocidade 
que conecta servidores host a subsistemas de armazenamento de alto desempenho. Os 
componentes de SAN incluem adaptadores de barramento de host (HBAs) nos servidores host, 
switches que ajudam a rotear o tráfego de armazenamento, os cabos, os processadores de 
armazenamento (SPs) e as matrizes de disco de armazenamento.
Uma topologia de SAN com pelo menos um switch presente na rede forma uma malha de SAN.
Para transferir o tráfego dos servidores host para o armazenamento compartilhado, a SAN usa o 
protocolo Fibre Channel (FC) que empacota comandos SCSI em quadros Fibre Channel.
Para restringir o acesso do servidor a matrizes de armazenamento não alocadas a esse servidor, 
o SAN usa o zoneamento. Normalmente, as zonas são criadas para cada grupo de servidores 
que acessam um grupo compartilhado de dispositivos de armazenamento e LUNs. As zonas 
definem quais HBAs podem se conectar a quais SPs. Os dispositivos fora de uma zona não são 
visíveis para os dispositivos dentro da zona.
VMware, Inc. Traduzido automaticamente 50
O zoneamento é semelhante ao mascaramento de LUN, que é comumente usado para o 
gerenciamento de permissões. O mascaramento de LUN é um processo que torna um LUN 
disponível para alguns hosts e indisponível para outros hosts.
Ao transferir dados entre o servidor host e o armazenamento, a SAN usa uma técnica conhecida 
como caminhos múltiplos. Os caminhos múltiplos permitem que você tenha mais de um caminho 
físico do host ESXi para um LUN em um sistema de armazenamento.
Geralmente, um único caminho de um host para um LUN consiste em um HBA, portas de switch, 
cabos de conexão e a porta do controlador de armazenamento. Se qualquer componente do 
caminho falhar, o host selecionará outro caminho disponível para E / S. O processo de detectar 
um caminho com falha e alternar para outro é chamado de failover de caminho.
Portas em SAN Fibre Channel
No contexto deste documento, uma porta é a conexão de um dispositivo na SAN. Cada nó na 
SAN, como um host, um dispositivo de armazenamento ou um componente de malha tem uma 
ou mais portas que o conectam à SAN. As portas são identificadas de várias maneiras.
WWPN (World Wide Port Name)
Um identificador globalmente exclusivo para uma porta que permite que determinados 
aplicativos acessem a porta. Os switches FC descobrem o WWPN de um dispositivo ou host 
e atribuem um endereço de porta ao dispositivo.
Port_ID (ou endereço da porta)
Dentro de uma SAN, cada porta tem uma ID de porta exclusiva que serve como o endereço 
FC para a porta. Essa ID exclusiva permite o roteamento de dados por meio da SAN para 
essa porta. Os switches FC atribuem a ID da porta quando o dispositivo faz login na malha. A 
ID da porta é válida apenas enquanto o dispositivo está conectado.
Quando o N-Port ID Virtualization (NPIV) é usado, uma única porta do HBA do FC (N-port) 
pode ser registrada na malha usando vários WWPNs. Esse método permite que uma porta 
N reivindique vários endereços de malha, cada um dos quais aparece como uma entidade 
exclusiva. Quando os hosts do ESXi usam uma SAN, esses identificadores múltiplos e exclusivos 
permitem a atribuição de WWNs a máquinas virtuais individuais como parte de sua configuração.
Tipos de matriz de armazenamento Fibre Channel
O ESXi oferece suporte a diferentes sistemas de armazenamento e matrizes.
Os tipos de armazenamento que seu host suporta incluem ativo-ativo, ativo-passivo e compatível 
com ALUA.
Sistema de armazenamento ativo-ativo
vSphere Storage
VMware, Inc. Traduzido automaticamente 51
Oferece suporte ao acesso aos LUNs simultaneamente por meio de todas as portas de 
armazenamento que estão disponíveis sem degradação significativado desempenho. Todos 
os caminhos estão ativos, a menos que um caminho falhe.
Sistema de armazenamento ativo-passivo
Um sistema no qual um processador de armazenamento está ativamente fornecendo acesso 
a um determinado LUN. Os outros processadores atuam como um backup para o LUN e 
podem estar ativamente fornecendo acesso a outras E / S de LUN. A E / S pode ser enviada 
com êxito apenas para uma porta ativa para um determinado LUN. Se o acesso pela porta de 
armazenamento ativo falhar, um dos processadores de armazenamento passivo poderá ser 
ativado pelos servidores que o acessam.
Sistema de armazenamento assimétrico
Oferece suporte a acesso à unidade lógica assimétrica (ALUA). Os sistemas de 
armazenamento em conformidade com o ALUA fornecem diferentes níveis de acesso por 
porta. Com o ALUA, o host pode determinar os estados das portas de destino e priorizar 
os caminhos. O host usa alguns dos caminhos ativos como primário e usa outros como 
secundário.
Usando o zoneamento com SANs Fibre Channel
O zoneamento fornece controle de acesso na topologia de SAN. O zoneamento define quais 
HBAs podem se conectar a quais destinos. Quando você configura uma SAN usando o 
zoneamento, os dispositivos fora de uma zona não são visíveis para os dispositivos dentro da 
zona.
O zoneamento tem os seguintes efeitos:
n Reduz o número de destinos e LUNs apresentados a um host.
n Controla e isola os caminhos em uma malha.
n Pode impedir que sistemas não ESXi acessem um determinado sistema de armazenamento e 
possivelmente destruam dados VMFS.
n Pode ser usado para separar ambientes diferentes, por exemplo, um teste de um ambiente 
de produção.
Com ESXi hosts, use um zoneamento de iniciador único ou um zoneamento de inicializador único. 
Esta última é uma prática de zoneamento preferida. Usar o zoneamento mais restritivo evita 
problemas e configurações incorretas que podem ocorrer na SAN.
Para obter instruções detalhadas e práticas recomendadas de zoneamento, entre em contato 
com os fornecedores de matriz de armazenamento ou switch.
vSphere Storage
VMware, Inc. Traduzido automaticamente 52
Como as máquinas virtuais acessam dados em uma SAN 
Fibre Channel
ESXi armazena os arquivos de disco de uma máquina virtual em um repositório de dados 
VMFS que reside em um dispositivo de armazenamento SAN. Quando os sistemas operacionais 
convidados da máquina virtual enviam comandos SCSI para seus discos virtuais, a camada de 
virtualização SCSI converte esses comandos em operações de arquivo VMFS.
Quando uma máquina virtual interage com seu disco virtual armazenado em uma SAN, ocorre o 
seguinte processo:
1 Quando o sistema operacional convidado em uma máquina virtual lê ou grava em um disco 
SCSI, ele envia comandos SCSI para o disco virtual.
2 Os drivers de dispositivo no sistema operacional da máquina virtual se comunicam com os 
controladores SCSI virtuais.
3 O controlador SCSI virtual encaminha o comando para o VMkernel.
4 O VMkernel executa as seguintes tarefas.
a Localiza o arquivo de disco virtual apropriado no volume VMFS.
b Mapeia as solicitações dos blocos no disco virtual para blocos no dispositivo físico 
apropriado.
c Envia a solicitação de E / S modificada do driver de dispositivo no VMkernel para o HBA 
físico.
5 O HBA físico executa as seguintes tarefas.
a Empacota a solicitação de E / S de acordo com as regras do protocolo FC.
b Transmite a solicitação para a SAN.
6 Dependendo da porta que o HBA usa para se conectar à malha, um dos switches SAN 
recebe a solicitação. O switch roteia a solicitação para o dispositivo de armazenamento 
apropriado.
vSphere Storage
VMware, Inc. Traduzido automaticamente 53
Configurando o armazenamento 
Fibre Channel 5
Quando você usa ESXi sistemas com armazenamento SAN, existem requisitos específicos de 
hardware e sistema.
Este capítulo inclui os seguintes tópicos:
n ESXi Requisitos de SAN Fibre Channel
n Etapas de instalação e configuração
n Virtualização de ID de porta N
ESXi Requisitos de SAN Fibre Channel
Na preparação para configurar sua SAN e configurar seu sistema ESXi para usar o 
armazenamento SAN, revise os requisitos e as recomendações.
n Certifique-se de que os sistemas ESXi sejam compatíveis com as combinações de hardware 
e firmware de armazenamento SAN que você usa. Para obter uma lista atualizada, consulte 
VMware Guia de Compatibilidade .
n Configure o sistema para ter apenas um volume VMFS por LUN.
n A menos que você esteja usando servidores sem disco, não configure a partição de 
diagnóstico em um SAN LUN.
Se você usar servidores sem disco que inicializam a partir de uma SAN, uma partição de 
diagnóstico compartilhada será apropriada.
n Use RDMs para acessar discos não processados. Para obter informações, consulte Capítulo 
19 Mapeamento de dispositivo bruto.
n Para que os caminhos múltiplos funcionem corretamente, cada LUN deve apresentar o 
mesmo número de ID de LUN para todos os ESXi hosts.
n Certifique-se de que o driver do dispositivo de armazenamento especifique uma fila grande 
o suficiente. Você pode definir a profundidade da fila para o HBA físico durante uma 
configuração do sistema.
VMware, Inc. Traduzido automaticamente 54
n Em máquinas virtuais que executam o Microsoft Windows, aumente o valor do parâmetro 
SCSI TimeoutValue para 60. Com esse aumento, o Windows pode tolerar E / S atrasada 
resultante de um failover de caminho. Para obter informações, consulte Definir tempo limite 
no SO convidado do Windows.
ESXi Restrições à SAN Fibre Channel
Quando você usa ESXi com uma SAN, aplicam-se determinadas restrições.
n ESXi não é compatível com dispositivos de fita conectados por FC.
n Você não pode usar software de caminhos múltiplos em uma máquina virtual para executar o 
balanceamento de carga de E / S para um único LUN físico. No entanto, quando sua máquina 
virtual do Microsoft Windows usa discos dinâmicos, essa restrição não se aplica. Para obter 
informações sobre como configurar discos dinâmicos, consulte Configurar o espelhamento 
de disco dinâmico.
Definindo alocações de LUN
Este tópico fornece informações gerais sobre como alocar LUNs quando o ESXi funciona com a 
SAN.
Ao definir alocações de LUN, esteja ciente dos seguintes pontos:
Provisionamento de armazenamento
Para garantir que o sistema ESXi reconheça os LUNs no momento da inicialização, provisione 
todos os LUNs para os HBAs apropriados antes de conectar a SAN ao sistema ESXi.
Provisione todos os LUNs para todos os ESXi HBAs ao mesmo tempo. O failover de HBA 
funcionará somente se todos os HBAs virem os mesmos LUNs.
Para LUNs compartilhados entre vários hosts, certifique-se de que os IDs de LUN sejam 
consistentes em todos os hosts.
vMotion e VMware DRS
Ao usar vCenter Server e vMotion ou DRS, certifique-se de que os LUNs das máquinas 
virtuais estejam provisionados para todos os ESXi hosts. Essa ação fornece mais capacidade 
de mover máquinas virtuais.
Ativo-ativo em comparação com matrizes ativo-passivo
Ao usar o vMotion ou DRS com um dispositivo de armazenamento SAN ativo-passivo, 
certifique-se de que todos os ESXi sistemas tenham caminhos consistentes para todos os 
processadores de armazenamento. Não fazer isso pode causar falha no caminho quando 
ocorre uma migração do vMotion.
Para matrizes de armazenamento ativo-passivo não listadas em Storage / SAN Compatibility, 
VMware não oferece suporte a failover de porta de armazenamento. Nesses casos, você 
deve conectar o servidor à porta ativa na matriz de armazenamento. Essa configuração 
garante que os LUNs sejam apresentados ao host ESXi.
vSphere Storage
VMware, Inc. Traduzido automaticamente 55
Definindo HBAs Fibre Channel
Normalmente, os HBAs de FC que você usa no host ESXi funcionam corretamente com as 
definições de configuração padrão.
Você deve seguir as diretrizes de configuração fornecidas pelo fornecedor da matriz de 
armazenamento. Durante a configuração do FC HBA, considere os seguintes problemas.
n Não misture HBAs de FC de diferentes fornecedoresem um único host. Ter modelos 
diferentes do mesmo HBA é compatível, mas um único LUN não pode ser acessado por 
meio de dois tipos de HBA diferentes, apenas por meio do mesmo tipo.
n Certifique-se de que o nível de firmware em cada HBA seja o mesmo.
n Defina o valor do tempo limite para detectar um failover. Para garantir um desempenho ideal, 
não altere o valor padrão.
n ESXi é compatível com conectividade Fibre Channel de ponta a ponta de 32 Gbps.
Etapas de instalação e configuração
Este tópico fornece uma visão geral das etapas de instalação e configuração que você precisa 
seguir ao configurar seu ambiente SAN para trabalhar com o ESXi.
Siga estas etapas para configurar seu ambiente ESXi SAN.
1 Projete sua SAN se ela ainda não estiver configurada. A maioria das SANs existentes requer 
apenas pequenas modificações para funcionar com ESXi.
2 Verifique se todos os componentes da SAN atendem aos requisitos.
3 Realize qualquer modificação necessária na matriz de armazenamento.
A maioria dos fornecedores tem documentação específica do fornecedor para configurar 
uma SAN para trabalhar com VMware ESXi.
4 Configure os HBAs para os hosts que você conectou à SAN.
5 Instale o ESXi nos hosts.
6 Crie máquinas virtuais e instale sistemas operacionais convidados.
7 (Opcional) Configure seu sistema para o failover de VMware HA ou para usar o Microsoft 
Clustering Services.
8 Atualize ou modifique seu ambiente conforme necessário.
Virtualização de ID de porta N
O N-Port ID Virtualization (NPIV) é um padrão ANSI T11 que descreve como uma única porta 
HBA Fibre Channel pode ser registrada com a malha usando vários nomes de portas mundiais 
(WWPNs). Isso permite que uma porta N conectada à malha reivindique vários endereços de 
malha. Cada endereço aparece como uma entidade exclusiva na malha Fibre Channel.
vSphere Storage
VMware, Inc. Traduzido automaticamente 56
Como o acesso ao LUN baseado em NPIV funciona
O NPIV permite que uma única porta FC HBA registre vários identificadores exclusivos de nome 
mundial (WWN) com a malha, cada um dos quais pode ser atribuído a uma máquina virtual 
individual. Ao usar o NPIV, um administrador de SAN pode monitorar e rotear o acesso ao 
armazenamento por uma máquina virtual.
Somente máquinas virtuais com RDMs podem ter atribuições WWN, e elas usam essas 
atribuições para todo o tráfego RDM.
Quando uma máquina virtual tem um WWN atribuído a ela, o arquivo de configuração da 
máquina virtual (.vmx) é atualizado para incluir um par WWN. O par WWN consiste em um nome 
de porta mundial (WWPN) e um nome de nó mundial (WWNN). Quando essa máquina virtual 
é ligada, o VMkernel cria uma porta virtual (VPORT) no HBA físico que é usado para acessar o 
LUN. O VPORT é um HBA virtual que aparece na estrutura do FC como um HBA físico. Como seu 
identificador exclusivo, o VPORT usa o par WWN que foi atribuído à máquina virtual.
Cada VPORT é específico para a máquina virtual. O VPORT é destruído no host e não aparece 
mais para a estrutura do FC quando a máquina virtual é desligada. Quando uma máquina virtual é 
migrada de um host para outro, o VPORT fecha no primeiro host e abre no host de destino.
Quando as máquinas virtuais não têm atribuições WWN, elas acessam LUNs de armazenamento 
com os WWNs dos HBAs físicos do host.
Requisitos para usar o NPIV
Se você planeja habilitar o NPIV em suas máquinas virtuais, deve estar ciente de certos 
requisitos.
n O NPIV pode ser usado apenas para máquinas virtuais com discos RDM. As máquinas virtuais 
com discos virtuais regulares usam os WWNs dos HBAs físicos do host.
n Os HBAs no host devem oferecer suporte ao NPIV.
Para obter informações, consulte VMware Guia de Compatibilidade e consulte a 
documentação do fornecedor.
n Use HBAs do mesmo tipo. O VMware não oferece suporte a HBAs heterogêneos no 
mesmo host que acessa os mesmos LUNs.
n Se um host usar vários HBAs físicos como caminhos para o armazenamento, faça a zona 
de todos os caminhos físicos para a máquina virtual. Isso é necessário para oferecer 
suporte a caminhos múltiplos, mesmo que apenas um caminho por vez esteja ativo.
n Certifique-se de que os HBAs físicos no host possam detectar todos os LUNs que devem 
ser acessados por máquinas virtuais habilitadas para NPIV em execução nesse host.
n Os switches na malha devem ser compatíveis com NPIV.
n Ao configurar um LUN para acesso NPIV no nível de armazenamento, certifique-se de que 
o número do LUN NPIV e o ID de destino do NPIV correspondam ao LUN físico e ao ID de 
destino.
vSphere Storage
VMware, Inc. Traduzido automaticamente 57
n Distribua as WWPNs do NPIV para que elas se conectem a todos os sistemas de 
armazenamento que os hosts do cluster podem acessar, mesmo se a VM não usar o 
armazenamento. Se você adicionar qualquer novo sistema de armazenamento a um cluster 
com uma ou mais VMs ativadas para NPIV, adicione as novas zonas, para que os WWPNs do 
NPIV possam detectar as novas portas de destino do sistema de armazenamento.
Recursos e limitações de NPIV
Saiba mais sobre recursos específicos e limitações do uso de NPIV com ESXi.
O ESXi com NPIV oferece suporte aos seguintes itens:
n O NPIV é compatível com o vMotion. Quando você usa o vMotion para migrar uma máquina 
virtual, ela mantém o WWN atribuído.
Se você migrar uma máquina virtual habilitada para NPIV para um host que não oferece 
suporte a NPIV, o VMkernel será revertido para o uso de um HBA físico para rotear a E / S.
n Se o seu ambiente do FC SAN oferecer suporte à E / S simultânea nos discos de uma matriz 
ativa / ativa, a E / S simultânea para duas portas NPIV diferentes também será suportada.
Quando você usa ESXi com NPIV, as seguintes limitações se aplicam:
n Como a tecnologia NPIV é uma extensão do protocolo FC, ela requer um comutador FC e 
não funciona nos discos FC conectados diretamente.
n Quando você clona uma máquina virtual ou um modelo com um WWN atribuído a ela, os 
clones não retêm o WWN.
n O NPIV não é compatível com Storage vMotion.
n Desativar e, em seguida, reativar o recurso NPIV em um comutador FC enquanto as 
máquinas virtuais estão em execução pode fazer com que um link FC falhe e a E / S pare.
Configurar ou modificar atribuições WWN
Atribua as configurações do WWN à máquina virtual. Mais tarde, você pode modificar as 
atribuições do WWN.
Você pode criar de 1 a 16 pares WWN, que podem ser mapeados para os primeiros 1 a 16 FC 
HBAs físicos no host.
Normalmente, você não precisa alterar as atribuições WWN existentes na sua máquina virtual. 
Em determinadas circunstâncias, por exemplo, quando os WWNs atribuídos manualmente estão 
causando conflitos na SAN, pode ser necessário alterar ou remover os WWNs.
Pré-requisitos
n Antes de configurar o WWN, certifique-se de que o host ESXi possa acessar a lista de 
controle de acesso (ACL) do LUN de armazenamento configurada no lado da matriz.
n Se você quiser editar os WWNs existentes, desligue a máquina virtual.
vSphere Storage
VMware, Inc. Traduzido automaticamente 58
Procedimentos
1 Clique com o botão direito do mouse na máquina virtual no inventário e selecione Editar 
configurações (Edit Settings).
2 Clique em Opções de VM (VM Options) e expanda NPIV Fibre Channel (Fibre Channel 
NPIV).
3 Crie ou edite as atribuições do WWN selecionando uma das seguintes opções:
Opção Descrição
Desativar temporariamente o NPIV 
para esta máquina virtual
Desative, mas não remova as atribuições WWN existentes para a máquina 
virtual.
Deixar inalterado Mantenha as atribuições WWN existentes. A seção de atribuições WWN 
somente leitura exibe os valores de nó e porta de quaisquer atribuições 
WWN existentes.
Gerar novos WWNs Gere novos WWNs, substituindo quaisquer WWNs existentes. Os WWNs 
do HBA não são afetados. Especifique o número de WWNNs e WWPNs. É 
necessário um mínimo de dois WWPNs para oferecer suporte ao failover 
com NPIV. Normalmente, apenas um WWNN é criado para cada máquina 
virtual.
Remover atribuição WWN Remova os WWNs atribuídos à máquina virtual.A máquina virtual usa os 
WWNs do HBA para acessar o LUN de armazenamento.
 
4 Clique em OK(OK) para salvar as alterações.
Próximo passo
Registre os WWNs criados recentemente na malha.
vSphere Storage
VMware, Inc. Traduzido automaticamente 59
Configurando o Fibre Channel 
sobre Ethernet 6
Para acessar o armazenamento Fibre Channel, um host ESXi pode usar o protocolo Fibre Channel 
over Ethernet (FCoE).
Observação A partir do vSphere 7.0, o VMware não oferece mais suporte ao software FCoE em 
ambientes de produção.
O protocolo FCoE encapsula quadros Fibre Channel em quadros Ethernet. Como resultado, seu 
host não precisa de links Fibre Channel especiais para se conectar ao armazenamento Fibre 
Channel. O host pode usar Ethernet sem perdas de 10 Gbit para fornecer tráfego Fibre Channel.
Este capítulo inclui os seguintes tópicos:
n Adaptadores Fibre Channel over Ethernet
n Diretrizes de configuração para o FCoE de software
n Configurar a rede para o FCoE de software
n Adicionar Adaptadores FCoE de Software
Adaptadores Fibre Channel over Ethernet
Para usar o Fibre Channel over Ethernet (FCoE), configure os adaptadores apropriados no host.
Os adaptadores compatíveis com o VMware geralmente se enquadram em duas categorias: 
adaptadores FCoE de hardware e adaptadores FCoE de software que usam a pilha FCoE nativa 
em ESXi.
Para obter informações sobre adaptadores que podem ser usados com o VMware FCoE, 
consulte o VMware Guia de Compatibilidade 
Adaptadores de hardware FCoE
Essa categoria inclui adaptadores de rede convergentes (CNAs) especializados que contêm 
funcionalidades de rede e de canal de fibra na mesma placa.
Quando esse adaptador é instalado, o host detecta e pode usar ambos os componentes CNA. 
No vSphere Client, o componente de rede aparece como um adaptador de rede padrão (vmnic) 
e o componente Fibre Channel como um adaptador FCoE (vmhba). Você não precisa configurar 
o adaptador FCoE de hardware para usá-lo.
VMware, Inc. Traduzido automaticamente 60
Adaptadores FCoE de software
Observação A partir do vSphere 7.0, o VMware não é mais compatível com o software FCoE 
em ambientes de produção.
Um adaptador FCoE de software usa a pilha de protocolo FCoE nativo em ESXi para realizar 
parte do processamento de FCoE. Você deve usar o adaptador FCoE de software com uma NIC 
compatível.
O VMware oferece suporte a duas categorias de NICs com os adaptadores FCoE de software.
NICs com descarregamento parcial de FCoE
A extensão dos recursos de transferência pode depender do tipo de NIC. Geralmente, as 
NICs oferecem recursos de transferência de E / S e ponte de centro de dados (DCB).
NICs sem descarregamento de FCoE
Qualquer NIC que ofereça Data Center Bridging (DCB) e tenha uma velocidade mínima de 10 
Gbps. Os adaptadores de rede não são necessários para oferecer suporte a nenhum recurso 
de descarregamento de FCoE.
Ao contrário do adaptador de hardware FCoE, o adaptador de software deve ser ativado. Antes 
de ativar o adaptador, você deve configurar a rede corretamente.
Observação O número de adaptadores FCoE de software que você ativa corresponde ao 
número de portas físicas da NIC. O ESXi suporta um máximo de quatro adaptadores FCoE de 
software em um host.
Diretrizes de configuração para o FCoE de software
Ao configurar seu ambiente de rede para funcionar com ESXi software FCoE, siga as diretrizes e 
práticas recomendadas que VMware oferece.
Diretrizes do Network Switch
Observação A partir do vSphere 7.0, o VMware não oferece mais suporte ao software FCoE em 
ambientes de produção.
Siga estas diretrizes ao configurar um switch de rede para o ambiente FCoE de software:
n Nas portas que se comunicam com o host ESXi, desative o STP (Protocolo de Árvore de 
Expansão). Ter o STP ativado pode atrasar a resposta do FCoE Initialization Protocol (FIP) no 
switch e causar uma condição de todos os caminhos desativados (APD).
O FIP é um protocolo que o FCoE usa para descobrir e inicializar entidades de FCoE na 
Ethernet.
n Ative o Controle de fluxo baseado em prioridade (PFC) e defina-o como AUTO.
n Certifique-se de ter uma versão de firmware compatível no switch FCoE.
vSphere Storage
VMware, Inc. Traduzido automaticamente 61
n Defina a MTU no vSwitch como 2500 ou mais.
Diretrizes e práticas recomendadas do adaptador de rede
Se você planeja permitir que os adaptadores FCoE de software funcionem com adaptadores de 
rede, considerações específicas serão aplicadas.
n Independentemente de você usar uma NIC parcialmente descarregada ou uma NIC não 
compatível com FCoE, certifique-se de que o microcode mais recente esteja instalado no 
adaptador de rede.
n Se você usar o NIC não compatível com FCoE, certifique-se de que ele tenha o recurso DCB 
para ativação de FCoE de software.
n Se o adaptador de rede tiver várias portas, ao configurar a rede, adicione cada porta a 
um vSwitch separado. Essa prática ajuda a evitar uma condição de APD quando ocorre um 
evento disruptivo, como uma alteração de MTU.
n Não mova uma porta do adaptador de rede de um vSwitch para outro quando o tráfego 
FCoE estiver ativo. Se você fizer essa alteração, reinicie o host depois.
n Se você alterou o vSwitch para uma porta do adaptador de rede e causou uma falha, mover 
a porta de volta para o vSwitch original resolverá o problema.
Configurar a rede para o FCoE de software
Antes de ativar os adaptadores FCoE de software no host ESXi, crie adaptadores de rede 
VMkernel para todas as NICs FCoE físicas instaladas no host.
Observação A partir do vSphere 7.0, o VMware não oferece mais suporte ao software FCoE em 
ambientes de produção.
Este procedimento explica como criar um único adaptador de rede VMkernel conectado a um 
único adaptador de rede físico FCoE por meio de um switch vSphere Standard. Se o seu host 
tiver vários adaptadores de rede ou várias portas no adaptador, conecte cada NIC do FCoE a 
um switch padrão separado. Para obter mais informações, consulte a documentação do Rede do 
vSphere .
Procedimentos
1 No vSphere Client, navegue até o host ESXi.
2 Clique em Ações (Actions) > Adicionar Rede (Add Networking).
3 Selecione Adaptador de Rede VMkernel (VMkernel Network Adapter) e clique em Avançar 
(Next).
4 Selecione Novo switch padrão (New standard switch) para criar um switch vSphere 
Standard.
vSphere Storage
VMware, Inc. Traduzido automaticamente 62
5 Para habilitar quadros Jumbo, altere MTU (Bytes) (MTU (Bytes)) para o valor de 2500 ou 
mais e clique em Avançar (Next).
6 Clique no ícone Adicionar adaptadores (Add adapters) e selecione o adaptador de rede 
(vmnic #) compatível com FCoE.
Certifique-se de atribuir o adaptador a adaptadores ativos.
7 Insira um rótulo de rede.
Rótulo de rede é um nome amigável que identifica o adaptador VMkernel que você está 
criando, por exemplo, FCoE.
8 Especifique uma ID de VLAN e clique em Avançar (Next).
O tráfego de FCoE requer uma rede isolada. Certifique-se de que a ID da VLAN inserida 
seja diferente daquela usada para redes normais no seu host. Para obter mais informações, 
consulte a documentação do Rede do vSphere .
9 Depois de concluir a configuração, revise as informações e clique em Concluir (Finish).
Resultados
Você criou o adaptador VMkernel virtual para o adaptador de rede FCoE físico instalado no host.
Observação Para evitar interrupções de tráfego de FCoE, não remova o adaptador de rede 
FCoE (vmnic #) do switch vSphere Standard depois de configurar a rede FCoE.
Adicionar Adaptadores FCoE de Software
Você deve ativar os adaptadores FCoE de software para que seu host ESXi possa usá-los para 
acessar o armazenamento Fibre Channel.
Observação A partir do vSphere 7.0, o VMware não oferece mais suporte ao software FCoE em 
ambientes de produção.
O número de adaptadores FCoE de software que você pode ativar corresponde ao número de 
portas físicas da NIC FCoE no host. ESXi é compatível com o máximo de quatro adaptadores 
FCoE de software em um host.
Pré-requisitos
Configure a rede parao adaptador FCoE do software.
Procedimentos
1 No vSphere Client, navegue até o host ESXi.
2 Clique na guia Configurar (Configure).
3 Em Armazenamento (Storage), clique em Adaptadores de Armazenamento (Storage 
Adapters) e clique no ícone Adicionar Adaptador de Software (Add Software Adapter).
vSphere Storage
VMware, Inc. Traduzido automaticamente 63
4 Selecione Adaptador FCoE de Software (Software FCoE Adapter).
5 Na caixa de diálogo Adicionar Adaptador FCoE de Software, selecione um vmnic apropriado 
na lista suspensa de adaptadores de rede físicos.
Apenas os adaptadores que ainda não são usados para o tráfego FCoE são listados.
6 Clique em Okey(OK).
O adaptador FCoE do software aparece na lista de adaptadores de armazenamento.
Resultados
Depois de ativar o adaptador FCoE do software, você poderá visualizar suas propriedades. Se 
você não usar o adaptador, poderá removê-lo da lista de adaptadores.
vSphere Storage
VMware, Inc. Traduzido automaticamente 64
Inicializando ESXi pela SAN Fibre 
Channel 7
Quando você configura o host para inicializar a partir de uma SAN, a imagem de inicialização do 
host é armazenada em um ou mais LUNs no sistema de armazenamento da SAN. Quando o host 
é iniciado, ele é inicializado a partir do LUN na SAN em vez de seu disco local.
O ESXi oferece suporte à inicialização por meio de um adaptador de barramento de host Fibre 
Channel (HBA) ou um adaptador de rede convergente (CNA) Fibre Channel over Ethernet (FCoE).
Este capítulo inclui os seguintes tópicos:
n Benefícios da inicialização a partir de SAN
n Requisitos e considerações ao inicializar do SAN Fibre Channel 
n Preparando-se para a inicialização a partir da SAN
n Configurar o Emulex HBA para inicializar a partir da SAN
n Configurar o QLogic HBA para inicializar a partir da SAN
Benefícios da inicialização a partir de SAN
A inicialização a partir da SAN pode oferecer vários benefícios ao seu ambiente ESXi. No entanto, 
em certos casos, a inicialização via SAN não é compatível com seus hosts. Antes de configurar o 
sistema para inicialização via SAN, decida se é apropriado para o seu ambiente.
Cuidado Quando você usa a inicialização da SAN com vários ESXi hosts, cada host deve ter 
seu próprio LUN de inicialização. Se você configurar vários hosts para compartilhar o LUN de 
inicialização, poderá ocorrer ESXi corrupção de imagem.
Se você usar a inicialização via SAN, os benefícios para o seu ambiente incluirão o seguinte:
n Servidores mais baratos. Os servidores podem ser mais densos e ficar mais frios sem 
armazenamento interno.
n Substituição mais fácil do servidor. Você pode substituir servidores e fazer com que o novo 
servidor aponte para o local de inicialização antigo.
n Menos espaço desperdiçado. Servidores sem discos locais geralmente ocupam menos 
espaço.
VMware, Inc. Traduzido automaticamente 65
n Processos de backup mais fáceis. Você pode fazer backup das imagens de inicialização do 
sistema na SAN como parte dos procedimentos gerais de backup da SAN. Além disso, você 
pode usar recursos avançados de matriz, como snapshots na imagem de inicialização.
n Gerenciamento aprimorado. Criar e gerenciar a imagem do sistema operacional é mais fácil e 
mais eficiente.
n Melhor confiabilidade. Você pode acessar o disco de inicialização por meio de vários 
caminhos, o que protege o disco de ser um ponto único de falha.
Requisitos e considerações ao inicializar do SAN Fibre 
Channel
Sua configuração de inicialização ESXi deve atender a requisitos específicos.
Tabela 7-1. Inicialização a partir dos requisitos da SAN
Requisito Descrição
ESXi requisitos do 
sistema
Siga as recomendações do fornecedor para a inicialização do servidor a partir de uma SAN.
Requisitos do 
adaptador
Configure o adaptador para que ele possa acessar o LUN de inicialização. Consulte a 
documentação do fornecedor.
Controle de acesso n Cada host deve ter acesso apenas ao seu próprio LUN de inicialização, não aos LUNs de 
inicialização de outros hosts. Use o software do sistema de armazenamento para garantir 
que o host acesse apenas os LUNs designados.
n Vários servidores podem compartilhar uma partição de diagnóstico. Você pode usar o 
mascaramento de LUN específico da matriz para obter essa configuração.
Suporte para vários 
caminhos
Não há suporte para vários caminhos para um LUN de inicialização em matrizes ativo-passivas 
porque o BIOS não oferece suporte a vários caminhos e não é possível ativar um caminho em 
espera.
Considerações de 
SAN
Se a matriz não for certificada para uma topologia de conexão direta, as conexões SAN deverão 
ser feitas por meio de uma topologia comutada. Se a matriz for certificada para a topologia 
de conexão direta, as conexões SAN poderão ser feitas diretamente à matriz. A inicialização a 
partir da SAN é compatível com topologia comutada e topologia de conexão direta.
Considerações 
específicas por 
hardware
Se você estiver executando um IBM eServer BladeCenter e usar a inicialização via SAN, deverá 
desativar as unidades IDE nos blades.
Preparando-se para a inicialização a partir da SAN
Ao preparar seu host ESXi para inicializar a partir de uma SAN, você executa várias tarefas.
vSphere Storage
VMware, Inc. Traduzido automaticamente 66
Esta seção descreve o processo de ativação de inicialização a partir da SAN genérico nos 
servidores montados em rack. Para obter informações sobre como ativar a opção de inicialização 
a partir da SAN nos servidores blade FCoE do Cisco Unified Computing System, consulte a 
documentação da Cisco.
Procedimentos
1 Configurar componentes de SAN e sistema de armazenamento
Antes de configurar seu host ESXi para inicializar a partir de um LUN de SAN, configure os 
componentes de SAN e um sistema de armazenamento.
2 Configurar o adaptador de armazenamento para inicializar a partir da SAN
Ao configurar seu host para inicializar a partir da SAN, você habilita o adaptador de 
inicialização no BIOS do host. Em seguida, configure o adaptador de inicialização para iniciar 
uma conexão primitiva com o LUN de inicialização de destino.
3 Configurar o sistema para inicializar a partir da mídia de instalação
Ao configurar seu host para inicializar a partir da SAN, primeiro inicialize o host a partir 
da mídia de instalação VMware. Para inicializar a partir da mídia de instalação, altere a 
sequência de inicialização do sistema na configuração do BIOS.
Configurar componentes de SAN e sistema de armazenamento
Antes de configurar seu host ESXi para inicializar a partir de um LUN de SAN, configure os 
componentes de SAN e um sistema de armazenamento.
Como a configuração dos componentes da SAN é específica do fornecedor, consulte a 
documentação do produto de cada item.
Procedimentos
1 Conecte o cabo de rede, consultando qualquer guia de cabeamento aplicável à sua 
configuração.
Verifique a fiação do switch, se houver alguma.
2 Configure a matriz de armazenamento.
a Na matriz de armazenamento da SAN, torne o host ESXi visível para a SAN. Esse 
processo é muitas vezes chamado de criação de um objeto.
b Na matriz de armazenamento SAN, configure o host para ter os WWPNs dos 
adaptadores do host como nomes de porta ou nomes de nó.
c Crie LUNs.
d Atribuir LUNs.
vSphere Storage
VMware, Inc. Traduzido automaticamente 67
e Registre os endereços IP dos switches e matrizes de armazenamento.
f Grave o WWPN para cada SP.
Cuidado Se você usar um processo de instalação com script para instalar ESXi na 
inicialização do modo SAN, execute etapas especiais para evitar a perda de dados não 
intencional.
Configurar o adaptador de armazenamento para inicializar a partir 
da SAN
Ao configurar seu host para inicializar a partir da SAN, você habilita o adaptador de inicialização 
no BIOS do host. Em seguida, configure o adaptador de inicialização para iniciar uma conexão 
primitiva com o LUN de inicialização de destino.
Pré-requisitos
Determine o WWPN para o adaptador de armazenamento.
Procedimentos
u Configure o adaptador de armazenamentopara inicializar a partir da SAN.
Como a configuração de adaptadores de inicialização é específica do fornecedor, consulte a 
documentação do fornecedor.
Configurar o sistema para inicializar a partir da mídia de instalação
Ao configurar seu host para inicializar a partir da SAN, primeiro inicialize o host a partir da mídia 
de instalação VMware. Para inicializar a partir da mídia de instalação, altere a sequência de 
inicialização do sistema na configuração do BIOS.
Como a alteração da sequência de inicialização no BIOS é específica do fornecedor, consulte 
a documentação do fornecedor para obter instruções. O procedimento a seguir explica como 
alterar a sequência de inicialização em um host IBM.
Procedimentos
1 Ligue o sistema e insira o BIOS Configuration / Setup Utility do sistema.
2 Selecione Opções de inicialização (Startup Options) e pressione Enter.
3 Selecione Opções de sequência de inicialização (Startup Sequence Options) e pressione 
Enter.
4 Altere o Primeiro dispositivo de inicialização (First Startup Device) para [CD-ROM] ([CD-
ROM]).
Resultados
Agora você pode instalar o ESXi.
vSphere Storage
VMware, Inc. Traduzido automaticamente 68
Configurar o Emulex HBA para inicializar a partir da SAN
A configuração do BIOS do Emulex HBA para inicializar a partir da SAN inclui a ativação do 
prompt BootBIOS e a ativação do BIOS.
Procedimentos
1 Ativar o prompt do BootBIOS
Ao configurar o BIOS do Emulex HBA para inicializar ESXi da SAN, você precisa habilitar o 
prompt BootBIOS.
2 Ativar o BIOS
Ao configurar o BIOS do Emulex HBA para inicializar ESXi da SAN, você deve habilitar o 
BIOS.
Ativar o prompt do BootBIOS
Ao configurar o BIOS do Emulex HBA para inicializar ESXi da SAN, você precisa habilitar o 
prompt BootBIOS.
Procedimentos
1 Execute lputil .
2 Selecione 3. Manutenção de Firmware .
3 Selecione um adaptador.
4 Selecione 6. Manutenção do BIOS de inicialização .
5 Selecione 1. Ativar BIOS de inicialização .
Ativar o BIOS
Ao configurar o BIOS do Emulex HBA para inicializar ESXi da SAN, você deve habilitar o BIOS.
Procedimentos
1 Reinicialize o host.
2 Para configurar os parâmetros do adaptador, pressione ALT + E no prompt do Emulex e siga 
estas etapas.
a Selecione um adaptador (com suporte para BIOS).
b Selecione 2. Configure os parâmetros deste adaptador.
c Selecione 1. Ativar ou desativar BIOS.
d Selecione 1 (1) para ativar o BIOS.
e Selecione x (x) para sair e Esc (Esc) para retornar ao menu anterior.
vSphere Storage
VMware, Inc. Traduzido automaticamente 69
3 Para configurar o dispositivo de inicialização, siga estas etapas no menu principal do Emulex.
a Selecione o mesmo adaptador.
b Selecione 1. Configurar dispositivos de inicialização.
c Selecione a localização para a Entrada de inicialização.
d Digite o dispositivo de inicialização de dois dígitos.
e Insira o LUN inicial de dois dígitos (HEX) (por exemplo, 08 ).
f Selecione o LUN de inicialização.
g Selecione 1. WWPN. (Inicialize este dispositivo usando WWPN, não DID).
h Selecione x (x) para sair e Y (Y) para reiniciar.
4 Inicialize o BIOS do sistema e mova o Emulex primeiro na sequência do controlador de 
inicialização.
5 Reinicialize e instale o em um SAN LUN.
Configurar o QLogic HBA para inicializar a partir da SAN
Este procedimento de amostra explica como configurar o QLogic HBA para inicializar ESXi da 
SAN. O procedimento envolve ativar o QLogic HBA BIOS, habilitar a inicialização selecionável e 
selecionar o LUN de inicialização.
Procedimentos
1 Durante a inicialização do servidor, pressione Ctrl + Q (Ctrl+Q) para inserir o utilitário de 
configuração do Fast! UTIL.
2 Execute a ação apropriada dependendo do número de HBAs.
Opção Descrição
Um HBA Se você tiver apenas um HBA, a página Opções do Fast! UTIL será exibida. 
Pule para Etapa 3 .
Vários HBAs Se você tiver mais de um HBA, selecione o HBA manualmente.
a Na página Selecionar Adaptador do Host, use as teclas de seta para 
posicionar o ponteiro no HBA apropriado.
b Pressione Enter(Enter).
 
3 Na página Opções do Fast! UTIL, selecione Configurações (Configuration Settings) e 
pressione Inserir (Enter).
4 Na página Configurações de Configuração, selecione Configurações do Adaptador (Adapter 
Settings) e pressione Inserir (Enter).
vSphere Storage
VMware, Inc. Traduzido automaticamente 70
5 Defina o BIOS para procurar dispositivos SCSI.
a Na página Configurações do Adaptador Host, selecione BIOS do Adaptador Host (Host 
Adapter BIOS).
b Pressione Enter (Enter) para alternar o valor para Ativado (Enabled).
c Pressione Esc (Esc) para sair.
6 Habilite a inicialização selecionável.
a Selecione Configurações de inicialização selecionáveis (Selectable Boot Settings) e 
pressione Insira (Enter).
b Na página Configurações de Inicialização Selecionável, selecione Inicialização 
Selecionável (Selectable Boot).
c Pressione Enter (Enter) para alternar o valor para Ativado (Enabled).
7 Selecione a entrada Nome da porta de inicialização na lista de processadores de 
armazenamento (SPs) e pressione Inserir (Enter).
A página Selecionar Dispositivo Fibre Channel é aberta.
8 Selecione o SP específico e pressione Enter (Enter).
Se você estiver usando uma matriz de armazenamento ativo-passivo, o SP selecionado 
deverá estar no caminho (ativo) preferido para o LUN de inicialização. Se você não tiver 
certeza de qual SP está no caminho ativo, use o software de gerenciamento de matriz de 
armazenamento para descobrir. Os IDs de destino são criados pelo BIOS e podem mudar a 
cada reinicialização.
9 Execute a ação apropriada dependendo do número de LUNs anexados ao SP.
Opção Descrição
Um LUN O LUN é selecionado como o LUN de inicialização. Você não precisa entrar 
na página Selecionar LUN.
Vários LUNs A página Selecionar LUN é aberta. Use o ponteiro para selecionar o LUN de 
inicialização e pressione Enter (Enter).
 
10 Se qualquer processador de armazenamento restante aparecer na lista, pressione C (C) para 
limpar os dados.
11 Pressione Esc (Esc) duas vezes para sair e pressione Insira (Enter) para salvar a 
configuração.
vSphere Storage
VMware, Inc. Traduzido automaticamente 71
Inicializando ESXi com o Software 
FCoE 8
O ESXi é compatível com a inicialização de adaptadores de rede compatíveis com FCoE.
Somente NICs com descarregamento de FCoE parcial suportam os recursos de inicialização com 
o software FCoE. Se você usar as NICs sem descarregamento de FCoE, a inicialização de FCoE 
do software não será suportada.
Quando você instala e inicializa ESXi de um LUN FCoE, o host pode usar um adaptador FCoE 
VMware de software e um adaptador de rede com recursos de FCoE. O host não requer um 
FCoE HBA dedicado.
Você executa a maioria das configurações por meio do option ROM do seu adaptador de rede. 
Os adaptadores de rede devem oferecer suporte a um dos seguintes formatos, que comunicam 
parâmetros sobre um dispositivo de inicialização FCoE para o VMkernel.
n FCoE Boot Firmware Table (FBFT). FBFT é propriedade da Intel.
n Tabela de parâmetros de inicialização do FCoE (FBPT). O FBPT é definido por VMware para 
fornecedores de terceiros implementarem uma inicialização de FCoE de software.
Os parâmetros de configuração são definidos no option ROM do seu adaptador. Durante 
uma instalação ESXi ou uma inicialização subsequente, esses parâmetros são exportados para 
a memória do sistema no formato FBFT ou FBPT. O VMkernel pode ler as definições de 
configuração e usá-las para acessar o LUN de inicialização.
Este capítulo inclui os seguintes tópicos:
n Requisitos e considerações para inicialização FCoE de software
n Configurar a inicialização FCoE do software
n Solucionando problemas de inicialização do a partir do software FCoE para um host ESXi
Requisitos e considerações para inicialização FCoE de 
software
Quando você inicializa o host ESXi da SAN usando o software FCoE, certos requisitos e 
considerações se aplicam.
VMware, Inc. Traduzido automaticamente 72
Requisitos
n Use o ESXi de uma versãocompatível.
n O adaptador de rede deve ter os seguintes recursos:
n Ser capaz de fazer FCoE.
n Suporte para ESXi pilha FCoE aberta.
n Contém firmware de inicialização FCoE que pode exportar informações de inicialização no 
formato FBFT ou no formato FBPT.
Considerações
n Não é possível alterar a configuração de inicialização do software FCoE no ESXi.
n O despejo de memória não tem suporte em nenhum LUN de FCoE de software, incluindo o 
LUN de inicialização.
n Não há suporte para múltiplos caminhos na pré-inicialização.
n O LUN de inicialização não pode ser compartilhado com outros hosts, mesmo no 
armazenamento compartilhado. Certifique-se de que o host tenha acesso a todo o LUN de 
inicialização.
Configurar a inicialização FCoE do software
Seu host ESXi pode ser inicializado a partir de um LUN de FCoE usando o adaptador FCoE de 
software e um adaptador de rede.
Ao configurar seu host para uma inicialização de FCoE por software, você executa várias tarefas.
Pré-requisitos
O adaptador de rede tem os seguintes recursos:
n Suporte para descarregamentos de FCoE parciais (software FCoE).
n Conter uma tabela de Firmware de inicialização FCoE (FBFT) ou uma tabela de parâmetros 
de inicialização FCoE (FBPT).
Para obter informações sobre os adaptadores de rede que oferecem suporte à inicialização de 
FCoE por software, consulte VMware Guia de Compatibilidade .
Procedimentos
1 Configurar os parâmetros de inicialização do FCoE do software
Para oferecer suporte a um processo de inicialização de FCoE por software, um adaptador 
de rede no host deve ter um firmware de inicialização de FCoE especialmente configurado. 
Ao configurar o firmware, habilite o adaptador para a inicialização do FCoE do software e 
especifique os parâmetros do LUN de inicialização.
vSphere Storage
VMware, Inc. Traduzido automaticamente 73
2 Instalar e inicializar ESXi a partir do software FCoE LUN
Quando você configura seu sistema para inicializar a partir de um LUN FCoE de software, 
instala a imagem ESXi no LUN de destino. Em seguida, você pode inicializar seu host desse 
LUN.
Configurar os parâmetros de inicialização do FCoE do software
Para oferecer suporte a um processo de inicialização de FCoE por software, um adaptador 
de rede no host deve ter um firmware de inicialização de FCoE especialmente configurado. 
Ao configurar o firmware, habilite o adaptador para a inicialização do FCoE do software e 
especifique os parâmetros do LUN de inicialização.
Procedimentos
u Na opção ROM do adaptador de rede, especifique os parâmetros de inicialização do FCoE do 
software.
Esses parâmetros incluem um destino de inicialização, um LUN de inicialização, uma ID de 
VLAN e assim por diante.
Como a configuração do adaptador de rede é específica do fornecedor, consulte a 
documentação do fornecedor para obter instruções.
Instalar e inicializar ESXi a partir do software FCoE LUN
Quando você configura seu sistema para inicializar a partir de um LUN FCoE de software, instala 
a imagem ESXi no LUN de destino. Em seguida, você pode inicializar seu host desse LUN.
Pré-requisitos
n Configure o option ROM do adaptador de rede para que ele aponte para um LUN de 
inicialização de destino. Certifique-se de ter informações sobre o LUN inicializável.
n Altere a ordem de inicialização no BIOS do sistema para a seguinte sequência:
a O adaptador de rede que você usa para a inicialização do FCoE do software.
b A ESXi mídia de instalação.
Consulte a documentação do fornecedor do seu sistema.
Procedimentos
1 Inicie uma instalação interativa a partir da mídia de instalação ESXi.
O instalador ESXi verifica se a inicialização do FCoE está habilitada no BIOS e, se necessário, 
cria um switch virtual padrão para o adaptador de rede compatível com FCoE. O nome do 
vSwitch é VMware _FCoE_vSwitch. Em seguida, o instalador usa parâmetros de inicialização 
de FCoE pré-configurados para descobrir e exibir todos os LUNs de FCoE disponíveis.
vSphere Storage
VMware, Inc. Traduzido automaticamente 74
2 Na página Selecionar um Disco , selecione o software FCoE LUN que você especificou na 
configuração do parâmetro de inicialização.
Se o LUN de inicialização não aparecer neste menu, certifique-se de ter configurado os 
parâmetros de inicialização corretamente no option ROM do adaptador de rede.
3 Conclua a instalação seguindo os prompts.
4 Reinicialize o host.
5 Altere a ordem de inicialização no BIOS do sistema para que o LUN de inicialização do FCoE 
seja o primeiro dispositivo inicializável.
ESXi continua inicializando a partir do software FCoE LUN até que esteja pronto para ser 
usado.
Próximo passo
Se necessário, você pode renomear e modificar o VMware _FCoE_vSwitch que o instalador criou 
automaticamente. Certifique-se de que o modo Cisco Discovery Protocol (CDP) esteja definido 
como Escuta ou Ambos.
Solucionando problemas de inicialização do a partir do 
software FCoE para um host ESXi
Se a instalação ou a inicialização de ESXi de um LUN de FCoE de software falhar, você poderá 
usar vários métodos de solução de problemas.
Problema
Quando você instala ou inicializa ESXi do armazenamento FCoE, a instalação ou o processo de 
inicialização falha. A configuração de FCoE que você usa inclui um adaptador FCoE de software 
VMware e um adaptador de rede com recursos de descarregamento de FCoE parciais.
Solução
n Certifique-se de ter configurado os parâmetros de inicialização corretamente na opção ROM 
do adaptador de rede FCoE.
n Durante a instalação, monitore o BIOS do adaptador de rede FCoE quanto a erros.
n Se possível, verifique se há erros no log do VMkernel.
n Use o comando esxcli para verificar se o LUN de inicialização está presente.
esxcli conn_options hardware bootdevice list
vSphere Storage
VMware, Inc. Traduzido automaticamente 75
Boas práticas para 
armazenamento Fibre Channel 9
Ao usar ESXi com SAN Fibre Channel, siga as recomendações para evitar problemas de 
desempenho.
O vSphere Client oferece amplos recursos para a coleta de informações de desempenho. As 
informações são exibidas graficamente e atualizadas com frequência.
Você também pode usar os utilitários de linha de comando resxtop ou esxtop. Os utilitários 
fornecem uma visão detalhada de como ESXi usa recursos. Para obter mais informações, 
consulte a documentação do Gerenciamento de Recursos do vSphere .
Verifique com seu representante de armazenamento se o seu sistema de armazenamento é 
compatível com os recursos de aceleração de hardware Storage API - Array Integration. Em caso 
afirmativo, consulte a documentação do fornecedor para habilitar o suporte à aceleração de 
hardware no lado do sistema de armazenamento. Para obter mais informações, consulte Capítulo 
24 Aceleração de hardware de armazenamento.
Este capítulo inclui os seguintes tópicos:
n Prevenção de problemas de SAN Fibre Channel
n Desativar o registro automático do host ESXi
n Otimizando o desempenho do armazenamento SAN Fibre Channel
Prevenção de problemas de SAN Fibre Channel
Ao usar ESXi com uma SAN Fibre Channel, siga as diretrizes específicas para evitar problemas 
com a SAN.
Para evitar problemas com a configuração da SAN, observe estas dicas:
n Coloque apenas um repositório de dados VMFS em cada LUN.
n Não altere a política de caminho que o sistema define para você, a menos que você entenda 
as implicações de fazer essa alteração.
n Documente tudo. Inclua informações sobre zoneamento, controle de acesso, 
armazenamento, switch, configuração de servidor e FC HBA, versões de software e firmware 
e plano de cabos de armazenamento.
VMware, Inc. Traduzido automaticamente 76
n Plano para falha:
n Faça várias cópias dos seus mapas de topologia. Para cada elemento, considere o que 
acontece com a SAN se o elemento falhar.
n Verifique diferentes links, switches, HBAs e outros elementos para garantir que você não 
tenha perdido um ponto de falha crítico no seu projeto.
n Certifique-se de que os HBAs Fibre Channel estejam instalados nos slots corretos no host,com base na velocidade do slot e do barramento. Equilibre a carga do barramento PCI entre 
os barramentos disponíveis no servidor.
n Familiarize-se com os vários pontos de monitoramento em sua rede de armazenamento, em 
todos os pontos de visibilidade, incluindo gráficos de desempenho do host, estatísticas de 
switch FC e estatísticas de desempenho de armazenamento.
n Seja cauteloso ao alterar IDs dos LUNs que têm repositórios de dados VMFS sendo usados 
pelo host ESXi. Se você alterar a ID, o datastore se tornará inativo e suas máquinas virtuais 
falharão. Ressignifique o repositório de dados para torná-lo ativo novamente. Consulte 
Gerenciando repositórios de dados VMFS duplicados.
Depois de alterar o ID do LUN, verifique novamente o armazenamento para redefinir o ID no 
seu host. Para obter informações sobre como usar a nova verificação, consulte Operações de 
nova verificação de armazenamento.
Desativar o registro automático do host ESXi
Determinadas matrizes de armazenamento exigem que ESXi hosts se registrem nas matrizes. 
ESXi realiza o registro automático do host enviando o nome e o endereço IP do host para 
a matriz. Se você preferir realizar o registro manual usando o software de gerenciamento de 
armazenamento, desative o recurso de registro automático ESXi.
Procedimentos
1 No vSphere Client, navegue até o host ESXi.
2 Clique na guia Configurar (Configure).
3 Em Sistema (System), clique em Configurações avançadas do sistema (Advanced System 
Settings).
4 Em Configurações avançadas do sistema, selecione o parâmetro Disk.EnableNaviReg 
(Disk.EnableNaviReg) e clique no ícone Editar (Edit).
5 Altere o valor para 0.
Resultados
Essa operação desativa o registro de host automático que está ativado por padrão.
vSphere Storage
VMware, Inc. Traduzido automaticamente 77
Otimizando o desempenho do armazenamento SAN Fibre 
Channel
Vários fatores contribuem para a otimização de um ambiente típico de SAN.
Se o ambiente estiver configurado corretamente, os componentes de malha SAN (especialmente 
os switches SAN) serão apenas contribuintes secundários devido às suas latências baixas em 
relação aos servidores e matrizes de armazenamento. Certifique-se de que os caminhos através 
da estrutura do comutador não estejam saturados, ou seja, que a estrutura do comutador esteja 
sendo executada com a taxa de transferência mais alta.
Desempenho da matriz de armazenamento
O desempenho da matriz de armazenamento é um dos principais fatores que contribuem para o 
desempenho de todo o ambiente SAN.
Se você encontrar problemas com o desempenho da matriz de armazenamento, consulte a 
documentação do fornecedor da matriz de armazenamento para obter quaisquer informações 
relevantes.
Para melhorar o desempenho da matriz no ambiente do vSphere, siga estas diretrizes gerais:
n Ao atribuir LUNs, lembre-se de que vários hosts podem acessar o LUN e que várias máquinas 
virtuais podem ser executadas em cada host. Um LUN usado por um host pode atender a E / 
S de muitos aplicativos diferentes em execução em diferentes sistemas operacionais. Devido 
a essa carga de trabalho diversificada, o grupo RAID que contém os ESXi LUNs normalmente 
não inclui LUNs usados por outros servidores que não estão em execução ESXi.
n Certifique-se de que o cache de leitura / gravação esteja disponível.
n As matrizes de armazenamento SAN exigem um novo design e ajuste contínuos para garantir 
que a E / S seja balanceada em relação à carga em todos os caminhos da matriz de 
armazenamento. Para atender a esse requisito, distribua os caminhos para os LUNs entre 
todos os SPs para fornecer um balanceamento de carga ideal. Fechar monitoramento indica 
quando é necessário rebalancear a distribuição LUN.
O ajuste de matrizes de armazenamento estaticamente balanceadas é uma questão de 
monitorar as estatísticas de desempenho específicas, como operações de E / S por segundo, 
blocos por segundo e tempo de resposta. Também é importante distribuir a carga de 
trabalho do LUN para distribuí-la por todos os SPs.
Observação O balanceamento de carga dinâmico não tem suporte no momento com ESXi.
Desempenho do servidor com Fibre Channel
Você deve considerar vários fatores para garantir o desempenho ideal do servidor.
vSphere Storage
VMware, Inc. Traduzido automaticamente 78
Cada aplicativo de servidor deve ter acesso ao armazenamento designado com as seguintes 
condições:
n Alta taxa de E / S (número de operações de E / S por segundo)
n Alta taxa de transferência (megabytes por segundo)
n Latência mínima (tempos de resposta)
Como cada aplicativo tem requisitos diferentes, você pode atender a essas metas selecionando 
um grupo de RAID apropriado na matriz de armazenamento.
Para alcançar as metas de desempenho, siga estas diretrizes:
n Coloque cada LUN em um grupo de RAID que forneça os níveis de desempenho necessários. 
Monitore as atividades e o uso de recursos de outros LUNs no grupo RAID atribuído. Um 
grupo de RAID de alto desempenho que tem muitos aplicativos fazendo E / S pode não 
atender às metas de desempenho exigidas por um aplicativo em execução no host ESXi.
n Certifique-se de que cada host tenha HBAs suficientes para aumentar a taxa de transferência 
para os aplicativos no host durante o período de pico. A propagação de E / S em vários 
HBAs fornece taxa de transferência mais rápida e menos latência para cada aplicativo.
n Para fornecer redundância para uma possível falha de HBA, certifique-se de que o host esteja 
conectado a uma malha redundante dupla.
n Ao alocar LUNs ou grupos RAID para sistemas ESXi, lembre-se de que vários sistemas 
operacionais usam e compartilham esse recurso. O desempenho do LUN exigido pelo host 
ESXi pode ser muito maior do que quando você usa máquinas físicas regulares. Por exemplo, 
se você espera executar quatro aplicativos intensivos de E / S, aloque quatro vezes a 
capacidade de desempenho para os LUNs ESXi.
n Quando você usa vários ESXi sistemas no com vCenter Server, os requisitos de desempenho 
para o subsistema de armazenamento aumentam correspondentemente.
n O número de E / Ss pendentes necessárias pelos aplicativos em execução no sistema ESXi 
deve corresponder ao número de E / Ss que o HBA e a matriz de armazenamento podem 
suportar.
vSphere Storage
VMware, Inc. Traduzido automaticamente 79
Usando o ESXi com o iSCSI SAN 10
ESXi pode se conectar ao armazenamento SAN externo usando o protocolo Internet SCSI (iSCSI). 
Além do iSCSI tradicional, o ESXi também é compatível com Extensões iSCSI para RDMA (iSER).
Quando o protocolo iSER está habilitado, o host pode usar a mesma estrutura iSCSI, mas 
substitui o transporte TCP / IP pelo transporte RDMA.
Este capítulo inclui os seguintes tópicos:
n Sobre iSCSI SAN
n Caminhos múltiplos iSCSI
n Nós e portas na SAN iSCSI
n convenções de nomenclatura iSCSI
n Iniciadores iSCSI
n Usando o protocolo iSER com ESXi
n Estabelecendo conexões iSCSI
n Tipos de sistema de armazenamento iSCSI
n Descoberta, autenticação e controle de acesso 
n Como as máquinas virtuais acessam dados em uma SAN iSCSI
n Correção de erros
Sobre iSCSI SAN
As SANs iSCSI usam conexões Ethernet entre hosts e subsistemas de armazenamento de alto 
desempenho.
No lado do host, os componentes SAN iSCSI incluem adaptadores de barramento de host iSCSI 
(HBAs) ou placas de interface de rede (NICs). A rede iSCSI também inclui switches e roteadores 
que transportam o tráfego de armazenamento, cabos, processadores de armazenamento (SPs) e 
sistemas de disco de armazenamento.
VMware, Inc. Traduzido automaticamente 80
iSCSI Array
VMFS VMFS
LAN LAN
iSCSI 
HBA
Ethernet
NIC
ESXi Host
Software
Adapter
vmdk vmdk
A SAN iSCSI usa uma arquitetura cliente-servidor.
O cliente, chamado iniciador iSCSI, opera no seu host ESXi. Ele inicia sessões iSCSI emitindo 
comandos SCSI e transmitindo-os, encapsulados no protocolo iSCSI, para um servidor iSCSI. 
O servidor é conhecido como um destino iSCSI. Normalmente, o destino iSCSI representa um 
sistema dearmazenamento físico na rede.
O destino também pode ser uma SAN iSCSI virtual, por exemplo, um emulador de destino iSCSI 
em execução em uma máquina virtual. O destino iSCSI responde aos comandos do iniciador 
transmitindo os dados iSCSI necessários.
Caminhos múltiplos iSCSI
Ao transferir dados entre o servidor host e o armazenamento, a SAN usa uma técnica conhecida 
como caminhos múltiplos. Com caminhos múltiplos, seu host ESXi pode ter mais de um caminho 
físico para um LUN em um sistema de armazenamento.
Geralmente, um único caminho de um host para um LUN consiste em um adaptador iSCSI ou 
NIC, portas de switch, cabos de conexão e a porta do controlador de armazenamento. Se 
qualquer componente do caminho falhar, o host selecionará outro caminho disponível para E / S. 
O processo de detectar um caminho com falha e alternar para outro é chamado de failover de 
caminho.
Para obter mais informações sobre caminhos múltiplos, consulte Capítulo 18 Noções básicas 
sobre caminhos múltiplos e failover.
vSphere Storage
VMware, Inc. Traduzido automaticamente 81
Nós e portas na SAN iSCSI
Uma única entidade detectável na SAN iSCSI, como um iniciador ou um destino, representa um 
nó iSCSI.
Cada nó tem um nome de nó. ESXi usa vários métodos para identificar um nó.
Endereço IP
Cada nó iSCSI pode ter um endereço IP associado a ele para que o equipamento 
de roteamento e comutação na rede possa estabelecer a conexão entre o host e o 
armazenamento. Esse endereço é como o endereço IP que você atribui ao seu computador 
para obter acesso à rede da sua empresa ou à Internet.
Nome do iSCSI
Um nome exclusivo em todo o mundo para identificar o nó. O iSCSI usa o nome qualificado 
do iSCSI (IQN) e o identificador exclusivo estendido (EUI).
Por padrão, ESXi gera nomes iSCSI exclusivos para seus iniciadores iSCSI, por exemplo, 
iqn.1998-01.com.vmware: iscsitestox-68158ef2 . Normalmente, você não precisa 
alterar o valor padrão, mas, se o fizer, certifique-se de que o novo nome do iSCSI inserido 
seja exclusivo em todo o mundo.
Alias do iSCSI
Um nome mais gerenciável para um dispositivo ou porta iSCSI usado em vez do nome iSCSI. 
Os aliases de iSCSI não são exclusivos e destinam-se a ser um nome amigável a ser associado 
a uma porta.
Cada nó tem uma ou mais portas que o conectam à SAN. As portas iSCSI são endpoints de uma 
sessão iSCSI.
convenções de nomenclatura iSCSI
O iSCSI usa um nome exclusivo especial para identificar um nó iSCSI, de destino ou iniciador.
Os nomes iSCSI são formatados de duas maneiras diferentes. O mais comum é o formato IQN.
Para obter mais detalhes sobre requisitos de nomenclatura iSCSI e perfis de cadeia de 
caracteres, consulte RFC 3721 e RFC 3722 no site da IETF.
Formato do Nome Qualificado iSCSI
O formato do Nome Qualificado iSCSI (IQN) tem o formato iqn.yyyy-mm.naming-
authority:unique, onde:
n aaaa-mm é o ano e o mês em que a autoridade de nomenclatura foi estabelecida.
vSphere Storage
VMware, Inc. Traduzido automaticamente 82
n autoridade de nomeação é a sintaxe reversa do nome de domínio da Internet da autoridade 
de nomenclatura. Por exemplo, a autoridade de nomenclatura iscsi.vmware.com pode ter 
o formato de nome qualificado iSCSI iqn.1998-01.com.vmware.iscsi. O nome indica que 
o vmware.com nome de domínio foi registrado em janeiro de 1998 e iscsi é um subdomínio, 
mantido por vmware.com.
n nome exclusivo é qualquer nome que você deseja usar, por exemplo, o nome do seu host. 
A autoridade de nomenclatura deve garantir que os nomes atribuídos após os dois pontos 
sejam exclusivos, como:
n iqn.1998-01.com.vmware.iscsi:name1
n iqn.1998-01.com.vmware.iscsi:name2
n iqn.1998-01.com.vmware.iscsi:name999
Formato do identificador exclusivo da empresa
O formato Identificador Exclusivo da Empresa (EUI) tem o formato eui.16_hex_digits.
Por exemplo, eui.0123456789ABCDEF.
Os 16 dígitos hexadecimais são representações de texto de um número de 64 bits de um formato 
IEEE EUI (identificador exclusivo estendido). Os 24 bits principais são uma ID de empresa que o 
IEEE registra com uma determinada empresa. Os 40 bits restantes são atribuídos pela entidade 
que detém a ID da empresa e devem ser exclusivos.
Iniciadores iSCSI
Para acessar destinos iSCSI, seu host ESXi usa iniciadores iSCSI.
O iniciador é um software ou hardware instalado no seu host ESXi. O iniciador iSCSI origina a 
comunicação entre o host e um sistema de armazenamento iSCSI externo e envia dados para o 
sistema de armazenamento.
No ambiente ESXi, os adaptadores iSCSI configurados no host desempenham a função de 
iniciadores. O ESXi é compatível com vários tipos de adaptadores iSCSI.
Para obter informações sobre como configurar e usar adaptadores iSCSI, consulte Capítulo 11 
Configurando o armazenamento e os adaptadores iSCSI e iSER.
Software iSCSI Adapter
Um adaptador iSCSI de software é um código VMware integrado ao VMkernel. Usando o 
adaptador iSCSI de software, seu host pode se conectar ao dispositivo de armazenamento 
iSCSI por meio de adaptadores de rede padrão. O adaptador iSCSI de software lida com o 
processamento iSCSI durante a comunicação com o adaptador de rede. Com o adaptador iSCSI 
de software, você pode usar a tecnologia iSCSI sem adquirir hardware especializado.
vSphere Storage
VMware, Inc. Traduzido automaticamente 83
Hardware Adaptador iSCSI
Um adaptador iSCSI de hardware é um adaptador de terceiros que descarrega o processamento 
de rede e iSCSI do seu host. Os adaptadores iSCSI de hardware são divididos em categorias.
Adaptador iSCSI de hardware dependente
Depende de VMware rede e das interfaces de configuração e gerenciamento iSCSI 
fornecidas por VMware.
Esse tipo de adaptador pode ser um cartão que apresenta um adaptador de rede padrão e 
uma funcionalidade de descarregamento de iSCSI para a mesma porta. A funcionalidade de 
descarregamento do iSCSI depende da configuração de rede do host para obter o IP, o MAC 
e outros parâmetros usados para sessões iSCSI. Um exemplo de um adaptador dependente é 
o NIC Broadcom 5709 licenciado iSCSI.
Adaptador iSCSI de hardware independente
Implementa suas próprias interfaces de configuração e gerenciamento de rede e iSCSI.
Normalmente, um adaptador iSCSI de hardware independente é uma placa que 
apresenta apenas a funcionalidade de descarregamento de iSCSI ou a funcionalidade 
de descarregamento de iSCSI e a funcionalidade de NIC padrão. A funcionalidade de 
descarregamento do iSCSI tem um gerenciamento de configuração independente que atribui 
o IP, o MAC e outros parâmetros usados para as sessões do iSCSI. Um exemplo de um 
adaptador independente é o adaptador QLogic QLA4052.
Os adaptadores iSCSI de hardware podem precisar de ser licenciados. Caso contrário, eles 
podem não aparecer no cliente ou em vSphere CLI. Entre em contato com o fornecedor para 
obter informações de licenciamento.
Usando o protocolo iSER com ESXi
Além do iSCSI tradicional, o ESXi é compatível com o protocolo Extensões iSCSI para RDMA 
(iSER). Quando o protocolo iSER está ativado, a estrutura iSCSI no host ESXi pode usar o 
transporte de Acesso Direto à Memória Remota (RDMA) em vez de TCP / IP.
O protocolo iSCSI tradicional carrega comandos SCSI em uma rede TCP / IP entre um iniciador 
iSCSI em um host e um destino iSCSI em um dispositivo de armazenamento. O protocolo iSCSI 
encapsula os comandos e monta esses dados em pacotes para a camada TCP / IP. Quando os 
dados chegam, o protocolo iSCSI desmonta os pacotes TCP / IP, para que os comandos SCSI 
possam ser diferenciados e entregues ao dispositivo de armazenamento.
O iSER difere do iSCSI tradicional, pois substitui o modelo de transferência de dados TCP / IP 
pelo transporte RDMA. Usando a tecnologia de posicionamento direto de dados do RDMA, o 
protocolo iSER pode transferir dados diretamente entre os bufferes de memória do ESXi host 
e dos dispositivos de armazenamento. Esse método elimina o processamento de TCP / IP e 
o coping de dados desnecessários e também pode reduzir a latênciae a carga da CPU no 
dispositivo de armazenamento.
vSphere Storage
VMware, Inc. Traduzido automaticamente 84
No ambiente do iSER, o iSCSI funciona exatamente como antes, mas usa uma interface de malha 
RDMA subjacente em vez da interface baseada em TCP / IP.
Como o protocolo iSER preserva a compatibilidade com a infraestrutura iSCSI, o processo de 
habilitação do iSER no host ESXi é semelhante ao processo iSCSI. Consulte Configurar o iSER com 
ESXi.
Estabelecendo conexões iSCSI
No contexto ESXi, o termo de destino identifica uma única unidade de armazenamento que 
seu host pode acessar. Os termos dispositivo de armazenamento e LUN descrevem um volume 
lógico que representa o espaço de armazenamento em um destino. Normalmente, os termos 
dispositivo e LUN, no contexto ESXi, significam um volume SCSI apresentado ao host a partir de 
um destino de armazenamento e disponível para formatação.
Diferentes fornecedores de armazenamento iSCSI apresentam armazenamento para hosts de 
diferentes maneiras. Alguns fornecedores apresentam vários LUNs em um único destino. Outros 
apresentam vários destinos com um LUN cada.
Figura 10-1. Destino em comparação com representações de LUN
Storage Array
Target
LUN LUN LUN
Storage Array
Target TargetTarget
LUN LUN LUN
Nesses exemplos, três LUNs estão disponíveis em cada uma dessas configurações. No primeiro 
caso, o host detecta um destino, mas esse destino tem três LUNs que podem ser usados. Cada 
um dos LUNs representa o volume de armazenamento individual. No segundo caso, o host 
detecta três destinos diferentes, cada um com um LUN.
Os iniciadores iSCSI baseados em host estabelecem conexões com cada destino. Os sistemas de 
armazenamento com um único destino contendo vários LUNs têm tráfego para todos os LUNs 
em uma única conexão. Com um sistema que tem três destinos com um LUN cada, o host usa 
conexões separadas para os três LUNs.
Essas informações são úteis quando você está tentando agregar o tráfego de armazenamento 
em várias conexões do host com vários adaptadores iSCSI. Você pode definir o tráfego de um 
destino para um adaptador específico e usar um adaptador diferente para o tráfego para outro 
destino.
Tipos de sistema de armazenamento iSCSI
O ESXi oferece suporte a diferentes sistemas de armazenamento e matrizes.
vSphere Storage
VMware, Inc. Traduzido automaticamente 85
Os tipos de armazenamento que seu host suporta incluem ativo-ativo, ativo-passivo e compatível 
com ALUA.
Sistema de armazenamento ativo-ativo
Oferece suporte ao acesso aos LUNs simultaneamente por meio de todas as portas de 
armazenamento que estão disponíveis sem degradação significativa do desempenho. Todos 
os caminhos estão sempre ativos, a menos que um caminho falhe.
Sistema de armazenamento ativo-passivo
Um sistema no qual um processador de armazenamento está ativamente fornecendo acesso 
a um determinado LUN. Os outros processadores atuam como um backup para o LUN e 
podem estar ativamente fornecendo acesso a outras E / S de LUN. A E / S pode ser enviada 
com êxito apenas para uma porta ativa para um determinado LUN. Se o acesso pela porta de 
armazenamento ativo falhar, um dos processadores de armazenamento passivo poderá ser 
ativado pelos servidores que o acessam.
Sistema de armazenamento assimétrico
Oferece suporte a acesso à unidade lógica assimétrica (ALUA). Os sistemas de 
armazenamento em conformidade com o ALUA fornecem diferentes níveis de acesso por 
porta. Com o ALUA, os hosts podem determinar os estados das portas de destino e 
priorizar os caminhos. O host usa alguns dos caminhos ativos como primário e outros como 
secundário.
Sistema de armazenamento de portas virtuais
Oferece suporte ao acesso a todos os LUNs disponíveis por meio de uma única porta 
virtual. Os sistemas de armazenamento de porta virtual são dispositivos de armazenamento 
ativo-ativo, mas ocultam suas várias conexões por meio de uma única porta. ESXi vários 
caminhos não fazem várias conexões de uma porta específica para o armazenamento 
por padrão. Alguns fornecedores de armazenamento fornecem gerenciadores de sessão 
para estabelecer e gerenciar várias conexões com seu armazenamento. Esses sistemas 
de armazenamento lidam com failover de porta e balanceamento de conexão de forma 
transparente. Esse recurso é frequentemente chamado de failover transparente.
Descoberta, autenticação e controle de acesso
Você pode usar vários mecanismos para descobrir seu armazenamento e limitar o acesso a ele.
Você deve configurar seu host e o sistema de armazenamento iSCSI para oferecer suporte à sua 
política de controle de acesso de armazenamento.
vSphere Storage
VMware, Inc. Traduzido automaticamente 86
Descoberta
Uma sessão de descoberta faz parte do protocolo iSCSI. Ele retorna o conjunto de destinos 
que você pode acessar em um sistema de armazenamento iSCSI. Os dois tipos de descoberta 
disponíveis em ESXi são dinâmicos e estáticos. A descoberta dinâmica obtém uma lista de 
destinos acessíveis do sistema de armazenamento iSCSI. A descoberta estática pode acessar 
apenas um destino específico por nome e endereço de destino.
Para obter mais informações, consulte Configurar a descoberta dinâmica ou estática para iSCSI e 
iSER no host ESXi.
Autenticação
Os sistemas de armazenamento iSCSI autenticam um iniciador por um nome e um par de chaves. 
ESXi é compatível com o protocolo de autenticação CHAP. Para usar a autenticação CHAP, o 
host ESXi e o sistema de armazenamento iSCSI devem ter o CHAP ativado e credenciais comuns.
Para obter informações sobre como ativar o CHAP, consulte Configurando parâmetros do CHAP 
para adaptadores de armazenamento iSCSI ou iSER.
Controle de Acesso
O controle de acesso é uma política criada no sistema de armazenamento iSCSI. A maioria das 
implementações oferece suporte a um ou mais dos três tipos de controle de acesso:
n Por nome do iniciador
n Por endereço IP
n Pelo protocolo CHAP
Somente os iniciadores que atendem a todas as regras podem acessar o volume iSCSI.
Usar apenas o CHAP para controle de acesso pode reduzir a velocidade das novas tentativas 
de transmissão porque o host ESXi pode descobrir todos os destinos, mas falha na etapa de 
autenticação. As redefinições de iSCSI funcionam mais rapidamente se o host descobrir apenas 
os destinos que ele pode autenticar.
Como as máquinas virtuais acessam dados em uma SAN 
iSCSI
ESXi armazena os arquivos de disco de uma máquina virtual em um repositório de dados 
VMFS que reside em um dispositivo de armazenamento SAN. Quando os sistemas operacionais 
convidados da máquina virtual enviam comandos SCSI para seus discos virtuais, a camada de 
virtualização SCSI converte esses comandos em operações de arquivo VMFS.
Quando uma máquina virtual interage com seu disco virtual armazenado em uma SAN, ocorre o 
seguinte processo:
1 Quando o sistema operacional convidado em uma máquina virtual lê ou grava no disco SCSI, 
ele envia comandos SCSI para o disco virtual.
vSphere Storage
VMware, Inc. Traduzido automaticamente 87
2 Os drivers de dispositivo no sistema operacional da máquina virtual se comunicam com os 
controladores SCSI virtuais.
3 O controlador SCSI virtual encaminha os comandos para o VMkernel.
4 O VMkernel executa as seguintes tarefas.
a Localiza um arquivo de disco virtual apropriado no volume VMFS.
b Mapeia as solicitações dos blocos no disco virtual para blocos no dispositivo físico 
apropriado.
c Envia a solicitação de E / S modificada do driver de dispositivo no VMkernel para o 
iniciador iSCSI, o hardware ou o software.
5 Se o iniciador iSCSI for um adaptador iSCSI de hardware, independente ou dependente, o 
adaptador executará as seguintes tarefas.
a Encapsula solicitações de E / S em unidades de dados de protocolo iSCSI (PDUs).
b Encapsula PDUs iSCSI em pacotes TCP / IP.
c Envia pacotes IP via Ethernet para o sistema de armazenamento iSCSI.
6 Se o iniciador iSCSI for um adaptador iSCSI de software, ocorrerá o seguinte.
a O iniciador iSCSI encapsula solicitaçõesde E / S nas PDUs iSCSI.
b O iniciador envia PDUs iSCSI por meio de conexões TCP / IP.
c A pilha TCP / IP do VMkernel retransmite pacotes TCP / IP para uma NIC física.
d A NIC física envia pacotes IP sobre Ethernet para o sistema de armazenamento iSCSI.
7 Os switches e roteadores Ethernet na rede transportam a solicitação para o dispositivo de 
armazenamento apropriado.
Correção de erros
Para proteger a integridade de cabeçalhos e dados iSCSI, o protocolo iSCSI define métodos de 
correção de erros conhecidos como resumos de resumos e resumos de dados.
Ambos os parâmetros estão desativados por padrão, mas você pode ativá-los. Esses resumos 
pertencem, respectivamente, ao cabeçalho e aos dados SCSI sendo transferidos entre os 
iniciadores iSCSI e os destinos, em ambas as direções.
Os resumos de cabeçalho e de dados verificam a integridade de dados não criptográficos além 
das verificações de integridade fornecidas por outras camadas de rede, como TCP e Ethernet. 
Os resumos verificam todo o caminho de comunicação, incluindo todos os elementos que podem 
alterar o tráfego no nível da rede, como roteadores, switches e proxies.
A existência e o tipo dos resumos são negociados quando uma conexão iSCSI é estabelecida. 
Quando o iniciador e o destino concordam com uma configuração de resumo, esse resumo deve 
ser usado para todo o tráfego entre eles.
vSphere Storage
VMware, Inc. Traduzido automaticamente 88
A habilitação de resumos de cabeçalho e de dados requer processamento adicional para o 
iniciador e o destino e pode afetar o desempenho da taxa de transferência e do uso da CPU.
Observação Os sistemas que usam os processadores Intel Nehalem descarregam os cálculos de 
resumo iSCSI, reduzindo o impacto sobre o desempenho.
Para obter informações sobre como habilitar resumos de cabeçalho e de dados, consulte 
Configurando parâmetros avançados para iSCSI.
vSphere Storage
VMware, Inc. Traduzido automaticamente 89
Configurando o armazenamento e 
os adaptadores iSCSI e iSER 11
Antes que ESXi possa funcionar com o iSCSI SAN, você deve configurar seu ambiente iSCSI.
O processo de preparação do seu ambiente iSCSI envolve as seguintes etapas:
Etapa Detalhes
Configurar o armazenamento 
iSCSI
Para obter informações, consulte a documentação do fornecedor de 
armazenamento. Além disso, siga estas recomendações:
n ESXi Recomendações e restrições da iSCSI SAN
n Capítulo 13 Boas práticas para armazenamento iSCSI
Configurar adaptadores iSCSI / 
iSER
Use um fluxo de trabalho apropriado para configurar seu adaptador:
n Configurar adaptadores iSCSI de hardware independentes
n Configurar adaptadores iSCSI de hardware dependente
n Configurar o adaptador iSCSI de software
n Configurar o iSER com ESXi
Criar um repositório de dados no 
armazenamento iSCSI
Criação de repositórios de dados
Este capítulo inclui os seguintes tópicos:
n ESXi Recomendações e restrições da iSCSI SAN
n Configurando parâmetros iSCSI para adaptadores
n Configurar adaptadores iSCSI de hardware independentes
n Configurar adaptadores iSCSI de hardware dependente
n Configurar o adaptador iSCSI de software
n Configurar o iSER com ESXi
n Modificar propriedades gerais para adaptadores iSCSI ou iSER
n Configurando a rede para iSCSI e iSER
n Usando quadros jumbo com iSCSI e iSER
n Configurar a descoberta dinâmica ou estática para iSCSI e iSER no host ESXi
n Remover destinos iSCSI dinâmicos ou estáticos
n Configurando parâmetros do CHAP para adaptadores de armazenamento iSCSI ou iSER
VMware, Inc. Traduzido automaticamente 90
n Configurando parâmetros avançados para iSCSI
n iSCSI Session Management
ESXi Recomendações e restrições da iSCSI SAN
Para funcionar corretamente com o iSCSI SAN, seu ambiente ESXi deve seguir recomendações 
específicas. Além disso, existem várias restrições quando você usa ESXi com o iSCSI SAN.
Recomendações de armazenamento iSCSI
n Verifique se o seu host ESXi é compatível com o hardware e o firmware de armazenamento 
iSCSI SAN. Para obter uma lista atualizada, consulte VMware Guia de Compatibilidade .
n Para garantir que o host reconheça LUNs no momento da inicialização, configure todos os 
destinos de armazenamento iSCSI para que seu host possa acessá-los e usá-los. Configure 
seu host para que ele possa descobrir todos os destinos iSCSI disponíveis.
n A menos que você esteja usando servidores sem disco, configure uma partição de 
diagnóstico no armazenamento local. Se você tiver servidores sem disco que inicializam a 
partir do iSCSI SAN, consulte Recomendações gerais para inicialização a partir de iSCSI SAN 
para obter informações sobre partições de diagnóstico com o iSCSI.
n Defina o driver do controlador SCSI no sistema operacional guest para uma fila grande o 
suficiente.
n Em máquinas virtuais que executam o Microsoft Windows, aumente o valor do parâmetro 
SCSI TimeoutValue. Com esse parâmetro configurado, as VMs do Windows podem tolerar 
melhor a E / S atrasada resultante de um failover de caminho. Para obter informações, 
consulte Definir tempo limite no SO convidado do Windows.
n Configure seu ambiente para ter apenas um repositório de dados VMFS para cada LUN.
Restrições de armazenamento iSCSI
n ESXi não é compatível com dispositivos de fita conectados por iSCSI.
n Você não pode usar o software de vários caminhos da máquina virtual para executar o 
balanceamento de carga de E / S para um único LUN físico.
n ESXi não oferece suporte a vários caminhos quando você combina adaptadores de hardware 
independentes com adaptadores de hardware dependentes ou de software.
Configurando parâmetros iSCSI para adaptadores
Antes que seu host ESXi possa descobrir o armazenamento iSCSI, você deve configurar seus 
adaptadores iSCSI. Ao configurar os adaptadores, você define vários parâmetros iSCSI.
vSphere Storage
VMware, Inc. Traduzido automaticamente 91
Rede iSCSI
Para determinados tipos de adaptadores iSCSI, você deve configurar a rede VMkernel.
Você pode verificar a configuração de rede usando o utilitário vmkping.
O adaptador iSCSI de hardware independente não requer rede VMkernel. Você pode configurar 
parâmetros de rede, como um endereço IP, uma máscara de sub-rede e um gateway padrão no 
adaptador iSCSI de hardware independente.
Todos os tipos de adaptadores iSCSI são compatíveis com os protocolos IPv4 e IPv6.
Adaptador iSCSI 
(vmhba) Descrição Rede VMkernel
Configurações de rede do 
adaptador
Adaptador iSCSI de 
hardware independente
Adaptador de terceiros 
que descarrega o iSCSI 
e o processamento e 
gerenciamento de rede 
do seu host.
Não é obrigatório. Para obter informações, consulte 
Editar configurações de rede para 
iSCSI de hardware.
Software iSCSI Adapter Usa NICs padrão para 
conectar seu host a um 
destino iSCSI remoto na 
rede IP.
Obrigatório.
Para obter informações, 
consulte Configurando a 
rede para iSCSI e iSER.
N/D
Adaptador iSCSI de 
hardware dependente
VMwareAdaptador de 
terceiros que depende 
da rede e das interfaces 
de configuração e 
gerenciamento iSCSI.
Obrigatório
Para obter informações, 
consulte Configurando a 
rede para iSCSI e iSER.
N/D
VMware Adaptador iSER Usa um adaptador de 
rede compatível com 
RDMA para conectar seu 
host a um destino iSCSI 
remoto.
Obrigatório
Para obter informações, 
consulte Configurando a 
rede para iSCSI e iSER.
N/D
Métodos de descoberta
Para todos os tipos de adaptadores iSCSI, você deve definir o endereço de descoberta dinâmica 
ou o endereço de descoberta estático. Além disso, você deve fornecer um nome de destino do 
sistema de armazenamento. Para iSCSI de software e iSCSI de hardware dependente, o endereço 
pode fazer ping usando vmkping.
Consulte o Configurar a descoberta dinâmica ou estática para iSCSI e iSER no host ESXi.
Autenticação CHAP
Ative o parâmetro CHAP no inicializador e no lado do sistema de armazenamento. Depois que a 
autenticação é habilitada, ela se aplica a todos os destinos que ainda não foram descobertos. Ele 
não se aplica a destinos que já foram descobertos.Consulte Configurando parâmetros do CHAP para adaptadores de armazenamento iSCSI ou iSER.
vSphere Storage
VMware, Inc. Traduzido automaticamente 92
Configurar adaptadores iSCSI de hardware independentes
Um adaptador iSCSI de hardware independente é um adaptador de terceiros especializado 
capaz de acessar o armazenamento iSCSI sobre TCP / IP. Este adaptador iSCSI lida com todo 
o processamento e gerenciamento de iSCSI e de rede do seu sistema ESXi.
Pré-requisitos
n Verifique se o adaptador deve ser licenciado.
n Instale o adaptador no host ESXi.
Para obter informações sobre licenciamento, instalação e atualizações de firmware, consulte a 
documentação do fornecedor.
O processo de configuração do adaptador iSCSI de hardware independente inclui essas etapas.
Etapa Descrição
Exibir adaptadores iSCSI de hardware 
independentes
Visualize um adaptador iSCSI de hardware independente e verifique se ele está 
corretamente instalado e pronto para configuração.
Modificar propriedades gerais para 
adaptadores iSCSI ou iSER
Se necessário, altere o nome iSCSI padrão e o alias atribuído aos seus 
adaptadores iSCSI. Para os adaptadores iSCSI de hardware independentes, 
você também pode alterar as configurações de IP padrão.
Editar configurações de rede para 
iSCSI de hardware
Altere as configurações de rede padrão para que o adaptador seja configurado 
corretamente para o iSCSI SAN.
Configurar a descoberta dinâmica ou 
estática para iSCSI e iSER no host ESXi
Configure a descoberta dinâmica. Com a descoberta dinâmica, toda vez que 
o iniciador contata um sistema de armazenamento iSCSI especificado, ele 
envia a solicitação SendTargets para o sistema. O sistema iSCSI responde 
fornecendo uma lista de destinos disponíveis para o iniciador. Além do método 
de descoberta dinâmica, você pode usar a descoberta estática e inserir 
manualmente as informações para os destinos.
Configurar o CHAP para o adaptador 
de armazenamento iSCSI ou iSER
Se o seu ambiente iSCSI usar o CHAP (Challenge Handshake Authentication 
Protocol), configure-o para o seu adaptador.
Habilitar quadros jumbo para iSCSI de 
hardware independente
Se o seu ambiente iSCSI suportar quadros grandes, habilite-os para o 
adaptador.
Exibir adaptadores iSCSI de hardware independentes
No host ESXi, visualize um adaptador iSCSI de hardware independente e verifique se ele está 
corretamente instalado e pronto para configuração.
Depois de instalar um adaptador iSCSI de hardware independente no host, ele aparece na lista 
de adaptadores de armazenamento disponíveis para configuração. Você pode visualizar suas 
propriedades.
Pré-requisitos
Privilégio necessário: Host . Configuração . Configuração de partição de armazenamento 
vSphere Storage
VMware, Inc. Traduzido automaticamente 93
Procedimentos
1 No vSphere Client, navegue até o host ESXi.
2 Clique na guia Configurar (Configure).
3 Em Armazenamento (Storage), clique em Adaptadores de Armazenamento (Storage 
Adapters).
Se instalado, o adaptador iSCSI de hardware aparece na lista de adaptadores de 
armazenamento.
4 Selecione o adaptador para exibir.
Os detalhes padrão do adaptador são exibidos.
Informações do 
Adaptador Descrição
Modelo Modelo do adaptador.
Nome do iSCSI Nome exclusivo formado de acordo com os padrões iSCSI que identifica o adaptador 
iSCSI. Você pode editar o nome do iSCSI.
Nome alternativo do iSCSI Um nome amigável usado em vez do nome iSCSI. Você pode editar o nome 
alternativo do iSCSI.
Endereço IP Endereço atribuído ao iSCSI HBA.
Destinos Número de destinos acessados por meio do adaptador.
Dispositivos Todos os dispositivos de armazenamento ou LUNs que o adaptador pode acessar.
Caminhos Todos os caminhos que o adaptador usa para acessar dispositivos de 
armazenamento.
Editar configurações de rede para iSCSI de hardware
Depois de instalar um adaptador iSCSI de hardware independente em um host ESXi, talvez seja 
necessário alterar suas configurações de rede padrão para que o adaptador seja configurado 
corretamente para a iSCSI SAN.
Procedimentos
1 No vSphere Client, navegue até o host ESXi.
2 Clique na guia Configurar (Configure).
3 Em Armazenamento (Storage), clique em Adaptadores de Armazenamento (Storage 
Adapters) e selecione o adaptador (vmhba #) a ser configurado.
4 Clique na guia Configurações de Rede (Network Settings) e clique em Editar (Edit).
vSphere Storage
VMware, Inc. Traduzido automaticamente 94
5 Na seção Configurações de IPv4, desative o IPv6 ou selecione o método para obter 
endereços IP.
Observação A opção DHCP automática e a opção estática são mutuamente exclusivas.
Opção Descrição
Nenhuma configuração IPv4 Desative o IPv4.
Obter configurações de IPv4 
automaticamente
Use o DHCP para obter as configurações de IP.
Usar configurações IPv4 estáticas Insira o endereço IP IPv4, a máscara de sub-rede e o gateway padrão para o 
adaptador iSCSI.
 
6 Na seção Configurações do IPv6, desative o IPv6 ou selecione uma opção apropriada para 
obter endereços IPv6.
Observação As opções automáticas e a opção estática são mutuamente exclusivas.
Opção Descrição
Nenhuma configuração IPv6 Desative o IPv6.
Habilitar IPv6 Selecione uma opção para obter endereços IPv6.
Obter endereços IPv6 
automaticamente por meio do DHCP
Use o DHCP para obter endereços IPv6.
Obter endereços IPv6 
automaticamente através do 
anúncio do roteador
Use o anúncio do roteador para obter endereços IPv6.
Substituir endereço de link local 
para IPv6
Substitua o endereço IP local do link configurando um endereço IP estático.
Endereços IPv6 estáticos a Clique em Adicionar (Add) para adicionar um novo endereço IPv6.
b Insira o endereço IPv6 e o comprimento do prefixo de sub-rede e clique 
em OK (OK).
 
7 Na seção Configurações de DNS, forneça endereços IP para um servidor DNS preferencial e 
um servidor DNS alternativo.
Você deve fornecer ambos os valores.
Configurar adaptadores iSCSI de hardware dependente
Um adaptador iSCSI de hardware dependente é um adaptador de terceiros que depende de 
VMware rede e das interfaces de configuração e gerenciamento iSCSI fornecidas por VMware.
Um exemplo de um adaptador iSCSI dependente é um NIC Broadcom 5709. Quando instalado 
em um host, ele apresenta seus dois componentes, um adaptador de rede padrão e um 
mecanismo iSCSI, para a mesma porta. O mecanismo iSCSI aparece na lista de adaptadores de 
armazenamento como um adaptador iSCSI (vmhba).
vSphere Storage
VMware, Inc. Traduzido automaticamente 95
O adaptador iSCSI é ativado por padrão. Para torná-lo funcional, você deve conectá-lo por meio 
de um adaptador VMkernel virtual (vmk) a um adaptador de rede físico (vmnic) associado a ele. 
Em seguida, você pode configurar o adaptador iSCSI.
Depois de configurar o adaptador iSCSI de hardware dependente, os dados de descoberta e 
autenticação são transmitidos pela conexão de rede. O tráfego iSCSI passa pelo mecanismo 
iSCSI, ignorando a rede.
Todo o processo de instalação e configuração para os adaptadores iSCSI de hardware 
dependentes envolve várias etapas.
Etapa Descrição
Exibir Adaptadores iSCSI de Hardware 
Dependente
Visualize um adaptador iSCSI de hardware dependente para verificar se ele está 
carregado corretamente.
Modificar propriedades gerais para 
adaptadores iSCSI ou iSER
Se necessário, altere o nome iSCSI padrão e o alias atribuído ao seu adaptador.
Determinar a associação entre iSCSI e 
adaptadores de rede
Você deve criar conexões de rede para associar iSCSI dependente e 
adaptadores de rede físicos. Para criar as conexões corretamente, determine 
o nome da NIC física à qual o adaptador iSCSI de hardware dependente está 
associado.
Configurar a associação de porta para 
iSCSI ou iSER
Configure as conexões para o tráfego entre o componente iSCSI e os 
adaptadores de rede físicos. O processo de configuração dessas conexões é 
chamado de vinculação de portas.
Configurar a descoberta dinâmica ou 
estática para iSCSI e iSER no host ESXi
Configure a descoberta dinâmica. Coma descoberta dinâmica, toda vez que 
o iniciador contata um sistema de armazenamento iSCSI especificado, ele 
envia a solicitação SendTargets para o sistema. O sistema iSCSI responde 
fornecendo uma lista de destinos disponíveis para o iniciador. Além do método 
de descoberta dinâmica, você pode usar a descoberta estática e inserir 
manualmente as informações para os destinos.
Configurar o CHAP para o adaptador 
de armazenamento iSCSI ou iSER
Se o seu ambiente iSCSI usar o CHAP (Challenge Handshake Authentication 
Protocol), configure-o para o seu adaptador.
Configurar o CHAP para o destino Você também pode configurar credenciais CHAP diferentes para cada 
endereço de descoberta ou destino estático.
Habilitar quadros jumbo para rede Se o seu ambiente iSCSI suportar quadros grandes, habilite-os para o 
adaptador.
Considerações sobre iSCSI de hardware dependente
Quando você usa adaptadores iSCSI de hardware dependente com ESXi, algumas considerações 
se aplicam.
n Quando você usa qualquer adaptador iSCSI de hardware dependente, os relatórios de 
desempenho para uma NIC associada ao adaptador podem mostrar pouca ou nenhuma 
atividade, mesmo quando o tráfego de iSCSI é intenso. Esse comportamento ocorre porque o 
tráfego iSCSI ignora a pilha de rede regular.
vSphere Storage
VMware, Inc. Traduzido automaticamente 96
n Se você usar um switch virtual de terceiros, por exemplo, Cisco Nexus 1000V DVS, desative 
a fixação automática. Use a fixação manual em vez disso, certificando-se de conectar um 
adaptador VMkernel (vmk) a uma NIC física apropriada (vmnic). Para obter informações, 
consulte a documentação do fornecedor do switch virtual.
n O adaptador Broadcom iSCSI executa a remontagem de dados no hardware, que tem um 
espaço de buffer limitado. Quando você usar o adaptador Broadcom iSCSI em uma rede 
congestionada ou sob carga pesada, ative o controle de fluxo para evitar a degradação do 
desempenho.
O controle de fluxo gerencia a taxa de transmissão de dados entre dois nós para evitar que 
um remetente rápido substitua um receptor lento. Para obter melhores resultados, habilite 
o controle de fluxo nos pontos finais do caminho de E / S, nos hosts e nos sistemas de 
armazenamento iSCSI.
Para ativar o controle de fluxo para o host, use o comando esxcli system module 
parameters. Para obter detalhes, consulte o VMware artigo da base de conhecimento em 
http://kb.vmware.com/kb/1013413
n Os adaptadores de hardware dependentes são compatíveis com IPv4 e IPv6.
Exibir Adaptadores iSCSI de Hardware Dependente
Em um host ESXi, visualize um adaptador iSCSI de hardware dependente para verificar se ele 
está carregado corretamente.
Se instalado, o adaptador iSCSI de hardware dependente (vmhba #) aparece na lista de 
adaptadores de armazenamento sob essa categoria, como, por exemplo, o Adaptador 
Broadcom iSCSI. Se o adaptador de hardware dependente não aparecer na lista de adaptadores 
de armazenamento, verifique se ele precisa ser licenciado. Consulte a documentação do 
fornecedor.
Procedimentos
1 No vSphere Client, navegue até o host ESXi.
2 Clique na guia Configurar (Configure).
3 Em Armazenamento (Storage), clique em Adaptadores de Armazenamento (Storage 
Adapters).
4 Selecione o adaptador (vmhba #) para exibir.
Os detalhes padrão do adaptador são exibidos, incluindo o nome iSCSI, o alias do iSCSI e o 
status.
Próximo passo
Embora o adaptador iSCSI dependente esteja habilitado por padrão, para torná-lo funcional, 
você deve configurar a rede para o tráfego iSCSI e vincular o adaptador à porta iSCSI VMkernel 
apropriada. Em seguida, você configura endereços de descoberta e parâmetros CHAP.
vSphere Storage
VMware, Inc. Traduzido automaticamente 97
http://kb.vmware.com/kb/1013413
Determinar a associação entre iSCSI e adaptadores de rede
Em um host ESXi, as conexões de rede vinculam adaptadores de rede físicos e iSCSI 
dependentes. Para criar as conexões corretamente, você deve determinar o nome da NIC física à 
qual o adaptador iSCSI de hardware dependente está associado.
Procedimentos
1 No vSphere Client, navegue até o host ESXi.
2 Clique na guia Configurar (Configure).
3 Em Armazenamento (Storage), clique em Adaptadores de Armazenamento (Storage 
Adapters).
4 Selecione o adaptador iSCSI (vmhba #) e clique na guia Vinculação de Porta de Rede 
(Network Port Binding) em Detalhes do adaptador.
5 Clique em Adicionar(Add).
O adaptador de rede (vmnic #) que corresponde ao adaptador iSCSI dependente está listado 
na coluna Adaptador de Rede Física.
Próximo passo
Se a coluna Adaptador VMkernel estiver vazia, crie um adaptador VMkernel (vmk #) para o 
adaptador de rede físico (vmnic #) e, em seguida, vincule-os ao iSCSI de hardware dependente 
associado. Consulte Configurando a rede para iSCSI e iSER.
Configurar o adaptador iSCSI de software
Com a implementação de iSCSI baseada em software, você pode usar NICs padrão para conectar 
seu host a um destino iSCSI remoto na rede IP. O adaptador iSCSI de software que está 
incorporado no ESXi facilita essa conexão ao se comunicar com as NICs físicas por meio da 
pilha de rede.
Ao usar os adaptadores iSCSI de software, considere o seguinte:
n Designe um adaptador de rede separado para iSCSI. Não use iSCSI em adaptadores de 100 
Mbps ou mais lentos.
n Evite codificar o nome do adaptador de software, vmhbaXX, nos scripts. É possível que o 
nome mude de uma versão ESXi para outra. A alteração poderá causar falhas nos scripts 
existentes se eles usarem o nome antigo codificado. A alteração de nome não afeta o 
comportamento do adaptador de software iSCSI.
O processo de configuração do adaptador iSCSI de software envolve várias etapas.
vSphere Storage
VMware, Inc. Traduzido automaticamente 98
Etapa Descrição
Ativar ou desativar o adaptador iSCSI 
de software
Ative o adaptador iSCSI de software para que o host possa usá-lo para acessar 
o armazenamento iSCSI.
Modificar propriedades gerais para 
adaptadores iSCSI ou iSER
Se necessário, altere o nome iSCSI padrão e o alias atribuído ao seu adaptador.
Configurar a associação de porta para 
iSCSI ou iSER
Configure as conexões para o tráfego entre o componente iSCSI e os 
adaptadores de rede físicos. O processo de configuração dessas conexões 
é chamado de vinculação de portas.
Configurar a descoberta dinâmica ou 
estática para iSCSI e iSER no host ESXi
Configure a descoberta dinâmica. Com a descoberta dinâmica, toda vez que 
o iniciador contata um sistema de armazenamento iSCSI especificado, ele 
envia a solicitação SendTargets para o sistema. O sistema iSCSI responde 
fornecendo uma lista de destinos disponíveis para o iniciador. Além do método 
de descoberta dinâmica, você pode usar a descoberta estática e inserir 
manualmente as informações para os destinos.
Configurar o CHAP para o adaptador 
de armazenamento iSCSI ou iSER
Se o seu ambiente iSCSI usar o CHAP (Challenge Handshake Authentication 
Protocol), configure-o para o seu adaptador.
Configurar o CHAP para o destino Você também pode configurar credenciais CHAP diferentes para cada 
endereço de descoberta ou destino estático.
Habilitar quadros jumbo para rede Se o seu ambiente iSCSI suportar quadros grandes, habilite-os para o 
adaptador.
Ativar ou desativar o adaptador iSCSI de software
Você deve ativar seu adaptador iSCSI de software para que seu host ESXi possa usá-lo para 
acessar o armazenamento iSCSI. Se você não precisar do adaptador iSCSI de software após a 
ativação, poderá desativá-lo.
Você pode ativar apenas um adaptador iSCSI de software.
Pré-requisitos
Privilégio necessário: Host . Configuração . Configuração de partição de armazenamento 
Observação Se você inicializar a partir do iSCSI usando o adaptador de software iSCSI, o 
adaptador será ativado e a configuração de rede será criada na primeira inicialização. Se você 
desativar o adaptador, ele será reativado sempre que você inicializar o host.
Procedimentos
1 No vSphere Client, navegue até o host ESXi.
2 Clique na guia Configurar (Configure).vSphere Storage
VMware, Inc. Traduzido automaticamente 99
3 Ative ou desative o adaptador.
Opção Descrição
Ativar o adaptador iSCSI de 
software
a Em Armazenamento (Storage), clique em Adaptadores de 
Armazenamento (Storage Adapters) e clique no ícone Adicionar (Add).
b Selecione Adaptador iSCSI de Software (Software iSCSI Adapter) e 
confirme que deseja adicionar o adaptador.
O adaptador iSCSI de software (vmhba #) está ativado e aparece na lista 
de adaptadores de armazenamento. Depois de habilitar o adaptador, 
o host atribui o nome iSCSI padrão a ele. Agora você pode concluir a 
configuração do adaptador.
Desativar o adaptador iSCSI de 
software
a Em Armazenamento (Storage), clique em Adaptadores de 
Armazenamento (Storage Adapters) e selecione o adaptador (vmhba 
#) a ser desativado.
b Clique na guia Propriedades(Properties).
c Clique em Desativar (Disable) e confirme que deseja desativar o 
adaptador.
O status indica que o adaptador está desativado.
d Reinicialize o host.
Após a reinicialização, o adaptador não aparece mais na lista de 
adaptadores de armazenamento. Os dispositivos de armazenamento 
associados ao adaptador se tornam inacessíveis. Mais tarde, você pode 
ativar o adaptador.
 
Configurar o iSER com ESXi
Além do iSCSI tradicional, o ESXi é compatível com o protocolo Extensões iSCSI para RDMA 
(iSER). Quando o protocolo iSER está ativado, a estrutura iSCSI no host ESXi pode usar o 
transporte de Acesso Direto à Memória Remota (RDMA) em vez de TCP / IP. Você pode 
configurar o iSER em seu host ESXi.
Para obter mais informações sobre o protocolo iSER, consulte Usando o protocolo iSER com 
ESXi.
Todo o processo de instalação e configuração do VMware iSER envolve várias etapas.
Etapa Descrição
Instalar e exibir um adaptador de 
rede compatível com RDMA
Para configurar o iSER com ESXi, você deve primeiro instalar um adaptador de 
rede compatível com RDMA, por exemplo, Mellanox Tecnologias MT27700 Família 
ConnectX-4. Depois de instalar esse tipo de adaptador, o vSphere Client exibe seus 
dois componentes, um adaptador RDMA e um adaptador de rede físico vmnic#.
Habilite o VMware adaptador 
iSER
Para poder usar o adaptador compatível com RDMA para iSCSI, use esxcli para 
ativar o componente de armazenamento do VMware iSER. O componente aparece 
no vSphere Client como um vmhba# adaptador de armazenamento na categoria 
VMware Adaptador iSCSI sobre RDMA (iSER).
Modificar propriedades gerais 
para adaptadores iSCSI ou iSER
Se necessário, altere o nome padrão e o alias atribuído ao adaptador de 
armazenamento iSER vmhba#.
vSphere Storage
VMware, Inc. Traduzido automaticamente 100
Etapa Descrição
Configurar a associação de porta 
para iSCSI ou iSER
Você deve criar conexões de rede para associar o adaptador de armazenamento 
iSER vmhba# e o adaptador de rede compatível com RDMA vmnic#. O processo de 
configuração dessas conexões é chamado de vinculação de portas.
Observação O iSER não é compatível com o agrupamento de placas de rede. Ao 
configurar a associação de porta, use apenas um adaptador RDMA por vSwitch.
Configurar a descoberta 
dinâmica ou estática para iSCSI e 
iSER no host ESXi
Configure a descoberta dinâmica ou estática para o seu adaptador de 
armazenamento iSER vmhba#. Com a descoberta dinâmica, toda vez que o iniciador 
contata um sistema de armazenamento iSER especificado, ele envia a solicitação 
SendTargets para o sistema. O sistema iSER responde fornecendo uma lista de 
destinos disponíveis para o iniciador. Com a descoberta estática, você insere 
manualmente as informações para os destinos.
Configurar o CHAP para o 
adaptador de armazenamento 
iSCSI ou iSER
Se o seu ambiente usar o CHAP (Challenge Handshake Authentication Protocol), 
configure-o para o seu adaptador de armazenamento iSER vmhba#.
Configurar o CHAP para o 
destino
Você também pode configurar credenciais CHAP diferentes para cada endereço de 
descoberta ou destino estático.
Habilitar quadros jumbo para 
rede
Se o seu ambiente suportar quadros grandes, habilite-os para o adaptador de 
armazenamento iSER vmhba#.
Instalar e exibir um adaptador de rede compatível com RDMA
ESXi é compatível com adaptadores de rede compatíveis com RDMA, por exemplo, Família 
Mellanox Tecnologias MT27700 ConnectX-4. Depois de instalar esse adaptador no host, o 
vSphere Client exibe seus dois componentes, um adaptador RDMA e um adaptador de rede 
físico.
Você pode usar vSphere Client para exibir o adaptador RDMA e seu adaptador de rede 
correspondente.
Procedimentos
1 No vSphere Client, navegue até o host ESXi.
2 Em Rede (Networking), clique em Adaptadores RDMA (RDMA adapters).
Neste exemplo, o adaptador RDMA aparece na lista como vmrdma0. A coluna Uplink 
emparelhado exibe o componente de rede como o adaptador de rede físico vmnic1.
vSphere Storage
VMware, Inc. Traduzido automaticamente 101
3 Para verificar a descrição do adaptador, selecione o adaptador RDMA na lista e clique na guia 
Propriedades (Properties).
Resultados
Você pode usar o vmnic# componente de rede do adaptador para configurações de 
armazenamento como iSER ou NVMe sobre RDMA. Para as etapas de configuração do iSER, 
consulte Configurar o iSER com ESXi. Para obter informações sobre NVMe sobre RDMA, consulte 
Configurar adaptadores para armazenamento NVMe sobre RDMA (RoCE v2).
Habilite o VMware adaptador iSER
Para poder usar o adaptador compatível com RDMA para iSCSI, use o esxcli para ativar o 
componente de armazenamento do VMware iSER. Depois de ativar o componente, ele aparece 
no vSphere Client como um adaptador de armazenamento vmhba# na categoria de adaptador 
VMware iSCSI sobre RDMA (iSER).
Pré-requisitos
n Verifique se o seu armazenamento iSCSI é compatível com o protocolo iSER.
n Instale o adaptador compatível com RDMA no host do ESXi. Para obter informações, consulte 
Instalar e exibir um adaptador de rede compatível com RDMA.
n Para adaptadores compatíveis com RDMA que suportam RDMA sobre Ethernet Convergente 
(RoCE), determine a versão RoCE que o adaptador usa.
n Use o switch compatível com RDMA.
n Ative o controle de fluxo no host ESXi. Para ativar o controle de fluxo para o host, use o 
comando esxcli system module parameters. Para obter detalhes, consulte o VMware 
artigo da base de conhecimento em http://kb.vmware.com/kb/1013413.
n Certifique-se de configurar as portas do switch RDMA para criar conexões sem perdas entre 
o iniciador iSER e o destino.
vSphere Storage
VMware, Inc. Traduzido automaticamente 102
http://kb.vmware.com/kb/1013413
Procedimentos
1 Use o ESXi Shell ou o vSphere CLI para habilitar o adaptador de armazenamento do VMware 
iSER e definir sua versão RoCE.
a Ative o adaptador de armazenamento iSER.
esxcli rdma iser add
b Verifique se o adaptador iSER foi adicionado.
esxcli iscsi adapter list
A saída é semelhante à seguinte.
Adapter Driver State UID Description
------- ------ ------- ------------- -------------------------------------
vmhba64 iser unbound iscsi.vmhba64 VMware iSCSI over RDMA (iSER) Adapter
c Especifique a versão RoCE que o iSER usa para se conectar ao destino.
Use a versão RoCE do adaptador compatível com RDMA. O comando que você insere é 
semelhante ao seguinte:
esxcli rdma iser params set -a vmhba64 -r 1
Quando o comando for concluído, uma mensagem semelhante à seguinte será exibida no 
log do VMkernel.
vmkernel.0:2020-02-18T18:26:15.949Z cpu6:2100717 opID=45abe37e)iser: iser_set_roce: 
Setting roce type: 1 for vmhba: vmhba64
vmkernel.0:2020-02-18T18:26:15.949Z cpu6:2100717 opID=45abe37e)iser: iser_set_roce: 
Setting rdma port: 3260 for vmhba: vmhba64
Se você não especificar a versão RoCE, o host assumirá como padrão a versão RoCE 
mais alta que o adaptador compatível com RDMA suporta.
vSphere Storage
VMware, Inc. Traduzido automaticamente 103
2 Use o vSphere Client para exibir o adaptador iSER.
a No vSphere Client, navegue até o host ESXi.
b Clique na guia Configurar (Configure).
c Em Storage (Storage), clique em StorageAdapters (Storage Adapters) e revise a lista de 
adaptadores.
Se você tiver ativado o adaptador, ele aparecerá como um armazenamento vmhba# na 
lista na categoria de adaptador VMware iSCSI sobre RDMA (iSER).
3 Selecione o armazenamento iSER vmhba# para revisar suas propriedades ou realizar as 
seguintes tarefas.
Opção Descrição
Configurar a associação de 
porta para o adaptador de 
armazenamento iSER
Você deve criar conexões de rede para associar o adaptador de 
armazenamento iSER vmhba# e o adaptador de rede compatível com RDMA 
vmnic#. O processo de configuração dessas conexões é chamado de 
associação de porta. Para obter informações gerais sobre associação de 
porta, consulte Configurando a rede para iSCSI e iSER. Para configurar a 
associação de porta para iSER, consulte Configurar a associação de porta 
para iSCSI ou iSER.
Configurar a descoberta dinâmica 
ou estática para o adaptador de 
armazenamento iSER
Para obter informações, consulte Configurar a descoberta dinâmica ou 
estática para iSCSI e iSER no host ESXi.
Configurar o protocolo de 
autenticação de handshake de 
desafio (CHAP) para o adaptador de 
armazenamento iSER
Para obter informações, consulte Configurar o CHAP para o adaptador de 
armazenamento iSCSI ou iSER.
 
vSphere Storage
VMware, Inc. Traduzido automaticamente 104
Próximo passo
Para obter mais informações, consulte o VMware artigo da base de conhecimento em https://
kb.vmware.com/s/article/79148.
Modificar propriedades gerais para adaptadores iSCSI ou 
iSER
Você pode alterar o nome padrão e o alias atribuído aos seus adaptadores de armazenamento 
iSCSI ou iSER pelo host ESXi. Para os adaptadores iSCSI de hardware independentes, você 
também pode alterar as configurações de IP padrão.
Importante Quando você modificar qualquer propriedade padrão para seus adaptadores, 
certifique-se de usar os formatos corretos para seus nomes e endereços IP.
Pré-requisitos
Privilégio necessário: Host . Configuração . Configuração de partição de armazenamento 
Procedimentos
1 No vSphere Client, navegue até o host ESXi.
2 Clique na guia Configurar (Configure).
3 Em Armazenamento (Storage), clique em Adaptadores de Armazenamento (Storage 
Adapters) e selecione o adaptador (vmhba #) a ser configurado.
4 Clique na guia Propriedades (Properties) e clique em Editar (Edit) no painel Geral.
5 (Opcional) Modifique as seguintes propriedades gerais.
Opção Descrição
Nome do iSCSI Nome exclusivo formado de acordo com os padrões iSCSI que identifica 
o adaptador iSCSI. Se você alterar o nome, certifique-se de que o nome 
inserido seja exclusivo no mundo todo e esteja devidamente formatado. 
Caso contrário, determinados dispositivos de armazenamento podem não 
reconhecer o adaptador iSCSI.
Nome alternativo do iSCSI Um nome amigável que você usa em vez do nome iSCSI.
 
Resultados
Se você alterar o nome do iSCSI, ele será usado para novas sessões do iSCSI. Para sessões 
existentes, as novas configurações não serão usadas até que você faça logoff e logon 
novamente.
vSphere Storage
VMware, Inc. Traduzido automaticamente 105
https://kb.vmware.com/s/article/79148
https://kb.vmware.com/s/article/79148
Próximo passo
Para obter outras etapas de configuração que você pode realizar para os adaptadores de 
armazenamento iSCSI ou iSER, consulte os seguintes tópicos:
n Configurar adaptadores iSCSI de hardware independentes
n Configurar adaptadores iSCSI de hardware dependente
n Configurar o adaptador iSCSI de software
n Configurar o iSER com ESXi
Configurando a rede para iSCSI e iSER
Certos tipos de adaptadores iSCSI dependem da rede VMkernel. Esses adaptadores incluem os 
adaptadores iSCSI de software ou hardware dependente e o adaptador VMware iSCSI sobre 
RDMA (iSER). Se o seu ambiente incluir qualquer um desses adaptadores, você deverá configurar 
conexões para o tráfego entre o componente iSCSI ou iSER e os adaptadores de rede físicos.
Configurar a conexão de rede envolve a criação de um adaptador VMkernel virtual para cada 
adaptador de rede física. Você usa o mapeamento 1: 1 entre cada adaptador de rede virtual e 
físico. Em seguida, associe o adaptador VMkernel a um adaptador iSCSI ou iSER apropriado. Esse 
processo é chamado de associação de porta.
vmhba iSCSI or iSER adapter
vmk VMkernel adapter
vmnic
physical NIC
iSCSI or iSER storage
Host
vSwitch
IP
Network
Siga estas regras ao configurar a associação de porta:
n Você pode conectar o adaptador de software iSCSI a qualquer NIC física disponível no host.
vSphere Storage
VMware, Inc. Traduzido automaticamente 106
n Os adaptadores iSCSI dependentes devem ser conectados apenas às suas próprias NICs 
físicas.
n Você deve conectar o adaptador iSER apenas ao adaptador de rede compatível com RDMA.
Para considerações específicas sobre quando e como usar conexões de rede com software 
iSCSI, consulte o VMware artigo da base de conhecimento em http://kb.vmware.com/kb/
2038869.
Vários adaptadores de rede na configuração do iSCSI ou do iSER
Se o seu host tiver mais de um adaptador de rede físico para iSCSI ou iSER, você poderá usar os 
adaptadores para caminhos múltiplos.
Você pode usar vários adaptadores físicos em uma ou várias configurações de switch.
Na configuração de vários switches, você designa um switch vSphere separado para cada par de 
adaptadores de virtual para físico.
Figura 11-1. Mapeamento do adaptador 1: 1 em switches vSphere Standard separados
VMkernel adapters Physical adapters
vmnic1iSCSI1
vmk1
vSwitch1
VMkernel adapters Physical adapters
vmnic2iSCSI2
vmk2
vSwitch2
Uma alternativa é adicionar todos os adaptadores NICs e VMkernel ao único switch do vSphere. 
O número de adaptadores VMkernel deve corresponder ao número de adaptadores físicos no 
switch vSphere Standard. A configuração de switch único não é apropriada para o iSER porque o 
iSER não oferece suporte ao agrupamento de placas de rede.
vSphere Storage
VMware, Inc. Traduzido automaticamente 107
http://kb.vmware.com/kb/2038869
http://kb.vmware.com/kb/2038869
Figura 11-2. Mapeamento do adaptador 1: 1 em um único switch vSphere Standard
VMkernel adapters Physical adapters
vmnic2
vmnic1
iSCSI2
vmk2
iSCSI1
vmk1
vSwitch1
Para esse tipo de configuração, você deve substituir a configuração de rede padrão e verificar 
se cada adaptador VMkernel é mapeado para apenas um adaptador físico ativo correspondente, 
conforme a tabela indica.
Adaptador VMkernel (vmk #) Adaptador de rede física (vmnic #)
vmk1 (iSCSI1) Adaptadores ativos 
vmnic1
Adaptadores não utilizados 
vmnic2
vmk2 (iSCSI2) Adaptadores ativos 
vmnic2
Adaptadores não utilizados 
vmnic1
Você também pode usar switches distribuídos. Para obter mais informações sobre os switches 
distribuídos do vSphere e como alterar a política de rede padrão, consulte a documentação Rede 
do vSphere .
As seguintes considerações se aplicam quando você usa vários adaptadores físicos:
n Os adaptadores de rede físicos devem estar na mesma sub-rede que o sistema de 
armazenamento ao qual eles se conectam.
n (Aplica-se apenas ao iSCSI e não ao iSER) Se você usar switches do vSphere separados, 
deverá conectá-los a sub-redes IP diferentes. Caso contrário, os adaptadores VMkernel 
podem enfrentar problemas de conectividade e o host não consegue descobrir os LUNs.
n A configuração de switch único não é apropriada para o iSER porque o iSER não oferece 
suporte ao agrupamento de placas de rede.
Não use a associação de portas quando existir uma das seguintes condições:
n As portas iSCSI de destino da matriz estão em um domínio de difusão e uma sub-rede IP 
diferentes.
vSphere Storage
VMware, Inc. Traduzido automaticamente 108
n Os adaptadores VMkernel usados para conectividade iSCSI existem em diferentes domínios 
de transmissão, sub-redes IP ou usam switches virtuais diferentes.
Observação Nas configurações do iSER, os adaptadores VMkernel usados para a 
conectividade do iSER não podem ser usados para o tráfego convergente. Os adaptadores 
VMkernel que você crioupara habilitar a conectividade entre o host ESXi com o iSER e o 
destino do iSER devem ser usados apenas para o tráfego do iSER.
Práticas recomendadas para configurar a rede com software iSCSI
Ao configurar a rede com o software iSCSI, considere várias práticas recomendadas.
Vinculação de porta iSCSI de software
Você pode associar o iniciador iSCSI de software no host ESXi a uma ou várias portas VMkernel, 
para que o tráfego iSCSI flua apenas pelas portas vinculadas. As portas não ligadas não são 
usadas para o tráfego iSCSI.
Quando a associação de portas é configurada, o iniciador iSCSI cria sessões iSCSI de todas as 
portas vinculadas para todos os portais de destino configurados.
Veja os exemplos a seguir.
Portas VMkernel Portais de destino Sessões iSCSI
2 portas VMkernel ligadas 2 portais de destino 4 sessões (2 x 2)
4 portas VMkernel ligadas 1 portal de destino 4 sessões (4 x 1)
2 portas VMkernel ligadas 4 portais de destino 8 sessões (2 x 4)
Observação Certifique-se de que todos os portais de destino sejam acessíveis de todas as 
portas VMkernel quando a associação de porta for usada. Caso contrário, a criação de sessões 
iSCSI pode falhar. Como resultado, a operação de nova verificação pode levar mais tempo do 
que o esperado.
Sem vinculação de porta
Se você não usar a associação de porta, a camada de rede ESXi selecionará a melhor porta 
VMkernel com base em sua tabela de roteamento. O host usa a porta para criar uma sessão 
iSCSI com o portal de destino. Sem a associação de porta, apenas uma sessão por cada portal de 
destino é criada.
Veja os exemplos a seguir.
Portas VMkernel Portais de destino Sessões iSCSI
2 portas VMkernel não ligadas 2 portais de destino 2 sessões
4 portas VMkernel não ligadas 1 portal de destino 1 sessão
2 portas VMkernel não ligadas 4 portais de destino 4 sessões
vSphere Storage
VMware, Inc. Traduzido automaticamente 109
Software iSCSI Multipathing
Exemplo 1. Vários caminhos para um destino iSCSI com um único portal de rede
Se o seu destino tiver apenas um portal de rede, você poderá criar vários caminhos para o 
destino adicionando várias portas VMkernel no seu host ESXi e vinculando-as ao iniciador iSCSI.
vmk1
192.168.0.1/24
Single Target:
192.168.0.10/24
vmk
192.168.0.2/242
vmnic2
vmk3
192.168.0.3/24
vmnic3
vmk2
192.168.0.4/24
vmnic4
Same subnet
vmnic1
IP
Network
Neste exemplo, todas as portas do iniciador e o portal de destino são configurados na mesma 
sub-rede. O destino é acessível por meio de todas as portas vinculadas. Você tem quatro portas 
VMkernel e um portal de destino, portanto, um total de quatro caminhos são criados.
Sem a associação de porta, apenas um caminho é criado.
Exemplo 2. Vários caminhos com portas VMkernel em diferentes sub-redes
Você pode criar vários caminhos configurando várias portas e portais de destino em diferentes 
sub-redes de IP. Ao manter as portas do iniciador e de destino em sub-redes diferentes, você 
pode forçar o ESXi a criar caminhos por meio de portas específicas. Nessa configuração, você 
não usa a associação de porta porque a associação de porta requer que todas as portas do 
iniciador e de destino estejam na mesma sub-rede.
vSphere Storage
VMware, Inc. Traduzido automaticamente 110
SP/Controller A:
Port 0: 192.168.1.10/24
Port 1: 192.168.2.10/24
SP/Controller B:
Port 0: 192.168.1.11/24
Port 1: 192.168.2.11/24
vmk1
192.168.1.1/24
vmnic1
IP
Networkvmk2
192.168.2.1/24
vmnic2
ESXi seleciona vmk1 ao se conectar à Porta 0 do Controlador A e ao Controlador B porque todas 
as três portas estão na mesma sub-rede. Da mesma forma, vmk2 é selecionado ao se conectar à 
Porta 1 do Controlador A e B. Você pode usar o agrupamento de NIC nesta configuração.
Um total de quatro caminhos é criado.
Caminhos Descrição
Caminho 1 vmk1 e Port0 do Controlador A
Caminho 2 vmk1 e Port0 de B Controlado
Caminho 3 vmk2 e Port1 do controlador A
Caminho 4 vmk2 e Port2 do controlador B
Roteamento com software iSCSI
Você pode usar o comando esxcli para adicionar rotas estáticas para o tráfego iSCSI. Depois 
de configurar as rotas estáticas, as portas de iniciador e de destino em diferentes sub-redes 
podem se comunicar umas com as outras.
Exemplo 1. Usando rotas estáticas com associação de porta
Neste exemplo, você mantém todas as portas vinculadas do vmkernel em uma sub-rede (N1) e 
configura todos os portais de destino em outra sub-rede (N2). Em seguida, você pode adicionar 
uma rota estática para a sub-rede de destino (N2).
N1 N2
SP/Controller A
Port 0
10.115.179.2/24
SP/Controller A
Port 0
10.115.179.1/24
IP
Networkvmk2
192.168.2.1/24
vmnic2
vmk1
192.168.1.1/24
vmnic1
Use o seguinte comando:
vSphere Storage
VMware, Inc. Traduzido automaticamente 111
# esxcli network ip route ipv4 add -gateway 192.168.1.253 -network 
10.115.179.0/24
Exemplo 2. Usando rotas estáticas para criar vários caminhos
Nessa configuração, você usa o roteamento estático ao usar sub-redes diferentes. Você não 
pode usar a associação de porta com essa configuração.
SP/Controller A
Port 0
0.115.179.1/24
SP/Controller A
Port 0
0.115.155.1/24
vmk2
192.168.2.1/24
vmnic2
IP
Network
vmk1
192.168.1.1/24
vmnic1
Você configura vmk1 e vmk2 em sub-redes separadas, 192.168.1.0 e 192.168.2.0. Seus portais de 
destino também estão em sub-redes separadas, 10.115.155.0 e 10.155.179.0.
Você pode adicionar a rota estática para 10.115.155.0 da vmk1. Certifique-se de que o gateway 
seja acessível a partir de vmk1.
# esxcli network ip route ipv4 add -gateway 192.168.1.253 -network 
10.115.155.0/24 
Em seguida, adicione a rota estática para 10.115.179.0 do vmk2. Certifique-se de que o gateway 
seja acessível a partir de vmk2.
# esxcli network ip route ipv4 add -gateway 192.168.2.253 -network 
10.115.179.0/24 
Ao se conectar com a Porta 0 do Controlador A, vmk1 é usado.
Ao se conectar com a porta 0 do controlador B, vmk2 é usado.
Exemplo 3. Roteamento com um gateway separado por porta vmkernel
A partir do vSphere 6.5, você pode configurar um gateway separado por porta VMkernel. Se 
você usar o DHCP para obter a configuração de IP para uma porta VMkernel, as informações do 
gateway também poderão ser obtidas usando o DHCP.
Para ver as informações do gateway por porta VMkernel, use o seguinte comando:
# esxcli network ip interface ipv4 address list 
Name IPv4 Address IPv4 Netmask IPv4 Broadcast Address Type Gateway DHCP DNS
---- -------------- ------------- -------------- ------------ -------------- --------
vmk0 10.115.155.122 255.255.252.0 10.115.155.255 DHCP 10.115.155.253 true
vmk1 10.115.179.209 255.255.252.0 10.115.179.255 DHCP 10.115.179.253 true
vmk2 10.115.179.146 255.255.252.0 10.115.179.255 DHCP 10.115.179.253 true
vSphere Storage
VMware, Inc. Traduzido automaticamente 112
Com gateways separados por porta VMkernel, você usa a associação de porta para alcançar 
destinos em diferentes sub-redes.
Configurar a associação de porta para iSCSI ou iSER
A associação de portas cria conexões para o tráfego entre determinados tipos de adaptadores 
iSCSI e iSER e os adaptadores de rede físicos.
Os seguintes tipos de adaptadores exigem a associação de portas:
n Software adaptador iSCSI
n Adaptador iSCSI de hardware dependente
n VMware Adaptador iSCSI sobre RDMA (iSER)
As tarefas a seguir discutem a configuração de rede com um switch vSphere Standard e um 
único adaptador de rede físico. Se você tiver vários adaptadores de rede, consulte Vários 
adaptadores de rede na configuração do iSCSI ou do iSER.
Observação O iSER não é compatível com o agrupamento de placas de rede. Ao configurar a 
associação de portas para o iSER, use apenas um adaptador físico habilitado para RDMA (vmnic 
#) e um adaptador VMkernel (vmk #) por vSwitch.
Você também pode usar VMware vSphere® Distributed Switch™ e VMware NSX® Virtual 
Switch™ na configuração de porta a porta. Para obter informações sobre NSX switches virtuais, 
consulte a documentaçãoVMware NSX Data Center for vSphere .
Se você usar um switch distribuído do vSphere com várias portas de uplink, para a associação de 
portas, crie um grupo de portas distribuídas separado por cada NIC física. Em seguida, defina a 
política de equipe para que cada grupo de portas distribuído tenha apenas uma porta de uplink 
ativa. Para obter informações detalhadas sobre switches distribuídos, consulte a documentação 
Rede do vSphere .
Procedimentos
1 Criar um único adaptador VMkernel para iSCSI ou iSER
Conecte o VMkernel, que executa serviços de armazenamento iSCSI, a um adaptador de 
rede físico no host ESXi. Em seguida, use o adaptador VMkernel criado na configuração de 
associação de porta com os adaptadores iSCSI ou iSER.
2 Associar adaptadores iSCSI ou iSER a adaptadores VMkernel
No host ESXi, associe um adaptador iSCSI ou iSER a um adaptador VMkernel.
3 Revisar detalhes de vinculação de porta no host ESXi
Revise os detalhes de rede do adaptador VMkernel que está vinculado ao adaptador iSCSI 
ou iSER vmhba.
vSphere Storage
VMware, Inc. Traduzido automaticamente 113
Próximo passo
Para obter outras etapas de configuração que você pode realizar para os adaptadores de 
armazenamento iSCSI ou iSER, consulte os seguintes tópicos:
n Configurar adaptadores iSCSI de hardware dependente
n Configurar o adaptador iSCSI de software
n Configurar o iSER com ESXi
Criar um único adaptador VMkernel para iSCSI ou iSER
Conecte o VMkernel, que executa serviços de armazenamento iSCSI, a um adaptador de rede 
físico no host ESXi. Em seguida, use o adaptador VMkernel criado na configuração de associação 
de porta com os adaptadores iSCSI ou iSER.
Os seguintes tipos de adaptadores exigem a associação de portas:
n Software adaptador iSCSI
n Adaptador iSCSI de hardware dependente
n VMware Adaptador iSCSI sobre RDMA (iSER)
Pré-requisitos
n Se você estiver criando um adaptador VMkernel para iSCSI de hardware dependente, deverá 
usar o adaptador de rede físico (vmnic #) que corresponde ao componente iSCSI. Consulte 
Determinar a associação entre iSCSI e adaptadores de rede.
n Com o adaptador iSER, certifique-se de usar um vmnic # compatível com RDMA apropriado. 
Consulte o Instalar e exibir um adaptador de rede compatível com RDMA.
Procedimentos
1 No vSphere Client, navegue até o host ESXi.
2 Selecione Adicionar Rede (Add Networking) no menu do botão direito do mouse.
3 Selecione Adaptador de Rede VMkernel (VMkernel Network Adapter) e clique em Avançar 
(Next).
4 Selecione Novo switch padrão (New standard switch) para criar um switch vSphere 
Standard.
5 Clique no ícone Adicionar adaptadores (Add adapters) e selecione um adaptador de rede 
apropriado (vmnic #) a ser usado para iSCSI.
Certifique-se de atribuir o adaptador a adaptadores ativos.
6 Insira um rótulo de rede.
Um rótulo de rede é um nome amigável que identifica o adaptador VMkernel que você está 
criando, por exemplo, iSCSI ou iSER.
7 Especifique as configurações de IP.
vSphere Storage
VMware, Inc. Traduzido automaticamente 114
8 Revise as informações e clique em Concluir (Finish).
Você criou o adaptador VMkernel virtual (vmk #) para um adaptador de rede físico (vmnic #) 
no host.
9 Verifique sua configuração.
a Em Rede (Networking), selecione Adaptadores VMkernel (VMkernel Adapters) e 
selecione o adaptador VMkernel (vmk #) na lista.
b Clique na guia Políticas (Policies) e verifique se o adaptador de rede física 
correspondente (vmnic #) aparece como um adaptador ativo em Teaming e failover 
(Teaming and failover).
Próximo passo
Se o seu host tiver um adaptador de rede físico para o tráfego iSCSI, vincule o adaptador 
VMkernel que você criou ao adaptador iSCSI ou iSER vmhba.
Se você tiver vários adaptadores de rede, poderá criar adaptadores VMkernel adicionais e, em 
seguida, executar a associação iSCSI. O número de adaptadores virtuais deve corresponder ao 
número de adaptadores físicos no host. Para obter informações, consulte Vários adaptadores de 
rede na configuração do iSCSI ou do iSER.
Associar adaptadores iSCSI ou iSER a adaptadores VMkernel
No host ESXi, associe um adaptador iSCSI ou iSER a um adaptador VMkernel.
Os seguintes tipos de adaptadores exigem a associação de portas:
n Software adaptador iSCSI
n Adaptador iSCSI de hardware dependente
n VMware Adaptador iSCSI sobre RDMA (iSER)
Pré-requisitos
Crie um adaptador VMkernel virtual para cada adaptador de rede físico no host. Se você usar 
vários adaptadores VMkernel, configure a política de rede correta.
Privilégio necessário: Host . Configuração . Configuração de partição de armazenamento 
vSphere Storage
VMware, Inc. Traduzido automaticamente 115
Procedimentos
1 No vSphere Client, navegue até o host ESXi.
2 Clique na guia Configurar (Configure).
3 Em Armazenamento (Storage), clique em Adaptadores de Armazenamento (Storage 
Adapters) e selecione o adaptador iSCSI ou iSER apropriado (vmhba #) na lista.
4 Clique na guia Vinculação de Porta de Rede (Network Port Binding) e clique no ícone 
Adicionar (Add).
5 Selecione um adaptador VMkernel para associar ao adaptador iSCSI ou iSER.
Observação Certifique-se de que a política de rede para o adaptador VMkernel esteja em 
conformidade com os requisitos de associação.
Você pode associar o adaptador iSCSI do software a um ou mais adaptadores VMkernel. 
Para um adaptador iSCSI de hardware dependente ou o adaptador iSER, apenas um 
adaptador VMkernel associado à NIC física correta está disponível.
6 Clique em Okey(OK).
A conexão de rede aparece na lista de associações de porta de rede para o adaptador iSCSI 
ou iSER.
Revisar detalhes de vinculação de porta no host ESXi
Revise os detalhes de rede do adaptador VMkernel que está vinculado ao adaptador iSCSI ou 
iSER vmhba.
Os seguintes tipos de adaptadores exigem a associação de portas:
n Software adaptador iSCSI
n Adaptador iSCSI de hardware dependente
n VMware Adaptador iSCSI sobre RDMA (iSER)
vSphere Storage
VMware, Inc. Traduzido automaticamente 116
Procedimentos
1 No vSphere Client, navegue até o host ESXi.
2 Clique na guia Configurar (Configure).
3 Em Armazenamento (Storage), clique em Adaptadores de Armazenamento (Storage 
Adapters) e selecione o adaptador iSCSI ou iSER apropriado na lista.
4 Clique na guia Vinculação de Porta de Rede (Network Port Binding) e selecione o adaptador 
VMkernel na lista.
5 Clique no ícone Exibir detalhes (View Details).
6 Revise as informações do adaptador VMkernel e do adaptador físico alternando entre as 
guias disponíveis.
Gerenciando a rede iSCSI
Considerações especiais se aplicam aos adaptadores de rede, tanto físicos quanto VMkernel, que 
estão associados a um adaptador iSCSI.
Depois de criar conexões de rede para iSCSI, um indicador iSCSI será ativado no vSphere Client. 
O indicador mostra que um determinado adaptador de rede virtual ou físico está vinculado 
ao iSCSI. Para evitar interrupções no tráfego iSCSI, siga estas diretrizes e considerações ao 
gerenciar adaptadores de rede virtual e física vinculados a iSCSI:
n Certifique-se de que os adaptadores de rede VMkernel recebam endereços na mesma sub-
rede que o portal de armazenamento iSCSI ao qual eles se conectam.
n Os adaptadores iSCSI que usam adaptadores VMkernel não podem se conectar a portas 
iSCSI em sub-redes diferentes, mesmo se os adaptadores iSCSI descobrirem essas portas.
n Ao usar switches do vSphere separados para conectar adaptadores de rede físicos e 
adaptadores VMkernel, certifique-se de que os switches do vSphere se conectem a 
diferentes sub-redes IP.
n Se os adaptadores VMkernel estiverem na mesma sub-rede, eles deverão se conectar a um 
único vSwitch.
n Se você migrar adaptadores VMkernel para um switch vSphere diferente, mova os 
adaptadores físicos associados.
n Não faça alterações de configuração em adaptadores VMkernel vinculados a iSCSI ou em 
adaptadores de rede físicos.
n Não faça alterações que possam interromper a associação de adaptadores VMkernel e 
adaptadores de rede físicos. Vocêpoderá interromper a associação se remover um dos 
adaptadores ou o switch do vSphere que os conecta. Ou se você alterar a política de rede 1: 1 
para a conexão deles.
vSphere Storage
VMware, Inc. Traduzido automaticamente 117
Solução de problemas de rede iSCSI
Um sinal de aviso indica uma política de grupo de portas fora de conformidade para um 
adaptador VMkernel vinculado a iSCSI.
Problema
A política de grupo de portas do adaptador VMkernel é considerada não compatível nos 
seguintes casos:
n O adaptador VMkernel não está conectado a um adaptador de rede físico ativo.
n O adaptador VMkernel está conectado a mais de um adaptador de rede físico.
n O adaptador VMkernel está conectado a um ou mais adaptadores físicos em espera.
n O adaptador físico ativo foi alterado.
Solução
Configure a política de rede correta para o adaptador VMkernel vinculado ao iSCSI. Consulte o 
Configurando a rede para iSCSI e iSER.
Usando quadros jumbo com iSCSI e iSER
ESXi é compatível com o uso de quadros jumbo com iSCSI / iSER.
Os quadros jumbo são quadros Ethernet com o tamanho que excede 1500 bytes. O parâmetro 
da unidade de transmissão máxima (MTU) é normalmente usado para medir o tamanho dos 
quadros jumbo.
Quando você usa quadros jumbo para o tráfego iSCSI, as seguintes considerações se aplicam:
n Todos os componentes de rede devem suportar quadros jumbo.
n Verifique com seus fornecedores se seus NICs físicos e adaptadores iSCSI suportam quadros 
Jumbo.
n Para configurar e verificar os switches de rede físicos para quadros jumbo, consulte a 
documentação do fornecedor.
A tabela a seguir explica o nível de suporte que ESXi fornece aos quadros jumbo.
Tabela 11-1. Suporte para quadros jumbo
Tipo de adaptadores iSCSI Suporte a quadros jumbo
Software iSCSI Com suporte
ISCSI de hardware dependente Compatível. Verifique com o fornecedor.
Hardware Independente iSCSI Compatível. Verifique com o fornecedor.
VMware iSER Compatível. Verifique com o fornecedor.
vSphere Storage
VMware, Inc. Traduzido automaticamente 118
Habilitar quadros jumbo para rede
Você pode habilitar os Quadros Jumbo para ESXi adaptadores de armazenamento que usam 
a rede VMkernel para seu tráfego. Esses adaptadores incluem adaptadores iSCSI de software, 
adaptadores iSCSI de hardware dependentes e VMware adaptadores iSER.
Para habilitar os quadros jumbo, altere o valor padrão do parâmetro de unidades de transmissão 
máxima (MTU). Você altera o parâmetro MTU no switch do vSphere que usa para o tráfego iSCSI. 
Para obter mais informações, consulte a documentação do Rede do vSphere .
Procedimentos
1 No vSphere Client, navegue até o host ESXi.
2 Clique na guia Configurar (Configure).
3 Em Rede (Networking), clique em Switches virtuais (Virtual switches) e selecione o switch 
do vSphere que você deseja modificar na lista.
4 Clique no ícone Editar configurações (Edit settings).
5 Na página Propriedades, altere o parâmetro da MTU.
Essa etapa define a MTU para todas as NICs físicas nesse switch padrão. Defina o valor da 
MTU para o maior tamanho de MTU entre todas as NICs conectadas ao switch padrão. ESXi é 
compatível com o tamanho da MTU de até 9000 bytes.
Habilitar quadros jumbo para iSCSI de hardware independente
Para habilitar os quadros jumbo para adaptadores iSCSI de hardware independentes no host 
ESXi, altere o valor padrão do parâmetro de unidades de transmissão máxima (MTU).
Use as configurações de Opções avançadas para alterar o parâmetro de MTU para o HBA iSCSI.
Procedimentos
1 No vSphere Client, navegue até o host ESXi.
2 Clique na guia Configurar (Configure).
3 Em Armazenamento (Storage), clique em Adaptadores de Armazenamento (Storage 
Adapters) e selecione o adaptador iSCSI de hardware independente na lista de adaptadores.
4 Clique na guia Opções avançadas (Advanced Options) e clique em Editar (Edit).
5 Altere o valor do parâmetro MTU.
ESXi é compatível com o tamanho da MTU de até 9000 bytes.
vSphere Storage
VMware, Inc. Traduzido automaticamente 119
Configurar a descoberta dinâmica ou estática para iSCSI e 
iSER no host ESXi
Você precisa configurar os endereços de descoberta de destino, para que o adaptador de 
armazenamento iSCSI ou iSER possa determinar qual recurso de armazenamento na rede está 
disponível para acesso.
O sistema ESXi é compatível com estes métodos de descoberta:
Descoberta dinâmica
Também conhecida como descoberta SendTargets. Cada vez que o iniciador contata um 
servidor iSCSI especificado, o iniciador envia a solicitação SendTargets para o servidor. O 
servidor responde fornecendo uma lista de destinos disponíveis para o iniciador. Os nomes e 
endereços IP desses destinos aparecem na guia Descoberta Estática (Static Discovery). Se 
você remover um destino estático adicionado pela descoberta dinâmica, o destino poderá 
ser retornado à lista na próxima vez que uma nova verificação ocorrer, o adaptador de 
armazenamento for redefinido ou o host for reiniciado.
Observação Com o software e o hardware dependente iSCSI, ESXi filtra os endereços 
de destino com base na família de IPs do endereço do servidor iSCSI especificado. Se o 
endereço for IPv4, os endereços IPv6 que podem vir na resposta SendTargets do servidor 
iSCSI serão filtrados. Quando nomes DNS são usados para especificar um servidor iSCSI ou 
quando a resposta SendTargets do servidor iSCSI tem nomes DNS, ESXi depende da família 
de IPs da primeira entrada resolvida da pesquisa de DNS.
Descoberta estática
Além do método de descoberta dinâmica, você pode usar a descoberta estática e inserir 
manualmente as informações para os destinos. O adaptador iSCSI ou iSER usa uma lista de 
destinos que você fornece para entrar em contato e se comunicar com os servidores iSCSI.
Ao configurar a descoberta estática ou dinâmica, você só pode adicionar novos destinos iSCSI. 
Você não pode alterar nenhum parâmetro de um destino existente. Para fazer alterações, 
remova o destino existente e adicione um novo.
Pré-requisitos
Privilégio necessário: Host . Configuração . Configuração de partição de armazenamento 
Procedimentos
1 No vSphere Client, navegue até o host ESXi.
2 Clique na guia Configurar (Configure).
3 Em Armazenamento (Storage), clique em Adaptadores de Armazenamento (Storage 
Adapters) e selecione o adaptador (vmhba #) a ser configurado.
vSphere Storage
VMware, Inc. Traduzido automaticamente 120
4 Configure o método de descoberta.
Método de descoberta Descrição
Descoberta dinâmica a Clique em Descoberta dinâmica (Dynamic Discovery) e clique em 
Adicionar (Add).
b Digite o endereço IP ou o nome DNS do sistema de armazenamento e 
clique em OK (OK).
c Verifique novamente o adaptador iSCSI.
Depois de estabelecer a sessão SendTargets com o sistema iSCSI, seu 
host preenche a lista de descoberta estática com todos os destinos recém-
descobertos.
Observação Um destino descoberto dinamicamente permanece na lista 
mesmo depois de ser removido do lado da matriz.
Descoberta estática a Clique em Descoberta Estática (Static Discovery) e clique em Adicionar 
(Add).
b Insira as informações do destino e clique em OK (OK)
c Verifique novamente o adaptador iSCSI.
 
Próximo passo
Para obter outras etapas de configuração que você pode realizar para os adaptadores de 
armazenamento iSCSI ou iSER, consulte os seguintes tópicos:
n Configurar adaptadores iSCSI de hardware independentes
n Configurar adaptadores iSCSI de hardware dependente
n Configurar o adaptador iSCSI de software
n Configurar o iSER com ESXi
Remover destinos iSCSI dinâmicos ou estáticos
Remova os servidores iSCSI conectados ao seu host ESXi.
Procedimentos
1 No vSphere Client, navegue até o host ESXi.
2 Clique na guia Configurar (Configure).
3 Em Armazenamento (Storage), clique em Adaptadores de Armazenamento (Storage 
Adapters) e selecione o adaptador iSCSI a ser modificado na lista.
4 Alterne entre Descoberta dinâmica (Dynamic Discovery) e Descoberta estática (Static 
Discovery).
5 Selecione um servidor iSCSI para remover eclique em Remover (Remove).
vSphere Storage
VMware, Inc. Traduzido automaticamente 121
6 Verifique novamente o adaptador iSCSI.
Se você estiver removendo o destino estático que foi descoberto dinamicamente, precisará 
removê-lo do sistema de armazenamento antes de realizar a nova verificação. Caso 
contrário, seu host descobrirá e adicionará automaticamente o destino à lista de destinos 
estáticos quando você verificar novamente o adaptador.
Configurando parâmetros do CHAP para adaptadores de 
armazenamento iSCSI ou iSER
Como as redes IP que a tecnologia iSCSI usa para se conectar a destinos remotos não protegem 
os dados que elas transportam, você deve garantir a segurança da conexão. Um dos protocolos 
que o iSCSI implementa é o Challenge Handshake Authentication Protocol (CHAP), que verifica a 
legitimidade dos iniciadores que acessam os destinos na rede.
O CHAP usa um algoritmo de handshake de três maneiras para verificar a identidade do seu 
host e, se aplicável, do destino iSCSI quando o host e o destino estabelecem uma conexão. A 
verificação é baseada em um valor privado predefinido, ou segredo CHAP, que o iniciador e o 
destino compartilham.
ESXi é compatível com a autenticação CHAP no nível do adaptador. Nesse caso, todos os 
destinos recebem o mesmo nome e segredo do CHAP do iniciador iSCSI. Para adaptadores 
iSCSI de hardware e software dependentes e para adaptadores iSER, o ESXi também oferece 
suporte à autenticação CHAP por destino, o que permite configurar credenciais diferentes para 
cada destino para obter maior nível de segurança.
Selecionando o método de autenticação CHAP
ESXi é compatível com CHAP unidirecional para todos os tipos de iniciadores iSCSI / iSER e CHAP 
bidirecional para software e hardware dependente iSCSI e para iSER.
Antes de configurar o CHAP, verifique se o CHAP está ativado no sistema de armazenamento 
iSCSI. Além disso, obtenha informações sobre o método de autenticação CHAP compatível com 
o sistema. Se o CHAP estiver ativado, configure-o para seus iniciadores, certificando-se de que 
as credenciais de autenticação do CHAP correspondam às credenciais no armazenamento iSCSI.
O ESXi é compatível com os seguintes métodos de autenticação CHAP:
CHAP unidirecional
Na autenticação CHAP unidirecional, o destino autentica o iniciador, mas o iniciador não 
autentica o destino.
CHAP bidirecional
A autenticação CHAP bidirecional adiciona um nível extra de segurança. Com esse método, 
o iniciador também pode autenticar o destino. VMware é compatível com esse método para 
adaptadores iSCSI de hardware e software dependentes e para adaptadores iSER.
vSphere Storage
VMware, Inc. Traduzido automaticamente 122
Para adaptadores iSCSI de hardware e software dependentes e para adaptadores iSER, você 
pode definir o CHAP unidirecional e o CHAP bidirecional para cada adaptador ou no nível de 
destino. O iSCSI de hardware independente oferece suporte ao CHAP somente no nível do 
adaptador.
Quando você definir os parâmetros do CHAP, especifique um nível de segurança para o CHAP.
Observação Quando você especifica o nível de segurança CHAP, a forma como a matriz 
de armazenamento responde depende da implementação CHAP da matriz e é específica 
do fornecedor. Para obter informações sobre o comportamento de autenticação CHAP em 
diferentes configurações de inicializador e de destino, consulte a documentação da matriz.
Tabela 11-2. Nível de segurança CHAP
Nível de segurança CHAP Descrição
Adaptadores de 
armazenamento 
compatíveis
Nenhuma O host não usa a autenticação CHAP. Se a autenticação 
estiver ativada, use esta opção para desativá-la.
Hardware independente 
iSCSI
Software iSCSI
ISCSI de hardware 
dependente
iSER
Usar CHAP unidirecional se 
exigido pelo destino
O host prefere uma conexão não CHAP, mas pode usar 
uma conexão CHAP se exigido pelo destino.
Software iSCSI
ISCSI de hardware 
dependente
iSER
Usar CHAP unidirecional, a 
menos que seja proibido pelo 
destino
O host prefere o CHAP, mas pode usar conexões não 
CHAP se o destino não for compatível com o CHAP.
Hardware independente 
iSCSI
Software iSCSI
ISCSI de hardware 
dependente
iSER
Usar CHAP unidirecional O host requer uma autenticação CHAP bem-sucedida. 
A conexão falhará se a negociação do CHAP falhar.
Hardware independente 
iSCSI
Software iSCSI
ISCSI de hardware 
dependente
iSER
Usar CHAP bidirecional O host e o destino oferecem suporte ao CHAP 
bidirecional.
Software iSCSI
ISCSI de hardware 
dependente
iSER
vSphere Storage
VMware, Inc. Traduzido automaticamente 123
Configurar o CHAP para o adaptador de armazenamento iSCSI ou 
iSER
Quando você configura o nome e o segredo do CHAP no nível do adaptador iSCSI / iSER, todos 
os destinos recebem os mesmos parâmetros do adaptador. Por padrão, todos os endereços 
de descoberta ou destinos estáticos herdam os parâmetros CHAP configurados no nível do 
adaptador.
O nome do CHAP não pode exceder 511 caracteres alfanuméricos e o segredo do CHAP não 
pode exceder 255 caracteres alfanuméricos. Alguns adaptadores, por exemplo, o adaptador 
QLogic, podem ter limites inferiores, 255 para o nome do CHAP e 100 para o segredo do CHAP.
Pré-requisitos
n Antes de configurar os parâmetros do CHAP para iSCSI de software ou hardware 
dependente, determine se deseja configurar o CHAP unidirecional ou bidirecional. Os 
adaptadores iSCSI de hardware independentes não são compatíveis com o CHAP 
bidirecional.
n Verifique os parâmetros do CHAP configurados no lado do armazenamento. Os parâmetros 
configurados devem corresponder aos do lado do armazenamento.
n Privilégio necessário: Host . Configuração . Configuração de partição de armazenamento 
Procedimentos
1 Navegue até o adaptador de armazenamento iSCSI ou iSER.
a No vSphere Client, navegue até o host ESXi.
b Clique na guia Configurar (Configure).
c Em Armazenamento (Storage), clique em Adaptadores de Armazenamento (Storage 
Adapters) e selecione o adaptador (vmhba #) a ser configurado.
2 Clique na guia Propriedades (Properties) e clique em Editar (Edit) no painel Autenticação 
(Authentication).
3 Especifique o método de autenticação.
n Nenhum(None)
n Use CHAP unidirecional se exigido pelo destino (Use unidirectional CHAP if required by 
target)
n Use CHAP unidirecional, a menos que seja proibido pelo destino (Use unidirectional 
CHAP unless prohibited by target)
n Usar CHAP unidirecional (Use unidirectional CHAP)
n Usar CHAP bidirecional (Use bidirectional CHAP). Para configurar o CHAP bidirecional, 
você deve selecionar essa opção.
vSphere Storage
VMware, Inc. Traduzido automaticamente 124
4 Especifique o nome do CHAP de saída.
Certifique-se de que o nome especificado corresponda ao nome configurado no lado do 
armazenamento.
n Para definir o nome do CHAP como o nome do adaptador iSCSI, selecione Usar nome do 
iniciador (Use initiator name).
n Para definir o nome do CHAP como algo diferente do nome do iniciador iSCSI, desmarque 
Usar nome do iniciador (Use initiator name) e insira um nome na caixa de texto Nome 
(Name).
5 Insira um segredo do CHAP de saída a ser usado como parte da autenticação. Use o mesmo 
segredo que você inseriu no lado do armazenamento.
6 Se estiver configurando o CHAP bidirecional, especifique as credenciais do CHAP de entrada.
Certifique-se de usar segredos diferentes para o CHAP de saída e de entrada.
7 Clique em Okey(OK).
8 Verifique novamente o adaptador iSCSI.
Resultados
Se você alterar os parâmetros CHAP, eles serão usados para novas sessões iSCSI. Para sessões 
existentes, novas configurações não serão usadas até que você faça logoff e logon novamente.
Próximo passo
Para obter outras etapas de configuração que você pode realizar para os adaptadores de 
armazenamento iSCSI ou iSER, consulte os seguintes tópicos:
n Configurar adaptadores iSCSI de hardware independentes
n Configurar adaptadores iSCSI de hardware dependente
n Configurar o adaptador iSCSI de software
n Configurar o iSER com ESXi
Configurar o CHAPpara o destino
Se você usar adaptadores iSCSI de hardware e software dependentes ou um adaptador de 
armazenamento iSER, poderá configurar credenciais CHAP diferentes para cada endereço de 
descoberta ou destino estático.
O nome do CHAP não pode exceder 511 e o CHAP secreta 255 caracteres alfanuméricos.
Pré-requisitos
n Antes de configurar os parâmetros do CHAP, determine se deseja configurar o CHAP 
unidirecional ou bidirecional.
n Verifique os parâmetros do CHAP configurados no lado do armazenamento. Os parâmetros 
configurados devem corresponder aos do lado do armazenamento.
vSphere Storage
VMware, Inc. Traduzido automaticamente 125
n Privilégio necessário: Host . Configuração . Configuração de partição de armazenamento 
Procedimentos
1 Navegue até o adaptador de armazenamento iSCSI ou iSER.
a No vSphere Client, navegue até o host ESXi.
b Clique na guia Configurar (Configure).
c Em Armazenamento (Storage), clique em Adaptadores de Armazenamento (Storage 
Adapters) e selecione o adaptador (vmhba #) a ser configurado.
2 Clique em Descoberta dinâmica (Dynamic Discovery) ou Descoberta estática (Static 
Discovery).
3 Na lista de destinos disponíveis, selecione um destino para configurar e clique em 
Autenticação (Authentication).
4 Desmarque Herdar configurações do pai (Inherit settings from parent) e especifique o 
método de autenticação.
n Nenhum(None)
n Use CHAP unidirecional se exigido pelo destino (Use unidirectional CHAP if required by 
target)
n Use CHAP unidirecional, a menos que seja proibido pelo destino (Use unidirectional 
CHAP unless prohibited by target)
n Usar CHAP unidirecional (Use unidirectional CHAP)
n Usar CHAP bidirecional (Use bidirectional CHAP). Para configurar o CHAP bidirecional, 
você deve selecionar essa opção.
5 Especifique o nome do CHAP de saída.
Certifique-se de que o nome especificado corresponda ao nome configurado no lado do 
armazenamento.
n Para definir o nome do CHAP como o nome do adaptador iSCSI, selecione Usar nome do 
iniciador (Use initiator name).
n Para definir o nome do CHAP como algo diferente do nome do iniciador iSCSI, desmarque 
Usar nome do iniciador (Use initiator name) e insira um nome na caixa de texto Nome 
(Name).
6 Insira um segredo do CHAP de saída a ser usado como parte da autenticação. Use o mesmo 
segredo que você inseriu no lado do armazenamento.
7 Se estiver configurando o CHAP bidirecional, especifique as credenciais do CHAP de entrada.
Certifique-se de usar segredos diferentes para o CHAP de saída e de entrada.
8 Clique em Okey(OK).
9 Verifique novamente o adaptador de armazenamento.
vSphere Storage
VMware, Inc. Traduzido automaticamente 126
Resultados
Se você alterar os parâmetros CHAP, eles serão usados para novas sessões iSCSI. Para sessões 
existentes, novas configurações não serão usadas até que você faça logout e login novamente.
Configurando parâmetros avançados para iSCSI
Você pode precisar configurar parâmetros adicionais para iniciadores iSCSI no seu host ESXi. 
Por exemplo, alguns sistemas de armazenamento iSCSI exigem redirecionamento ARP (Address 
Resolution Protocol) para mover o tráfego iSCSI dinamicamente de uma porta para outra. Nesse 
caso, você deve ativar o redirecionamento ARP no host.
A tabela a seguir lista os parâmetros iSCSI avançados que você pode configurar usando o 
vSphere Client. Além disso, você pode usar os comandos vSphere CLI para configurar alguns 
dos parâmetros avançados. Para obter informações, consulte a documentação do Introdução ao 
ESXCLI .
Dependendo do tipo de seus adaptadores, alguns parâmetros podem não estar disponíveis.
Importante Não altere as configurações avançadas do iSCSI, a menos que o suporte do 
VMware ou os fornecedores de armazenamento instruam você a alterá-las.
Tabela 11-3. Parâmetros adicionais para Iniciadores iSCSI
Parâmetro avançado Descrição
Resumo do cabeçalho Aumenta a integridade dos dados. Quando o parâmetro de resumo do cabeçalho está 
ativado, o sistema executa uma soma de verificação sobre cada parte do cabeçalho 
da Unidade de Dados de Protocolo (PDU) iSCSI. O sistema verifica os dados usando o 
algoritmo CRC32C.
Data Digest Aumenta a integridade dos dados. Quando o parâmetro de resumo de dados está 
ativado, o sistema executa uma soma de verificação sobre cada parte de dados da 
PDU. O sistema verifica os dados usando o algoritmo CRC32C.
Observação Os sistemas que usam os processadores Intel Nehalem descarregam os 
cálculos de resumo iSCSI para o software iSCSI. Esse descarregamento ajuda a reduzir 
o impacto sobre o desempenho.
ErrorRecoveryLevel Valor do nível de recuperação de erro iSCSI (ERL) que o iniciador iSCSI no host negocia 
durante um login.
LoginRetryMax Número máximo de vezes que o iniciador iSCSI ESXi tenta fazer login em um destino 
antes de encerrar as tentativas.
MaxOutstandingR2T Define as PDUs R2T (prontas para transferência) que podem estar em transição antes 
que uma PDU de confirmação seja recebida.
FirstBurstLength Especifica a quantidade máxima de dados não solicitados que um iniciador iSCSI pode 
enviar para o destino durante a execução de um único comando SCSI, em bytes.
MaxBurstLength Payload máximo de dados SCSI em uma sequência iSCSI Data-In ou Data-Out solicitada, 
em bytes.
MaxRecvDataSegLength Comprimento máximo do segmento de dados, em bytes, que pode ser recebido em 
uma PDU iSCSI.
vSphere Storage
VMware, Inc. Traduzido automaticamente 127
Tabela 11-3. Parâmetros adicionais para Iniciadores iSCSI (continuação)
Parâmetro avançado Descrição
MaxCommands Máximo de comandos SCSI que podem ser enfileirados no adaptador iSCSI.
DefaultTimeToWait Tempo mínimo em segundos para aguardar antes de tentar um logout ou uma 
reatribuição de tarefa ativa após um encerramento inesperado da conexão ou 
redefinição.
DefautTimeToRetain O tempo máximo em segundos, durante o qual a reatribuição da tarefa ativa ainda é 
possível após o término ou a redefinição de uma conexão.
LoginTimeout Tempo em segundos em que o iniciador aguardará a conclusão da resposta de login.
LogoutTimeout O tempo em segundos que o iniciador aguardará para obter uma resposta para a PDU 
de solicitação de logout.
RecoveryTimeout Especifica a quantidade de tempo, em segundos, que pode expirar enquanto uma 
recuperação de sessão é realizada. Se o tempo limite exceder o limite, o iniciador iSCSI 
encerrará a sessão.
Intervalo sem operação Especifica o intervalo de tempo, em segundos, entre solicitações de NOP-Out enviadas 
do seu iniciador iSCSI para um destino iSCSI. As solicitações de NOP-Out servem como 
o mecanismo de ping para verificar se uma conexão entre o iniciador iSCSI e o destino 
iSCSI está ativa.
Tempo limite sem operação Especifica a quantidade de tempo, em segundos, que pode expirar antes que o host 
receba uma mensagem NOP-In. O destino iSCSI envia a mensagem em resposta à 
solicitação de NOP-Out. Quando o tempo limite no-op é excedido, o iniciador encerra a 
sessão atual e inicia uma nova.
Redirecionamento de ARP Com esse parâmetro ativado, os sistemas de armazenamento podem mover o tráfego 
iSCSI dinamicamente de uma porta para outra. Os sistemas de armazenamento que 
executam failover baseado em matriz exigem o parâmetro ARP.
ACK atrasada Com esse parâmetro ativado, os sistemas de armazenamento podem atrasar o 
reconhecimento de pacotes de dados recebidos.
Configurar parâmetros avançados para iSCSI no host ESXi
As configurações avançadas do iSCSI controlam parâmetros como cabeçalho e resumo de 
dados, redirecionamento ARP, ACK atrasado e assim por diante.
Cuidado Não faça alterações nas configurações avançadas de iSCSI, a menos que você esteja 
trabalhando com a equipe de suporte VMware ou tenha informações completas sobre os valores 
para fornecer as configurações.
Pré-requisitos
Privilégio necessário: Host . Configuração . Configuração de partição de armazenamento 
Procedimentos
1 No vSphere Client, navegue até o host ESXi.
2 Clique na guia Configurar (Configure).
vSphere StorageVMware, Inc. Traduzido automaticamente 128
3 Em Armazenamento (Storage), clique em Adaptadores de Armazenamento (Storage 
Adapters) e selecione o adaptador (vmhba #) a ser configurado.
4 Configure parâmetros avançados.
Opção Descrição
No nível do adaptador Clique na guia Opções avançadas (Advanced Options) e clique em Editar 
(Edit).
No nível de destino a Clique em Descoberta dinâmica (Dynamic Discovery) ou Descoberta 
estática (Static Discovery).
b Na lista de destinos disponíveis, selecione um destino para configurar e 
clique em Avançado (Advanced).
 
5 Insira quaisquer valores necessários para os parâmetros avançados que você deseja 
modificar.
iSCSI Session Management
Para se comunicarem entre si, os iniciadores e os destinos iSCSI estabelecem sessões iSCSI. Você 
pode revisar e gerenciar sessões iSCSI usando vSphere CLI.
Por padrão, o iSCSI de software e os iniciadores iSCSI de hardware dependente iniciam uma 
sessão iSCSI entre cada porta do iniciador e cada porta de destino. Se o seu iniciador ou destino 
iSCSI tiver mais de uma porta, seu host poderá ter várias sessões estabelecidas. O número 
padrão de sessões para cada destino é igual ao número de portas no adaptador iSCSI vezes o 
número de portas de destino.
Usando vSphere CLI, você pode exibir todas as sessões atuais para analisá-las e depurá-las. Para 
criar mais caminhos para os sistemas de armazenamento, você pode aumentar o número padrão 
de sessões duplicando as sessões existentes entre o adaptador iSCSI e as portas de destino.
Você também pode estabelecer uma sessão para uma porta de destino específica. Esse recurso 
é útil se o host se conectar a um sistema de armazenamento de porta única que apresente 
apenas uma porta de destino para o iniciador. Em seguida, o sistema redireciona sessões 
adicionais para uma porta de destino diferente. Estabelecer uma nova sessão entre o iniciador 
iSCSI e outra porta de destino cria um caminho adicional para o sistema de armazenamento.
As seguintes considerações se aplicam ao gerenciamento de sessão iSCSI:
n Alguns sistemas de armazenamento não oferecem suporte a várias sessões do mesmo nome 
ou endpoint do iniciador. Tentativas de criar várias sessões para esses destinos podem 
resultar em um comportamento imprevisível do seu ambiente iSCSI.
n Os fornecedores de armazenamento podem fornecer gerenciadores de sessão automáticos. 
O uso da sessão automática consegue adicionar ou excluir sessões, não garante resultados 
duradouros e pode interferir com o desempenho do armazenamento.
vSphere Storage
VMware, Inc. Traduzido automaticamente 129
Revisar Sessões iSCSI
Use o comando vCLI para exibir sessões iSCSI entre um adaptador iSCSI e um sistema de 
armazenamento.
Pré-requisitos
Instale o ESXCLI. Consulte Introdução ao ESXCLI . Para solução de problemas, execute esxcli 
comandos no ESXi Shell.
Procedimentos
u Para listar sessões iSCSI, execute o seguinte comando:
lista de sessão esxcli iscsi 
O comando aceita estas opções:
Opção Descrição
-A | --adadter = str O nome do adaptador iSCSI, por exemplo, vmhba34.
-s | --isid = str O identificador de sessão iSCSI.
-n | --name = str O nome do destino iSCSI, por exemplo, iqn.X.
 
Adicionar Sessões iSCSI
Use o vCLI para adicionar uma sessão iSCSI a um destino especificado ou para duplicar uma 
sessão existente. Ao duplicar sessões, você aumenta o número padrão de sessões e cria 
caminhos adicionais para os sistemas de armazenamento.
Pré-requisitos
Instale o ESXCLI. Consulte Introdução ao ESXCLI . Para solução de problemas, execute esxcli 
comandos no ESXi Shell.
Procedimentos
u Para adicionar ou duplicar uma sessão iSCSI, execute o seguinte comando:
esxcli iscsi session add 
O comando aceita estas opções:
Opção Descrição
-A | --adapter = str O nome do adaptador iSCSI, por exemplo, vmhba34. Essa opção é 
necessária.
-s | --isid = str O ISID de uma sessão a ser duplicada. Você pode encontrá-lo listando todas 
as sessões.
-n | --name = str O nome do destino iSCSI, por exemplo, iqn.X.
 
vSphere Storage
VMware, Inc. Traduzido automaticamente 130
Próximo passo
Verifique novamente o adaptador iSCSI.
Remover Sessões iSCSI
Use o comando vCLI para remover uma sessão iSCSI entre um adaptador iSCSI e um destino.
Pré-requisitos
Instale o ESXCLI. Consulte Introdução ao ESXCLI . Para solução de problemas, execute esxcli 
comandos no ESXi Shell.
Procedimentos
u Para remover uma sessão, execute o seguinte comando:
esxcli iscsi session remove 
O comando aceita estas opções:
Opção Descrição
-A | --adadter = str O nome do adaptador iSCSI, por exemplo, vmhba34. Essa opção é 
necessária.
-s | --isid = str O ISID de uma sessão a ser removida. Você pode encontrá-lo listando todas 
as sessões.
-n | --name = str O nome do destino iSCSI, por exemplo, iqn.X.
 
Próximo passo
Verifique novamente o adaptador iSCSI.
vSphere Storage
VMware, Inc. Traduzido automaticamente 131
Inicializando a partir do iSCSI SAN 12
Quando você configura o host para inicializar a partir de uma SAN, a imagem de inicialização do 
host é armazenada em um ou mais LUNs no sistema de armazenamento da SAN. Quando o host 
é iniciado, ele é inicializado a partir do LUN na SAN em vez de seu disco local.
Você pode usar a inicialização a partir da SAN se não quiser lidar com a manutenção do 
armazenamento local ou se tiver configurações de hardware sem disco, como sistemas blade.
O ESXi oferece suporte a diferentes métodos de inicialização a partir da SAN iSCSI.
Tabela 12-1. Inicialização a partir do suporte à iSCSI SAN
Hardware Independente iSCSI Software iSCSI
Configure o iSCSI HBA para inicializar a 
partir da SAN. Para obter informações sobre 
como configurar o HBA, consulte Configurar o 
adaptador iSCSI de hardware independente para 
inicialização por SAN
Use o adaptador iSCSI de software e um adaptador de rede que 
suporte o formato iSCSI Boot Firmware Table (iBFT). Para obter 
informações, consulte VMware ESXi Instalação e configuração .
Este capítulo inclui os seguintes tópicos:
n Recomendações gerais para inicialização a partir de iSCSI SAN
n Preparar a SAN iSCSI
n Configurar o adaptador iSCSI de hardware independente para inicialização por SAN
Recomendações gerais para inicialização a partir de iSCSI 
SAN
Se você planeja configurar e usar um LUN iSCSI como dispositivo de inicialização para o seu host, 
siga algumas diretrizes gerais.
As diretrizes a seguir se aplicam à inicialização a partir do hardware independente iSCSI e iBFT.
n Revise as recomendações de qualquer fornecedor para o hardware que você usa na 
configuração de inicialização.
n Para pré-requisitos e requisitos de instalação, revise Instalação e Configuração do vSphere .
n Use endereços IP estáticos para reduzir as chances de conflitos de DHCP.
n Use LUNs diferentes para repositórios de dados e partições de inicialização VMFS.
VMware, Inc. Traduzido automaticamente 132
n Configure as ACLs apropriadas no seu sistema de armazenamento.
n O LUN de inicialização deve estar visível apenas para o host que usa o LUN. Nenhum 
outro host na SAN tem permissão para ver esse LUN de inicialização.
n Se um LUN for usado para um repositório de dados VMFS, vários hosts poderão 
compartilhar o LUN.
n Configure uma partição de diagnóstico.
n Apenas com o iSCSI de hardware independente, você pode colocar a partição de 
diagnóstico no LUN de inicialização. Se você configurar a partição de diagnóstico no LUN 
de inicialização, esse LUN não poderá ser compartilhado entre vários hosts. Se um LUN 
separado for usado para a partição de diagnóstico, vários hosts poderão compartilhar o 
LUN.
n Se você inicializar a partir do SAN usando o iBFT, não poderá configurar uma partição 
de diagnóstico em um LUN de SAN. Para coletar as informações de diagnóstico do host, 
use o Dump Collector do vSphere ESXi em um servidor remoto. Para obter informações 
sobre o ESXi Dump Collector, consulte vCenter Server Instalação e configuração e Rede 
do vSphere .
Preparar a SAN iSCSI
Antes de configuraro host para inicializar a partir de um LUN iSCSI, prepare e configure sua rede 
de área de armazenamento.
Cuidado Se você usar a instalação com script para instalar o ESXi durante a inicialização a partir 
de uma SAN, deverá tomar medidas especiais para evitar a perda de dados não intencional.
Procedimentos
1 Conecte os cabos de rede, consultando qualquer guia de cabeamento aplicável à sua 
configuração.
2 Garanta a conectividade IP entre o sistema de armazenamento e o servidor.
Verifique a configuração de quaisquer roteadores ou switches na sua rede de 
armazenamento. Os sistemas de armazenamento devem ser capazes de executar ping nos 
adaptadores iSCSI em seus hosts.
3 Configure o sistema de armazenamento.
a Crie um volume (ou LUN) no sistema de armazenamento para o seu host inicializar.
b Configure o sistema de armazenamento para que o host tenha acesso ao LUN atribuído.
Essa etapa pode envolver a atualização de ACLs com os endereços IP, os nomes 
iSCSI e o parâmetro de autenticação CHAP que você usa no host. Em alguns sistemas 
de armazenamento, além de fornecer informações de acesso para o host ESXi, você 
também deve associar explicitamente o LUN atribuído ao host.
vSphere Storage
VMware, Inc. Traduzido automaticamente 133
c Certifique-se de que o LUN seja apresentado ao host corretamente.
d Certifique-se de que nenhum outro sistema tenha acesso ao LUN configurado.
e Registre o nome iSCSI e os endereços IP dos destinos atribuídos ao host.
Você deve ter essas informações para configurar seus adaptadores iSCSI.
Configurar o adaptador iSCSI de hardware independente 
para inicialização por SAN
Se o seu host ESXi usar um adaptador iSCSI de hardware independente, como o QLogic HBA, 
você poderá configurar o adaptador para inicializar a partir da SAN.
Este procedimento descreve como habilitar o QLogic iSCSI HBA para inicializar a partir da SAN. 
Para obter mais informações e detalhes mais atualizados sobre as definições de configuração do 
adaptador QLogic, consulte o site do QLogic.
Procedimentos
1 Inicie a mídia de instalação e reinicie o host.
2 Use o BIOS para definir o host a ser inicializado a partir da mídia de instalação primeiro.
3 Durante o POST do servidor, pressione Crtl + q para entrar no menu de configuração do 
QLogic iSCSI HBA.
4 Selecione a porta de E / S a ser configurada.
Por padrão, o modo de Inicialização do Adaptador é definido como Desativar.
5 Configure o HBA.
a No menu Opções Rápidas! UTIL (Fast!UTIL Options), selecione Configurações de 
Configuração (Configuration Settings) > Configurações do Adaptador de Host (Host 
Adapter Settings).
b (Opcional) Defina as seguintes configurações para o adaptador do host: endereço IP do 
iniciador, máscara de sub-rede, gateway, nome iSCSI do iniciador e CHAP.
6 Defina as configurações do iSCSI.
Consulte Definir as configurações de inicialização do iSCSI.
7 Salve as alterações e reinicie o sistema.
Definir as configurações de inicialização do iSCSI
Configure os parâmetros de inicialização iSCSI para que o host ESXi possa ser inicializado a partir 
de um LUN iSCSI.
Procedimentos
1 No menu Opções Rápidas! UTIL (Fast!UTIL Options), selecione Definições de Configuração 
(Configuration Settings) > Configurações de Inicialização do iSCSI (iSCSI Boot Settings).
vSphere Storage
VMware, Inc. Traduzido automaticamente 134
2 Antes de definir SendTargets, defina o Modo de inicialização do adaptador como Manual 
(Manual).
3 Selecione Configurações do dispositivo de inicialização primária (Primary Boot Device 
Settings).
a Insira a descoberta IP de destino (Target IP) e Porta de destino (Target Port).
b Configure os parâmetros LUN de Inicialização (Boot LUN) e Nome iSCSI (iSCSI Name).
n Se apenas um destino iSCSI e um LUN estiverem disponíveis no endereço de destino, 
deixe LUN de inicialização (Boot LUN) e Nome iSCSI (iSCSI Name) em branco.
Depois que o host atingir o sistema de armazenamento de destino, essas caixas de 
texto serão preenchidas com as informações apropriadas.
n Se mais de um destino iSCSI e LUN estiverem disponíveis, forneça valores para LUN 
de inicialização (Boot LUN) e Nome iSCSI (iSCSI Name).
c Salve as alterações.
4 No menu Configurações de Inicialização do iSCSI (iSCSI Boot Settings), selecione o 
dispositivo de inicialização primário.
Uma nova verificação automática do HBA encontra novos LUNs de destino.
5 Selecione o destino iSCSI.
Se existir mais de um LUN no destino, você poderá selecionar uma ID de LUN específica 
pressionando Enter (Enter) depois de localizar o dispositivo iSCSI.
6 Retorne ao menu Configuração do dispositivo de inicialização primária (Primary Boot 
Device Setting). Após a nova verificação, LUN de inicialização (Boot LUN) e Nome iSCSI 
(iSCSI Name) serão preenchidos. Altere o valor de LUN de inicialização (Boot LUN) para o ID 
do LUN apropriado.
vSphere Storage
VMware, Inc. Traduzido automaticamente 135
Boas práticas para 
armazenamento iSCSI 13
Ao usar ESXi com o iSCSI SAN, siga as recomendações que VMware oferece para evitar 
problemas.
Verifique com seu representante de armazenamento se o seu sistema de armazenamento é 
compatível com os recursos de aceleração de hardware Storage API - Array Integration. Em caso 
afirmativo, consulte a documentação do fornecedor para habilitar o suporte à aceleração de 
hardware no lado do sistema de armazenamento. Para obter mais informações, consulte Capítulo 
24 Aceleração de hardware de armazenamento.
Este capítulo inclui os seguintes tópicos:
n Prevenção de problemas de SAN iSCSI
n Otimizando o desempenho do armazenamento iSCSI SAN
n Verificando as estatísticas do switch Ethernet
Prevenção de problemas de SAN iSCSI
Ao usar ESXi com uma SAN, você deve seguir diretrizes específicas para evitar problemas com a 
SAN.
Observe as seguintes dicas:
n Coloque apenas um repositório de dados VMFS em cada LUN.
n Não altere a política de caminho que o sistema define para você, a menos que você entenda 
as implicações de fazer essa alteração.
n Documente tudo. Inclua informações sobre configuração, controle de acesso, 
armazenamento, switch, servidor e configuração iSCSI HBA, versões de software e firmware 
e plano de cabos de armazenamento.
n Plano para falha:
n Faça várias cópias dos seus mapas de topologia. Para cada elemento, considere o que 
acontece com a SAN se o elemento falhar.
n Faça um crossout de links diferentes, switches, HBAs e outros elementos para garantir 
que você não perca um ponto de falha crítico no seu projeto.
VMware, Inc. Traduzido automaticamente 136
n Certifique-se de que os HBAs iSCSI estejam instalados nos slots corretos no host ESXi, com 
base na velocidade do slot e do barramento. Equilibre a carga do barramento PCI entre os 
barramentos disponíveis no servidor.
n Familiarize-se com os vários pontos de monitoramento em sua rede de armazenamento, 
em todos os pontos de visibilidade, incluindo ESXi gráficos de desempenho, estatísticas de 
switch Ethernet e estatísticas de desempenho de armazenamento.
n Alterar IDs de LUNs somente quando os repositórios de dados VMFS implantados nos LUNs 
não tiverem máquinas virtuais em execução. Se você alterar a ID, as máquinas virtuais em 
execução no repositório de dados VMFS poderão falhar.
Depois de alterar a ID do LUN, você deve verificar novamente o armazenamento para 
redefinir a ID no host. Para obter informações sobre como usar a nova verificação, consulte 
Operações de nova verificação de armazenamento.
n Se você alterar o nome iSCSI padrão do seu adaptador iSCSI, certifique-se de que o nome 
inserido seja mundialmente exclusivo e corretamente formatado. Para evitar problemas de 
acesso ao armazenamento, nunca atribua o mesmo nome iSCSI a diferentes adaptadores, 
mesmo em hosts diferentes.
Otimizando o desempenho do armazenamento iSCSI SAN
Vários fatores contribuem para a otimização de um ambiente típico de SAN.
Se o ambiente de rede estiver configurado corretamente, os componentes iSCSI fornecerão uma 
taxa de transferênciaadequada e uma latência baixa o suficiente para os iniciadores e destinos 
iSCSI. Se a rede estiver congestionada e os links, switches ou roteadores estiverem saturados, o 
desempenho iSCSI será prejudicado e poderá não ser adequado para ESXi ambientes.
Desempenho do sistema de armazenamento
O desempenho do sistema de armazenamento é um dos principais fatores que contribuem para 
o desempenho de todo o ambiente iSCSI.
Se ocorrerem problemas com o desempenho do sistema de armazenamento, consulte a 
documentação do fornecedor do sistema de armazenamento para obter informações relevantes.
Ao atribuir LUNs, lembre-se de que você pode acessar cada LUN compartilhado por meio de 
vários hosts e que várias máquinas virtuais podem ser executadas em cada host. Um LUN usado 
pelo host ESXi pode atender à E / S de muitos aplicativos diferentes em execução em diferentes 
sistemas operacionais. Devido a essa carga de trabalho diversificada, o grupo de RAID que 
contém os ESXi LUNs não deve incluir LUNs que outros hosts usam e que não estão executando 
o ESXi para aplicativos intensivos de E / S.
Ative o cache de leitura e o cache de gravação.
vSphere Storage
VMware, Inc. Traduzido automaticamente 137
O balanceamento de carga é o processo de espalhar solicitações de E / S do servidor entre 
todos os SPs disponíveis e seus caminhos de servidor de host associados. O objetivo é otimizar 
o desempenho em termos de taxa de transferência (E / S por segundo, megabytes por segundo 
ou tempos de resposta).
Os sistemas de armazenamento SAN exigem um novo design e ajuste contínuos para garantir 
que a E / S tenha carga balanceada em todos os caminhos do sistema de armazenamento. 
Para atender a esse requisito, distribua os caminhos para os LUNs entre todos os SPs para 
fornecer um balanceamento de carga ideal. Fechar o monitoramento indica quando é necessário 
rebalancear manualmente a distribuição do LUN.
Ajustar sistemas de armazenamento estaticamente balanceados é uma questão de monitorar 
as estatísticas de desempenho específicas (como operações de E / S por segundo, blocos por 
segundo e tempo de resposta) e distribuir a carga de trabalho do LUN para distribuir a carga de 
trabalho por todos os SPs.
Desempenho do servidor com iSCSI
Para garantir o desempenho ideal do host ESXi, considere vários fatores.
Cada aplicativo de servidor deve ter acesso ao armazenamento designado com as seguintes 
condições:
n Alta taxa de E / S (número de operações de E / S por segundo)
n Alta taxa de transferência (megabytes por segundo)
n Latência mínima (tempos de resposta)
Como cada aplicativo tem requisitos diferentes, você pode atender a essas metas selecionando 
um grupo de RAID apropriado no sistema de armazenamento.
Para alcançar as metas de desempenho, siga estas diretrizes:
n Coloque cada LUN em um grupo de RAID que forneça os níveis de desempenho necessários. 
Monitore as atividades e o uso de recursos de outros LUNS no grupo RAID atribuído. Um 
grupo de RAID de alto desempenho que tem muitos aplicativos fazendo E / S pode não 
atender às metas de desempenho exigidas por um aplicativo em execução no host ESXi.
n Para alcançar a taxa de transferência máxima para todos os aplicativos no host durante o 
período de pico, instale adaptadores de rede ou adaptadores de hardware iSCSI suficientes. 
A propagação de E / S em várias portas fornece taxa de transferência mais rápida e menos 
latência para cada aplicativo.
n Para fornecer redundância para o software iSCSI, certifique-se de que o iniciador esteja 
conectado a todos os adaptadores de rede usados para conectividade iSCSI.
n Ao alocar LUNs ou grupos RAID para sistemas ESXi, lembre-se de que vários sistemas 
operacionais usam e compartilham esse recurso. O desempenho do LUN exigido pelo host 
ESXi pode ser muito maior do que quando você usa máquinas físicas regulares. Por exemplo, 
se você espera executar quatro aplicativos intensivos de E / S, aloque quatro vezes a 
capacidade de desempenho para os LUNs ESXi.
vSphere Storage
VMware, Inc. Traduzido automaticamente 138
n Quando você usa vários ESXi sistemas com vCenter Server, os requisitos de desempenho de 
armazenamento aumentam.
n O número de E / Ss pendentes necessárias para os aplicativos em execução em um sistema 
ESXi deve corresponder ao número de E / Ss que a SAN pode suportar.
Desempenho da rede
Uma SAN típica consiste em uma coleção de computadores conectados a uma coleção 
de sistemas de armazenamento por meio de uma rede de switches. Vários computadores 
costumam acessar o mesmo armazenamento.
O gráfico a seguir mostra vários sistemas de computador conectados a um sistema de 
armazenamento por meio de um switch Ethernet. Nessa configuração, cada sistema é conectado 
por meio de um único link Ethernet ao switch. O switch está conectado ao sistema de 
armazenamento por meio de um único link Ethernet.
Figura 13-1. Conexão de link único Ethernet ao armazenamento
Quando os sistemas leem dados do armazenamento, o armazenamento responde com o 
envio de dados suficientes para preencher o link entre os sistemas de armazenamento e o 
switch Ethernet. É improvável que qualquer sistema ou máquina virtual aproveite ao máximo 
a velocidade da rede. No entanto, essa situação pode ser esperada quando muitos sistemas 
compartilham um dispositivo de armazenamento.
Ao gravar dados no armazenamento, vários sistemas ou máquinas virtuais podem tentar 
preencher seus links. Como resultado, a alternância entre os sistemas e o sistema de 
armazenamento pode descartar pacotes de rede. A queda de dados pode ocorrer porque o 
switch tem mais tráfego para enviar ao sistema de armazenamento do que um único link pode 
transportar. A quantidade de dados que o switch pode transmitir é limitada pela velocidade do 
link entre ele e o sistema de armazenamento.
vSphere Storage
VMware, Inc. Traduzido automaticamente 139
Figura 13-2. Pacotes descartados
1 Gbit
1 Gbit
1 Gbit
dropped packets
A recuperação de pacotes de rede descartados resulta em grande degradação do desempenho. 
Além do tempo gasto determinando que os dados foram descartados, a retransmissão usa 
largura de banda de rede que pode ser usada para transações atuais.
O tráfego iSCSI é transportado na rede pelo Transmission Control Protocol (TCP). O TCP é um 
protocolo de transmissão confiável que garante que os pacotes descartados sejam repetidos 
e, eventualmente, cheguem ao seu destino. O TCP é projetado para se recuperar de pacotes 
descartados e os retransmite de forma rápida e contínua. No entanto, quando o switch descarta 
pacotes com qualquer regularidade, a taxa de transferência da rede é prejudicada. A rede fica 
congestionada com solicitações para reenviar dados e com os pacotes reenviados. Menos dados 
são transferidos do que em uma rede sem congestionamento.
A maioria dos switches Ethernet pode armazenar em buffer ou armazenar dados. Essa técnica 
permite que todos os dispositivos que tentam enviar dados tenham a mesma chance de chegar 
ao destino. A capacidade de armazenar em buffer algumas transmissões, combinada com muitos 
sistemas que limitam o número de comandos pendentes, reduz as transmissões a pequenas 
rajadas. As rajadas de vários sistemas podem ser enviadas para um sistema de armazenamento 
por sua vez.
Se as transações forem grandes e vários servidores estiverem enviando dados por meio de uma 
única porta de switch, a capacidade de armazenar em buffer poderá ser excedida. Nesse caso, 
o switch descarta os dados que não podem enviar e o sistema de armazenamento deve solicitar 
uma retransmissão do pacote descartado. Por exemplo, se um switch Ethernet puder armazenar 
em buffer 32 KB, mas o servidor enviar 256 KB para o dispositivo de armazenamento, alguns dos 
dados serão descartados.
A maioria dos switches gerenciados fornece informações sobre pacotes descartados, 
semelhante ao seguinte:
*: interface is up
IHQ: pkts in input hold queue IQD: pkts dropped from input queue
OHQ: pkts in output hold queue OQD: pktsdropped from output queue
RXBS: rx rate (bits/sec) RXPS: rx rate (pkts/sec)
TXBS: tx rate (bits/sec) TXPS: tx rate (pkts/sec)
TRTL: throttle count
vSphere Storage
VMware, Inc. Traduzido automaticamente 140
Tabela 13-1. Amostra de informações do switch
Interface IHQ IQD AQS OQD RXBS RXPS TXBS TXPS TRTL
* 
GigabitEt
hernet0 / 
1
3 9922 0 0 4763030
00
62273 4778400
00
63677 0
Neste exemplo de um switch Cisco, a largura de banda usada é de 476303000 bits / segundo, 
que é menos da metade da velocidade do fio. A porta está armazenando em buffer os pacotes 
de entrada, mas descartou vários pacotes. A linha final deste resumo da interface indica que essa 
porta já descartou quase 10.000 pacotes de entrada na coluna IQD.
As alterações de configuração para evitar esse problema envolvem garantir que vários links 
Ethernet de entrada não sejam canalizados para um link de saída, resultando em um link com 
excesso de inscrições. Quando vários links que transmitem a capacidade próxima são comutados 
para um número menor de links, o excesso de inscrições se torna possível.
Geralmente, aplicativos ou sistemas que gravam muitos dados no armazenamento devem evitar 
o compartilhamento de links Ethernet com um dispositivo de armazenamento. Esses tipos de 
aplicativos funcionam melhor com várias conexões com dispositivos de armazenamento.
Várias conexões do switch para o armazenamento mostra várias conexões do switch para o 
armazenamento.
Figura 13-3. Várias conexões do switch para o armazenamento
1 Gbit
1 Gbit
1 Gbit
1 Gbit
O uso de VLANs ou VPNs não fornece uma solução adequada para o problema de excesso 
de inscrições de links em configurações compartilhadas. VLANs e outros particionamentos 
virtuais de uma rede fornecem uma maneira de projetar logicamente uma rede. No entanto, 
eles não alteram os recursos físicos de links e troncos entre switches. Quando o tráfego 
de armazenamento e outro tráfego de rede compartilham conexões físicas, o excesso de 
assinaturas e os pacotes perdidos podem se tornar possíveis. O mesmo acontece com as VLANs 
que compartilham troncos entre comutadores. O design de desempenho de uma SAN deve 
considerar as limitações físicas da rede, não as alocações lógicas.
Verificando as estatísticas do switch Ethernet
Muitos switches Ethernet fornecem métodos diferentes para monitorar a integridade do switch.
vSphere Storage
VMware, Inc. Traduzido automaticamente 141
Os switches que têm portas operando perto da taxa de transferência máxima na maior parte 
do tempo não oferecem desempenho ideal. Se você tiver portas na SAN iSCSI em execução 
próximas do máximo, reduza a carga. Se a porta estiver conectada a um sistema ESXi ou a um 
armazenamento iSCSI, você poderá reduzir a carga usando o balanceamento de carga manual.
Se a porta estiver conectada entre vários switches ou roteadores, considere instalar links 
adicionais entre esses componentes para lidar com mais carga. Os switches Ethernet também 
costumam fornecer informações sobre erros de transmissão, pacotes em fila e pacotes Ethernet 
descartados. Se o switch relatar regularmente qualquer uma dessas condições nas portas que 
estão sendo usadas para o tráfego iSCSI, o desempenho da SAN iSCSI será baixo.
vSphere Storage
VMware, Inc. Traduzido automaticamente 142
Gerenciamento de dispositivos de 
armazenamento 14
Gerencie o dispositivo de armazenamento local e em rede ao qual seu host ESXi tem acesso.
Este capítulo inclui os seguintes tópicos:
n Características do dispositivo de armazenamento
n Identificadores e nomes de dispositivos de armazenamento
n Operações de nova verificação de armazenamento
n Identificando problemas de conectividade do dispositivo
n Ativar ou desativar o localizador LED em ESXi dispositivos de armazenamento
n Apagar dispositivos de armazenamento
n Alterar as configurações de reserva perene
Características do dispositivo de armazenamento
Quando seu host ESXi se conecta a sistemas de armazenamento baseados em bloco, LUNs ou 
dispositivos de armazenamento compatíveis com ESXi ficam disponíveis para o host.
Depois que os dispositivos forem registrados com seu host, você poderá exibir todos os 
dispositivos locais e em rede disponíveis e revisar suas informações. Se você usar plug-ins de 
vários caminhos de terceiros, os dispositivos de armazenamento disponíveis por meio dos plug-
ins também aparecerão na lista.
Observação Se uma matriz oferecer suporte ao acesso de unidade lógica assimétrica implícita 
(ALUA) e tiver apenas caminhos em espera, o registro do dispositivo falhará. O dispositivo pode 
se registrar no host depois que o destino ativa um caminho em espera e o host o detecta 
como ativo. O parâmetro avançado do sistema /Disk/FailDiskRegistration controla esse 
comportamento do host.
Para cada adaptador de armazenamento, você pode exibir uma lista separada de dispositivos de 
armazenamento disponíveis para esse adaptador.
Geralmente, ao analisar os dispositivos de armazenamento, você vê as seguintes informações.
VMware, Inc. Traduzido automaticamente 143
Tabela 14-1. Informações do dispositivo de armazenamento
Informações do dispositivo 
de armazenamento Descrição
Nome Também chamado de Nome para Exibição. É um nome que o host ESXi atribui 
ao dispositivo com base no tipo de armazenamento e no fabricante. Geralmente, 
você pode alterar esse nome para um nome de sua escolha. Consulte Renomear 
dispositivos de armazenamento.
Identificador Um identificador universalmente exclusivo que é intrínseco ao dispositivo. Consulte 
Identificadores e nomes de dispositivos de armazenamento.
Estado operacional Indica se o dispositivo está conectado ou desconectado. Consulte Desanexar 
dispositivos de armazenamento.
LUN Número da Unidade Lógica (LUN) dentro do destino SCSI. O número do LUN é 
fornecido pelo sistema de armazenamento. Se um destino tiver apenas um LUN, o 
número do LUN será sempre zero (0).
Tipo Tipo de dispositivo, por exemplo, disco ou CD-ROM.
Tipo de unidade Informações sobre se o dispositivo é uma unidade flash ou uma unidade de disco 
rígido normal. Para obter informações sobre unidades flash e dispositivos NVMe, 
consulte Capítulo 15 Trabalhando com dispositivos flash.
Transporte Protocolo de transporte usado pelo host para acessar o dispositivo. O protocolo 
depende do tipo de armazenamento que está sendo usado. Consulte Tipos de 
armazenamento físico.
Capacidade Capacidade total do dispositivo de armazenamento.
Proprietário O plug-in, como o NMP ou um plug-in de terceiros, que o host usa para 
gerenciar caminhos para o dispositivo de armazenamento. Consulte Arquitetura de 
armazenamento conectável e gerenciamento de caminhos.
Aceleração de hardware Informações sobre se o dispositivo de armazenamento ajuda o host com operações 
de gerenciamento de máquina virtual. O status pode ser Com suporte, Sem suporte ou 
Desconhecido. Consulte Capítulo 24 Aceleração de hardware de armazenamento.
Formato do setor Indica se o dispositivo usa um formato de setor tradicional, 512n ou avançado, como 
512e ou 4Kn. Consulte Formatos de setor de dispositivo.
Localização Um caminho para o dispositivo de armazenamento no diretório / vmfs / 
devices / .
Formato da Partição Um esquema de partição usado pelo dispositivo de armazenamento. Pode ser do 
formato MBR (registro mestre de inicialização) ou da tabela de partição GUID (GPT). 
Os dispositivos GPT podem oferecer suporte a repositórios de dados maiores que 2 
TB. Consulte Formatos de setor de dispositivo.
Partições Partições primárias e lógicas, incluindo um repositório de dados VMFS, se configurado.
Políticas de vários caminhos Política de Seleção de Caminho e Política de Tipo de Matriz de Armazenamento que 
o host usa para gerenciar caminhos para o armazenamento. Consulte Capítulo 18 
Noções básicas sobre caminhos múltiplos e failover.
Caminhos Caminhos usados para acessar o armazenamento e seu status. Consulte Desativar 
caminhos de armazenamento.
vSphere Storage
VMware, Inc. Traduzidoautomaticamente 144
Exibir dispositivos de armazenamento para um host ESXi
Exibir todos os dispositivos de armazenamento disponíveis para um host ESXi. Se você usar 
plug-ins de vários caminhos de terceiros, os dispositivos de armazenamento disponíveis por meio 
dos plug-ins também aparecerão na lista.
A exibição Dispositivos de armazenamento permite listar os dispositivos de armazenamento dos 
hosts, analisar suas informações e modificar propriedades.
Procedimentos
1 No vSphere Client, navegue até o host ESXi.
2 Clique na guia Configurar (Configure).
3 Em Armazenamento (Storage), clique em Dispositivos de Armazenamento (Storage 
Devices).
Todos os dispositivos de armazenamento disponíveis para o host estão listados na tabela 
Dispositivos de armazenamento.
4 Para exibir os detalhes de um dispositivo específico, selecione o dispositivo na lista.
5 Use os ícones para realizar tarefas básicas de gerenciamento de armazenamento.
A disponibilidade de ícones específicos depende do tipo de dispositivo e da configuração.
Ícone Descrição
Atualizar Atualize as informações sobre adaptadores de armazenamento, 
topologia e sistemas de arquivos.
Desanexar Desanexe o dispositivo selecionado do host.
Anexar Anexe o dispositivo selecionado ao host.
Renomear Altere o nome de exibição do dispositivo selecionado.
Ligar LED Ligue o LED localizador para os dispositivos selecionados.
Desligar o LED Desligue o LED localizador dos dispositivos selecionados.
Marcar como disco flash Marque os dispositivos selecionados como discos flash.
Marcar como disco rígido Marque os dispositivos selecionados como discos HDD.
Marcar como local Marque os dispositivos selecionados como locais para o host.
Marcar como remoto Marque os dispositivos selecionados como remotos para o host.
Apagar partições Apague partições nos dispositivos selecionados.
Marcar como permanentemente 
reservada
Marque o dispositivo selecionado como sempre reservado.
Desmarcar como permanentemente 
reservada
Apague a reserva perene do dispositivo selecionado.
vSphere Storage
VMware, Inc. Traduzido automaticamente 145
6 Use as seguintes abas para acessar informações adicionais e modificar as propriedades do 
dispositivo selecionado.
Guia Descrição
Propriedades Visualizar propriedades e características do dispositivo. Visualizar e 
modificar políticas de caminhos múltiplos para o dispositivo.
Caminhos Exibir os caminhos disponíveis para o dispositivo. Desative ou ative um 
caminho selecionado.
Detalhes da Partição Exibe informações sobre partições e seus formatos.
 
Exibir dispositivos de armazenamento para um adaptador
Exibir uma lista de dispositivos de armazenamento acessíveis por meio de um adaptador de 
armazenamento específico em um host ESXi.
Procedimentos
1 No vSphere Client, navegue até o host ESXi.
2 Clique na guia Configurar (Configure).
3 Em Armazenamento (Storage), clique em Adaptadores de Armazenamento (Storage 
Adapters).
Todos os adaptadores de armazenamento instalados no host estão listados na tabela 
Adaptadores de Armazenamento.
4 Selecione o adaptador na lista e clique na guia Dispositivos (Devices).
São exibidos os dispositivos de armazenamento que o host pode acessar por meio do 
adaptador.
5 Use os ícones para realizar tarefas básicas de gerenciamento de armazenamento.
A disponibilidade de ícones específicos depende do tipo de dispositivo e da configuração.
Ícone Descrição
Atualizar Atualize as informações sobre adaptadores de armazenamento, topologia e sistemas de arquivos.
Desanexar Desanexe o dispositivo selecionado do host.
Anexar Anexe o dispositivo selecionado ao host.
Renomear Altere o nome de exibição do dispositivo selecionado.
Formatos de setor de dispositivo
O ESXi é compatível com dispositivos de armazenamento com formatos de setor tradicionais 
e avançados. No armazenamento, um setor é uma subdivisão de uma faixa em um disco ou 
dispositivo de armazenamento. Cada setor armazena uma quantidade fixa de dados.
Esta tabela apresenta diferentes formatos de dispositivos de armazenamento que o ESXi 
suporta.
vSphere Storage
VMware, Inc. Traduzido automaticamente 146
Formato do 
dispositivo de 
armazenament
o
ESXi Emulação de 
Software
Tamanho do 
setor lógico Tamanho do setor físico
Repositório de dados 
VMFS
512n N/D 512 512 VMFS5 e VMFS6 
(padrão)
512e N/D 512 4096 VMFS5 e VMFS56 
(padrão)
Observação Os 
dispositivos de 
armazenamento 512e 
locais não são 
compatíveis com VMFS5.
4Kn 512 4096 4096 VMFS6
Formato nativo de 512 bytes
O ESXi é compatível com dispositivos de armazenamento 512n tradicionais que usam um 
tamanho de setor nativo de 512 bytes.
Formato de emulação de 512 bytes
Devido à crescente demanda por capacidades maiores, a indústria de armazenamento introduziu 
formatos avançados, como emulação de 512 bytes ou 512e. 512e é o formato avançado no qual 
o tamanho do setor físico é 4096 bytes, mas o setor lógico emula o tamanho do setor de 
512 bytes. Dispositivos de armazenamento que usam o formato 512e podem oferecer suporte 
a aplicativos legados e sistemas operacionais convidados. Esses dispositivos servem como uma 
etapa intermediária para as unidades do setor 4Kn.
Formato nativo de 4K com emulação de software
Outro formato avançado que ESXi suporta é a tecnologia do setor 4Kn. Nos dispositivos 4Kn, 
os setores físico e lógico têm 4096 bytes (4 KiB) de comprimento. O dispositivo não tem uma 
camada de emulação, mas expõe seu tamanho de setor físico de 4Kn diretamente a ESXi.
ESXi detecta e registra os dispositivos 4Kn e os emula automaticamente como 512e. O 
dispositivo é apresentado às camadas superiores em ESXi como 512e. Mas os sistemas 
operacionais convidados sempre o veem como um dispositivo 512n. Você pode continuar usando 
VMs existentes com sistemas operacionais convidados herdados e aplicativos no host com os 
dispositivos 4Kn.
Quando você usa dispositivos 4Kn, as seguintes considerações se aplicam:
n ESXi é compatível apenas com HDDs SAS e SATA 4Kn locais.
n ESXi não é compatível com dispositivos 4Kn SSD e NVMe, ou dispositivos 4Kn como RDMs.
n ESXi só pode ser inicializado a partir de um dispositivo 4Kn com UEFI.
n Você pode usar o dispositivo 4Kn para configurar uma partição e um arquivo coredump.
vSphere Storage
VMware, Inc. Traduzido automaticamente 147
n Somente o plug-in NMP pode reivindicar os dispositivos 4Kn. Você não pode usar o HPP para 
reivindicar esses dispositivos.
n Com o vSAN, você pode usar apenas HDDs com capacidade de 4Kn para matrizes híbridas 
do vSAN. Para obter informações, consulte a documentação do Administrando VMware 
vSAN .
n Devido à camada de emulação de software, o desempenho dos dispositivos 4Kn depende do 
alinhamento das E / Ss. Para obter o melhor desempenho, execute cargas de trabalho que 
emitem principalmente E / Ss alinhadas em 4K.
n As cargas de trabalho que acessam o dispositivo 4Kn emulado diretamente usando a 
dispersão-reunir E / S (SGIO) devem emitir E / Ss compatíveis com o disco 512e.
Exemplo: Determinar o formato do dispositivo
Para determinar se o dispositivo usa o formato 512n, 512e ou 4Kn, execute o seguinte comando.
esxcli storage core device capacity list
O exemplo de saída a seguir mostra o tipo de formato.
Device Physical Blocksize Logical Blocksize Logical Block Count 
Size Format Type
-------------------- ------------------ ----------------- ------------------- 
----------- -----------
naa.5000xxxxxxxxx36f 512 512 2344225968 1144641 
MiB 512n
naa.5000xxxxxxxxx030 4096 512 3516328368 1716957 
MiB 4Kn SWE
naa.5000xxxxxxxxx8df 512 512 2344225968 1144641 
MiB 512n
naa.5000xxxxxxxxx4f4 4096 512 3516328368 1716957 
MiB 4Kn SWE
Identificadores e nomes de dispositivos de armazenamento
No ambiente ESXi, cada dispositivo de armazenamento é identificado por vários nomes.Identificadores de dispositivo
Dependendo do tipo de armazenamento, o host ESXi usa algoritmos e convenções diferentes 
para gerar um identificador para cada dispositivo de armazenamento.
Identificadores fornecidos pelo armazenamento
O host ESXi consulta um nome de dispositivo em um dispositivo de armazenamento de 
destino. A partir dos metadados retornados, o host extrai ou gera um identificador exclusivo 
vSphere Storage
VMware, Inc. Traduzido automaticamente 148
para o dispositivo. O identificador é baseado em padrões de armazenamento específicos, é 
exclusivo e persistente em todos os hosts e tem um dos seguintes formatos:
n naa. xxx 
n eui. xxx 
n t10. xxx 
Identificador baseado em caminho
Quando o dispositivo não fornece um identificador, o host gera um mpx. caminho 
nome, onde caminho representa o primeiro caminho para o dispositivo, por exemplo, 
mpx.vmhba1:C0:T1:L3. Esse identificador pode ser usado da mesma maneira que o 
armazenamento fornecido identifica.
O mpx.O identificador path é criado para dispositivos locais na suposição de que seus nomes 
de caminho sejam exclusivos. No entanto, esse identificador não é exclusivo ou persistente e 
pode ser alterado após cada reinicialização do sistema.
Normalmente, o caminho para o dispositivo tem o seguinte formato:
vmhba Adaptador : C Canal : T Destino : L LUN 
n vmhba Adaptador é o nome do adaptador de armazenamento. O nome refere-se ao 
adaptador físico no host, não ao controlador SCSI usado pelas máquinas virtuais.
n C Canal é o número do canal de armazenamento.
Os adaptadores iSCSI de software e os adaptadores de hardware dependentes usam o 
número do canal para mostrar vários caminhos para o mesmo destino.
n T Destino é o número de destino. A numeração de destino é determinada pelo host e 
pode mudar quando os mapeamentos de destinos visíveis para o host são alterados. 
Os destinos compartilhados por hosts diferentes podem não ter o mesmo número de 
destino.
n L LUN é o número do LUN que mostra a posição do LUN no destino. O número do LUN 
é fornecido pelo sistema de armazenamento. Se um destino tiver apenas um LUN, o 
número do LUN será sempre zero (0).
Por exemplo, vmhba1:C0:T3:L1 representa LUN1 no destino 3 acessado por meio do 
adaptador de armazenamento vmhba1 e do canal 0.
Identificador legado
Além dos identificadores fornecidos pelo dispositivo ou mpx.Identificadores path . ESXi gera 
um nome legado alternativo para cada dispositivo. O identificador tem o seguinte formato:
vml.number
vSphere Storage
VMware, Inc. Traduzido automaticamente 149
O identificador herdado inclui uma série de dígitos que são exclusivos para o dispositivo. 
O identificador pode ser derivado em parte dos metadados obtidos por meio do comando 
SCSI INQUIRY. Para dispositivos não locais que não fornecem identificadores SCSI INQUIRY, o 
vml.O identificador number é usado como o único identificador exclusivo disponível.
Exemplo: Exibindo nomes de dispositivo no vSphere CLI
Você pode usar o comando esxcli storage core device list para exibir todos os nomes 
de dispositivo no vSphere CLI. A saída é semelhante ao seguinte exemplo:
# esxcli storage core device list
naa.XXX
 Display Name: DGC Fibre Channel Disk(naa.XXX)
 ... 
 Other UIDs: vml.000XXX
mpx.vmhba1:C0:T0:L0
 Display Name: Local VMware Disk (mpx.vmhba1:C0:T0:L0)
 ...
 Other UIDs: vml.0000000000XYZ
Dispositivos NVMe com identificadores de dispositivo NGUID
Para dispositivos NVMe, o ESXi gera identificadores de dispositivo com base nas informações 
que ele recupera dos dispositivos. Geralmente, os dispositivos NVMe suportam identificadores 
nos formatos EUI64 ou NGUID, ou usam ambos os formatos. NGUID é um identificador global 
exclusivo de namespace que usa o formato de designador de 16 bytes EUI64.
Para os dispositivos que suportam apenas o formato NGUID, o identificador do dispositivo 
gerado pelo host muda dependendo da versão do ESXi. O host ESXi da versão 6.7 e anteriores 
criou o t10.Identificador de xxx_controller_serial_number . A partir do 6.7 Update 1, o host cria 
dois identificadores: eui. xxx (NGUID) como principal e t10. xxx_controller_serial_number como 
primário alternativo.
vSphere Storage
VMware, Inc. Traduzido automaticamente 150
Formatos de ID compatíveis com o dispositivo Identificador de dispositivo gerado pelo host
Formato de ID EUI64 Formato de ID do NGUID
ESXi 6.7 e versões 
anteriores
ESXi 6.7 Update 1 e 
posteriores
sim sim t10. xxx_EUI64 t10. xxx_EUI64 
sim não t10. xxx_EUI64 t10. xxx_EUI64 
não sim t10. 
xxx_controller_serial_numb
er 
eui. xxx (NGUID) como ID 
principal
t10. 
xxx_controller_serial_numb
er como ID primário 
alternativo
Observação Se o seu host tiver dispositivos somente NGUID e você atualizar o host 
para o ESXi 7.0.x de uma versão anterior, o identificador do dispositivo mudará de t10. 
xxx_controller_serial_number para eui. xxx (NGUID) em todo o ambiente do ESXi. Se você usar 
o identificador do dispositivo em qualquer um dos seus scripts de cliente, deverá refletir essa 
alteração de formato.
Verificar o mapeamento entre identificadores de dispositivos primários e 
alternativos
Use o comando esxcli storage core device uidmap list para verificar os identificadores 
do dispositivo. A saída é semelhante à seguinte:
 esxcli storage core device uidmap list
eui.0000xyz.....
 Primary UID: eui.0000xyz.....
 Alternative Primary UIDs: t10.0000abc....
 Legacy UID: vml.0000000000766d68....
 Alternative Legacy UIDs: vml.000000000080906....
Atualizar hosts ESXi sem estado com dispositivos NVMe somente 
NGUID para a versão 7.0.x
Se o seu ambiente contiver hosts ESXi sem estado da versão 6.7 e anteriores e incluir 
dispositivos NVMe compatíveis apenas com o formato NGUID, use o fluxo de trabalho atual para 
atualizar os hosts para a versão 7.0.x.
Ao atualizar seus hosts sem monitoração de estado da versão 6.7 e anteriores para a versão 
7.0.x, execute estas etapas para manter a configuração de armazenamento. Se você realizar 
a atualização sem seguir as instruções, todas as configurações de armazenamento capturadas 
nos perfis de host podem não ser mantidas durante a atualização. Como resultado, você pode 
encontrar falhas de conformidade do perfil de host após a atualização.
Pré-requisitos
n Seu ambiente contém hosts sem estado do ESXi 6.7 ou anteriores.
vSphere Storage
VMware, Inc. Traduzido automaticamente 151
n O ambiente inclui dispositivos NVMe que suportam apenas o formato NGUID.
Procedimentos
1 Determine se o host contém dispositivos NVMe somente NGUID.
a Verifique se o fornecedor do dispositivo é NVMe.
Use o seguinte comando como exemplo.
# esxcli storage core device list -d eui.f04xxxxxxxxx0000000100000001
eui.f04xxxxxxxxx0000000100000001
Display Name: Local NVMe Disk (eui.f04xxxxxxxxx0000000100000001)
Has Settable Display Name: true
Devfs Path: /vmfs/devices/disks/eui.f04bxxxxxxxxx0000000100000001
Vendor: NVMe
A linha Vendor: NVMe indica que o dispositivo é NVMe.
b Determine qual HBA está conectado ao dispositivo NVMe.
# esxcli storage core adapter device list
HBA Device UID
------ -------------------------------
vmhba2 eui.f04xxxxxxxxx0000000100000001
c Obtenha as informações do namespace para o dispositivo NVMe usando o HBA e a ID do 
namespace.
# esxcli nvme device namespace get -A vmhba2 -n 1
Namespace Identify Info:
Namespace Size: 0xe8e088b0 Logical Blocks
Namespace Capacity: 0xe8e088b0 Logical Blocks
. . .
NVM Capacity: 0x1d1c1116000
Namespace Globally Unique Identifier: 0xf04xxxxxxxxx0000000100000001
IEEE Extended Unique Identifier: 0x0
Na saída, para um dispositivo NVMe somente NGUID, o campo IEEE Extended Unique 
Identifier contém 0 e Namespace Globally Unique Identifier contém um valor 
diferente de zero.
vSphere Storage
VMware, Inc. Traduzido automaticamente 152
2 Para manter as configurações de armazenamento capturadas no perfil do host, execute estas 
etapas ao atualizar um host sem monitoração de estado para o 7.0.x.
a Antes da atualização,armazene esx.conf em um local persistente.
Por exemplo, você pode copiar o arquivo esx.conf para um datastore VMFS.
# cp /etc/vmware/esx.conf /vmfs/volumes/datastore1/
b Atualize o host.
Após a atualização, o host não está em conformidade com o perfil e pode permanecer no 
modo de manutenção.
c Aplique as configurações do dispositivo para dispositivos NVMe somente NGUID usando 
novos formatos de ID.
Execute o seguinte comando do host indicando a localização do arquivo esx.conf.
 # python ./usr/lib/vmware/nvme-nguid-support/bin/nguidApplySettings.pyc -l /vmfs/
volumes/datastore1/
3 Copie as configurações do host e redefina as personalizações do host.
a No vSphere Client, clique em Home ( Home) > Policies and Profiles ( Policies and 
Profiles) > Host Profiles ( Host Profiles) e clique no perfil anexado ao host.
b Clique na guia Configurar (Configure tab) > Copiar configuração do host (Copy Setting 
from Host) e selecione o host.
c Para redefinir as personalizações, navegue até o host e selecione Perfis de host (Host 
Profiles) > Redefinir personalizações de host (Reset Host Customizations) no menu do 
botão direito do mouse.
4 No menu de atalho do host, selecione Perfis de host (Host Profiles) > Corrigir (Remediate).
O host se torna compatível.
5 Reinicie o host e saia do modo de manutenção.
Exemplo: Atualizar o ESXi host sem reter as configurações de armazenamento
Se você não mantiver as configurações de armazenamento capturadas no perfil do host, depois 
de atualizar o host, você poderá encontrar algumas falhas de conformidade no host. Nesse caso, 
copie as configurações do host e redefina as personalizações do host.
Renomear dispositivos de armazenamento
O host ESXi atribui um nome de exibição a um dispositivo de armazenamento com base no tipo 
de armazenamento e no fabricante. Você pode alterar o nome de exibição do dispositivo.
Não é possível renomear certos tipos de dispositivos locais.
vSphere Storage
VMware, Inc. Traduzido automaticamente 153
Procedimentos
1 No vSphere Client, navegue até o host ESXi.
2 Clique na guia Configurar (Configure).
3 Em Armazenamento (Storage), clique em Dispositivos de Armazenamento (Storage 
Devices).
4 Selecione o dispositivo a ser renomeado e clique em Renomear (Rename).
5 Altere o nome do dispositivo para um apelido.
Operações de nova verificação de armazenamento
Quando você executa tarefas de gerenciamento de armazenamento ou faz alterações na 
configuração da SAN, pode ser necessário verificar novamente o armazenamento.
Quando você executa operações de gerenciamento de repositório de dados VMFS, como a 
criação de um repositório de dados VMFS ou RDM, adicionando uma extensão e aumentando 
ou excluindo um repositório de dados VMFS, seu host ou o vCenter Server automaticamente 
redistribui e atualiza seu armazenamento. Você pode desativar o recurso de nova verificação 
automática desativando o filtro de nova verificação do host. Consulte Desativar filtros de 
armazenamento.
Em certos casos, você precisa realizar uma nova verificação manual. Você pode verificar 
novamente todo o armazenamento disponível para o seu host ou para todos os hosts em uma 
pasta, cluster e centro de dados.
Se as alterações feitas forem isoladas para o armazenamento conectado por meio de um 
adaptador específico, realize uma nova verificação para esse adaptador.
Execute a nova verificação manual toda vez que fizer uma das seguintes alterações.
n Zona uma nova matriz de disco em uma SAN.
n Crie novos LUNs em uma SAN.
n Altere o mascaramento do caminho em um host.
n Reconecte um cabo.
n Altere as configurações do CHAP (somente iSCSI).
n Adicione ou remova endereços estáticos ou de descoberta (somente iSCSI).
n Adicione um único host ao vCenter Server depois de editar ou remover do vCenter Server 
um repositório de dados compartilhado pelos vCenter Server e pelo único host.
Importante Se você verificar novamente quando um caminho estiver indisponível, o host 
removerá o caminho da lista de caminhos para o dispositivo. O caminho reaparece na lista assim 
que fica disponível e começa a funcionar novamente.
vSphere Storage
VMware, Inc. Traduzido automaticamente 154
Executar nova verificação de armazenamento
Ao fazer alterações na configuração da SAN, talvez seja necessário verificar novamente o 
armazenamento. Você pode verificar novamente todo o armazenamento disponível para seu 
host, cluster ou centro de dados ESXi. Se as alterações feitas forem isoladas no armazenamento 
acessado por meio de um host específico, realize a nova verificação somente desse host.
Procedimentos
1 No vSphere Client navegador de objetos, navegue até um host, um cluster, um centro de 
dados ou uma pasta que contenha hosts.
2 No menu do botão direito do mouse, selecione Armazenamento (Storage) > Verificar 
novamente o Armazenamento (Rescan Storage).
3 Especifique a extensão da nova verificação.
Opção Descrição
Verificar novos dispositivos de 
armazenamento
Verifique novamente todos os adaptadores para descobrir novos 
dispositivos de armazenamento. Se novos dispositivos forem descobertos, 
eles aparecerão na lista de dispositivos.
Verificar novos volumes VMFS Verifique novamente todos os dispositivos de armazenamento para 
descobrir novos repositórios de dados que foram adicionados desde a 
última verificação. Quaisquer novos repositórios de dados aparecem na lista 
de repositórios de dados.
 
Executar nova verificação do adaptador
Quando você fizer alterações na configuração da SAN e essas alterações forem isoladas para 
o armazenamento acessado por meio de um adaptador específico no host ESXi, execute a 
verificação novamente somente para esse adaptador.
Procedimentos
1 No vSphere Client, navegue até o host ESXi.
2 Clique na guia Configurar (Configure).
3 Em Armazenamento (Storage), clique em Adaptadores de Armazenamento (Storage 
Adapters) e selecione o adaptador a ser verificado novamente na lista.
4 Clique no ícone Verificar novamente o adaptador (Rescan Adapter).
Alterar o número de dispositivos de armazenamento verificados
O intervalo de IDs de LUN verificadas para um host ESXi pode ser de 0 a 16.383. ESXi ignora 
IDs de LUN maiores que 16.383. O parâmetro configurável Disk.MaxLUN controla o intervalo do 
intervalo de ID do LUN digitalizado. O parâmetro tem um valor padrão de 1024.
vSphere Storage
VMware, Inc. Traduzido automaticamente 155
O parâmetro Disk.MaxLUN também determina quantos LUNs o código de verificação SCSI 
tenta descobrir usando comandos INQUIRY individuais se o destino SCSI não oferecer suporte 
à descoberta direta usando REPORT_LUNS.
Você pode modificar o parâmetro Disk.MaxLUN de acordo com suas necessidades. Por 
exemplo, se o seu ambiente tiver um número menor de dispositivos de armazenamento com IDs 
de LUN de 1 a 100, defina o valor como 101. Como resultado, você pode melhorar a velocidade 
de descoberta de dispositivos em destinos que não são compatíveis com REPORT_LUNS. A 
redução do valor pode reduzir o tempo de nova verificação e o tempo de inicialização. No 
entanto, o tempo para verificar novamente os dispositivos de armazenamento também pode 
depender de outros fatores, incluindo o tipo do sistema de armazenamento e a carga no sistema 
de armazenamento.
Em outros casos, pode ser necessário aumentar o valor se o seu ambiente usar IDs de LUN 
superiores a 1023.
Procedimentos
1 No vSphere Client, navegue até o host ESXi.
2 Clique na guia Configurar (Configure).
3 Em Sistema (System), clique em Configurações avançadas do sistema (Advanced System 
Settings).
4 Na tabela Configurações avançadas do sistema, selecione Disk.MaxLUN (Disk.MaxLUN) e 
clique no ícone Editar (Edit ).
5 Altere o valor existente para o valor de sua escolha e clique em OK (OK).
O valor inserido especifica a ID do LUN após a última que você deseja descobrir.
Por exemplo, para descobrir IDs de LUN de 1 a 100, defina Disk.MaxLUN (Disk.MaxLUN) 
como 101.
Identificando problemas de conectividade do dispositivo
Quando seu host ESXiapresenta um problema durante a conexão com um dispositivo de 
armazenamento, o host trata o problema como permanente ou temporário, dependendo de 
certos fatores.
Os problemas de conectividade de armazenamento são causados por vários motivos. Embora 
ESXi nem sempre possa determinar o motivo de um dispositivo de armazenamento ou seus 
caminhos não estarem disponíveis, o host diferencia entre um estado de perda de dispositivo 
permanente (PDL) do dispositivo e um estado de armazenamento transitório todos os caminhos 
inativos (APD).
Perda permanente de dispositivo (PDL)
vSphere Storage
VMware, Inc. Traduzido automaticamente 156
Uma condição que ocorre quando um dispositivo de armazenamento falha permanentemente 
ou é removido ou excluído administrativamente. Não é esperado que ele fique disponível. 
Quando o dispositivo fica indisponível permanentemente, ESXi recebe códigos de detecção 
apropriados ou uma rejeição de login de matrizes de armazenamento e é capaz de 
reconhecer que o dispositivo está perdido permanentemente.
Todos os caminhos desativados (APD)
Uma condição que ocorre quando um dispositivo de armazenamento se torna inacessível 
ao host e nenhum caminho para o dispositivo está disponível. ESXi trata isso como uma 
condição transitória, porque normalmente os problemas com o dispositivo são temporários e 
espera-se que o dispositivo fique disponível novamente.
Problemas de conectividade e alta disponibilidade do vSphere
Quando o dispositivo entra no estado de PDL ou APD, o vSphere High Availability (HA) pode 
detectar problemas de conectividade e fornecer recuperação automatizada para as máquinas 
virtuais afetadas no host ESXi. O vSphere HA usa a VM Component Protection (VMCP) para 
proteger as máquinas virtuais em execução no host no cluster vSphere HA contra falhas de 
acessibilidade. Para obter mais informações sobre o VMCP e como configurar respostas para 
repositórios de dados e máquinas virtuais quando a condição de APD ou PDL ocorre, consulte a 
documentação Disponibilidade do vSphere .
Detectando condições de PDL
Um dispositivo de armazenamento é considerado no estado de perda de dispositivo permanente 
(PDL) quando se torna permanentemente indisponível para o seu host ESXi.
Normalmente, a condição da PDL ocorre quando um dispositivo é removido acidentalmente, ou 
quando seu ID exclusivo é alterado, ou quando o dispositivo apresenta um erro de hardware 
irrecuperável.
Quando a matriz de armazenamento determina que o dispositivo está permanentemente 
indisponível, ela envia códigos de detecção SCSI para o host ESXi. Depois de receber os códigos 
de detecção, seu host reconhece o dispositivo como com falha e registra o estado do dispositivo 
como PDL. Para que o dispositivo seja considerado perdido permanentemente, os códigos de 
detecção devem ser recebidos em todos os seus caminhos.
Depois de registrar o estado da PDL do dispositivo, o host interrompe as tentativas de 
restabelecer a conectividade ou de enviar comandos para o dispositivo.
O vSphere Client exibe as seguintes informações para o dispositivo:
n O estado operacional do dispositivo muda para Lost Communication.
n Todos os caminhos são mostrados como Dead.
n Os repositórios de dados no dispositivo não estão disponíveis.
vSphere Storage
VMware, Inc. Traduzido automaticamente 157
Se não existir nenhuma conexão aberta com o dispositivo ou após o fechamento da última 
conexão, o host removerá o dispositivo PDL e todos os caminhos para o dispositivo. Você 
pode desativar a remoção automática de caminhos definindo o parâmetro de host avançado 
Disk.AutoremoveOnPDL como 0.
Se o dispositivo retornar da condição de PDL, o host poderá descobri-la, mas a tratará como um 
novo dispositivo. A consistência de dados para máquinas virtuais no dispositivo recuperado não 
é garantida.
Observação Quando um dispositivo falha sem enviar códigos de detecção SCSI apropriados 
ou uma rejeição de login iSCSI, o host não pode detectar condições de PDL. Nesse caso, o host 
continua a tratar os problemas de conectividade do dispositivo como APD, mesmo quando o 
dispositivo falha permanentemente.
Perda permanente de dispositivo e códigos de detecção de SCSI
O exemplo de log VMkernel a seguir de um código de detecção SCSI indica que o dispositivo 
está no estado PDL.
H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x25 0x0 or Logical Unit Not Supported
Perda permanente de dispositivo e iSCSI
Em matrizes iSCSI com um único LUN por destino, a PDL é detectada por meio de falha de login 
iSCSI. Uma matriz de armazenamento iSCSI rejeita as tentativas do seu host de iniciar uma sessão 
iSCSI com um motivo Target Unavailable. Assim como acontece com os códigos de detecção, 
essa resposta deve ser recebida em todos os caminhos para que o dispositivo seja considerado 
perdido permanentemente.
Perda permanente de dispositivo e máquinas virtuais
Depois de registrar o estado da PDL do dispositivo, o host fecha todas as E / S das máquinas 
virtuais. vSphere HA pode detectar a PDL e reiniciar máquinas virtuais com falha.
Realizando a remoção do dispositivo de armazenamento planejado
Quando um dispositivo de armazenamento está com mau funcionamento, você pode 
evitar condições de perda permanente do dispositivo (PDL) ou condições de todos os 
caminhos inativos (APD). Realize uma remoção e reconexão planejadas de um dispositivo de 
armazenamento.
A remoção planejada do dispositivo é uma desconexão intencional de um dispositivo de 
armazenamento. Você também pode planejar remover um dispositivo por motivos como 
atualizar seu hardware ou reconfigurar seus dispositivos de armazenamento. Quando você 
executa uma remoção e reconexão ordenadas de um dispositivo de armazenamento, conclui 
uma série de tarefas.
vSphere Storage
VMware, Inc. Traduzido automaticamente 158
Tarefa Descrição
Migre as máquinas virtuais do dispositivo que você planeja desanexar. vCenter Server e Gerenciamento de Host 
Desmonte o datastore implantado no dispositivo. Consulte Desmontar repositórios de dados.
Desconecte o dispositivo de armazenamento. Consulte Desanexar dispositivos de 
armazenamento.
Para um dispositivo iSCSI com um único LUN por destino, exclua a 
entrada de destino estático de cada HBA iSCSI que tenha um caminho 
para o dispositivo de armazenamento.
Consulte Remover destinos iSCSI dinâmicos 
ou estáticos.
Realize qualquer reconfiguração necessária do dispositivo de 
armazenamento usando o console da matriz.
Consulte a documentação do fornecedor.
Reconecte o dispositivo de armazenamento. Consulte Anexar dispositivos de 
armazenamento.
Monte o repositório de dados e reinicie as máquinas virtuais. Consulte Montar repositórios de dados.
Desanexar dispositivos de armazenamento
Desanexe com segurança um dispositivo de armazenamento do seu host ESXi.
Talvez seja necessário desconectar o dispositivo para torná-lo inacessível ao seu host quando, 
por exemplo, você realiza uma atualização de hardware no lado do armazenamento.
Pré-requisitos
n O dispositivo não contém nenhum repositório de dados.
n Nenhuma máquina virtual usa o dispositivo como um disco RDM.
n O dispositivo não contém uma partição de diagnóstico ou uma partição temporária.
Procedimentos
1 No vSphere Client, navegue até o host ESXi.
2 Clique na guia Configurar (Configure).
3 Em Armazenamento (Storage), clique em Dispositivos de Armazenamento (Storage 
Devices).
4 Selecione o dispositivo para desanexar e clique no ícone Desanexar (Detach).
Resultados
O dispositivo fica inacessível. O estado operacional do dispositivo muda para Desmontado.
Próximo passo
Se vários hosts compartilharem o dispositivo, desanexe o dispositivo de cada host.
Anexar dispositivos de armazenamento
Reconecte um dispositivo de armazenamento que você desconectou anteriormente do host 
ESXi.
vSphere Storage
VMware, Inc. Traduzido automaticamente 159
Procedimentos
1 No vSphere Client, navegue até o host ESXi.
2 Clique na guia Configurar (Configure).
3 Em Armazenamento (Storage), cliqueem Dispositivos de Armazenamento (Storage 
Devices).
4 Selecione o dispositivo de armazenamento desanexado e clique no ícone Anexar (Attach).
Resultados
O dispositivo se torna acessível.
Recuperando-se de condições de PDL
Uma condição de perda de dispositivo permanente não planejada (PDL) ocorre quando 
um dispositivo de armazenamento fica permanentemente indisponível sem ser devidamente 
desconectado do host ESXi.
Os seguintes itens em vSphere Client indicam que o dispositivo está no estado PDL:
n O repositório de dados implantado no dispositivo não está disponível.
n O estado operacional do dispositivo muda para Comunicação perdida.
n Todos os caminhos são exibidos como inativos.
n Um aviso sobre o dispositivo sendo permanentemente inacessível é exibido no arquivo de 
log do VMkernel.
Para se recuperar da condição de PDL não planejada e remover o dispositivo indisponível do 
host, execute as seguintes tarefas.
Tarefa Descrição
Desligue e cancele o registro de todas as máquinas virtuais em execução no 
repositório de dados afetado pela condição da PDL.
Consulte o Administração da 
Máquina Virtual do vSphere .
Desmonte o datastore. Consulte Desmontar repositórios 
de dados.
Verifique novamente todos os ESXi hosts que tiveram acesso ao dispositivo.
Observação Se a nova verificação não for bem-sucedida e o host continuar a listar 
o dispositivo, algumas E / S pendentes ou referências ativas ao dispositivo ainda 
poderão existir. Verifique se há itens que ainda possam ter uma referência ativa ao 
dispositivo ou repositório de dados. Os itens incluem máquinas virtuais, modelos, 
imagens ISO, mapeamentos de dispositivos brutos e assim por diante.
Consulte Executar nova 
verificação de armazenamento.
Como lidar com condições transitórias de APD
Um dispositivo de armazenamento é considerado no estado todos os caminhos desativados 
(APD) quando fica indisponível para o seu host ESXi por um período de tempo não especificado.
vSphere Storage
VMware, Inc. Traduzido automaticamente 160
Os motivos para um estado de APD podem ser, por exemplo, um switch com falha ou um cabo 
de armazenamento desconectado.
Ao contrário do estado de perda permanente de dispositivo (PDL), o host trata o estado APD 
como transitório e espera que o dispositivo esteja disponível novamente.
O host continua a repetir os comandos emitidos na tentativa de restabelecer a conectividade 
com o dispositivo. Se os comandos do host falharem nas novas tentativas por um período 
prolongado, o host poderá estar em risco de ter problemas de desempenho. Potencialmente, o 
host e suas máquinas virtuais podem deixar de responder.
Para evitar esses problemas, seu host usa um recurso de tratamento de APD padrão. Quando um 
dispositivo entra no estado APD, o host ativa um timer. Com o timer ativado, o host continua a 
repetir comandos da máquina não virtual por um período de tempo limitado.
Por padrão, o tempo limite do APD é definido como 140 segundos. Esse valor normalmente é 
maior do que a maioria dos dispositivos exige para se recuperar de uma perda de conexão. Se o 
dispositivo ficar disponível dentro desse período, o host e sua máquina virtual continuarão a ser 
executados sem problemas.
Se o dispositivo não se recuperar e o tempo limite terminar, o host interromperá suas tentativas 
de repetição e interromperá qualquer E / S de máquina não virtual. A E / S da máquina 
virtual continua tentando novamente. O vSphere Client exibe as seguintes informações para o 
dispositivo com o tempo limite de APD expirado:
n O estado operacional do dispositivo muda para Dead or Error.
n Todos os caminhos são mostrados como Dead.
n Os repositórios de dados no dispositivo estão esmaecidos.
Mesmo que o dispositivo e os repositórios de dados não estejam disponíveis, as máquinas 
virtuais permanecem responsivas. Você pode desligar as máquinas virtuais ou migrá-las para 
um repositório de dados ou host diferente.
Se, posteriormente, os caminhos do dispositivo se tornarem operacionais, o host poderá retomar 
a E / S para o dispositivo e encerrar o tratamento de APD especial.
Desativar manipulação de armazenamento APD
A manipulação do armazenamento em todos os caminhos desativados (APD) no host ESXi é 
ativada por padrão. Quando ativado, o host continua a tentar novamente comandos de E / S não 
virtuais de uma máquina para um dispositivo de armazenamento no estado APD por um período 
de tempo limitado. Quando o período de tempo expirar, o host interromperá as tentativas de 
repetição e encerrará qualquer E / S não virtual da máquina. Você pode desativar o recurso de 
tratamento de APD em seu host.
Se você desativar a manipulação de APD, o host continuará indefinidamente a repetir os 
comandos emitidos na tentativa de se reconectar ao dispositivo APD. Esse comportamento pode 
fazer com que as máquinas virtuais no host excedam o tempo limite de E / S internas e deixem 
de responder ou falhem. O host pode ficar desconectado de vCenter Server.
vSphere Storage
VMware, Inc. Traduzido automaticamente 161
Procedimentos
1 No vSphere Client, navegue até o host ESXi.
2 Clique na guia Configurar (Configure).
3 Em Sistema (System), clique em Configurações avançadas do sistema (Advanced System 
Settings).
4 Na tabela Configurações Avançadas do Sistema, selecione o parâmetro 
Varia.APDHandlingEnable (Misc.APDHandlingEnable) e clique no ícone Edit.
5 Altere o valor para 0.
Resultados
Se você tiver desativado a manipulação de APD, poderá reativá-la e definir seu valor como 1 
quando um dispositivo entrar no estado de APD. O recurso de tratamento interno do APD é 
ativado imediatamente e o timer começa com o valor de tempo limite atual para cada dispositivo 
no APD.
Alterar limites de tempo limite para APD de armazenamento
O parâmetro de tempo limite controla quantos segundos o host ESXi deve repetir os comandos 
de E / S para um dispositivo de armazenamento em um estado de todos os caminhos 
desativados (APD). Você pode alterar o valor de tempo limite padrão.
O período de tempo limite começa imediatamente após o dispositivo entrar no estado APD. 
Depois que o tempo limite terminar, o host marcará o dispositivo APD como inacessível. O host 
interrompe suas tentativas de repetir qualquer E / S que não é proveniente de máquinas virtuais. 
O host continua a tentar novamente a E / S da máquina virtual.
Por padrão, o parâmetro de tempo limite no host é definido como 140 segundos. Você 
pode aumentar o valor do tempo limite se, por exemplo, os dispositivos de armazenamento 
conectados ao seu host ESXi levarem mais de 140 segundos para se recuperar de uma perda de 
conexão.
Observação Se você alterar o parâmetro de tempo limite após o dispositivo ficar indisponível, a 
alteração não terá efeito para esse incidente de APD específico.
Procedimentos
1 No vSphere Client, navegue até o host ESXi.
2 Clique na guia Configurar (Configure).
3 Em Sistema (System), clique em Configurações avançadas do sistema (Advanced System 
Settings).
4 Na tabela Configurações avançadas do sistema, selecione o parâmetro Varia.APDTimeout 
(Misc.APDTimeout) e clique no ícone Edit.
vSphere Storage
VMware, Inc. Traduzido automaticamente 162
5 Altere o valor padrão.
Você pode inserir um valor entre 20 e 99999 segundos.
Verificar o status da conexão de um dispositivo de armazenamento 
no host ESXi
Use o comando esxcli para verificar o status da conexão de um determinado dispositivo de 
armazenamento.
Pré-requisitos
Instale o ESXCLI. Consulte Introdução ao ESXCLI . Para solução de problemas, execute esxcli 
comandos no ESXi Shell.
Procedimentos
1 Execute o comando esxcli storage core device list -d = device_ID .
2 Revise o status da conexão na área Status:.
n on - O dispositivo está conectado.
n dead - O dispositivo entrou no estado APD. O temporizador APD é iniciado.
n dead timeout - O tempo limite do APD expirou.
n not connected - O dispositivo está no estado da PDL.
Ativar ou desativar o localizador LED em ESXi dispositivos 
de armazenamentoUse o LED localizador para identificar dispositivos de armazenamento específicos, para que você 
possa localizá-los entre outros dispositivos. Você pode ligar ou desligar o LED do localizador.
Procedimentos
1 No vSphere Client, navegue até o host ESXi.
2 Clique na guia Configurar (Configure).
3 Em Armazenamento (Storage), clique em Dispositivos de Armazenamento (Storage 
Devices).
4 Na lista de dispositivos de armazenamento, selecione um ou mais discos e ative ou desative o 
indicador LED do localizador.
Opção Descrição
Ativar Clique no ícone Turn On LED (Turn On LED).
Desabilitar Clique no ícone Turn Off LED (Turn Off LED).
 
vSphere Storage
VMware, Inc. Traduzido automaticamente 163
Apagar dispositivos de armazenamento
Certas funcionalidades, como vSAN ou recurso flash virtual, exigem que o host do ESXi use 
dispositivos de armazenamento limpos. Você pode apagar um dispositivo HHD ou flash e 
remover todos os dados existentes.
Pré-requisitos
n Certifique-se de que o host esteja no estado conectado.
n Verifique se os dispositivos que você planeja apagar não estão em uso.
n Privilégio necessário: Host.Config.Storage 
Procedimentos
1 No vSphere Client, navegue até o host ESXi.
2 Clique na guia Configurar (Configure).
3 Em Armazenamento (Storage), clique em Dispositivos de Armazenamento (Storage 
Devices).
4 Selecione um ou mais dispositivos e clique no ícone Apagar partições (Erase Partitions).
5 Verifique se as informações da partição que você está apagando não são críticas.
6 Clique em OK (OK) para confirmar a alteração.
Alterar as configurações de reserva perene
Você pode ajustar a configuração de reserva perene em dispositivos de armazenamento que são 
usados como mapeamentos de dispositivos brutos (RDMs) físicos em configurações do Windows 
Server Failover Clustering (WSFC).
Os nós do cluster WSFC que estão espalhados por vários ESXi exigem RDMs físicos. Os 
RDMs são compartilhados entre todos os hosts nos quais os nós do cluster são executados. 
O host com o nó ativo mantém reservas SCSI-3 persistentes em todos os dispositivos RDM 
compartilhados. Quando o nó ativo está em execução e os dispositivos estão bloqueados, 
nenhum outro host pode gravar nos dispositivos. Se outro host participante inicializar enquanto 
o nó ativo estiver bloqueando os dispositivos, a inicialização poderá demorar muito tempo 
porque o host tentará, sem êxito, entrar em contato com os dispositivos bloqueados. O mesmo 
problema também pode afetar as operações de nova verificação.
Para evitar esse problema, ative a reserva perene para todos os dispositivos nos ESXi hosts 
em que os nós WSFC secundários com RDMs residem. Essa configuração informa o host ESXi 
sobre a reserva SCSI permanente nos dispositivos, para que o host possa ignorar os dispositivos 
durante o processo de nova verificação de inicialização ou armazenamento.
Se você posteriormente redirecionar novamente os dispositivos marcados como repositórios de 
dados VMFS, remova a reserva para evitar um comportamento imprevisível do repositório de 
dados.
vSphere Storage
VMware, Inc. Traduzido automaticamente 164
Para obter informações sobre clusters do WSFC, consulte a documentação Configuração para 
Windows Server Cluster de Failover .
Pré-requisitos
Antes de marcar um dispositivo como permanentemente reservado, certifique-se de que o 
dispositivo não contenha um repositório de dados VMFS.
Procedimentos
1 No vSphere Client, navegue até o host ESXi.
2 Clique na guia Configurar (Configure).
3 Em Armazenamento (Storage), clique em Dispositivos de Armazenamento (Storage 
Devices).
4 Na lista de dispositivos de armazenamento, selecione o dispositivo e clique em um dos ícones 
a seguir.
Opção Descrição
Marcar como permanentemente 
reservada
Marque o dispositivo selecionado como sempre reservado.
Observação Repita o procedimento para cada dispositivo RDM que está 
participando do cluster WSFC.
Desmarcar como permanentemente 
reservada
Limpar reserva perene para o dispositivo que foi marcado anteriormente.
 
Resultados
A configuração é permanentemente armazenada com o host ESXi e persiste nas reinicializações.
Exemplo
Você também pode usar o comando esxcli para marcar os dispositivos que participam do 
cluster WSFC.
1 Marque os dispositivos como permanentemente reservados.
esxcli storage core device setconfig -d naa.id --perennially-reserved=true
2 Verifique se o dispositivo está sempre reservado.
esxcli storage core device list -d naa.id
Na saída do comando esxcli, procure a entrada Is Perennially Reserved: true.
3 Para remover o sinalizador perenemente reservado, execute o seguinte comando.
esxcli storage core device setconfig -d naa.id --perennially-reserved=false
vSphere Storage
VMware, Inc. Traduzido automaticamente 165
Trabalhando com dispositivos 
flash 15
Além de unidades de disco rígido (HDDs) de armazenamento regular, o ESXi oferece suporte a 
dispositivos de armazenamento em flash.
Ao contrário de HDDs regulares que são dispositivos eletromecânicos contendo partes móveis, 
os dispositivos flash usam semicondutores como seu meio de armazenamento e não têm partes 
móveis. Normalmente, os dispositivos flash são resilientes e fornecem acesso mais rápido aos 
dados.
Para detectar dispositivos flash, o ESXi usa um mecanismo de consulta com base nos padrões 
T10. Verifique com o seu fornecedor se a sua matriz de armazenamento é compatível com o 
mecanismo ESXi de detecção de dispositivo flash.
Depois que o host detecta os dispositivos flash, você pode usá-los para várias tarefas e 
funcionalidades.
Se você usar o armazenamento NVMe, ative o plug-in de alto desempenho (HPP) para melhorar 
o desempenho do armazenamento. Consulte VMware Esquemas de seleção de caminho e plug-
in de alto desempenho.
Para obter detalhes sobre como usar o armazenamento NVMe com o ESXi, consulte Capítulo 16 
Sobre o armazenamento NVMe VMware.
Tabela 15-1. Usando dispositivos flash com o ESXi
Funcionalidade Descrição
vSAN vSAN requer dispositivos flash. Para obter mais informações, consulte a 
documentação do Administrando VMware vSAN .
VMFS Datastores Crie datastores VMFS em dispositivos flash. Use os datastores para as seguintes 
finalidades:
n Armazene máquinas virtuais. Certos sistemas operacionais convidados podem 
identificar discos virtuais armazenados nesses datastores como discos virtuais 
flash.
n Aloque espaço de armazenamento de dados para o cache de permuta do 
host ESXi. Consulte Configurar o cache do host com o repositório de dados 
VMFS.
Recurso Flash Virtual (VFFS) Se exigido pelo seu fornecedor, configure um recurso de flash virtual e use-o para 
filtros de cache de E / S. Consulte Capítulo 23 Filtrando a E / S da máquina virtual.
VMware, Inc. Traduzido automaticamente 166
Dispositivos Flash e Máquinas Virtuais
Os sistemas operacionais convidados podem identificar discos virtuais que residem em 
datastores baseados em flash como discos virtuais em flash.
Os sistemas operacionais convidados podem usar comandos de consulta padrão, como SCSI 
VPD Page (B1h) para dispositivos SCSI e ATA IDENTIFY DEVICE (Word 217) para dispositivos IDE.
Para clones vinculados, instantâneos nativos e discos delta, os comandos de consulta relatam o 
status flash virtual do disco base.
Os sistemas operacionais podem detectar que um disco virtual é um disco flash sob as seguintes 
condições:
n A detecção de discos virtuais flash é compatível com VMs com hardware virtual versão 8 ou 
posterior.
n Os dispositivos que suportam um datastore VMFS compartilhado devem ser marcados como 
flash em todos os hosts.
n Se o datastore VMFS incluir várias extensões de dispositivo, todas as extensões físicas 
subjacentes deverão ser baseadas em flash.
Este capítulo inclui os seguintes tópicos:
n Marcando dispositivos de armazenamento
n Monitorar dispositivos flash
n Boas práticas para dispositivos flash
n Sobre o recurso de flash virtual
n Configurar o cache do host com o repositório de dados VMFS
n Mantendo os discosflash livres de VMFS
Marcando dispositivos de armazenamento
Você pode marcar dispositivos de armazenamento em um host ESXi como dispositivos flash 
locais.
Quando você configura o vSAN ou define um recurso de flash virtual, seu ambiente de 
armazenamento deve incluir dispositivos flash locais.
No entanto, o ESXi pode não reconhecer certos dispositivos de armazenamento como 
dispositivos flash quando seus fornecedores não oferecem suporte à detecção automática de 
dispositivos flash. Em outros casos, certos dispositivos podem não ser detectados como locais e 
ESXi os marca como remotos. Quando os dispositivos não são reconhecidos como dispositivos 
flash locais, eles são excluídos da lista de dispositivos oferecidos para vSAN ou recurso flash 
virtual. Marcar esses dispositivos como flash local os torna disponíveis para o vSAN e o recurso 
flash virtual.
vSphere Storage
VMware, Inc. Traduzido automaticamente 167
Marcar dispositivos de armazenamento como flash
Se ESXi não reconhecer seus dispositivos como flash, marque-os como dispositivos flash.
ESXi não reconhece determinados dispositivos como flash quando seus fornecedores não 
oferecem suporte à detecção automática de disco flash. A coluna Tipo de unidade para os 
dispositivos mostra HDD como seu tipo.
Cuidado Marcar os dispositivos de disco rígido como flash pode prejudicar o desempenho dos 
repositórios de dados e dos serviços que os utilizam. Marque os dispositivos somente se tiver 
certeza de que são flash.
Pré-requisitos
Verifique se o dispositivo não está em uso.
Procedimentos
1 No vSphere Client, navegue até o host ESXi.
2 Clique na guia Configurar (Configure).
3 Em Armazenamento (Storage), clique em Dispositivos de Armazenamento (Storage 
Devices).
4 Na lista de dispositivos de armazenamento, selecione um ou vários dispositivos de disco 
rígido e clique no ícone Marcar como disco flash (Mark as Flash Disk) ( ).
5 Clique em Sim (Yes) para salvar as alterações.
Resultados
O tipo dos dispositivos muda para flash.
Próximo passo
Se o dispositivo flash que você marcar for compartilhado entre vários hosts, certifique-se de 
marcar o dispositivo de todos os hosts que compartilham o dispositivo.
Marcar dispositivos de armazenamento como locais
ESXi permite marcar dispositivos como locais. Essa ação é útil nos casos em que ESXi não 
consegue determinar se determinados dispositivos são locais.
Pré-requisitos
n Certifique-se de que o dispositivo não esteja compartilhado.
n Desligue as máquinas virtuais que residem no dispositivo e desmonte um repositório de 
dados associado.
Procedimentos
1 No vSphere Client, navegue até o host ESXi.
vSphere Storage
VMware, Inc. Traduzido automaticamente 168
2 Clique na guia Configurar (Configure).
3 Em Armazenamento (Storage), clique em Dispositivos de Armazenamento (Storage 
Devices).
4 Na lista de dispositivos de armazenamento, selecione um ou vários dispositivos remotos e 
clique no ícone Marcar como local (Mark as Local).
5 Clique em Sim (Yes) para salvar as alterações.
Monitorar dispositivos flash
Você pode monitorar determinados parâmetros críticos do dispositivo flash, incluindo Media 
Wearout Indicator, Temperature e Reallocated Sector Count, de um host ESXi.
Use o comando esxcli para monitorar dispositivos flash.
Pré-requisitos
Instale o ESXCLI. Consulte Introdução ao ESXCLI . Para solução de problemas, execute esxcli 
comandos no ESXi Shell.
Procedimentos
u Exiba as estatísticas do dispositivo flash executando o seguinte comando:
esxcli storage core device smart get -d = flash device_ID 
Boas práticas para dispositivos flash
Siga estas práticas recomendadas ao usar dispositivos flash no ambiente vSphere.
n Use dispositivos flash aprovados pelo VMware Guia de Compatibilidade .
n Certifique-se de usar o firmware mais recente com dispositivos flash. Verifique com os seus 
fornecedores de armazenamento com frequência se há atualizações.
n Monitore cuidadosamente a intensidade com que você usa o dispositivo flash e calcule sua 
vida útil estimada. A expectativa de vida útil depende de quão ativamente você continua a 
usar o dispositivo flash. Consulte Estimativa da vida útil dos dispositivos flash.
n Se você usar dispositivos NVMe para armazenamento, ative o plug-in de alto desempenho 
(HPP) para melhorar seu desempenho de armazenamento. Para especificações sobre o uso 
de dispositivos NVMe, consulte VMware Esquemas de seleção de caminho e plug-in de alto 
desempenho
Estimativa da vida útil dos dispositivos flash
Ao trabalhar com dispositivos flash, monitore com que frequência os utiliza e calcule a vida útil 
estimada deles.
vSphere Storage
VMware, Inc. Traduzido automaticamente 169
Normalmente, os fornecedores de armazenamento fornecem estimativas de vida útil confiáveis 
para um dispositivo flash em condições ideais. Por exemplo, um fornecedor pode garantir uma 
vida útil de 5 anos sob a condição de 20 GB de gravações por dia. No entanto, a expectativa 
de vida mais realística do dispositivo depende de quantas gravações por dia seu host ESXi 
realmente gera. Siga estas etapas para calcular a vida útil do dispositivo flash.
Pré-requisitos
Observe o número de dias decorridos desde a última reinicialização do host ESXi. Por exemplo, 
dez dias.
Procedimentos
1 Obtenha o número total de blocos gravados no dispositivo flash desde a última 
reinicialização.
Execute o comando esxcli storage core device stats get -d = device_ID . Por 
exemplo:
~ # esxcli storage core device stats get -d t10.xxxxxxxxxxxxxxx
 Device: t10.xxxxxxxxxxxxxxx
 Successful Commands: xxxxxxx
 Blocks Read: xxxxxxxx
 Blocks Written: 629145600 
 Read Operations: xxxxxxxx
O item Blocos gravados na saída mostra o número de blocos gravados no dispositivo desde 
a última reinicialização. Neste exemplo, o valor é 629.145.600. Após cada reinicialização, ela é 
redefinida para 0.
2 Calcule o número total de gravações e converta em GB.
Um bloco tem 512 bytes. Para calcular o número total de gravações, multiplique o valor de 
Blocos Gravados por 512 e converta o valor resultante em GB.
Neste exemplo, o número total de gravações desde a última reinicialização é de 
aproximadamente 322 GB.
3 Estime o número médio de gravações por dia em GB.
Divida o número total de gravações pelo número de dias desde a última reinicialização.
Se a última reinicialização foi há dez dias, você terá 32 GB de gravações por dia. Você pode 
calcular a média desse número ao longo do período.
4 Estime a vida útil do seu dispositivo usando a seguinte fórmula:
fornecedor forneceu o número de gravações por dia vezes fornecedor forneceu uma vida útil 
dividida por número médio real de gravações por dia 
Por exemplo, se o seu fornecedor garantir uma vida útil de 5 anos sob a condição de 20 GB 
de gravações por dia, e o número real de gravações por dia for 30 GB, a vida útil do seu 
dispositivo flash será de aproximadamente 3,3 anos.
vSphere Storage
VMware, Inc. Traduzido automaticamente 170
Sobre o recurso de flash virtual
Você pode agregar dispositivos flash locais em um host ESXi em uma única camada de cache 
virtualizada chamada recurso de flash virtual.
Ao configurar o recurso flash virtual, você cria um novo sistema de arquivos, o Virtual Flash File 
System (VFFS). O VFFS é um derivado do VMFS, que é otimizado para dispositivos flash e é 
usado para agrupar os dispositivos flash físicos em um único pool de recursos de cache. Como 
um recurso não persistente, ele não pode ser usado para armazenar máquinas virtuais.
Depois de configurar o recurso de flash virtual, você poderá usá-lo para filtros de cache de E / S. 
Consulte Capítulo 23 Filtrando a E / S da máquina virtual.
Considerações para o recurso Flash Virtual
Quando você configura um recurso de flash virtual, várias considerações se aplicam.
n Você pode ter apenas um recurso de flash virtual em um único host ESXi. O recurso de flash 
virtual é gerenciado no nível do host.
n Você não pode usar o recurso de flash virtual paraarmazenar máquinas virtuais. O recurso 
de flash virtual é apenas uma camada de cache.
n Você pode usar apenas dispositivos flash locais para o recurso flash virtual.
n Você pode criar o recurso flash virtual a partir de dispositivos flash mistos. Todos os tipos 
de dispositivos são tratados da mesma forma e não há distinção entre conectividade SAS, 
SATA ou PCI Express. Ao criar o recurso de dispositivos flash mistos, certifique-se de agrupar 
dispositivos com desempenho semelhante para maximizar o desempenho.
n Você não pode usar os mesmos dispositivos flash para o recurso flash virtual e vSAN. Cada 
um deles requer seu próprio dispositivo flash exclusivo e dedicado.
Configurar recurso de flash virtual
Você pode configurar um recurso de flash virtual ou adicionar capacidade ao recurso de flash 
virtual existente.
Para configurar um recurso flash virtual, você usa dispositivos flash locais conectados ao seu 
host ou cluster de host. Para aumentar a capacidade do seu recurso de flash virtual, você 
pode adicionar mais dispositivos, até o número máximo indicado na documentação Máximos 
de configuração . Um dispositivo flash individual deve ser alocado exclusivamente para o 
recurso flash virtual. Nenhuma outra funcionalidade do vSphere, como vSAN ou VMFS, pode 
compartilhar o dispositivo com o recurso de flash virtual.
Procedimentos
1 No vSphere Client, navegue até o host ESXi.
2 Clique na guia Configurar (Configure).
vSphere Storage
VMware, Inc. Traduzido automaticamente 171
3 Em Virtual Flash (Virtual Flash), clique em Virtual Flash Resource Management (Virtual 
Flash Resource Management).
4 Clique em uma das seguintes opções.
Opção Descrição
Adicionar capacidade Se você estiver criando o recurso flash virtual em um host individual.
Adicionar capacidade no cluster Se você estiver criando o recurso flash virtual em um cluster.
 
5 Na lista de entidades disponíveis, selecione uma ou mais para usar para o recurso flash virtual 
e clique em OK (OK).
Se os seus dispositivos flash não aparecerem na lista, consulte Marcando dispositivos de 
armazenamento.
Opção Descrição
Disco VMware local Selecione qualquer combinação de dispositivos flash não reivindicados.
ESXi cria o volume VFFS em um dos dispositivos e, em seguida, estende 
o volume no restante dos dispositivos. O sistema configura o recurso flash 
virtual em todo o volume VFFS.
Se existir um volume VFFS no seu host, você não poderá selecionar 
nenhum dispositivo não reivindicado sem primeiro selecionar o volume VFFS 
existente.
ID de volume - Configure usando 
as extensões de volume VFFS 
existentes
Se você tiver criado anteriormente um volume VFFS em um dos dispositivos 
flash do host usando o comando vmkfstools, o volume também aparecerá 
na lista de entidades elegíveis. Você pode selecionar apenas este volume 
para o recurso flash virtual. Ou combine-o com os dispositivos não 
reivindicados. ESXi usa o volume VFFS existente para estendê-lo sobre 
outros dispositivos.
 
Resultados
O recurso flash virtual é criado. A área Backing do dispositivo lista todos os dispositivos que você 
usa para o recurso flash virtual.
Próximo passo
Use o recurso de flash virtual para filtros de cache de E / S desenvolvidos por meio de APIs do 
vSphere para filtragem de E / S. Consulte o Usando dispositivos de armazenamento Flash com 
filtros de cache de E / S.
Você pode aumentar a capacidade adicionando mais dispositivos flash ao recurso flash virtual.
Remover recurso de flash virtual
Talvez seja necessário remover um recurso flash virtual implantado em dispositivos flash locais 
conectados ao host ESXi. A remoção do recurso flash virtual libera os dispositivos para outros 
serviços.
vSphere Storage
VMware, Inc. Traduzido automaticamente 172
Pré-requisitos
n Verifique se o recurso de flash virtual não é usado para filtros de E / S.
Procedimentos
1 No vSphere Client, navegue até o host ESXi.
2 Clique na guia Configurar (Configure).
3 Em Virtual Flash (Virtual Flash), clique em Virtual Flash Resource Management (Virtual 
Flash Resource Management) e clique em Remove All (Remove All).
Resultados
Depois de remover o recurso flash virtual e apagar o dispositivo flash, o dispositivo estará 
disponível para outras operações.
Definir alarme para uso do flash virtual
Defina um alarme para indicar quando o uso de um recurso de flash virtual no host ESXi excede o 
limite especificado.
Procedimentos
1 No vSphere Client, navegue até o host ESXi.
2 Clique na guia Configurar (Configure).
3 Em Sistema (System), clique em Configurações avançadas do sistema (Advanced System 
Settings).
4 Selecione a configuração a ser alterada e clique no botão Editar (Edit).
Parâmetro Descrição
VFLASH.ResourceUsageThr 
threshold 
(VFLASH.ResourceUsageThreshold)
O sistema dispara o alarme Uso de recursos do vFlash do host 
quando um uso de recursos de flash virtual excede o limite. O limite padrão 
é 80%. Você pode alterar o limite para um valor apropriado. O alarme é 
apagado quando o uso de recursos de flash virtual fica abaixo do limite.
 
5 Clique em Okey(OK).
Configurar o cache do host com o repositório de dados 
VMFS
Habilite seu host ESXi para trocar para o cache do host. Você também pode alterar a quantidade 
de espaço alocado para o cache do host.
Seus ESXi hosts podem usar uma parte de uma entidade de armazenamento com suporte em 
flash como um cache de permuta compartilhado por todas as máquinas virtuais.
vSphere Storage
VMware, Inc. Traduzido automaticamente 173
O cache no nível do host é composto por arquivos em um disco de baixa latência que ESXi usa 
como um cache de write-back para arquivos de permuta de máquina virtual. Todas as máquinas 
virtuais em execução no host compartilham o cache. A troca de páginas da máquina virtual no 
nível do host faz o melhor uso do espaço potencialmente limitado do dispositivo flash.
Pré-requisitos
Crie um repositório de dados VMFS usando dispositivos flash como suporte. Consulte Criar um 
repositório de dados VMFS.
Procedimentos
1 No vSphere Client, navegue até o host ESXi.
2 Clique na guia Configurar (Configure).
3 Em Armazenamento (Storage), clique em Configuração de Cache do Host (Host Cache 
Configuration).
4 Selecione o datastore flash na lista e clique no ícone Editar (Edit).
5 Aloque o espaço apropriado para o cache do host.
6 Clique em Okey(OK).
Mantendo os discos flash livres de VMFS
Se você usar a opção de inicialização de particionamento automático ao instalar ou implantar 
automaticamente o ESXi, a opção de particionamento automático criará um repositório de dados 
VMFS no armazenamento local do host. Em certos casos, você precisa manter os discos flash de 
armazenamento local não formatados.
Problema
Por padrão, o particionamento automático implanta sistemas de arquivos VMFS em qualquer 
disco de armazenamento local não utilizado em seu host, incluindo discos flash.
No entanto, um disco flash formatado com VMFS fica indisponível para recursos como virtual 
flash e vSAN. Ambos os recursos exigem um disco flash não formatado e nenhum deles pode 
compartilhar o disco com qualquer outro sistema de arquivos.
Solução
Para garantir que o particionamento automático não formate o disco flash com o VMFS, use as 
seguintes opções de inicialização ao instalar o ESXi ou ao inicializar o host ESXi pela primeira vez:
n autoPartition = TRUE 
n skipParticionamentoSsds = TRUE 
vSphere Storage
VMware, Inc. Traduzido automaticamente 174
Se você usar a Implantação Automática, defina esses parâmetros em um host de referência ESXi.
1 No vSphere Client, navegue até o host para usar como host de referência e clique na guia 
Configurar (Configure).
2 Clique em Sistema (System) para abrir as opções do sistema e clique em Configurações 
Avançadas do Sistema (Advanced System Settings).
3 Defina os seguintes itens.
Parâmetro Valor
VMkernel.Boot.autoPartition Verdadeiro
VMkernel.Boot.skipParticionamentoSsds Verdadeiro
4 Reinicialize o host.
Se os discos flash que você planejausar com o recurso de flash virtual e vSAN já tiverem 
repositórios de dados VMFS, remova-os.
vSphere Storage
VMware, Inc. Traduzido automaticamente 175
Sobre o armazenamento NVMe 
VMware 16
Os dispositivos de armazenamento de memória não volátil (NVM) que usam memória persistente 
se tornaram cada vez mais populares nos centros de dados. O NVM Express (NVMe) é um 
protocolo padronizado projetado especificamente para a comunicação de várias filas de alto 
desempenho com dispositivos NVM. ESXi é compatível com o protocolo NVMe para se conectar 
a dispositivos de armazenamento locais e em rede.
Este capítulo inclui os seguintes tópicos:
n VMware Conceitos NVMe
n Requisitos e limitações do VMware armazenamento NVMe
n Configurar adaptadores para armazenamento NVMe sobre RDMA (RoCE v2)
n Configurar adaptadores para NVMe sobre armazenamento TCP
n Habilitar NVMe sobre RDMA e adaptadores de software TCP
n Adicionar controlador para NVMe sobre telas
n Remover NVMe sobre RDMA e adaptadores de software TCP
VMware Conceitos NVMe
Antes de começar a trabalhar com o armazenamento NVMe no ambiente do ESXi, você pode se 
familiarizar com os conceitos básicos do NVMe.
NVM Express (NVMe)
NVMe é um método para conectar e transferir dados entre um host e um sistema de 
armazenamento de destino. O NVMe foi projetado para uso com mídia de armazenamento 
mais rápida, equipada com memória não volátil, como dispositivos flash. Esse tipo de 
armazenamento pode alcançar baixa latência, baixo uso da CPU e alto desempenho e 
geralmente serve como uma alternativa ao armazenamento SCSI.
Transporte NVMe
O armazenamento NVMe pode ser conectado diretamente a um host usando uma interface 
PCIe ou indiretamente por meio de diferentes transportes de malha. O VMware NVMe sobre 
Fabrics (NVMe-oF) fornece uma conectividade de distância entre um host e um dispositivo 
de armazenamento de destino em uma matriz de armazenamento compartilhada.
VMware, Inc. Traduzido automaticamente 176
Os seguintes tipos de transportes para NVMe existem atualmente. Para obter mais 
informações, consulte Requisitos e limitações do VMware armazenamento NVMe.
Transporte NVMe Suporte do ESXi
NVMe sobre PCIe Armazenamento local.
NVMe sobre RDMA Armazenamento NVMe-oF compartilhado. Com a 
tecnologia RoCE v2.
NVMe sobre canal de fibra (FC-NVMe) Armazenamento NVMe-oF compartilhado.
NVME sobre TCP Armazenamento NVMe-oF compartilhado.
Namespaces NVMe
Na matriz de armazenamento NVMe, um namespace é um volume de armazenamento 
apoiado por alguma quantidade de memória não volátil. No contexto de ESXi, o namespace 
é análogo a um dispositivo de armazenamento, ou LUN. Depois que o host do ESXi descobre 
o namespace NVMe, um dispositivo flash que representa o namespace aparece na lista de 
dispositivos de armazenamento no vSphere Client. Você pode usar o dispositivo para criar 
um datastore VMFS e armazenar máquinas virtuais.
Controladores NVMe
Um controlador está associado a um ou vários namespaces NVMe e fornece um caminho 
de acesso entre o host ESXi e os namespaces na matriz de armazenamento. Para acessar o 
controlador, o host pode usar dois mecanismos, a descoberta do controlador e a conexão do 
controlador. Para obter informações, consulte Adicionar controlador para NVMe sobre telas.
Descoberta do controlador
Com esse mecanismo, o host ESXi primeiro contata um controlador de descoberta. O 
controlador de descoberta retorna uma lista de controladores disponíveis. Depois de 
selecionar um controlador para o seu host acessar, todos os namespaces associados a esse 
controlador se tornam disponíveis para o seu host.
Conexão do controlador
Seu host ESXi se conecta ao controlador que você especificar. Todos os namespaces 
associados a esse controlador se tornam disponíveis para o seu host.
Subsistema NVMe
Geralmente, um subsistema NVMe é uma matriz de armazenamento que pode incluir vários 
controladores NVMe, vários namespaces, um meio de armazenamento de memória não 
volátil e uma interface entre o controlador e o meio de armazenamento de memória não 
volátil. O subsistema é identificado por um nome qualificado NVMe (NQN) do subsistema.
VMware Plug-in de alto desempenho (HPP)
vSphere Storage
VMware, Inc. Traduzido automaticamente 177
Por padrão, o host ESXi usa o HPP para reivindicar os destinos NVMe-oF. Ao selecionar 
caminhos físicos para solicitações de E / S, o HPP aplica um esquema de seleção de caminho 
(PSS) apropriado. Para obter informações sobre o HPP, consulte VMware Esquemas de 
seleção de caminho e plug-in de alto desempenho. Para alterar o mecanismo de seleção 
de caminho padrão, consulte Alterar a política de seleção de caminho.
Arquitetura e componentes básicos do VMware NVMe
O ESXi é compatível com armazenamento NVMe local sobre PCIe e armazenamento NVMe-oF 
compartilhado, como NVMe sobre canal de fibra, NVMe sobre RDMA (RoCE v2) e NVMe sobre 
TCP.
Em ambientes NVMe-oF, os destinos podem apresentar namespaces, equivalentes a LUNs no 
SCSI, para um host nos modos de acesso ativo / ativo ou assimétrico. ESXi é capaz de descobrir 
e usar namespaces apresentados de qualquer forma. O ESXi emula internamente os destinos 
NVMe-oF como destinos SCSI e os apresenta como destinos SCSI ativos / ativos ou destinos 
ALUA SCSI implícitos.
VMware NVMe sobre PCIe
Nesta configuração, o host do ESXi usa um adaptador de armazenamento PCIe para acessar um 
ou mais dispositivos de armazenamento NVMe locais. Depois de instalar o adaptador no host, 
o host descobre os dispositivos NVMe disponíveis e eles aparecem na lista de dispositivos de 
armazenamento no vSphere Client.
ESXi Host
PCle Adapter 
(vmhba#)
Local NVMe 
Storage Device
NVMe Controllers 
NVMe Namespaces
VMware NVMe sobre FC
Essa tecnologia mapeia o NVMe no protocolo Fibre Channel para permitir a transferência de 
dados e comandos entre um computador host e um dispositivo de armazenamento de destino. 
Esse transporte pode usar a infraestrutura de canal de fibra existente atualizada para oferecer 
suporte ao NVMe.
vSphere Storage
VMware, Inc. Traduzido automaticamente 178
Para acessar o NVMe sobre armazenamento Fibre Channel, instale um adaptador de 
armazenamento Fibre Channel que ofereça suporte a NVMe em seu host ESXi. Você não precisa 
configurar o adaptador. Ele se conecta automaticamente a um subsistema NVMe apropriado e 
descobre todos os dispositivos de armazenamento NVMe compartilhados que ele pode acessar. 
Posteriormente, você pode reconfigurar o adaptador e desconectar seus controladores ou 
conectar outros controladores que não estavam disponíveis durante a inicialização do host. Para 
obter mais informações, consulte Adicionar controlador para NVMe sobre telas.
ESXi Host
FC Fabric
NVMe over 
Fibre Channel 
Adapter (vmhba#)
NVMe subsystem
NVMe Controllers 
NVMe Namespaces
NVMe sobre RDMA (RoCE v2)
Essa tecnologia usa um transporte de acesso remoto direto à memória (RDMA) entre dois 
sistemas na rede. O transporte permite a troca de dados na memória principal, ignorando o 
sistema operacional ou o processador de qualquer um dos sistemas. O ESXi oferece suporte à 
tecnologia RDMA over Converged Ethernet v2 (RoCE v2), que permite acesso remoto direto à 
memória por meio de uma rede Ethernet.
Para acessar o armazenamento, o host do ESXi usa um adaptador de rede RDMA instalado no 
host e um adaptador de armazenamento de software NVMe sobre RDMA. Você deve configurar 
ambos os adaptadores para usá-los para a descoberta de armazenamento. Para obter mais 
informações, consulte Configurar adaptadores para armazenamento NVMe sobre RDMA (RoCE 
v2).
vSphere Storage
VMware, Inc. Traduzido automaticamente 179
ESXi Host
RDMA 
Fabric
RDMA Network 
Adapter
Software NVMe
over RDMA 
Adapter
NVMe subsystem
NVMe Controllers 
NVMe Namespaces
NVMe sobre TCP
Essa tecnologia usa conexões Ethernet entre dois sistemas. Para acessar o armazenamento, 
o host do ESXi usa um adaptador de rede instalado no seu host e um adaptador de 
armazenamento desoftware NVMe sobre TCP. Você deve configurar ambos os adaptadores 
para usá-los para a descoberta de armazenamento. Para obter mais informações, consulte 
Configurar adaptadores para NVMe sobre armazenamento TCP.
vSphere Storage
VMware, Inc. Traduzido automaticamente 180
Software NVMe
over TCP Adapter
Ethernet
Adapter
NVMe subsystem
NVMe Controllers
NVMe Namespaces
TCP/IP 
Network
ESXi Host
Requisitos e limitações do VMware armazenamento NVMe
Ao usar a tecnologia NVMe com o VMware, siga as diretrizes e os requisitos específicos.
Requisitos para NVMe sobre PCIe
Seu ambiente de armazenamento do ESXi deve incluir os seguintes componentes:
n Dispositivos locais de armazenamento NVMe.
n Host ESXi compatível.
n Hardware NVMe sobre adaptador PCIe. Depois de instalar o adaptador, seu host ESXi o 
detecta e exibe no vSphere Client como um adaptador de armazenamento (vmhba) com o 
protocolo indicado como PCIe. Você não precisa configurar o adaptador.
Requisitos para NVMe sobre RDMA (RoCE v2)
n Matriz de armazenamento NVMe com suporte de transporte NVMe sobre RDMA (RoCE v2).
n Host ESXi compatível.
n Switches Ethernet compatíveis com uma rede sem perdas.
vSphere Storage
VMware, Inc. Traduzido automaticamente 181
n Adaptador de rede compatível com RDMA sobre Ethernet convergente (RoCE v2). Para 
configurar o adaptador, consulte Exibir Adaptadores de Rede RDMA.
n Software NVMe sobre adaptador RDMA. Este componente de software deve ser ativado 
no seu host do ESXi e conectado a um adaptador RDMA de rede apropriado. Para obter 
informações, consulte Habilitar NVMe sobre RDMA e adaptadores de software TCP.
n Controlador NVMe. Você deve adicionar um controlador depois de configurar um adaptador 
NVMe sobre RDMA de software. Consulte o Adicionar controlador para NVMe sobre telas.
Requisitos para NVMe sobre canal de fibra
n Matriz de armazenamento Fibre Channel compatível com NVMe. Para obter informações, 
consulte Capítulo 4 Usando o ESXi com Fibre Channel SAN.
n Host ESXi compatível.
n Adaptador de hardware NVMe. Normalmente, é um HBA Fibre Channel que oferece suporte 
a NVMe. Quando você instala o adaptador, seu host ESXi o detecta e exibe no vSphere Client 
como um adaptador Fibre Channel padrão (vmhba) com o protocolo de armazenamento 
indicado como NVMe. Você não precisa configurar o adaptador NVMe de hardware para 
usá-lo.
n Controlador NVMe. Você não precisa configurar o controlador. Depois de instalar o 
adaptador NVMe de hardware necessário, ele se conecta automaticamente a todos os 
destinos e controladores que são acessíveis no momento. Posteriormente, você poderá 
desconectar os controladores ou conectar outros controladores que não estavam disponíveis 
durante a inicialização do host. Consulte o Adicionar controlador para NVMe sobre telas.
Requisitos para NVMe sobre TCP
n Matriz de armazenamento NVMe com suporte a transporte NVMe sobre TCP.
n Host ESXi compatível.
n Um adaptador ethernet.
n Software NVMe sobre adaptador TCP. Este componente de software deve ser ativado 
no seu host do ESXi e conectado a um adaptador de rede apropriado. Para obter mais 
informações, consulte Habilitar NVMe sobre RDMA e adaptadores de software TCP.
n Controlador NVMe. Você deve adicionar um controlador depois de configurar um adaptador 
NVMe sobre TCP. Consulte o Adicionar controlador para NVMe sobre telas.
VMware NVMe sobre suporte de armazenamento compartilhado de 
malhas
No ambiente do ESXi, os dispositivos de armazenamento NVMe são semelhantes aos 
dispositivos de armazenamento SCSI e podem ser usados como armazenamento compartilhado. 
Siga estas regras ao usar o armazenamento NVMe-oF.
n Não misture tipos de transporte para acessar o mesmo namespace.
vSphere Storage
VMware, Inc. Traduzido automaticamente 182
n Certifique-se de que os caminhos ativos sejam apresentados ao host. Os namespaces não 
podem ser registrados até que o caminho ativo seja descoberto.
Funcionalidade de armazenamento 
compartilhado
SCSI sobre armazenamento de 
malha
NVMe sobre armazenamento de 
malha
RDM Com suporte Não suportado
Despejo de núcleo Com suporte Não suportado
Reservas SCSI-2 Com suporte Não suportado
VMDK clusterizado Com suporte Não suportado
VMDK compartilhado com sinalizador 
de vários gravadores
Com suporte Com suporte
No vSphere 7.0 Update 1 e versões 
posteriores.
Para obter mais informações, consulte 
o artigo da Base de Dados de 
Conhecimento .
vVols Com suporte Não suportado
Aceleração de hardware com plug-ins 
VAAI
Com suporte Não suportado
MPP padrão NMP HPP (os destinos NVMe-oF não podem 
ser reivindicados pelo NMP)
Limites LUNs = 1024, Paths = 4096 Namespaces = 32, Paths = 128 
(máximo de 4 caminhos por 
namespace em um host)
Configurando a Ethernet sem perdas para NVMe sobre RDMA
O NVMe sobre RDMA em ESXi requer uma rede Ethernet sem perdas para operar de forma 
eficiente.
Para estabelecer redes sem perdas, você pode selecionar uma das configurações de QoS 
disponíveis.
Habilitando o controle de fluxo de pausa global
Nessa configuração de rede, certifique-se de que o controle de fluxo de pausa global esteja 
ativado nas portas do comutador de rede. Além disso, certifique-se de que os NICs compatíveis 
com RDMA no host negociem automaticamente para o controle de fluxo correto.
Para verificar o controle de fluxo, execute os seguintes comandos.
#esxcli network nic get -n vmnicX
 Pause RX: true
 Pause TX: true
Se as opções de comando acima não estiverem definidas como verdadeiras, execute o seguinte 
comando.
#esxcli network nic pauseParams set -r true -t true -n vmnicX
vSphere Storage
VMware, Inc. Traduzido automaticamente 183
https://kb.vmware.com/s/article/1034165
https://kb.vmware.com/s/article/1034165
Habilitando o controle de fluxo de prioridade
Para que o tráfego RoCE seja sem perdas, você deve configurar o valor de prioridade do PFC 
como 3 no comutador físico e nos hosts. Você pode configurar o PFC no host ESXi de duas 
maneiras:
n Configuração automática. A partir do ESXi 7.0, você pode aplicar a configuração do DCB PFC 
automaticamente no host RNIC, se o driver RNIC oferecer suporte a DCB e DCBx.
Você pode verificar as configurações atuais do DCB executando o seguinte comando.
#esxcli network nic dcb status get -n vmnicX
n Configuração manual. Em alguns casos, os drivers RNIC fornecem um método para configurar 
manualmente o DCB PFC usando parâmetros específicos do driver. Para usar esse método, 
consulte a documentação do driver específico do fornecedor. Por exemplo, no driver 
Mellanox ConnectX-4/5, você pode definir o valor de prioridade do PFC como 3 executando 
o seguinte comando e reiniciando o host.
#esxcli system module parameters set -m nmlx5_core -p "pfctx=0x08 pfcrx=0x08"
Habilitando o PFC baseado em DSCP
O PFC baseado em DSCP é outra maneira de configurar uma rede sem perdas. Em switches 
e hosts físicos, você deve definir o valor de DSCP como 26. Para usar essa opção, 
consulte a documentação do driver específico do fornecedor. Por exemplo, no driver Mellanox 
ConnectX-4/5, você pode definir o valor da tag DSCP como 26 executando os seguintes 
comandos.
n Ativar o modo de confiança PFC e DSCP
#esxcli system module parameters set -m nmlx5_core -p "pfctx=0x08 pfcrx=0x08 trust_state=2"
n Defina o valor de DSCP como 26
#esxcli system module parameters set -m nmlx5_rdma -p "dscp_force=26"
n Verifique os parâmetros para confirmar se as configurações estão corretas e definidas.
esxcli system module parameters list -m nmlx5_core | grep 'trust_state\|pfcrx\|pfctx'
n Reinicialize o host
Configurar adaptadores para armazenamento NVMe sobre 
RDMA (RoCE v2)
O processo de configuração do adaptador no host ESXi envolve a configuração da associação 
VMkernel para um adaptador de rede RDMA e, em seguida, a ativação de um adaptador de 
software NVMe sobre RDMA.
vSphere Storage
VMware, Inc. Traduzido automaticamente 184
O vídeo a seguir orienta você pelas etapas de configuração de NVMe sobre adaptadores RDMA.
ConfigurandoNVMe sobre adaptadores RDMA
(http://link.brightcove.com/services/player/bcpid2296383276001?
bctid=ref:video_nvme_rdma)
Procedimentos
1 Exibir Adaptadores de Rede RDMA
Depois de instalar um adaptador de rede que suporte RDMA (RoCE v2) no host ESXi, use 
vSphere Client para revisar o adaptador RDMA e um adaptador de rede físico.
2 Configurar VMkernel Binding para o adaptador RDMA
A associação de portas para NVMe sobre RDMA envolve a criação de um switch e a 
conexão do adaptador de rede física e do adaptador VMkernel ao switch. Por meio dessa 
conexão, o adaptador RDMA fica vinculado ao adaptador VMkernel. Na configuração, você 
pode usar um switch padrão do vSphere ou um switch distribuído do vSphere.
Próximo passo
Depois de habilitar o software NVMe sobre o adaptador RDMA, adicione controladores NVMe, 
para que o host possa descobrir os destinos NVMe. Consulte o Adicionar controlador para NVMe 
sobre telas.
Exibir Adaptadores de Rede RDMA
Depois de instalar um adaptador de rede que suporte RDMA (RoCE v2) no host ESXi, use 
vSphere Client para revisar o adaptador RDMA e um adaptador de rede físico.
Procedimentos
1 No seu host ESXi, instale um adaptador que suporte RDMA (RoCE v2), por exemplo, Família 
Mellanox Tecnologias MT27700 ConnectX-4.
O host descobre o adaptador e o vSphere Client exibe seus dois componentes, um 
adaptador RDMA e um adaptador de rede físico.
2 No vSphere Client, verifique se o adaptador RDMA foi descoberto pelo seu host.
a Navegue até o host.
b Clique na guia Configurar (Configure).
vSphere Storage
VMware, Inc. Traduzido automaticamente 185
http://link.brightcove.com/services/player/bcpid2296383276001?bctid=ref:video_nvme_rdma
http://link.brightcove.com/services/player/bcpid2296383276001?bctid=ref:video_nvme_rdma
c Em Rede (Networking), clique em Adaptadores RDMA (RDMA adapters).
Neste exemplo, o adaptador RDMA aparece na lista como vmrdma0. A coluna Uplink 
emparelhado exibe o componente de rede como o adaptador de rede físico vmnic1.
d Para verificar a descrição do adaptador, selecione o adaptador RDMA na lista e clique na 
guia Propriedades (Properties).
Próximo passo
Agora você pode criar o adaptador de software NVMe sobre RDMA.
Configurar VMkernel Binding para o adaptador RDMA
A associação de portas para NVMe sobre RDMA envolve a criação de um switch e a conexão 
do adaptador de rede física e do adaptador VMkernel ao switch. Por meio dessa conexão, o 
adaptador RDMA fica vinculado ao adaptador VMkernel. Na configuração, você pode usar um 
switch padrão do vSphere ou um switch distribuído do vSphere.
O diagrama a seguir exibe a associação de portas para o adaptador NVMe sobre RDMA.
vSphere Storage
VMware, Inc. Traduzido automaticamente 186
vmhba35
vmnic1
vmrdma0RDMA
Network
Storage vmhba36
vmnic2
vmrdma1
Storage Multi-path / HPP
Initiator on
IP Subnet-1
Initiator on
IP Subnet-2
Alias
Bindings
Para obter mais informações sobre a criação de switches, consulte Create a vSphere Standard 
Switch ou Create a vSphere Distributed Switch na documentação do Rede do vSphere .
Exemplo de topologia de rede com NVMe sobre RDMA
Neste exemplo, dois switches padrão vSphere e dois uplinks (NICs compatíveis com RDMA) 
fornecem alta disponibilidade. Eles se conectam a dois pares de controladores em duas sub-
redes.
vSphere Storage
VMware, Inc. Traduzido automaticamente 187
HA com vários vSwitches e vários Uplinks (RNICs)
TARGET
NVME- FABRICS (RDMA)
192.168.50.100
C0
192.168.51.100
C1
192.168.50.200
C0
192.168.51.200
C1
vmrdma1vmrdma0
vmnic1 vmnic2vmnic1 vmnic2
External Switch 1
Subnet-0 Subnet-1
External Switch 2
PG2 
192.168.51.x
vSwitch 2
ESXi
portgroup/
vmknic
vmnic/
vmrdma
PG1 
192.168.50x
vSwitch 1
vmhba
Paths
vmhba1
vmk1
vmhba2
vmk2
4 Paths= 2 NICs (\w 2 vSwitches) x 2 Controller pairs (in 2 Subnets)
Subnet-0 Subnet-1
Configurar VMkernel Binding com um switch vSphere Standard
Você pode configurar a associação de porta VMkernel para o adaptador RDMA usando um 
switch padrão do vSphere e um uplink por switch. Configurar a conexão de rede envolve a 
criação de um adaptador VMkernel virtual para cada adaptador de rede física. Você usa o 
mapeamento 1: 1 entre cada adaptador de rede virtual e físico.
vSphere Storage
VMware, Inc. Traduzido automaticamente 188
Procedimentos
1 Crie um switch padrão do vSphere com um adaptador VMkernel e o componente de rede.
a No vSphere Client, selecione seu host e clique na guia Redes (Networks).
b Clique em Actions (Actions) > Add Networking (Add Networking).
c Selecione VMkernel Network Adapter (VMkernel Network Adapter) e clique em NEXT 
(NEXT).
d Selecione Novo switch padrão (New standard switch) e clique em NEXT (NEXT).
e Em Adaptadores atribuídos (Assigned adapters), clique em + (+).
A lista de adaptadores físicos disponíveis é exibida.
f Selecione o adaptador físico necessário vmnic e clique em OK (OK).
Observação Certifique-se de selecionar o adaptador de rede física que corresponde ao 
adaptador RDMA. Para ver a associação entre o adaptador RDMA vmrdma e o adaptador 
de rede física vmnic, consulte Exibir Adaptadores de Rede RDMA.
g Em VMkernel port settings (VMkernel port settings), insira os valores necessários.
Se você estiver usando a VLAN para o caminho de armazenamento, insira a ID da VLAN.
h Na lista de configurações de IP (IP settings), insira as configurações de IPv4 do 
VMkernel.
i Em Serviços disponíveis, selecione NVMe sobre RDMA (NVMe over RDMA).
vSphere Storage
VMware, Inc. Traduzido automaticamente 189
2 Verifique se o switch está configurado corretamente.
a Na guia Configurar (Configure), selecione Comutadores virtuais (Virtual switches) em 
Rede (Networking).
b Expanda o switch e verifique sua configuração.
A ilustração mostra que o adaptador de rede física e o adaptador VMkernel estão 
conectados ao comutador padrão do vSphere. Por meio dessa conexão, o adaptador 
RDMA é vinculado ao adaptador VMkernel.
3 Verifique a configuração da associação VMkernel para o adaptador RDMA.
a Na lista Rede (Networking), clique em Adaptadores RDMA (RDMA adapters) e selecione 
o adaptador RDMA na lista.
b Clique na guia VMkernel adaptters binding (VMkernel adapters binding) e verifique se o 
adaptador VMkernel associado aparece na página.
Neste exemplo, o adaptador RDMA vmrdma0 está emparelhado com o adaptador de rede 
vmnic1 e está conectado ao adaptador VMkernel vmk1.
vSphere Storage
VMware, Inc. Traduzido automaticamente 190
Configurar VMkernel Binding com um vSphere Standard switch e NIC Teaming
Você pode configurar a associação de porta VMkernel para o adaptador RDMA usando um 
switch padrão do vSphere com a configuração de agrupamento de NIC. Você pode usar o 
agrupamento de NIC para obter redundância de rede. Você pode configurar dois ou mais 
adaptadores de rede (NICs) como uma equipe para alta disponibilidade e balanceamento de 
carga.
Procedimentos
1 Crie um switch padrão do vSphere com um adaptador VMkernel e o componente de rede 
com a configuração de agrupamento de NIC.
a No vSphere Client, selecione seu host e clique na guia Redes (Networks).
b Clique em Actions (Actions) > Add Networking (Add Networking).
c Selecione VMkernel Network Adapter (VMkernel Network Adapter) e clique em NEXT 
(NEXT).
d Selecione Novo switch padrão (New standard switch) e clique em NEXT (NEXT).
e Em Adaptadores atribuídos (Assigned adapters), clique em + (+).
Uma lista de adaptadores físicos disponíveis é exibida.
f Selecione o adaptador físico necessário vmnic e adicione-o em Adaptadores ativos 
(Active adapters).
g Selecione outro adaptador físico vmnic e adicione-o em Adaptadores não utilizados 
(Unused adapters).
h Em VMkernel port settings (VMkernel port settings), insira os valores necessários.
Se você estiver usando a VLAN para o caminho de armazenamento, insira a ID da VLAN.
i Na lista de configurações de IP (IP settings), especifique as configurações IPv4 do 
VMkernel.
j Em Serviços disponíveis, selecione NVMe sobreRDMA (NVMe over RDMA).
Repita a etapa 1 para configurar um switch padrão existente.
2 Configure seu switch para a configuração de agrupamento de NIC .
a Clique na guia Configurar (Configure) e selecione Comutadores virtuais (Virtual 
switches) em Rede (Networking).
b Selecione o adaptador VMkernel apropriado.
c No menu do botão direito do mouse, clique em Edit Settings (Edit Settings).
d Selecione Teaming and Failover (Teaming and Failover).
e Em Adaptadores ativos (Active adapters), mova o adaptador físico necessário vmnic.
f Em adaptadores em espera (Standby adapters) > Ordem de failover (Failover order), 
mova os outros adaptadores físicos.
vSphere Storage
VMware, Inc. Traduzido automaticamente 191
g Defina o balanceamento de carga apropriado e outras propriedades.
h Repita as etapas para configurar adaptadores VMkernel adicionais.
3 Repita as etapas 1 e 2 para adicionar e configurar um conjunto adicional de rnic s 
agrupados. Para verificar se o adaptador está configurado, clique na guia Configurar 
(Configure) e selecione Adaptadores VMkernel (VMkernel adapters)
Configurar VMkernel Binding com um vSphere Distributed Switch
Você pode configurar a associação de porta VMkernel para o adaptador RDMA usando um 
switch distribuído do vSphere e um uplink por switch. Configurar a conexão de rede envolve 
a criação de um adaptador VMkernel virtual para cada adaptador de rede física. Você usa o 
mapeamento 1: 1 entre cada adaptador de rede virtual e físico.
Procedimentos
1 Crie um switch distribuído do vSphere com um adaptador VMkernel e o componente de rede.
a No vSphere Client, selecione Datacenter (Datacenter) e clique na guia Redes (Networks).
b Clique em Actions (Actions) e selecione Distributed Switch (Distributed Switch) > New 
Distributed Switch (New Distributed Switch).
c Selecione um nome para o switch.
Certifique-se de que a localização do centro de dados esteja presente no seu host e 
clique em Próximo (Next).
d Selecione a versão do ESXi como 7.0.0 e posterior (7.0.0 and later) e clique em Avançar 
(Next).
e Insira o número necessário de uplinks e clique em Concluir (Finish).
2 Adicione um ou mais hosts ao switch virtual distribuído.
a No vSphere Client, selecione Datacenter (Datacenter) e clique em Distributed Switches 
(Distributed Switches).
É apresentada uma lista de DSwitches disponíveis.
b Clique com o botão direito do mouse no DSwitch e selecione Add and Manage Hosts 
(Add and Manage Hosts) no menu.
c Selecione Adicionar hosts (Add hosts) e clique em Avançar (Next).
d Selecione seu host e clique em Avançar (Next).
e Selecione Atribuir uplink (Assign uplink).
f Insira o uplink relevante para atribuir o vmnic.
g Atribua um adaptador VMkernel e clique em Avançar (Next).
h No vSphere Client, selecione o DSwitch e clique na guia Portas (Ports).
Você pode visualizar os uplinks criados para o seu switch aqui.
vSphere Storage
VMware, Inc. Traduzido automaticamente 192
3 Crie grupos de portas distribuídas para o caminho de armazenamento NVMe sobre RDMA.
a No vSphere Client, selecione o DSwitch necessário.
b Clique em Actions (Actions) e selecione Distributed Port Group (Distributed Port Group) 
> New Distributed Port Group (New Distributed Port Group).
c Em Definir configurações (Configure Settings), insira as propriedades gerais do grupo de 
portas.
Se você tiver configurado uma VLAN específica, adicione-a ao ID da VLAN.
Observação Podem ocorrer problemas de conectividade de rede se você não configurar 
a VLAN corretamente.
4 Configure os adaptadores VMkernel.
a No vSphere Client, expanda a lista DSwitch (DSwitch) e selecione o grupo de portas 
distribuídas.
b Clique em Actions (Actions) > Add VMkernel Adapters (Add VMkernel Adapters).
c Na caixa de diálogo Select Member Hosts (Select Member Hosts), selecione seu host e 
clique em OK (OK).
d Na caixa de diálogo Configure VMkernel Adapter (Configure VMkernel Adapter), 
certifique-se de que o MTU corresponda ao Switch MTU.
e Em Serviços disponíveis (Available services), selecione NVMe sobre RDMA (NVMe over 
RDMA) para a marcação apropriada.
f Clique em Concluir(Finish).
g Repita a etapa be etapa c para adicionar várias NICs compatíveis com RDMA.
5 Defina políticas de agrupamento de NIC para os grupos de portas distribuídas.
a No Distributed Port Group (Distributed Port Group), clique em Actions (Actions) > Edit 
Settings (Edit Settings).
b Clique em Teaming and Failover (Teaming and Failover) e verifique os uplinks ativos.
c Atribua um uplink como Ativo (Active) para o grupo de portas e o outro uplink como Não 
utilizado (Unused).
Repita a etapa c para cada um dos grupos de portas criados.
Próximo passo
Depois de concluir a configuração, clique em Configurar (Configure) e verifique se a guia do 
adaptador físico no host lista o DVSwitch para as NICs selecionadas.
vSphere Storage
VMware, Inc. Traduzido automaticamente 193
Configurar adaptadores para NVMe sobre armazenamento 
TCP
O processo de configuração do adaptador no host ESXi envolve a configuração da associação 
VMkernel para um adaptador de rede TCP e, em seguida, a ativação de um software para NVMe 
sobre adaptador TCP.
Próximo passo
Depois de ativar o software para NVMe sobre adaptador TCP, adicione controladores NVMe 
para que o host possa descobrir os destinos NVMe. Para obter mais informações, consulte 
Adicionar controlador para NVMe sobre telas.
Configurar VMkernel Binding para o adaptador TCP
A associação de portas para NVMe sobre TCP envolve a criação de um switch virtual e a 
conexão do adaptador de rede física e do adaptador VMkernel ao vswitch. Por meio dessa 
conexão, o adaptador TCP fica vinculado ao adaptador VMkernel. Na configuração, você pode 
usar um switch padrão do vSphere ou um switch distribuído do vSphere.
O diagrama a seguir exibe a associação de porta para o adaptador NVMe sobre TCP.
vmhba35
vmnic1Network
Storage vmhba36
vmnic2
Storage Multi-path / HPP
Initiator on
IP Subnet-1
Initiator on
IP Subnet-2
Alias
Bindings
Para obter mais informações sobre a criação de switches, consulte Create a vSphere Standard 
Switch ou Create a vSphere Distributed Switch na documentação do Rede do vSphere .
Exemplo de topologia de rede com NVMe sobre TCP
Neste exemplo, dois switches padrão vSphere e dois uplinks fornecem alta disponibilidade. Eles 
se conectam a dois pares de controladores em duas sub-redes.
vSphere Storage
VMware, Inc. Traduzido automaticamente 194
TARGET
NVME- TCP/IP
192.168.50.100
C0
192.168.51.100
C1
192.168.50.200
C0
192.168.51.200
C1
vmnic1 vmnic2
External Switch 1
Subnet-0 Subnet-1
External Switch 2
PG2
 
192.168.51.x
vSwitch 2
ESXi
portgroup/
vmknic
vmnic
PG1
 
192.168.50x
vSwitch 1
vmhba
Paths
vmhba1
vmk1
vmhba2
vmk2
4 Paths= 2 NICs (\w 2 vSwitches) x 2 Controller pairs (in 2 Subnets)
Subnet-0 Subnet-1
Configurar VMkernel Binding para o adaptador TCP com um switch vSphere 
Standard
Você pode configurar a associação de porta VMkernel para o adaptador TCP usando um switch 
padrão do vSphere e um uplink por switch. Configurar a conexão de rede envolve a criação de 
um adaptador VMkernel virtual para cada adaptador de rede física. Você usa o mapeamento 1: 1 
entre cada adaptador de rede virtual e físico.
vSphere Storage
VMware, Inc. Traduzido automaticamente 195
Procedimentos
1 Crie um switch padrão do vSphere com um adaptador VMkernel e o componente de rede.
a No vSphere Client, selecione seu host e clique na guia Redes (Networks).
b Clique em Actions (Actions) > Add Networking (Add Networking).
c Selecione VMkernel Network Adapter (VMkernel Network Adapter) e clique em NEXT 
(NEXT).
d Selecione Novo switch padrão (New standard switch) e clique em NEXT (NEXT).
e Em Adaptadores atribuídos (Assigned adapters), clique em + (+).
A lista de adaptadores físicos disponíveis é exibida.
f Selecione o adaptador físico necessário vmnic e clique em OK (OK).
Observação Certifique-se de selecionar o adaptador de rede física que correspondeao 
adaptador TCP / IP.
g Em VMkernel port settings (VMkernel port settings), insira os valores necessários.
Se você estiver usando a VLAN para o caminho de armazenamento, insira a ID da VLAN.
h Na lista de configurações de IP (IP settings), insira as configurações de IPv4 do 
VMkernel.
i Em Available services (Available services), selecione NVMe over TCP (NVMe over TCP) 
para a marcação apropriada.
2 Verifique se o switch está configurado corretamente.
a Na guia Configurar (Configure), selecione Comutadores virtuais (Virtual switches) em 
Rede (Networking).
b Expanda o switch e verifique sua configuração.
A ilustração mostra que o adaptador de rede física e o adaptador VMkernel estão 
conectados ao comutador padrão do vSphere. Por meio dessa conexão, o adaptador 
TCP é vinculado ao adaptador VMkernel.
vSphere Storage
VMware, Inc. Traduzido automaticamente 196
Configurar VMkernel Binding para o adaptador TCP com um vSphere Standard 
Switch e NIC Teaming
Você pode configurar a associação de porta VMkernel para o adaptador TCP usando um switch 
padrão do vSphere com a configuração de agrupamento de NIC. Você pode usar o agrupamento 
de NIC para obter redundância de rede. Você pode configurar dois ou mais adaptadores de rede 
(NICs) como uma equipe para alta disponibilidade.
Procedimentos
1 Crie um switch padrão do vSphere com um adaptador VMkernel e o componente de rede 
com a configuração de agrupamento de NIC.
a No vSphere Client, selecione seu host e clique na guia Redes (Networks).
b Clique em Actions (Actions) > Add Networking (Add Networking).
c Selecione VMkernel Network Adapter (VMkernel Network Adapter) e clique em NEXT 
(NEXT).
d Selecione Novo switch padrão (New standard switch) e clique em NEXT (NEXT).
e Em Adaptadores atribuídos (Assigned adapters), clique em + (+).
Uma lista de adaptadores físicos disponíveis é exibida.
f Selecione o adaptador físico necessário vmnic e adicione-o em Adaptadores ativos 
(Active adapters).
g Selecione outro adaptador físico vmnic e adicione-o em Adaptadores não utilizados 
(Unused adapters).
h Em VMkernel port settings (VMkernel port settings), insira os valores necessários.
Se você estiver usando a VLAN para o caminho de armazenamento, insira a ID da VLAN.
i Na lista de configurações de IP (IP settings), especifique as configurações IPv4 do 
VMkernel.
j Em Available services (Available services), selecione NVMe over TCP (NVMe over TCP) 
para a marcação apropriada.
Repita a etapa 1 para configurar um switch padrão existente.
2 Configure seu switch para a configuração de agrupamento de NIC .
a Clique na guia Configurar (Configure) e selecione Comutadores virtuais (Virtual 
switches) em Rede (Networking).
b Selecione o adaptador VMkernel apropriado.
c No menu do botão direito do mouse, clique em Edit Settings (Edit Settings).
d Selecione Teaming and Failover (Teaming and Failover).
e Em Adaptadores ativos (Active adapters), mova o adaptador físico necessário vmnic.
vSphere Storage
VMware, Inc. Traduzido automaticamente 197
f Em adaptadores em espera (Standby adapters) > Ordem de failover (Failover order), 
mova os outros adaptadores físicos.
g Defina o balanceamento de carga apropriado e outras propriedades.
h Repita as etapas para configurar adaptadores VMkernel adicionais.
3 Repita as etapas 1 e 2 para adicionar e configurar um conjunto adicional de rnic s 
agrupados. Para verificar se o adaptador está configurado, clique na guia Configurar 
(Configure) e selecione Adaptadores VMkernel (VMkernel adapters)
Configurar VMkernel Binding para o adaptador TCP com um vSphere 
Distributed Switch
Você pode configurar a associação de porta VMkernel para o adaptador TCP usando um switch 
distribuído do vSphere e um uplink por switch. Configurar a conexão de rede envolve a criação 
de um adaptador VMkernel virtual para cada adaptador de rede física. Você usa o mapeamento 
1: 1 entre cada adaptador de rede virtual e físico.
Procedimentos
1 Crie um switch distribuído do vSphere com um adaptador VMkernel e o componente de rede.
a No vSphere Client, selecione Datacenter (Datacenter) e clique na guia Redes (Networks).
b Clique em Actions (Actions) e selecione Distributed Switch (Distributed Switch) > New 
Distributed Switch (New Distributed Switch).
c Selecione um nome para o switch.
Certifique-se de que a localização do centro de dados esteja presente no seu host e 
clique em Próximo (Next).
d Selecione a versão do ESXi como ESXi 7.0 e posterior e clique em Next (Next).
e Insira o número necessário de uplinks e clique em Concluir (Finish).
2 Adicione um ou mais hosts ao switch virtual distribuído.
a No vSphere Client, selecione Datacenter (Datacenter) e clique em Distributed Switches 
(Distributed Switches).
É apresentada uma lista de DSwitches disponíveis.
b Clique com o botão direito do mouse no DSwitch e selecione Add and Manage Hosts 
(Add and Manage Hosts) no menu.
c Selecione Adicionar hosts (Add hosts) e clique em Avançar (Next).
d Selecione seu host e clique em Avançar (Next).
e Selecione Atribuir uplink (Assign uplink).
f Insira o uplink relevante para atribuir o vmnic.
vSphere Storage
VMware, Inc. Traduzido automaticamente 198
g Atribua um adaptador VMkernel e clique em Avançar (Next).
h No vSphere Client, selecione o DSwitch e clique na guia Portas (Ports).
Você pode visualizar os uplinks criados para o seu switch aqui.
3 Crie grupos de portas distribuídas para o caminho de armazenamento NVMe sobre RDMA.
a No vSphere Client, selecione o DSwitch necessário.
b Clique em Actions (Actions) e selecione Distributed Port Group (Distributed Port Group) 
> New Distributed Port Group (New Distributed Port Group).
c Em Definir configurações (Configure Settings), insira as propriedades gerais do grupo de 
portas.
Se você tiver configurado uma VLAN específica, adicione-a ao ID da VLAN.
Observação Podem ocorrer problemas de conectividade de rede se você não configurar 
a VLAN corretamente.
4 Configure os adaptadores VMkernel.
a No vSphere Client, expanda a lista DSwitch (DSwitch) e selecione o grupo de portas 
distribuídas.
b Clique em Actions (Actions) > Add VMkernel Adapters (Add VMkernel Adapters).
c Na caixa de diálogo Select Member Hosts (Select Member Hosts), selecione seu host e 
clique em OK (OK).
d Na caixa de diálogo Configure VMkernel Adapter (Configure VMkernel Adapter), 
certifique-se de que o MTU corresponda ao Switch MTU.
e Clique em Concluir(Finish).
f Repita a etapa be etapa c para adicionar várias NICs compatíveis com RDMA.
5 Defina políticas de agrupamento de NIC para os grupos de portas distribuídas.
a No Distributed Port Group (Distributed Port Group), clique em Actions (Actions) > Edit 
Settings (Edit Settings).
b Clique em Teaming and Failover (Teaming and Failover) e verifique os uplinks ativos.
c Atribua um uplink como Ativo (Active) para o grupo de portas e o outro uplink como Não 
utilizado (Unused).
Repita a etapa c para cada um dos grupos de portas criados.
Próximo passo
Depois de concluir a configuração, clique em Configurar (Configure) e verifique se a guia do 
adaptador físico no host lista o DVSwitch para as NICs selecionadas.
vSphere Storage
VMware, Inc. Traduzido automaticamente 199
Habilitar NVMe sobre RDMA e adaptadores de software 
TCP
O ESXi oferece suporte a adaptadores de software NVMe sobre RDMA e TCP. Use o vSphere 
Client para habilitar o software para NVMe sobre RDMA e adaptador de armazenamento TCP.
Pré-requisitos
No host do ESXi, instale um adaptador que ofereça suporte aos seguintes tipos de 
armazenamento.
n NVMe sobre adaptador RDMA. Por exemplo, Mellanox Technologies MT27700 Family 
ConnectX-4.
n NVMe sobre adaptador TCP. Por exemplo, i40en.
Configure a associação VMkernel para o adaptador RDMA. Para obter mais informações, 
consulte Exibir Adaptadores de Rede RDMA. Você deve configurar a associação VMkernel para o 
adaptador TCP.
Procedimentos
1 No vSphere Client, navegue até o host ESXi.
2 Clique na guia Configurar(Configure).
3 Em Armazenamento (Storage), clique em Adaptadores de Armazenamento (Storage 
Adapters) e clique no ícone Adicionar Adaptador de Software (Add Software Adapter).
4 Selecione o tipo de adaptador conforme necessário.
n Adaptador NVMe sobre RDMA (NVMe over RDMA adapter)
n Adaptador NVMe sobre TCP (NVMe over TCP adapter)
5 Dependendo da sua seleção na etapa 4, selecione um adaptador RDMA apropriado ou um 
adaptador de rede TCP (vmnic) no menu suspenso.
Observação Se você receber uma mensagem de erro que o impede de criar o software 
NVMe sobre o adaptador RDMA, certifique-se de que a associação VMkernel para o 
adaptador RDMA esteja configurada corretamente. Para obter mais informações, consulte 
Exibir Adaptadores de Rede RDMA.
Resultados
Os adaptadores de software NVMe sobre RDMA e TCP aparecem na lista como um adaptador 
de armazenamento vmhba. Você poderá remover o adaptador se precisar liberar o adaptador de 
rede RDMA e TCP subjacente para outros fins.
vSphere Storage
VMware, Inc. Traduzido automaticamente 200
Adicionar controlador para NVMe sobre telas
Use o vSphere Client para adicionar um controlador NVMe. Depois de adicionar o controlador, 
os namespaces NVMe associados ao controlador se tornam disponíveis para o host do ESXi. Os 
dispositivos de armazenamento NVMe que representam os namespaces no ambiente do ESXi 
aparecem na lista de dispositivos de armazenamento.
Se você usar o armazenamento NVMe sobre RDMA (RoCE v2), deverá adicionar um controlador 
depois de configurar um adaptador de software NVMe sobre RDMA. Se você usar o 
armazenamento NVMe sobre TCP, deverá adicionar um controlador depois de configurar 
um adaptador NVMe sobre TCP de software. Com o armazenamento FC-NVMe, depois de 
instalar o adaptador necessário, ele se conecta automaticamente a todos os destinos que são 
acessíveis no momento. Posteriormente, você pode reconfigurar o adaptador e desconectar 
seus controladores ou conectar outros controladores que não estavam disponíveis durante a 
inicialização do host.
Pré-requisitos
Certifique-se de que o seu host do ESXi tenha adaptadores apropriados para o seu tipo de 
armazenamento. Consulte o Requisitos e limitações do VMware armazenamento NVMe.
Procedimentos
1 No vSphere Client, navegue até o host ESXi.
2 Clique na guia Configurar (Configure).
3 Em Armazenamento (Storage), clique em Adaptadores de Armazenamento (Storage 
Adapters) e selecione o adaptador (vmhba #) a ser configurado.
4 Clique na guia Controllers (Controllers) e clique em Add Controller (Add Controller).
vSphere Storage
VMware, Inc. Traduzido automaticamente 201
5 Para adicionar o controlador, selecione uma das seguintes opções e clique em Adicionar 
(Add).
Opção Descrição
Descobrir controladores 
automaticamente
Esse método indica que seu host pode aceitar uma conexão com qualquer 
controlador disponível.
a Especifique o seguinte parâmetro para um controlador de descoberta.
n Para NVMe sobre RDMA (RoCE v2), o endereço IP e o número da 
porta de transporte.
n Para NVMe sobre TCP, o endereço IP, o número da porta de 
transporte e o parâmetro de resumo.
b Clique em Discover Controllers (Discover Controllers).
c Na lista de controladores, selecione o controlador a ser usado.
Insira os detalhes do controlador 
manualmente
Com esse método, seu host solicita uma conexão com um controlador 
específico com os seguintes parâmetros:
n Subsistema NQN
n Identificação da porta de destino. Para NVMe sobre RDMA (RoCE v2), 
o endereço IP e o número da porta de transporte (opcional). Para FC-
NVMe, o WorldWideNodeName e WorldWidePortName.
n Para NVMe sobre TCP, o endereço IP, o número da porta de transporte 
(opcional) e o parâmetro de resumo (opcional).
n Tamanho da fila do administrador. Um parâmetro opcional que 
especifica o tamanho da fila de administração do controlador. Um valor 
padrão é 16.
n Tempo limite do Keepalive. Um parâmetro opcional para especificar 
em segundos o tempo limite de keep alive entre o adaptador e o 
controlador. Um valor de tempo limite padrão é 60 segundos.
n Tamanho da fila de E / S e Número da fila de E / S. Parâmetros opcionais 
que podem ser definidos apenas por meio do esxcli.
 
Resultados
O controlador aparece na lista de controladores. Seu host agora pode descobrir os namespaces 
NVMe que estão associados ao controlador. Os dispositivos de armazenamento NVMe que 
representam os namespaces no ambiente do ESXi aparecem na lista de dispositivos de 
armazenamento no vSphere Client.
Remover NVMe sobre RDMA e adaptadores de software 
TCP
Use o vSphere Client para remover NVMe sobre RDMA e adaptadores de software TCP. Você 
poderá remover o adaptador se precisar liberar o adaptador RDMA subjacente ou o adaptador 
ethernet para outros fins.
Não é possível remover os adaptadores NVMe sobre PCIe e FC-NVMe.
Procedimentos
1 No vSphere Client, navegue até o host ESXi.
vSphere Storage
VMware, Inc. Traduzido automaticamente 202
2 Clique na guia Configurar (Configure).
3 Em Storage (Storage), clique em Storage Adapters (Storage Adapters) e selecione o 
adaptador (vmhba#) a ser removido.
4 Remova o controlador NVMe conectado ao adaptador.
a Clique na guia Controllers (Controllers).
b Selecione o controlador e clique em Remover (Remove).
O controlador NVMe é desconectado e desaparece da lista.
5 Clique no ícone Remove (Remove) (Remove the host's storage adapter) para remover o 
adaptador NVMe sobre RDMA ou o adaptador NVMe sobre TCP.
vSphere Storage
VMware, Inc. Traduzido automaticamente 203
Trabalhando com repositórios de 
dados 17
Os repositórios de dados são contêineres lógicos, análogos aos sistemas de arquivos, que 
ocultam especificações de armazenamento físico e fornecem um modelo uniforme para o 
armazenamento de arquivos de máquinas virtuais. Os repositórios de dados também podem 
ser usados para armazenar imagens ISO, modelos de máquina virtual e imagens de disquete.
Este capítulo inclui os seguintes tópicos:
n Tipos de datastores
n Noções básicas sobre repositórios de dados VMFS
n Atualizando repositórios de dados VMFS
n Noções básicas sobre repositórios de dados do sistema de arquivos de rede
n Criação de repositórios de dados
n Gerenciando repositórios de dados VMFS duplicados
n Aumentar a capacidade do repositório de dados VMFS
n Habilitar ou desabilitar o suporte para discos virtuais clusterizados no datastore VMFS6
n Operações administrativas para datastores
n Configurar o espelhamento de disco dinâmico
n Coletando informações de diagnóstico para ESXi hosts em um datastore VMFS
n Verificando a consistência dos metadados com o VOMA
n Configurando o cache de blocos de ponteiros do VMFS
Tipos de datastores
Dependendo do armazenamento que você usa, os datastores podem ser de diferentes tipos.
vCenter Server e ESXi oferecem suporte aos seguintes tipos de datastores.
VMware, Inc. Traduzido automaticamente 204
Tabela 17-1. Tipos de datastores
Tipo de datastore Descrição
VMFS (versão 5 e 6) Os datastores que você implanta em dispositivos de 
armazenamento em bloco usam o formato vSphere 
Virtual Machine File System (VMFS). VMFS é um formato 
de sistema de arquivos de alto desempenho que é 
otimizado para o armazenamento de máquinas virtuais. 
Consulte Noções básicas sobre repositórios de dados 
VMFS.
NFS (versão 3 e 4.1) Um cliente NFS integrado ao ESXi usa o protocolo 
Network File System (NFS) sobre TCP / IP para acessar 
um volume NFS designado. O volume está localizado em 
um servidor NAS. O host ESXi monta o volume como um 
armazenamento de dados NFS e o usa para necessidades 
de armazenamento. O ESXi oferece suporte às versões 3 
e 4.1 do protocolo NFS. Consulte Noções básicas sobre 
repositórios de dados do sistema de arquivos de rede
vSAN vSAN agrega todos os dispositivos de capacidade 
locais disponíveis nos hosts em um único datastore 
compartilhado por todos os hosts no cluster vSAN. 
Consulte a documentação do Administrando VMware 
vSAN .
vVol vVols datastore representa umcontêiner de 
armazenamento em vCenter Server e vSphere Client. 
Consulte Capítulo 22 Trabalhando com VMware vSphere 
Virtual Volumes (vVols).
Dependendo do seu tipo de armazenamento, algumas das tarefas a seguir estão disponíveis 
para os datastores.
n Crie datastores. Você pode usar o vSphere Client para criar certos tipos de datastores.
n Realize operações administrativas nos datastores. Várias operações, como renomear um 
datastore, estão disponíveis para todos os tipos de datastores. Outros se aplicam a tipos 
específicos de datastores.
n Organize os datastores. Por exemplo, você pode agrupá-los em pastas de acordo com as 
práticas de negócios. Depois de agrupar os armazenamentos de dados, você pode atribuir as 
mesmas permissões e alarmes nos armazenamentos de dados no grupo de uma só vez.
n Adicione os datastores a clusters de datastore. Um cluster de datastore é uma coleção de 
datastores com recursos compartilhados e uma interface de gerenciamento compartilhada. 
Ao criar o cluster de armazenamento de dados, você pode usar o Storage DRS 
para gerenciar recursos de armazenamento. Para obter informações sobre clusters de 
armazenamento de dados, consulte a documentação do Gerenciamento de Recursos do 
vSphere .
vSphere Storage
VMware, Inc. Traduzido automaticamente 205
Noções básicas sobre repositórios de dados VMFS
Para armazenar discos virtuais, ESXi usa repositórios de dados. Os repositórios de dados são 
contêineres lógicos que ocultam especificações de armazenamento físico das máquinas virtuais 
e fornecem um modelo uniforme para armazenar os arquivos da máquina virtual. Os repositórios 
de dados que você implanta em dispositivos de armazenamento de bloco usam o formato nativo 
do vSphere Virtual Machine File System (VMFS). É um formato de sistema de arquivos de alto 
desempenho especial que é otimizado para armazenar máquinas virtuais.
Use vSphere Client para configurar o repositório de dados VMFS com antecedência no 
dispositivo de armazenamento baseado em bloco que seu host ESXi descobrir. O repositório de 
dados VMFS pode ser estendido para abranger vários dispositivos de armazenamento físico que 
incluem LUNs de SAN e armazenamento local. Esse recurso permite pool de armazenamento e 
oferece flexibilidade na criação do repositório de dados necessário para suas máquinas virtuais.
Você pode aumentar a capacidade do repositório de dados enquanto as máquinas virtuais estão 
em execução no repositório de dados. Essa capacidade permite que você adicione novo espaço 
aos seus repositórios de dados VMFS conforme sua máquina virtual exige. O VMFS é projetado 
para acesso simultâneo de várias máquinas físicas e impõe os controles de acesso apropriados 
nos arquivos da máquina virtual.
Versões dos repositórios de dados VMFS
Várias versões do sistema de arquivos VMFS foram lançadas desde a sua introdução. 
Atualmente, ESXi é compatível com VMFS5 e VMFS6.
Para todas as versões compatíveis do VMFS, ESXi oferece suporte completo de leitura e 
gravação. Nos repositórios de dados VMFS compatíveis, você pode criar e ligar máquinas 
virtuais.
Tabela 17-2. Acesso do host a versões do VMFS
VMFS ESXi
VMFS6 Ler e gravar
VMFS5 Ler e gravar
A tabela a seguir compara as principais características do VMFS5 e do VMFS6. Para obter 
informações adicionais, consulte Máximos de configuração .
Tabela 17-3. Comparando VMFS5 e VMFS6
Recursos e funcionalidades VMFS5 VMFS6
Acesso para ESXi hosts versão 6.5 e posteriores Sim Sim
Acesso para ESXi hosts versão 6.0 e anteriores Sim Não
Datastores por host 512 512
512n dispositivos de armazenamento Sim Sim (padrão)
vSphere Storage
VMware, Inc. Traduzido automaticamente 206
Tabela 17-3. Comparando VMFS5 e VMFS6 (continuação)
Recursos e funcionalidades VMFS5 VMFS6
512e dispositivos de armazenamento Sim. Não compatível com 
dispositivos 512e locais.
Sim (padrão)
Dispositivos de armazenamento 4Kn Não Sim
Recuperação automática de espaço Não Sim
Recuperação manual de espaço por meio do comando 
esxcli. Consulte Recuperar manualmente o espaço de 
armazenamento acumulado.
Sim Sim
Recuperação de espaço do SO convidado Limitado Sim
Particionamento de dispositivo de armazenamento GPT Sim Sim
Particionamento de dispositivo de armazenamento MBR Sim
Para um repositório de 
dados VMFS5 que foi 
atualizado anteriormente 
do VMFS3.
Não
Dispositivos de armazenamento com mais de 2 TB para 
cada extensão VMFS
Sim Sim
Suporte para máquinas virtuais com discos virtuais de 
grande capacidade ou discos com mais de 2 TB
Sim Sim
Suporte para arquivos pequenos de 1 KB Sim Sim
Uso padrão de mecanismos de bloqueio somente do ATS 
em dispositivos de armazenamento compatíveis com ATS. 
Consulte Mecanismos de bloqueio do VMFS.
Sim Sim
Tamanho do bloco Padrão 1 MB Padrão 1 MB
Instantâneos padrão VMFSsparse para discos 
virtuais menores que 2 TB.
SEsparse para discos 
virtuais maiores que 2 TB.
SEsparse
Tipo de emulação de disco virtual 512n 512n
vMotion Sim Sim
Storage vMotion em diferentes tipos de repositórios de 
dados
Sim Sim
Alta disponibilidade e tolerância a falhas Sim Sim
DRS e DRS de armazenamento Sim Sim
RDM Sim Sim
vSphere Storage
VMware, Inc. Traduzido automaticamente 207
Ao trabalhar com repositórios de dados VMFS, considere o seguinte:
n Extensões do repositório de dados. Um repositório de dados VMFS estendido deve usar 
apenas dispositivos de armazenamento homogêneos, 512n, 512e ou 4Kn. O datastore 
estendido não pode se estender por dispositivos de diferentes formatos.
n Tamanho do bloco. O tamanho do bloco em um repositório de dados VMFS define 
o tamanho máximo do arquivo e a quantidade de espaço que um arquivo ocupa. Os 
repositórios de dados VMFS5 e VMFS6 oferecem suporte ao tamanho do bloco de 1 MB.
n Storage vMotion. Storage vMotion oferece suporte à migração entre repositórios de dados 
VMFS, vSAN e vVols. vCenter Server executa verificações de compatibilidade para validar 
Storage vMotion em diferentes tipos de repositórios de dados.
n Armazenamento DRS. O VMFS5 e o VMFS6 podem coexistir no mesmo cluster de repositório 
de dados. No entanto, todos os repositórios de dados no cluster devem usar dispositivos 
de armazenamento homogêneos. Não misture dispositivos de diferentes formatos no mesmo 
cluster de repositório de dados.
n Formatos de partição de dispositivo. Qualquer novo repositório de dados VMFS5 ou VMFS6 
usa a tabela de partição GUID (GPT) para formatar o dispositivo de armazenamento. O 
formato GPT permite criar repositórios de dados maiores que 2 TB. Se o seu datastore 
VMFS5 tiver sido atualizado anteriormente do VMFS3, ele continuará a usar o formato 
de partição do registro de inicialização mestre (MBR), que é característico do VMFS3. 
A conversão para GPT ocorre somente depois que você expande o datastore para um 
tamanho maior que 2 TB.
Repositórios de dados VMFS como repositórios
O ESXi pode formatar dispositivos de armazenamento baseados em SCSI como repositórios 
de dados VMFS. Os repositórios de dados VMFS servem principalmente como repositórios de 
máquinas virtuais.
Observação Sempre tenha apenas um repositório de dados VMFS para cada LUN.
Você pode armazenar várias máquinas virtuais no mesmo repositório de dados VMFS. Cada 
máquina virtual, encapsulada em um conjunto de arquivos, ocupa um único diretório separado. 
Para o sistema operacional dentro da máquina virtual, o VMFS preserva a semântica do sistema 
de arquivos interno, o que garante o comportamento correto do aplicativo e a integridade dos 
dados para aplicativos em execução em máquinas virtuais.
Quando você executa várias máquinas virtuais, o VMFS fornece mecanismos de bloqueio 
específicos para os arquivos da máquina virtual. Como resultado, as máquinas virtuais podem 
operar com segurança em um ambiente SAN onde vários ESXi hosts compartilham o mesmo 
repositório de dados VMFS.
Além das máquinas virtuais, os repositórios de dados VMFS podem armazenar outros arquivos, 
como os modelos de máquina virtual e as imagens

Mais conteúdos dessa disciplina