Tuesday 15 August 2017

Moving Average Ax 2012


O objetivo deste documento é descrever como os IOs estão em fila no driver do dispositivo de disco e no driver do dispositivo do adaptador, SDD e SDDPCM e para explicar como estes podem ser sintonizados para aumentar o desempenho. E isso também inclui o uso de VIO. Esta informação também é útil para AIX LPARs usando outro código multi-caminho também. Onde este material se encaixa na pilha de IO A seguir está a pilha de IO do aplicativo no disco: Sistema de arquivo de aplicativo (opcional) Driver de dispositivo LVM (opcional) SDD ou SDDPCM ou outro driver de múltiplos caminhos (se usado) Dispositivo de adaptador de driver de dispositivo hdisk Interligação do driver no disco Subsistema de disco Disco Observe que, mesmo que o disco esteja conectado ao adaptador, o código do driver hdisk é utilizado antes do código do driver do adaptador. Então, esta pilha representa o software de pedido que entra em jogo ao longo do tempo, enquanto o IO atravessa a pilha. Por que precisamos enviar simultaneamente mais de um IO para um disco Isso melhora o desempenho. E isso seria o desempenho do ponto de vista das aplicações. Isto é especialmente importante com os subsistemas de disco onde um disco virtual (ou LUN) é suportado por vários discos físicos. Em tal situação, se possamos apenas enviar um único IO de cada vez, encontremos bons tempos de serviço de IO, mas muito fracos. O envio de múltiplas IOs para um disco físico permite que o disco minimize o movimento do atuador (usando um algoritmo de elevador) e obtenha mais IOPS do que é possível enviando uma IO por vez. A analogia do elevador é apropriada. Quanto tempo as pessoas estariam esperando para usar um elevador, se apenas uma pessoa de cada vez pudesse entrar nessa situação, espere que as pessoas esperassem um bom tempo para usar o elevador (tempo de fila), mas uma vez que conseguiram isso , Eles chegaram rapidamente ao seu destino (tempo de serviço). Então, enviar múltiplos IOs em vôo para um subsistema de disco permite descobrir como obter o tempo de serviço IO geral mais rápido e rápido. Teoricamente, o IOPS para um disco é limitado pelo queuedepth (tempo médio de serviço IO). Assumindo um horário de espera de 3 e um tempo médio de serviço IO de 10 ms, isso produz um máximo de 300 IOPS para o hdisk. E, para muitas aplicações, isso pode não ser suficiente. Onde os IOs estão em fila À medida que as IOs atravessam a pilha de IO, o AIX precisa acompanhá-las em cada camada. Então, as IOs são essencialmente em fila em cada camada. Geralmente, um número de IOs em vôo pode ser emitido em cada camada e se o número de pedidos de IO exceder esse número, eles residem em uma fila de espera até que o recurso necessário fique disponível. Portanto, há essencialmente uma fila de processo e uma fila de espera em cada camada (SDD e SDDPCM são um pouco mais complicados). Na camada do sistema de arquivos, os buffers do sistema de arquivos limitam o número máximo de IOs em vôo para cada sistema de arquivos. Na camada do driver do dispositivo LVM, os buffers hdisk limitam o número de IOs em vôo. Na camada SDD, as IOs são enfileiradas se o atributo dpo devices, qdepthenable, for definido como sim (o que é por padrão). Algumas versões do SDD não fazem fila de IOs por isso depende da liberação do SDD. O SDDPCM, por outro lado, não faz fila de IOs antes de enviá-los para o driver do dispositivo de disco. Os hdisks têm um número máximo de IOs em vôo que é especificado pelo atributo queuedepth. E os adaptadores FC também possuem um número máximo de IOs em vôo especificadas por numcmdelems. Os próprios subsistemas de disco em fila de IOs e discos físicos individuais podem aceitar múltiplas solicitações de IO, mas apenas atendem um de cada vez. Aqui estão os atributos de um disco ESS: lsattr - El hdisk33 PRkeyvalue nenhum Chave de reserva Localização verdadeira Localização Etiqueta True lunid 0x5515000000000000 Número de unidade lógica ID True lunresetspt sim Suporte SCSI LUN reset True maxtransfer 0x40000 NA True nodename 0x5005076300c096ab FC Nome do nó False pvid nenhum Identificador de volume físico Falso Qtype simples Queuing TYPE Verdadeiro qfulldly 20 atraso em segundos para SCSI TASK SET FULL Verdadeiro queuedepth 20 Queue DEPTH True reservepolicy singlepath Política de reserva True rwtimeout 60 READWRITE valor de tempo limite True scbsydly 20 atraso em segundos para SCSI BUSY True scsiid 0x620713 ID SCSI True starttimeout 180 START Valor de limite de tempo da unidade True wwname 0x5005076300cd96ab FC Nome do Mundo Falso O predefinido queuedepth é 20, mas pode ser alterado para 256 para ESS, DS6000 e DS8000. Um pode exibir valores permitidos com: lsattr - Rl hdisk33 - a queuedepth 1. 256 (1) indicando que o valor pode ser em qualquer lugar de 1 a 256 em incrementos de 1. Um pode usar esse comando para ver qualquer valor permitido para os atributos que podem ser Alterado (mostrando um valor de True no último campo de lsattr - El ltdevicegt para o dispositivo usando: lsattr - Rl ltdevicegt - a lattattributegt Heres atributos de um FC adaptadores: lsattr - El fcs0 busintrlvl 65703 Nível de interrupção do barramento False busioaddr 0xdec00 Bus IO address False Busmemaddr 0xe8040000 Endereço de memória do barramento False initlink al INIT Link flags True intrístriza 3 Prioridade de interrupção Falso lgtermdma 0x800000 DMA a longo prazo True maxxfersize 0x100000 Tamanho máximo de transferência True numcmdelems 200 Número máximo de COMMANDS para fila para o adaptador True prefalpa 0x1 ALPA preferido True swfcclass 2 FC Class Para Tela verdadeira A profundidade de fila padrão (numcmdelems) para adaptadores FC é 200, mas pode ser aumentada até 2048 para a maioria dos adaptadores. Heres os atributos dos dispositivos dpo para Uma versão de SDD: lsattr - El dpo Enterprmaxlun 600 Máximo LUNS permitido para produtos corporativos True Virtualmaxlun 512 Máximo LUN permitido para produtos de virtualização Falso persistenterev sim Subsistema Suporta comando de reserva persistente Falso qdepthenable sim Controle de profundidade da fila True Quando qdepthenableyes, SDD só enviará IOs no final da semana Para qualquer hdisk subjacente (onde o seguinte tópico é o valor para o atributo subjacente hdks queuedepth). Quando qdepthenableno, SDD apenas passa os IOs diretamente para o driver hdisk. Portanto, a diferença é que, se qdireita-se (o padrão), as IOs que excedem o tempo de espera serão coladas no SDD, e se qdepthenableno, as IOs excederão o queuedepth irá fila na fila de espera dos hdisks. Em outras palavras, SDD com qdepthenableno e SDDPCM não fazem fila de IOs e, em vez disso, basta passar para os drivers do hdisk. Observe que no SDD 1.6, é preferível usar o comando datapath para mudar qdepthenable, em vez de usar chdev, pois então é uma mudança dinâmica, e. O conjunto de dados definido qdepth desativado irá configurá-lo como não. Alguns lançamentos do SDD não incluem enfileiramento do SDD, e alguns fazem, e alguns lançamentos não mostram o atributo qdepthenable. Ou verifique o manual para a sua versão do SDD ou tente o comando datapath para ver se ele é compatível ao desativar esse recurso. Se você usou SDD e SDDPCM, lembre-se de que, com SDD, cada LUN possui um vpath e um hdisk correspondentes para cada caminho para o vpath ou LUN. E com SDDPCM, você tem apenas um hdisk por LUN. Assim, com o SDD, você pode enviar os caminhos do início da semana para um LUN, enquanto que com o SDDPCM, um só pode enviar as IOs do início da semana para o LUN. Se você mudar de SDD usando 4 caminhos para SDDPCM, então você deseja configurar os discos rígidos SDDPCM para 4x, o de SDD hdisks para uma profundidade de fila efetiva equivalente. E a migração para o SDDPCM é recomendável, pois é mais estratégico do que SDD. Tanto o hdisk quanto os drivers do adaptador estão em processo e aguardam filas. Uma vez que o limite da fila é atingido, os IOs aguardam até que uma IO seja concluída, liberando um slot na fila de serviço. A fila de processo também é, por vezes, referida como a fila de serviço. Vale a pena mencionar, que muitas aplicações não gerarão muitos IOs em vôo, especialmente aplicativos de thread único que não utilizam IO assíncrono. Os aplicativos que usam IO assíncrono provavelmente gerarão mais em IO de vôo. Quais ferramentas estão disponíveis para monitorar as filas. Para o AIX, pode-se usar o iostat (no AIX 5.3 ou posterior) e sar (5.1 ou posterior) para monitorar as filas do driver do hdisk. O comando iostat - D gera saída, como: hdisk6 xfer: tmact bps tps bread bwrtn 4.7 2.2M 19.0 0.0 2.2M leitura: rps avgserv minserv maxserv timeouts falha 0.0 0.0 0.0 0.0 0 0 write: wps avgserv minserv maxserv timeouts falha 19.0 38.9 1.1 190.2 0 0 fila: avgtime mintime maxtime avgwqsz avgsqsz sqfull 15.0 0.0 83.7 0.0 0.0 136 Aqui, o avgwqsz é o tamanho médio da fila de espera e avgsqsz é o tamanho médio da fila do serviço. O tempo médio gasto na fila de espera é avgtime. O valor do sqfull mudou desde inicialmente uma contagem dos tempos em que enviamos um IO para uma fila cheia, até agora onde é a taxa de IOs por segundo submetida a uma fila completa. O relatório de exemplo mostra o caso anterior (uma contagem de IOs enviadas para uma fila cheia), enquanto versões mais recentes geralmente mostram frações decimais, indicando uma taxa. É bom que o iostat - D separe lê e escreva, como seria de esperar que os tempos do serviço IO sejam diferentes quando possuímos um subsistema de disco com cache. O relatório mais útil para o ajuste é apenas executar o iostat - D que mostra as estatísticas desde a inicialização do sistema, assumindo que o sistema está configurado para manter continuamente o histórico do disco IO (execute lsattr - El sys0 ou chichi smitty para ver se o atributo iostat está definido como verdadeiro ). E os autores das bandeiras de comando do iostat preferidas são iostat - RDTl ltintervalgt ltintervalsgt. Do ponto de vista das aplicações, o período de tempo para fazer um IO é seu tempo de serviço mais o tempo que ele aguarda na fila de espera do hdisk. O comando sar - d mudou no AIX 5.3 e gera saída como: 16:50:59 dispositivo ocupado avque rws Kbss avwait avserv 16:51:00 hdisk1 0 0.0 0 0 0.0 0.0 hdisk0 0 0.0 0 0 0.0 0.0 O avwait e Avserv são os tempos médios passados ​​na fila de espera e fila de serviço, respectivamente. E aqui, aqui, corresponderia a avgserv na saída do iostat. O valor avque alterado no AIX 5.3, representa o número médio de IOs na fila de espera e, antes de 5.3, representa o número médio de IOs na fila de serviço. SDDPCM fornece os comandos devstats e pcmpath query adaptstats da consulta para mostrar as estatísticas da fila do hdisk e do adaptador. O SDD também possui dados de devolução de dados e datas de adaptação de consulta de datapath. Você pode consultar o manual SDDSDDPCM para sintaxe, opções e explicações de todos os campos. Heres algum devstats saída para um único LUN: Dispositivo: 0 total lido Total Gravar Ativo Ler Ativo Escrever Máximo IO: 29007501 3037679 1 0 40 SECTOR: 696124015 110460560 8 0 20480 Tamanho da transferência: lt 512 lt 4k lt 16K lt 64K gt 64K 21499 10987037 18892010 1335598 809036 e heres alguma saída de adaptadores: Adaptador: 0 Total de leitura Total Gravar Ativo Ler Ativo Escrever EO máximo: 439690333 24726251 7 0 258 SECTOR: 109851534 960137182 608 0 108625 Aqui, foram interessados ​​principalmente no campo Máximo que indica o número máximo de IOs enviados para o dispositivo desde a inicialização do sistema. Para o SDD, o máximo para devstats não excederá os caminhos x no início do tempo quando qdpthenableyes. Mas Maximum para adaptstats pode exceder numcmdelems, pois representa o número máximo de IOs enviados ao driver do adaptador e inclui IOs para o serviço e filas de espera. Se, neste caso, nós temos 2 caminhos e estamos usando o padrão de espera de 20, então o 40 indica que carregamos a fila pelo menos uma vez e o aumento do tempo de espera pode ajudar o desempenho. Para SDDPCM, se o valor máximo for igual a hdisks em seguida, a fila do driver hdisk foi preenchida durante o intervalo, e o aumento do tempo de espera geralmente é apropriado. Um também pode monitorar o IOPS do adaptador com o iostat - at ltintervalgt lt of intervalgt e para informações da fila do adaptador, execute o iostat - aD. Opcionalmente com um intervalo e número de intervalos. Para adaptadores FC, o comando fcstat fornece informações sobre a fila do adaptador eo uso de recursos, e pode nos informar se precisamos aumentar o tamanho da fila. Para filas de adaptadores, o comando fcstat é usado e é discutido abaixo. Primeiro, não se deve indiscriminadamente aumentar esses valores. É possível sobrecarregar o subsistema de disco ou causar problemas com a configuração do dispositivo no arranque. Portanto, a abordagem de somar os henduns em fila e usar isso para determinar o numcmdelems não é necessariamente a melhor abordagem. Em vez disso, é melhor usar o número máximo de IOs enviados para cada dispositivo para ajuste. Quando você aumenta os horários de espera e o número de IOs de voo que são enviadas para o subsistema de disco, é provável que os tempos de serviço de IO aumentem, mas a taxa de transferência também aumentará. Se os tempos de serviço de IO começam a aproximar o valor de tempo limite do disco, você está enviando mais IOs do que o subsistema de disco pode manipular. Se você começar a ver os tempos limite de IO e os erros no registro de erros indicando problemas ao completar os IOs, então é a hora de procurar problemas de hardware ou tornar o tubo menor. Uma boa regra geral para ajustar os horários de espera, é que pode-se aumentar os tempos de espera até que os tempos de serviço de IO comecem a exceder 15 ms para pequenas leituras aleatórias ou gravações ou uma não está preenchendo as filas. Uma vez que os tempos do serviço IO começam a aumentar, nós colocamos o gargalo do disco AIX e as filas do adaptador para o subsistema de disco. Duas abordagens para a profundidade da fila de ajuste são 1) baseie as profundidades da fila nas solicitações de IO reais que seu aplicativo gerar ou 2) use uma ferramenta de teste para ver o que o subsistema de disco pode manipular e sintonizar as filas de acordo com o que o subsistema de disco pode lidar. A ferramenta ndisk (parte do pacote nstress disponível na internet em www-941.ibmcollaborationwikidisplayWikiPtypenstress) pode ser usada para enfatizar o subsistema de disco para ver o que ele pode manipular. A preferência dos autores é sintonizar com base nos requisitos de IO da aplicação, especialmente quando o disco é compartilhado com outros servidores. Para sintonizar, podemos classificar a situação em quatro categorias: preencher as filas e as IOs estão aguardando no hdisk ou drivers de adaptador Não estavam enchendo as filas, e os tempos de serviço de IO são bons Não estavam enchendo as filas e o serviço de IO Os tempos são pobres Não estavam enchendo as filas e enviando IOs para o armazenamento mais rápido do que pode lidar e perde os IOs Queremos ajustar as filas para estar na situação 2 ou 3. Se estivesse na situação 3, isso indica Um estrangulamento além do driver hdisk que normalmente estará no próprio subsistema do disco, mas também pode estar no driver do adaptador ou na tela SAN. Situation 4 é algo que queremos evitar. Todos os discos e subsistema de disco têm limites em relação ao número de IOs em vôo que eles podem manipular, principalmente devido a limitações de memória para manter a solicitação e os dados de IO. Quando o armazenamento perde IOs, o IO eventualmente expirará no host, o código de recuperação será usado e reenviará o IO, mas, entretanto, as transações que esperam que IO sejam bloqueadas. Esta não é uma situação desejável, pois a CPU acaba fazendo mais trabalho para lidar com IOs do que o necessário. Se o IO finalmente falhar, isso pode levar a uma falha na aplicação ou pior. Portanto, certifique-se de verificar sua documentação de armazenamento para entender seus limites. Então, depois de executar a sua aplicação durante os períodos IO de pico, veja as estatísticas e sintonize novamente. Quanto ao parâmetro qdepthenable para SDD, o padrão é sim, que essencialmente possui o SDD manipulando os IOs além do tempo de espera para os hdisks subjacentes. Configurando-o para nenhum resultado no driver do dispositivo hdisk manipulando-os em sua fila de espera. Em outras palavras, com qdepthenableyes, SDD lida com a fila de espera, caso contrário, o driver do dispositivo hdisk controla a fila de espera. Existem benefícios de tratamento de erros para permitir que o SDD manipule esses IOs, p. ex. Se estiver usando o espelhamento LVM em dois ESSs. Com cargas pesadas de IO e muitas filas em SDD (quando qdepthenableyes) é mais eficiente para permitir que os drivers de dispositivo hdisk gerenciem filas de espera relativamente mais baixas em vez de SDD manipulando uma fila de espera muito longa definindo qdepthenableno. Em outras palavras, o processamento da fila SDDs é um único threaded onde cada driver hdisk possui seu próprio thread. Portanto, se o tratamento de erros for de importância primordial (por exemplo, quando o espelhamento LVM em subsistemas de disco), então, deixe qdepthenableyes. Caso contrário, configurar o qdepthenableno de forma mais eficiente lida com as filas de espera quando são longas. Note que se deve definir o parâmetro qdepthenable através do comando datapath, pois é uma mudança dinâmica desse jeito (usando chdev não é dinâmico para este parâmetro). Se o tratamento de erros é motivo de preocupação, também é aconselhável, assumindo que o disco está conectado ao switch SAN, para definir o atributo do dispositivo fscsi fcerrrecov para fastfail, em vez do padrão de falha retardada, e também alterar o atributo dyntrk do dispositivo fscsi para sim em vez do padrão De não. Esses atributos assumem um switch SAN que ofereça suporte a esse recurso. O que é um tempo médio razoável do serviço de IO O que é bom ou razoável é um pouco o fator da tecnologia do armazenamento e do tamanho do cache de armazenamento. Supondo que nenhuma IOs esteja em fila em um disco, uma leitura típica levará em algum lugar de 0 a 15 ms, ou assim, dependendo de quão longe o atuador tem que viajar (tempo de busca), quanto tempo leva o disco para girar para o setor direito (Tempo de rotação) e quanto tempo leva para ler os dados (tempo de transferência). Em seguida, os dados devem passar do armazenamento para o host. Normalmente, o tempo é dominado pelo tempo de rotação do tempo de busca, embora o tempo de transferência de IO grande também possa ser significativo. Às vezes, os dados estarão no cache de leitura do subsistema de disco, caso em que o tempo do serviço IO é de cerca de 1 ms. Normalmente, para os subsistemas de discos grandes que não estão sobrecarregados, os tempos de serviço de IO serão em torno de 5-10 ms. Quando pequenas leituras aleatórias começam a uma média superior a 15 ms, isso indica que o armazenamento está ocupado. Escreve tipicamente para escrever cache (assumindo que existe) e, em seguida, essa média tipicamente inferior a cerca de 2,5 ms. Mas há exceções. Se o armazenamento estiver configurando de forma sincronizada os dados em um site remoto, as gravações podem demorar muito mais. E se o IO for grande (digamos 64 KB ou maior), o tempo de transferência torna-se mais significativo e o tempo médio é um pouco pior. Se não há cache, as gravações demoram aproximadamente o mesmo que lê. Se o IO for grande em bloco, então, além do aumento do tempo de transferência, esperamos que as IOs coloquem no disco físico e os tempos de serviço IO sejam muito mais longos em média. POR EXEMPLO. Se um aplicativo envia 50 IOs (diga 50 64 KB IOs lendo um arquivo sequencialmente), os primeiros IOs terão razoavelmente bons tempos de serviço de IO, enquanto o último IO terá que esperar que os outros 49 terminem primeiro e terão Um tempo de serviço de IO muito longo. IOs para SSDs são tipicamente inferiores a 1 ms, e para SSDs em subsistemas de disco, geralmente menos de 2 ms, e na ocasião maior. Sintonizando o adaptador de FC numcmdelems O comando fcstat é talvez a ferramenta mais fácil de procurar IOs bloqueadas nas filas dos adaptadores, p. RELATÓRIO DE ESTATÍSTICAS DO CANAL DE FIBRA: fcs0. FC SCSI Adapter Driver Information Não há DMA Recurso Contagem: 0 Não Contagem de Elementos de Adaptador: 104848 Nenhum Número de Recurso de Comando: 13915968. Os valores para Nenhuma Contagem de Elementos de Adaptador e Nenhuma Contagem de Recurso de Comando são o número de vezes desde a inicialização que um IO foi bloqueado temporariamente devido a um valor de atributo numcmdelems inadequado. Valores diferentes de zero indicam que o aumento de numcmdelems pode ajudar a melhorar os tempos de serviço IO. Claro que, se o valor aumentar gradualmente, a melhoria pode ser muito pequena, enquanto os valores de incremento rápido significam que a afinação é mais provável que tenha uma melhoria mensurável no desempenho. Como o atributo hdisk queuedepth, alterar o valor numcmdelems requer a interrupção do uso dos recursos ou uma reinicialização. Profundidades de fila com VSCSI VIO Ao usar o VIO, configura-se os adaptadores VSCSI (para cada adaptador virtual em um VIOS, conhecido como um dispositivo vhost, haverá um adaptador VSCSI correspondente em um VIOC). Esses adaptadores têm uma profundidade de fila fixa que varia de acordo com quantos LUN VSCSI são configurados para o adaptador. Existem 512 elementos de comando dos quais 2 são usados ​​pelo adaptador, 3 são reservados para cada LUN VSCSI para recuperação de erros eo restante é usado para solicitações de IO. Assim, com o encadeado padrão de 3 para LUNs VSCSI, isso permite que até 85 LUNs usem um adaptador: (512 - 2) (3 3) 85 arredondamento para baixo. Então, se precisarmos de profundidades de fila mais altas para os dispositivos, o número de LUNs por adaptador é reduzido. POR EXEMPLO. Se quisermos usar um quincero de 25, isso permite 51028 18 LUNs. Podemos configurar vários adaptadores VSCSI para lidar com muitos LUNs com profundidades de fila elevadas. Cada um exigindo memória adicional. Pode ter mais de um adaptador VSCSI em um VIOC conectado ao mesmo VIOS se precisar de mais largura de banda. Além disso, deve-se definir o atributo do queuedepth no hdisk dos VIOCs para corresponder ao dos hdisks mapeados em seguida no VIOS. Para uma fórmula, o número máximo de LUNs por adaptador SCSI virtual (vhost no VIOS ou vscsi no VIOC) é INT (510 (Q3)) onde Q é o segundo trimestre de todos os LUNs (assumindo que são todos iguais). Note-se que, para mudar o queuedepth em um hdisk no VIOS, é necessário que desmarcar o disco do VIOC e remapeá-lo novamente, ou uma abordagem mais simples é mudar os valores no ODM (por exemplo, chdev - l hdisk30 - a queueuedth20 - P) Então reinicie o VIOS. Para os discos híbridos LV VSCSI, onde vários discos híbridos VIOC são criados a partir de um único hdisk VIOS, pode-se usar um recurso dedicado, um recurso compartilhado ou uma abordagem intermediária para os slots de filas do VIOS hdisk. Veja a seção abaixo intitulada Pensamentos teóricos adicionais sobre recursos compartilhados versus dedicados. Profundidades de fila com NPIV VIO Ao usar o NPIV, temos adaptadores FC virtuais (vFC) e adaptadores FC reais, e muitas vezes possuem vFCs múltiplos ligados a um único adaptador FC real. Se você aumentar numcmdelems no adaptador virtual FC (vFC), então você também deve aumentar a configuração no adaptador FC real. Você pode usar o comando fcstat tanto para o adaptador virtual quanto para o adaptador real para fins de afinação. Uma nota especial no atributo maxxfersize do adaptador FC Este atributo para o dispositivo fscsi, que controla o tamanho máximo de IO que o driver do dispositivo do adaptador manipulará, também controlará uma área de memória usada pelo adaptador para transferências de dados. Quando o valor padrão é usado (maxxfersize0x100000), a área de memória tem 16 MB de tamanho. Ao definir este atributo para qualquer outro valor permitido (digamos 0x200000), a área de memória é de 128 MB de tamanho. No AIX 6.1 TL2 ou posterior, foi feita uma alteração para adaptadores FC virtuais para que a área de memória DMA seja sempre de 128 MB, mesmo com o maxxfersize padrão. Esta área de memória é uma área de memória DMA, mas é diferente da área de memória DMA controlada pelo atributo lgtermdma (que é usado para controle IO). O valor padrão para lgtermdma de 0x800000 geralmente é adequado. Então, para IO pesado e especialmente para IOs grandes (como para backups) é recomendado configurar maxxfersize0x200000. O comando fcstat também pode ser usado para examinar se o aumento de numcmdelems ou maxxfersize pode aumentar o desempenho fcstat fcs0. FC SCSI Adapter Driver Information Não Contagem de Recursos DMA: 0 Não Contagem de Elementos do Adaptador: 0 Nenhum Contagem de Recursos do Comando: 0 Isso mostra um exemplo de um adaptador que possui valores suficientes para numcmdelems e maxxfersize. O valor não zero indicaria uma situação em que os IOs colocados em fila no adaptador devido à falta de recursos e o aumento de numcmdelems e maxxfersize seria apropriado. Observe que mudar o maxxfersize usa a memória nos chips PCI Host Bridge conectados aos slots PCI. O salesmanual, em relação ao adaptador FC-X FC de 4 Gbps de duas portas, indica que, se colocado em um slot PCI-X classificado como compatível com SDR ou tiver a velocidade da ranhura de 133 MHz, o valor AIX do maxxfersize deve ser mantido na configuração padrão De 0x100000 (1 megabyte) quando ambas as portas estão em uso. A arquitetura do buffer DMA para esses slots não permite configurações maiores de maxxfersize Se houver muitos adaptadores FC e muitos LUNs conectados ao adaptador, isto levará a problemas de configuração dos LUNs. Os erros aparecerão: LABEL: DMAERR IDENTIFICADOR: 00530EA6 Data: 3 de março 10:48:09 EST 2008 Número de seqüência: 863 ID da máquina: 00C3BCB04C00 Id do nó: p595back Classe: H Tipo: UNKN Nome do recurso: PCIDMA Classe de recurso: NENHUM Recurso Tipo: NENHUMA Localização: Descrição ERRO DESEMPREGADO Causas prováveis ​​DISPOSITIVO DO ADAPTADOR DO PROGRAMA IO SOFTWARE DO SISTEMA Ações recomendadas PROCEDIMENTOS DE DETERMINAÇÃO DO PROBLEMA DO PERFORMA Dados detalhados NÚMERO DO BUS NÚMERO FFFF FFFF 9000 00E4 ADMINISTRAÇÃO DA UNIDADE DO CANAL 0000 0000 0000 018B CÓDIGO DE ERRO 0000 0000 1000 0003 Então, se você receber esses erros , Você precisará alterar o maxxfersize de volta para o valor padrão. Observe também que, se você estiver iniciando a partir da SAN, se você encontrar esse erro, não poderá inicializar, por isso certifique-se de ter um plano de atraso se você planeja mudar isso e estiver iniciando a partir da SAN. Outros pensamentos teóricos sobre recursos compartilhados versus dedicados O leitor astuto terá considerado o fato de que normalmente temos muitos drivers hdisk que compartilham vários adaptadores e drivers de adaptador, assim, os slots de fila FC são um recurso compartilhado para os drivers do hdisk: assim, é possível Para garantir que nunca preenchamos as filas do adaptador, fazendo SUM (hdisk0 queuedepth, hdisk1 em fila de espera. HdiskM queuedepth) lt SUM (fcs0 numcmdelems, fcs1 numcmdelems. FcsN numcmdelems). Isso pressupõe que o IO esteja distribuído uniformemente pelos adaptadores. E a maioria dos códigos de vários caminhos equilibram os IOs em todos os adaptadores (ou pelo menos). Contudo, muitas vezes, os ambientes têm muitos outros hdisks do que as portas do FC, e garantir que não preenchamos os drivers do adaptador podem levar a pequenos valores para o queuedepth e filas completas nos drivers do hdisk. Portanto, existe a abordagem de recursos dedicados, a abordagem de recursos compartilhados e entre dedicados e compartilhados. Tomando este exemplo simples, onde Q representa a profundidade da fila para o driver do dispositivo: isso seria considerado uma abordagem de recursos dedicados, onde 10 dos slots da fila do driver do adaptador são dedicados a cada driver hdisk. Aqui, conhecemos bem, nunca envie um IO para uma fila completa no driver do adaptador. Isso seria considerado uma abordagem de recurso compartilhado onde os 10 slots de filas de adaptador poderiam ser preenchidos a partir de um único driver hdisk. E heres um exemplo de algo intermediário: Aqui, sempre haverá pelo menos 5 slots de fila disponíveis no driver do adaptador para o driver hdisk. Há vantagens e desvantagens para cada abordagem. O benefício da abordagem de recursos dedicados é que os recursos alocados estarão sempre disponíveis, mas geralmente haverá menos recursos disponíveis para cada usuário do recurso (aqui o recurso estava considerando os slots da fila do adaptador e os usuários do recurso são os Drivers hdisk). O benefício da abordagem de recursos compartilhados é que é bom ter mais recursos para um usuário individual do recurso quando ele precisar dele e ele será capaz de obter maior dificuldade do que na abordagem de recursos dedicados. O autor, em geral, prefere uma abordagem de recursos compartilhados, como geralmente fornece o melhor desempenho de preços e de quitação. Observe que esta situação de recursos compartilhados ocorre de várias maneiras possíveis além dos drivers do hdisk usando drivers de adaptador. Também está envolvido quando: Vários hdisvistas LV VSCSI para um único hdisk em um VIOS Vários adaptadores vFC usando um único adaptador FC real Vários LPARs usando o mesmo subsistema de disco. Consulte também Calculadora de imposto de transferência de terra de Toronto e FAQ Imposto de propriedade em Toronto e no GTA A propriedade Os impostos cobrados pelas províncias canadenses podem ser baseados no uso atual e no valor da propriedade. Como você provavelmente sabe, a principal fonte de receita para a maioria dos municípios, o pagamento de serviços locais como parques ou escolas (excluindo faculdades e universidades) é o imposto sobre a propriedade. O imposto de propriedade local deve ser incluído nos cálculos de despesas de cada proprietário da propriedade. Para sua conveniência, nós preparamos uma calculadora de imposto de propriedade do GTA, que o ajudará a determinar quanto tributo há em sua propriedade. Perguntas freqüentes sobre o imposto sobre a propriedade da GTA: como é calculado o imposto sobre a propriedade Se você deseja calcular seu imposto de propriedade, multiplique seu valor avaliado pela taxa de imposto, que consiste em taxas municipais, municipais e educacionais. Nosso calculador de imposto sobre propriedades cobre todos os municípios da GTA. Quais são as diferentes taxas para várias propriedades. Existem quatro grandes classes de propriedades (residencial, multi-residencial, industrial, comercial), cada uma com sua própria taxa. Qual é o valor avaliado A Corporação Municipal de Avaliação de Propriedade (MPAC) estima o valor de mercado de cada propriedade em Ontário regularmente. Esta avaliação do valor atual ocorreu em 2008 para os anos fiscais de 2009 a 2012. As mudanças são implementadas gradualmente durante os quatro anos. Eu tenho que pedir uma avaliação 160Não, você não. É feito automaticamente pela MPAC. A corporação enviará avisos de avaliação a todos os proprietários. O que é implementado gradualmente O novo valor avaliado será implementado gradualmente. Se o seu imóvel fosse avaliado em 300.000 em 2005 e em 360.000 em 2008, os novos valores avaliados para os próximos anos serão 315.000 em 2009, 330.000 em 2010, 345.000 em 2011 e 360.000 em 2012. E se eu não concordar com o valor avaliado Existe a possibilidade de apelar a avaliação. No entanto, o prazo para a última rodada de avaliação foi 31 de março de 2009. O que é o aviso de alteração da avaliação de propriedade No caso de haver alguma mudança com a propriedade (ou seja, uma mudança na classificação de propriedade, uma adição, renovação ou construção nova para uma propriedade) , A MPAC emitirá um aviso de alteração de avaliação de propriedade. Se for uma construção nova, pode ser aplicável ao ano em curso e, se aplicável, para qualquer parte ou a totalidade dos dois anos anteriores. Se você se tornar o proprietário de uma propriedade recém-construída, a primeira conta comum que você recebe da Cidade só pode ser por uma parte do valor de avaliação da sua unidade, então lembre-se desse fato. O meu imposto de propriedade aumentará à medida que meu valor de propriedade aumentar Não, se o valor de sua propriedade aumentar a uma taxa média. Toda reavaliação é neutra na receita, a taxa do imposto será reduzida pelo governo municipal quando os valores das propriedades aumentarem ao redor de um município. No entanto, se o seu crescimento do valor da propriedade for maior que o crescimento do valor médio local, seu imposto sobre a propriedade pode aumentar. As propriedades multi-residenciais, comerciais e industriais são protegidas por cappingno importa o quanto o valor de propertys aumenta, o imposto de propriedade pode aumentar apenas em certa medida. Isto é principalmente porque a redução no imposto sobre propriedades com valor decrescente também possui certas limitações. Quem vai preparar minha conta e como devo pagar. Seu município emitirá a conta de imposto de propriedade padronizada. Você tem um grande número de opções de pagamento (incluindo o banco ou outras instituições financeiras, correio, programa de pagamento de impostos pré-autorizado, contadores de pesquisa, empresa de hipoteca e caixas de pagamento). E se eu não puder pagar a conta de imposto, os idosos de baixa renda e as pessoas de baixa renda com deficiência têm a oportunidade de solicitar um diferimento de aumentos de imposto sobre a propriedade ou de um cancelamento completo dos aumentos de imposto de propriedade. Como é o meu imposto sobre a propriedade Os serviços, como a polícia, o departamento de bombeiros, os transportes públicos locais e as bibliotecas, bem como a dívida municipal são pagos a partir do imposto. Apenas para lhe dar uma idéia, em Toronto, cerca de 25 de imposto de propriedade coletado vão para o serviço policial, 14 para TTC, 11 para pagar dívidas municipais e 10 para o departamento de bombeiros. Existe algum outro imposto que eu deva considerar ao comprar a propriedade Sim. You are subject to the Ontario Land Transfer Tax. In case that the property is located within the City of Toronto, the Toronto Land Transfer Tax also applies. To calculate this amount, use this convenient Toronto Land Transfer Tax Calculator and FAQ . On the Tax Bill, the N indicates rural area with rural garbage services, while the G indicates rural area with urban garbage services. Sutton Group-Associates Realty Inc. Brokerage 358 Davenport Road, Toronto, Ontario M5R1K6 Phone 416-966-0300 Fax 416-966-0080 All Rights Reserved 2015

No comments:

Post a Comment