equação tensorial de sistema dinâmico estatístico quântico



1 /     /  / /

 G  [DR] =            .  

+  G* =  = [          ] ω   / T] / c [    [x,t] ]  =  


/





Uma estatística quantica, no contexto da mecânica quântica e no da mecânica estatística, é a descrição de como a energia de cada um dos entes unitários constituintes de um ensemble está distribuida, dada uma energia total E constante, sob a restrição de que:

  1. a energia passa a ser quantizada;
  2. as partículas objeto de estudo passam a ser indistinguíveis.

Isso é feito expressando-se as probabilidades relativas de uma partícula com energia 

De modo clássico, a probabilidade é dada por:



equação tensorial de sistema dinâmico estatístico quântico



1 /     /  / /

 G  [DR] =            .  

+  G* =  = [          ] ω   / T] / c [    [x,t] ]  =  


/

onde



equação tensorial de sistema dinâmico estatístico quântico



1 /     /  / /

 G  [DR] =            .  

+  G* =  = [          ] ω   / T] / c [    [x,t] ]  =  



/
/

é a chamada função de partição

Nos casos quanticos, o que muda é a questão da quantização do espaço de fase, o que impõe um "volume" mínimo de célula possível nesse espaço.





O desenvolvimento do método da máxima entropia (ME) ocorreu através de duas linhas de pesquisa: inferência estatística (Bernoulli, Bayes, Laplace, Jeffreys, Cox) e modelagem estatística de problemas em mecânica, física e de informação (Maxwell, Boltzmann, Gibbs, Shannon).

O objetivo da primeira linha de investigação é a de formular uma teoria/metodologia que permite a compreensão das características gerais (distribuição) de um sistema de informação parcial e incompleto. Na segunda linha de investigação, este mesmo objectivo é expresso na forma de determinar como atribuir valores numéricos (iniciais) das probabilidades quando apenas algumas quantidades globais limitadas (teoricamente) do sistema investigados são conhecidas. O reconhecimento dos objetivos básicos comuns destas duas linhas de pesquisa auxiliou Jaynes (1957)[1][2] no desenvolvimento do seu trabalho clássico, de formalização da máxima entropia. Isto é, a formalização da ME foi baseada na filosofia da primeira linha de investigação e na matemática da segunda linha de investigação.

Jaynes mostrou que maximizar estatisticamente a entropia (mecânica) com a finalidade de revelar o modo como as moléculas de gás estavam distribuídas seria equivalente à simples maximização da entropia (de informação) de Shannon com informação mecânica estatisticamente. O método foi correto para atribuir probabilidades independentemente das especificidades da informação. Esta ideia conduziu a máxima entropia ou à utilização do método da máxima entropia para atribuir probabilidades. Este método tem evoluído para um método mais geral, o método de máxima entropia relativa (MEr), que tem a vantagem de não só atribuir probabilidades, mas atualizá-las quando nova informação é dada sob a forma de restrições sobre os probabilidades.

A ME pode ser aplicada para análise de uma grande variedade de problemas na maioria das disciplinas da ciência. por exemplo, trabalhos sobre a reconstrução de imagem e análise espectral em medicinafísicaquímicabiologiatopografiaengenhariacomunicação e informaçãoinvestigação de operaçõesciência política e economia (tomografia, imagens de satélite, motores de busca, matriz insumo-produto, métodos tipo GMMmodelagem de dados em econometria); a investigação em estimação e inferência estatística (métodos bayesianos e não bayesianos); e inovações em curso no processamento de informação e de TI.

Definição

Em Física, a entropia de um sistema é uma medida de sua ‘desordem’. O físico austríaco Ludwig Boltzmann definiu a entropia de um sistema através da seguinte expressão:



equação tensorial de sistema dinâmico estatístico quântico



1 /     /  / /

 G  [DR] =            .  

+  G* =  = [          ] ω   / T] / c [    [x,t] ]  =  


/

em que  é uma constante (positiva) de ajuste dimensional e  é número de estados do sistema. A ‘desordem’ (denotada por ) está diretamente relacionada ao número de estados. Então,



equação tensorial de sistema dinâmico estatístico quântico



1 /     /  / /

 G  [DR] =            .  

+  G* =  = [          ] ω   / T] / c [    [x,t] ]  =  


/

Portanto, se  mede a desordem,  (uma entropia negativa) mede a ordem do sistema. Uma das mais importantes variantes da equação anterior é a entropia de Shannon, também conhecida como entropia de informação, definida como:[3]



equação tensorial de sistema dinâmico estatístico quântico



1 /     /  / /

 G  [DR] =            .  

+  G* =  = [          ] ω   / T] / c [    [x,t] ]  =  


/

onde  é a entropia da variável aleatória X, que denota a probabilidade de que X esteja no estado ik é uma constante de ajuste dimensional, n é o número total de categorias ou estados, e  representa sua respectiva probabilidade. Os valores de  que maximizam  são submetidos às condições da informação disponível.

O princípio da máxima entropia é útil explicitamente apenas quando aplicado a informações testáveis. Uma informação é testável se for possível determinar se uma dada distribuição é coerente com ela. Por exemplo, as declarações

valor esperado da variável X é 2,87

e



equação tensorial de sistema dinâmico estatístico quântico



1 /     /  / /

 G  [DR] =            .  

+  G* =  = [          ] ω   / T] / c [    [x,t] ]  =  


/

são declarações de informações testáveis.

Dada uma informação testável, o procedimento de máxima entropia consiste em procurar a distribuição de probabilidade de que maximiza a entropia da informação, sujeita às restrições da informação. Este problema de otimização restrita normalmente é resolvido utilizando o método de multiplicadores de Lagrange.

O problema pode ser enunciado como segue: Maximizar



equação tensorial de sistema dinâmico estatístico quântico



1 /     /  / /

 G  [DR] =            .  

+  G* =  = [          ] ω   / T] / c [    [x,t] ]  =  


/

com o conjunto de restrições (r):



equação tensorial de sistema dinâmico estatístico quântico



1 /     /  / /

 G  [DR] =            .  

+  G* =  = [          ] ω   / T] / c [    [x,t] ]  =  


/

 =  onde 

que significa que o valor médio de  é igual a . Para r = 0, temos a condição de normalização, que assegura que . Para r ≥ 1,  é obtido da informação parcial que se tem do sistema.

Utilizando multiplicadores de Lagrange, , o problema é maximizar



equação tensorial de sistema dinâmico estatístico quântico



1 /     /  / /

 G  [DR] =            .  

+  G* =  = [          ] ω   / T] / c [    [x,t] ]  =  


/

 

A solução geral é



equação tensorial de sistema dinâmico estatístico quântico



1 /     /  / /

 G  [DR] =            .  

+  G* =  = [          ] ω   / T] / c [    [x,t] ]  =  


/

Propriedades

  •  se e somente se todos os  são zero, com exceção de um que tem valor unitário. Intuitivamente, essa é a situação de maior certeza. De outra maneira,  é positivo.
  • Para um dado  e igual a  quando todos os  são iguais (i.é., ). Contrariamente à situação anterior, esse é o caso de maior incerteza.
  • Se existem dois eventos,  e , com  possibilidades para o primeiro e  para o segundo e  é a probabilidade de ocorrência conjunta de  para o primeiro e  para o segundo, a entropia do evento conjunto é:


equação tensorial de sistema dinâmico estatístico quântico



1 /     /  / /

 G  [DR] =            .  

+  G* =  = [          ] ω   / T] / c [    [x,t] ]  =  


/

com


equação tensorial de sistema dinâmico estatístico quântico



1 /     /  / /

 G  [DR] =            .  

+  G* =  = [          ] ω   / T] / c [    [x,t] ]  =  


/

 e


equação tensorial de sistema dinâmico estatístico quântico



1 /     /  / /

 G  [DR] =            .  

+  G* =  = [          ] ω   / T] / c [    [x,t] ]  =  


/

Destas definições segue que:


equação tensorial de sistema dinâmico estatístico quântico



1 /     /  / /

 G  [DR] =            .  

+  G* =  = [          ] ω   / T] / c [    [x,t] ]  =  


/

  • Por definição, a entropia condicional de  é dada por:


equação tensorial de sistema dinâmico estatístico quântico



1 /     /  / /

 G  [DR] =            .  

+  G* =  = [          ] ω   / T] / c [    [x,t] ]  =  


/

De onde resultam


equação tensorial de sistema dinâmico estatístico quântico



1 /     /  / /

 G  [DR] =            .  

+  G* =  = [          ] ω   / T] / c [    [x,t] ]  =  


/

e


equação tensorial de sistema dinâmico estatístico quântico



1 /     /  / /

 G  [DR] =            .  

+  G* =  = [          ] ω   / T] / c [    [x,t] ]  =  


/









Em teoria da informação, a perplexidade é uma medida de quão bem uma distribuição de probabilidade ou modelo de probabilidade prevê uma amostra. Pode ser usada para comparar modelos de probabilidade. Uma baixa perplexidade indicada que a distribuição de probabilidade é boa em prever a amostra.[1]

Perplexidade de uma distribuição de probabilidade

A perplexidade de uma distribuição de probabilidade discreta  é definida como:


equação tensorial de sistema dinâmico estatístico quântico



1 /     /  / /

 G  [DR] =            .  

+  G* =  = [          ] ω   / T] / c [    [x,t] ]  =  


/

em que  é a entropia (em bits) da distribuição e  varia sobre os eventos, ou seja, a perplexidade é igual a 2 elevado à entropia ou, mais precisamente, 2 elevado à entropia cruzada, definição esta usada frequentemente na comparação empírica de modelos probabilísticos.

A perplexidade de uma variável aleatória  pode ser definida como a perplexidade da distribuição sobre seus possíveis valores .

No caso especial em que  modela um dado honesto de -faces (uma distribuição uniforme sobre  eventos discretos), sua perplexidade é . Uma variável aleatória com perplexidade  tem a mesma incerteza de um dado honesto de -faces e é considerada "perplexa em -formas" sobre o valor da variável aleatória. A não ser que seja um dado honesto de -faces, mais que  valores serão possíveis, mas a incerteza geral não é maior, porque alguns destes valores terão probabilidade maior que , diminuindo o valor geral ao somar.

A perplexidade é algumas vezes usada como uma medida de quão difícil um problema de previsão é. Isto não é sempre preciso. Se você tiver duas escolhas, uma com probabilidade , então suas chances de um palpite correto são iguais a  usando a estratégia ótima. A perplexidade é . O inverso da perplexidade, que representa a probabilidade de um palpite correto no caso do dado honesto de -faces, é igual à , não .

A perplexidade é a exponenciação da entropia, que é uma quantidade com contorno mais nítido. A entropia é uma medida do número esperado ou "médio" de bits exigido para codificar o resultado da variável aleatória, usando o código de comprimento variável, ótimo e teórico. Pode ser equivalentemente considerada como o ganho de informação esperado ao aprender o resultado da variável aleatória, em que a informação é medida em bits.[2]

Perplexidade de um modelo de probabilidade

Um modelo de uma distribuição de probabilidade desconhecida  pode ser proposto com base em uma amostra de treinamento que foi retirada de . Dado um modelo de probabilidade proposto , pode-se avaliar  ao perguntar quão bem ele prevê uma amostra de teste separada  também retirada de . A perplexidade do modelo  é definida como:


equação tensorial de sistema dinâmico estatístico quântico



1 /     /  / /

 G  [DR] =            .  

+  G* =  = [          ] ω   / T] / c [    [x,t] ]  =  


/

em que  é costumeiramente . Modelos melhores  da distribuição desconhecida  tenderão a atribuir probabilidades maiores  aos eventos de teste. Assim, têm menor perplexidade, sendo menos surpreendidos pela amostra de teste.

O expoente acima pode ser considerado como o número médio de bits necessários para representar um evento de teste  se for usado um código ótimo baseado em . Modelos de baixa perplexidade fazem um melhor trabalho comprimindo a amostra de teste, exigindo poucos bits por elemento de teste em média porque  tende a ser alta.

O expoente pode também ser considerado uma entropia cruzada:


equação tensorial de sistema dinâmico estatístico quântico



1 /     /  / /

 G  [DR] =            .  

+  G* =  = [          ] ω   / T] / c [    [x,t] ]  =  


/

em que  denota a distribuição empírica da amostra de teste, isto é, , se  tiver aparecido  vezes na amostra de teste de tamanho .[3]

Perplexidade por palavra







Em mecânica estatística clássica, o teorema H, introduzido por Ludwig Boltzmann em 1872, descreve a tendência para diminuir a quantidade H em um gás quase-ideal de moléculas[1]. Como essa quantidade H deveria representar a entropia da termodinâmica, o teorema H foi uma demonstração inicial do poder da mecânica estatística, já que afirmava derivar a segunda lei da termodinâmica - uma declaração sobre processos fundamentalmente irreversíveis - da mecânica microscópica reversível. O teorema H é uma conseqüência natural da equação cinética derivada por Boltzmann que passou a ser conhecida como equação de Boltzmann.[2][3][4]

Definição e significado do H de Boltzmann

O valor H é determinado a partir da função f(EtdE, que é a função de distribuição de energia das moléculas no tempo t. O valor f(EtdE dE é o número de moléculas que possuem energia cinética entre E e E + dE. O próprio H é definido como


equação tensorial de sistema dinâmico estatístico quântico



1 /     /  / /

 G  [DR] =            .  

+  G* =  = [          ] ω   / T] / c [    [x,t] ]  =  


/

Para um gás ideal isolado (com energia total fixa e número total fixo de partículas), a função H é mínima quando as partículas possuem uma distribuição de Maxwell-Boltzmann; se as moléculas do gás ideal forem distribuídas de alguma outra maneira (por exemplo, todas com a mesma energia cinética), então o valor de H será maior. O teorema H de Boltzmann demonstra que quando as colisões entre moléculas são permitidas, essas distribuições são instáveis e tendem a procurar irreversivelmente o valor mínimo de H (para a distribuição de Maxwell-Boltzmann).[5]






Em termodinâmica, uma Transformação isentrópica (combinação da palavra grega "iso" - igual - e "entropia") é aquela em que a entropia do sistema permanece constante.

Segunda Lei da Termodinâmica estabelece que:



equação tensorial de sistema dinâmico estatístico quântico



1 /     /  / /

 G  [DR] =            .  

+  G* =  = [          ] ω   / T] / c [    [x,t] ]  =  


/

onde  é a quantidade de energia que o sistema ganha por aquecimento,  a temperatura do sistema, e  a variação de entropia. O símbolo de igualdade implicaria um processo reversível. Em um processo isentrópico reversível não há transferência de energia calorífica, e por isso o processo é também adiabático. Em um processo adiabático irreversível, a entropia aumentará, de modo que é necessário eliminar calor do sistema (mediante refrigeração) para manter uma entropia constante. Por isso, um processo isentrópico irreversível não pode ser adiabático.

Comentários

Postagens mais visitadas deste blog