equação tensorial de sistema dinâmico estatístico quântico



1 /     /  / /

 G  [DR] =            .  

+  G* =  = [          ] ω   / T] / c [    [x,t] ]  =  


/




Transformações reversíveis

A entropia é um conceito essencial ao estudo das máquinas térmicas.

A ideia de entropia, uma grandeza física que encontra sua definição dentro da área da termodinâmica,[Nota 4] surgiu no seguimento de uma função criada por Clausius[4] a partir de um processo cíclico reversível. Sendo Q o calor trocado entre o sistema e sua vizinhança, e T a temperatura absoluta do sistema, em todo processo reversível a integral de curva de  só depende dos estados inicial e final, sendo independente do caminho seguido. Portanto deve existir uma função de estado do sistema, S = f (P, V, T), chamada de entropia, cuja variação em um processo reversível entre os estados inicial e final é:[Nota 5]



equação tensorial de sistema dinâmico estatístico quântico



1 /     /  / /

 G  [DR] =            .  

+  G* =  = [          ] ω   / T] / c [    [x,t] ]  =  


/

, sendo Q reversível

A entropia física, em sua forma clássica é dada por:

, desde que o calor seja trocado de forma reversível

ou, quando o processo é isotérmico:



equação tensorial de sistema dinâmico estatístico quântico



1 /     /  / /

 G  [DR] =            .  

+  G* =  = [          ] ω   / T] / c [    [x,t] ]  =  


/

onde S é a entropia,  a quantidade de calor trocado e T a temperatura em Kelvin.

O significado desta equação pode ser descrito, em linguagem corrente, da seguinte forma:




Interpretação estatística

Em 1877Ludwig Boltzmann visualizou um método probabilístico para medir a entropia de um determinado número de partículas de um gás ideal, na qual ele definiu entropia como proporcional ao logaritmo neperiano do número de microestados que um gás pode ocupar:



equação tensorial de sistema dinâmico estatístico quântico



1 /     /  / /

 G  [DR] =            .  

+  G* =  = [          ] ω   / T] / c [    [x,t] ]  =  


/

Onde S é a entropia, k é a constante de Boltzmann e Ω é o número de microestados possíveis para o sistema.

O trabalho de Boltzmann consistiu em encontrar uma forma de obter a equação entrópica fundamental S a partir de um tratamento matemático-probabilístico[Nota 10] facilmente aplicável aos sistemas em questão. Ao fazê-lo, conectou o todo poderoso formalismo termodinâmico associado à equação fundamental a um método de tratamento probabilístico simples que exige apenas considerações físicas primárias sobre o sistema em análise, obtendo, a partir de considerações básicas, todo o comportamento termodinâmico do sistema. A equação de Boltzman mostra-se muito importante para o estudo termodinâmico de tais sistemas, e reconhecida como tal pelo próprio autor, encontra-se gravada em sua lápide.[Not




Na mecânica estatística, a entropia de configuração é a porção da entropia de um sistema que está relacionada à posição de suas partículas constituintes e não à sua velocidade ou impulso. Entropia de configuração está fisicamente relacionada ao número de formas de organizar todas as partículas do sistema, mantendo um conjunto geral de propriedades de sistema especificadas, como por exemplo energia[1].

Pode ser demonstrado que a variação da entropia de configuração de sistemas termodinâmicos (por exemplo, gás ideal e outros sistemas com grande número de graus internos de liberdade) em processos termodinâmicos é equivalente à variação da entropia macroscópica definida como dS = δQ/T, onde δQ é o calor trocado entre o sistema e a mídia circundante, e T é a temperatura.[2]

Cálculo

A entropia configurável no conjunto microcanônico está relacionada ao número de configurações possíveis W em uma dada energia E pela fórmula de entropia de Boltzmann[3]



equação tensorial de sistema dinâmico estatístico quântico



1 /     /  / /

 G  [DR] =            .  

+  G* =  = [          ] ω   / T] / c [    [x,t] ]  =  


/

onde kB é a constante de Boltzmann e W é o número de configurações possíveis. Em uma formulação mais geral, se um sistema pode estar nos estados n com probabilidades Pn, a entropia configurável do sistema é dada por



equação tensorial de sistema dinâmico estatístico quântico



1 /     /  / /

 G  [DR] =            .  

+  G* =  = [          ] ω   / T] / c [    [x,t] ]  =  


/

que no limite de desordem perfeita (todos Pn = 1 / W) leva à fórmula de Boltzmann, enquanto no limite oposto (uma configuração com probabilidade 1), a entropia desaparece. Esta formulação é chamada de fórmula de entropia de Gibbs[4] e é análoga à da entropia de informação de Shannon.




Entropia como conceito da Teoria da Informação

A Teoria da Informação teve inicialmente como destaque as questões técnicas, sendo uma das primeiras teorias a separar com nitidez a informação da significação. A Teoria da Informação está situada dentro da cibernética, onde a informação se mostra como uma medida probabilística. Esta teoria tem um grande interesse pelo funcionamento dos sinais, pelas transformações energéticas mediante a codificação da mensagem e sua de codificação. Ela opera com os seguintes conceitos:

  1. ruído;
  2. redundância;
  3. entropia;
  4. imprevisibilidade.

Em fontes contínuas, a codificação da informação gera ruído na mensagem, isso se dá pelo fato de que a fonte contínua precisaria de um vasto repertório de símbolos e que, como consequência, necessitaria uma capacidade de transmissão grande e, como é sabido, não existe um canal livre de ruído.

Shannon abordou, também o conceito de redundância é relacionado à entropia no sentido de que a redundância é tudo o que não é fundamental para ser entendido em uma determinada mensagem, ou seja, é entendida como algo complementar. Então é a medida de entropia para que a mensagem atinja a entropia máxima.

A entropia desejada de uma informação é a máxima que é dada pelas probabilidades equivalentes de ocorrer todos os símbolos.

A teoria da informação não estuda uma língua pelo número de símbolos alfabéticos que a compõem, mas sim pela análise à redundância na língua, considerando que o inverso da entropia é a redundância, ou seja, a organização do sistema em questão. Uma língua entrópica dispõe de um vocabulário rico, com palavras diferenciadas, que mostram o poder das combinatórias; uma língua pouco entrópica é pobre e repetitiva.

Em relação a imprevisibilidade, quanto maior for, será menor a chance de apreensão por parte do receptor, pois o receptor depende da ordem em que as mensagens são transmitidas. A imprevisibilidade total é correspondente à informação nula, ou seja, não há informação.

A medida da informação (ou surpresa) de um evento  é uma função que decresce a medida em que a probabilidade  do evento se eleva. Ela pode ser calculada a partir da fórmula de Hartley (1928):



equação tensorial de sistema dinâmico estatístico quântico



1 /     /  / /

 G  [DR] =            .  

+  G* =  = [          ] ω   / T] / c [    [x,t] ]  =  


/

Aqui,  é a unidade da informação (Por exemplo: Informação binária, ). Já entropia pode ser explicitamente escrita como



equação tensorial de sistema dinâmico estatístico quântico



1 /     /  / /

 G  [DR] =            .  

+  G* =  = [          ] ω   / T] / c [    [x,t] ]  =  


/

onde  é a probabilidade do i-ésimo resultado para a variável .

Uma maneira mais simples de medir a entropia é perceber que há duas possibilidades de ocorrência de um evento, como no caso do lançamento de uma moeda em um jogo de cara-ou-coroa com moeda viciada. Nesse caso temos p e q, onde q = 1-p, e a entropia do sistema é calculada como



equação tensorial de sistema dinâmico estatístico quântico



1 /     /  / /

 G  [DR] =            .  

+  G* =  = [          ] ω   / T] / c [    [x,t] ]  =  


/

Comentários

Postagens mais visitadas deste blog