A Lei de Stefan-Boltzmann (mais conhecida como Lei de Stefan) estabelece que a energia total radiada por unidade de área superficial de um corpo negro na unidade de tempo (radiação do corpo negro), (ou a densidade de fluxo energético (fluxo radiante) ou potencia emissora), j* é diretamente proporcional à quarta potência da sua temperatura termodinâmica T:
/////
sistema indeterminístico Graceli ; SISTEMA GRACELI INFINITO-DIMENSIONAL
A constante de proporcionalidade (não é uma constante fundamental) é chamada constante de Stefan-Boltzmann ou constante de Stefan σ. A lei foi descoberta de jeito experimental por Jožef Stefan (1835-1893) no ano 1879 e derivada de jeito teórico no marco da termodinâmica por Ludwig Boltzmann (1844-1906) em 1884. Boltzmann supôs uma máquina térmica ideal com luz como substância de trabalho semelhante a um gás. Esta lei é a única lei da natureza que leva o nome de um físico esloveno. Hoje pode-se derivar a lei da Lei de Planck sobre a radiação de um corpo negro:
/////
sistema indeterminístico Graceli ; SISTEMA GRACELI INFINITO-DIMENSIONAL
e é válida só para objetos de cor negra ideal, os perfeitos radiantes, chamados corpos negros. Stefan publicou esta lei o 20 de março no artigo Über die Beziehung zwischen der Wärmestrahlung und der Temperatur (Das relações entre radiação térmica e temperatura) nos Boletins das sessões da Academia das Ciências de Viena.
Temperatura do Sol
Com esta lei Stefan também determinou a temperatura da superfície solar. Conheceu, a partir dos dados de Charles Soret (1854–1904) que a densidade do fluxo energético solar é 29 vezes maior que a densidade do fluxo energético de uma placa de metal aquecida à temperatura equivalente. Uma placa redonda foi situada a uma distancia do aparelho de medida tal que podia ser vista com mesmo ângulo que o sol. Soret estimou que a temperatura na placa fosse entre 1900 °C e 2000 °C. Stefan supôs que 1/3 do fluxo da energia solar é absorvido pela atmosfera terrestre, com o que conseguiu um valor total para o fluxo energético do Sol os 2/3 do observado; por tanto, 3*29/2 = 43,5 vezes. Medidas mais precisas da absorção atmosférica foram feitas em 1888 e 1904. A temperatura Stefan obtida foi um valor médio entre os anteriores, 1950 °C, e por tanto a temperatura termodinâmica absoluta muito próxima a 2200 K. Como 2.574 = 43.5, segue-se que a temperatura solar é 2.57 vezes maior que a da placa, conseguindo Stefan um valor de 5430 °C ou 5700 K (o valor aceite na atualidade é 5780 K). Este foi o primeiro valor acordado para a temperatura do Sol. Anteriormente foram supostos de 1800 °C até 13,000,000 °C. O primeiro valor de 1800 °C fora determinado por Claude Servais Mathias Pouillet (1790-1868) no 1838 usando a lei de Dulong-Petit. Pouilett aproximou também a metade do valor do fluxo energético solar. É possível que este resultado tenha lembrado a Stefan que a lei de Dulong-Petit podia não ser exata a altas temperaturas: se usarmos uma lente sobre a luz solar, podemos aquecer um sólido a uma temperatura muito maior que 1800 °C.
A Lei de Stefan-Boltzmann é um exemplo de lei potencial.
Histórico e construção
Em 1879, o físico esloveno Jožef Stefan (1835-1893) deduziu, a partir de resultados experimentais, que a potência P (energia irradiada por segundo) de um corpo negro é diretamente proporcional à sua temperatura T elevada à quarta potência e também diretamente proporcional à área A da superfície emissora. Essa relação foi chamada de Lei de Stefan.
/////
sistema indeterminístico Graceli ; SISTEMA GRACELI INFINITO-DIMENSIONAL
Onde σ = 5,67 x 10−8W/m2K4 é a constante de Stefan.
Mais tarde, em 1884, o físico austríaco Ludwig Boltzmann (1844-1906) deduziu a Lei de Stefan teoricamente, utilizando a Termodinâmica estatística. O modelo utilizado por Boltzmann foi uma máquina térmica que, em vez de usar gás como substância, usava a luz.
Vale aqui um parênteses importantíssimo: em 1871, Boltzmann, baseado nos trabalhos pioneiros de James Maxwell em física estatística, desenvolveu, junto com outros cientistas, a teoria cinética dos gases, a qual relaciona o micro com o macro. Um dos resultados mais impressionantes é a relação entre a temperatura T de um gás (o macro) e o movimento das suas moléculas (o micro), mais especificamente a energia cinética média Ec das moléculas.
Utilizando recursos da Termodinâmica e da estatística e um modelo extremamente simples para os gases, Boltzmann deduziu que:
/////
sistema indeterminístico Graceli ; SISTEMA GRACELI INFINITO-DIMENSIONAL
KB=1,38 x 10−23J/K é a constante de Boltzmann: o elo entre o microscópico e o macroscópico. Em outras palavras, a média das energias cinéticas de cada uma das moléculas de um gás é 3/2KBT. Veja a ordem de grandeza da constante de Boltzmann: ela é muito, muito pequena, tal como esperado, pois a energia cinética de uma única molécula de um gás deve ser mesmo pequena.
Pelo formato das curvas da intensidade da radiação de corpo negro X comprimento de onda a diferentes temperaturas, nota-se que sua expressão matemática não seria tão simples como a Lei de Stefan e a Lei de Wien.
Em 1893, o mesmo Wilhelm Wien, baseado nos dados experimentais e na sua intuição, ajustou uma expressão matemática aos dados experimentais (hoje um computador faz isso instantaneamente), que ficou conhecida como a Lei da Radiação de Wien:
Onde: α e β são constantes.
Em 1900, na Inglaterra, Lord Rayleigh (1842 – 1919) derivou teoricamente uma outra expressão matemática, baseando-se nas leis clássicas de Newton e Maxwell e com o auxílio da mecânica estatística de Boltzmann. O modelo teórico de Rayleigh foi o de uma cavidade radiante onde as ondas eletromagnéticas refletem nas paredes formando ondas estacionárias semelhantes às da experiência da corda, só que em 3 dimensões.[2]
Os resultados de Rayleigh foram corrigidos pelo físico James Hopwood Jeans (1877 – 1946), e a expressão final ficou conhecida com Lei da Radiação de Rayleigh-Jeans:
/////
sistema indeterminístico Graceli ; SISTEMA GRACELI INFINITO-DIMENSIONAL
Onde KB é a constante de Boltzmann e c é a velocidade da luz.
Entretanto, a aproximação de Wien só explicava bem a radiação do corpo negro para comprimentos de onda baixos (frequências altas); e, a de Rayleigh, só funcionava bem para comprimentos de onda altos (frequências baixas)[nota 1]. A figura mostra o problema: a curva verde é a curva experimental, ou seja, a realidade dos fatos; a curva vermelha é aquela derivada pela equação de Rayleigh-Jeans: ela só se ajusta bem à curva experimental em frequências baixas. A curva em azul é a curva derivada da equação de Wien: só se ajusta bem à curva verde, experimental, em frequências altas. Ou seja, nenhuma das duas curvas derivadas da teoria explicava a curva experimental. Disso os cientistas não gostam, pois a ciência parte do pressuposto de que existe uma explicação unitária para um mesmo fenômeno.[2]
Em 1895 Max Planck começou a se interessar pelo fenômeno da radiação do corpo negro e suas pesquisas nesse campo durariam 5 anos. Planck desejava construir um modelo teórico que encontrasse as correções necessárias na Lei da Radiação de Wien para entrar em concordância com os dados experimentais em qualquer frequência.
O modelo de Planck baseava-se no que ele chamou de osciladores, ou seja, os geradores das ondas que estariam nas paredes do forno. Era como se bolinhas infinitamente pequenas, atadas a molas idem, estivessem presas na parede interna do corpo negro e a absorção de radiação se desse com as bolinhas passando a vibrar mais, enquanto a radiação se desse com as bolinhas passando a vibrar menos. O desenvolvimento teórico seguiu, chegando a uma expressão final muito interessante, como veremos.
Em outubro de 1900, Planck convidou para um chá em sua casa, Heinrich Rubens (1865 – 1922) que, juntamente com Ferdinand Kurlbaum (1857 – 1927), obtivera dados de alta precisão da radiação do corpo negro, especialmente nas frequências onde a Lei da Radiação de Wien falhava. Horas depois que seu convidado foi embora, Planck intuiu uma expressão que se ajustava perfeitamente aos dados experimentais, a Lei de Planck, da radiação térmica:
/////
sistema indeterminístico Graceli ; SISTEMA GRACELI INFINITO-DIMENSIONAL
Onde
I = radiância espectral / Js−1, m−2 , sr−1 ,Hz−1
ν = frequência / Hertz
T = temperatura do corpo negro / kelvin
h = constante de Planck / joule - hertz
c = velocidade da luz / metros - segundo
e = número de Euler / adimensional
Baseado na Termodinâmica e nos estudos de mecânica estatística de Boltzmann, Planck desenvolveu seu modelo teórico. Boltzmann tinha um trabalho com átomos que era matematicamente semelhante. Nele, as energias dos átomos eram múltiplos inteiros de uma energia mínima ε. Planck fez uma analogia com os osciladores das paredes do forno e obteve, estupefato, o seguinte resultado: para uma determinada frequência ν, a energia dos osciladores somente poderia ser um múltiplo inteiro de hν, onde h = 6,63 x 10−34 j.s j.s é a constante de Planck. A energia não era absorvida ou emitida de modo contínuo, mas apenas em múltiplos de uma unidade mínima, que dependia da frequência da radiação. Ou seja, se estamos trabalhando com apenas uma frequência (ν), toda a energia que o corpo negro pode absorver ou emitir tem que ser múltiplo inteiro de hν. O quantum de energia dos osciladores deveria ser hν. Devido à pequeníssima magnitude da constante de Planck, não notamos isso no nosso dia-a-dia.[2]
Devido à natureza conservadora de Planck era muito difícil pensar que a energia, grandeza fundamental de toda a Física, que todos pensavam que podia ser emitida ou absorvida continuamente, pudesse ser discreta, ou seja, emitida ou absorvida apenas em unidades múltiplas de um certo valor mínimo. Deve ter sido muito difícil para Planck admitir sequer essa possibilidade. Mas, mesmo assim, Planck publicou seu trabalho, e numa das mais magníficas páginas da história da ciência, deu início ao que chamamos hoje de Mecânica Quântica.
Exemplos
Com a Lei de Stefan-Boltzmann, os astrônomos puderam inferir facilmente o raio das estrelas. A lei é também usada na termodinâmica dos buracos negros na chamada radiação de Hawking. De forma semelhante podemos calcular a temperatura da Terra TE:
/////
sistema indeterminístico Graceli ; SISTEMA GRACELI INFINITO-DIMENSIONAL
onde TS é a temperatura do Sol, rS o ráio do Sol e a0 a unidade astronômica e podemos tomar 6 °C, assim, o nosso Sol é aproximadamente 964 vezes mais quente que a Terra. Isto mostra de jeito aproximado que T ~ 300 K é a temperatura do nosso mundo. O a menor mudança da distancia entre o Sol ou das condições atmosféricas poderiam mudar a temperatura media da Terra.
Alguns físicos criticaram Stefan por usar um método inédito para determinar a lei. É certo que foi ajudado por algumas coincidências, mas isto não significa que não fizera a dedução correta.
A mecânica estatística (ou física estatística) é o ramo da física que, utilizando a teoria das probabilidades, estuda o comportamento de sistemas mecânicos macroscópicos compostos por um elevado número de entidades constituintes microscópicas a partir do comportamento destas entidades, quando seus estados são incertos ou indefinidos. Os constituintes podem ser átomos, moléculas, íons, entre outros. É uma teoria que relaciona um nível de descrição macroscópico (Termodinâmica) com um nível microscópico (Mecânica).[1][2][3]
O estudo de todos os microestados destes sistemas em toda a sua complexidade é pouco prático ou mesmo inviável. Para contornar essa dificuldade, a mecânica estatística usa um conjunto de cálculos probabilísticos para a ocorrência dos diferentes microestados e atribuir uma série de vínculos matemáticos, como a hipótese de ergodicidade.
A mecânica estatística é usada para explicar, por exemplo, o funcionamento termodinâmico de grandes sistemas, sendo chamada então de termodinâmica estatística ou mecânica estatística de equilíbrio. Leis mecânicas microscópicas não contêm conceitos tais como a temperatura, o calor, ou a entropia. No entanto, a mecânica estatística mostra como esses conceitos surgem da incerteza natural sobre o estado de um sistema quando esse sistema é preparado na prática. A vantagem de usar a mecânica estatística é que ela fornece métodos exatos para relacionar grandezas termodinâmicas (tais como a capacidade térmica) para comportamento microscópico, enquanto que na termodinâmica clássica a única opção disponível seria apenas medir e tabular tais quantidades para vários materiais. A mecânica estatística também torna possível estender as leis da termodinâmica para casos que não são considerados na termodinâmica clássica, tais como sistemas microscópicos e outros sistemas mecânicos com poucos Graus de liberdade.[1]
A mecânica estatística também encontra uso fora do equilíbrio. Outra importante divisão é conhecida como mecânica estatística do não-equilíbrio, que lida com a questão de modelar microscopicamente a velocidade de processos irreversíveis que são movidos por desequilíbrios. Exemplos de tais processos incluem reações químicas ou fluxos de partículas e de calor. Ao contrário de com o equilíbrio, não há formalismo exato que se aplique a mecânica estatística do não-equilíbrio em geral, e por isso este ramo da mecânica estatística continua a ser uma área ativa de pesquisa teórica.
Histórico
Em 1738, o físico e matemático suíço Daniel Bernoulli publica seu livro Hydrodynamica, que lançou as bases para a teoria cinética dos gases. Neste trabalho, Bernoulli postulou o argumento, ainda em uso hoje em dia, que os gases consistem de um grande número de moléculas que se movem em todas as direções, que o impacto delas sobre uma superfície causa a pressão e que a temperatura do gás está relacionada à energia cinética dessas moléculas.[4]
Em 1859, depois de ler um artigo de Rudolf Clausius sobre a difusão de moléculas, o físico escocês James Clerk Maxwell formulou a distribuição de Maxwell de velocidades moleculares. Esta foi a primeira lei estatística em física.[5] Cinco anos mais tarde, em 1864, Ludwig Boltzmann, então um jovem estudante em Viena, conhece a pesquisa de Maxwell e passa grande parte de sua vida desenvolvendo o assunto ainda mais.
A mecânica estatística foi iniciada na década de 1870 com os trabalhos de Boltzmann, com grande parte dele sendo publicado em 1896, na obra “Palestras sobre Teoria dos Gases”.[6] Os artigos originais de Boltzmann sobre a interpretação estatística da termodinâmica, o teorema H, teoria de transporte, o equilíbrio térmico, a equação de estado de gases e assuntos semelhantes, ocupam cerca de 2 000 páginas no acervo da Academia de Viena e outras sociedades. Boltzmann introduziu o conceito de um conjunto canônico estatístico de equilíbrio e também pesquisou pela primeira vez a mecânica estatística do não-equilíbrio, com seu teorema H.
Pode-se dizer que a mecânica estatística nasceu dos trabalhos de Maxwell e Boltzmann. Dos estudos sobre as partículas constituintes dos gases (átomos e moléculas) e dos níveis de energia resultou uma grande quantidade de informações sobre as grandezas macroscópicas baseadas somente nas grandezas microscópicas médias.
O termo "mecânica estatística" foi cunhado pelo físico matemático americano J. Willard Gibbs em 1884.[7] Pouco antes de sua morte, Gibbs publica em 1902 seu livro “Princípios Elementares em Mecânica Estatística”, formalizando a mecânica estatística como uma abordagem geral para atender todos os sistemas mecânicos - macroscópicas e microscópicas, gasosos ou não-gasosos.[1] Os métodos de Gibbs foram inicialmente derivados no quadro da mecânica clássica, no entanto, eles foram de tal generalidade que se adaptaram facilmente à mecânica quântica e ainda hoje formam a base da mecânica estatística.[2]
Princípios
Na física, existem dois tipos de mecânica normalmente examinados: a mecânica clássica e mecânica quântica. Para ambos os tipos de mecânica, a abordagem matemática padrão é considerar dois ingredientes:
- O estado completo do sistema mecânico em um determinado momento, matematicamente codificada como um ponto de fase (mecânica clássica) ou um vetor de estado quântico puro (mecânica quântica).
- Uma equação de movimento que leva o estado a frente no tempo: equações de Hamilton (mecânica clássica) ou a equação de Schrödinger dependente do tempo (mecânica quântica)
Usando estes dois ingredientes, o estado em qualquer outro momento, passado ou futuro, pode, em princípio, ser calculado. Há, porém, uma desconexão entre essas leis e a experiência prática, não sendo necessário, nem teoricamente possível, saber com exatidão a um nível microscópico a posição e a velocidade de cada molécula durante a realização de processos na escala humana, por exemplo, quando se realiza uma reação química. A mecânica estatística preenche essa desconexão entre as leis da mecânica e da experiência prática do conhecimento incompleto, adicionando alguma incerteza sobre qual estado o sistema está inserido, por meio da probabilidade.
Enquanto a mecânica clássica considera apenas o comportamento de um único estado, a mecânica estatística introduz o conceito de ensemble estatístico, que é uma grande coleção de cópias do sistema, virtuais e independentes, em vários estados. O ensemble estatístico é uma distribuição de probabilidade sobre todos os possíveis estados do sistema. Na mecânica estatística clássica, o ensemble é uma distribuição de probabilidade sobre pontos de fases (em oposição a um único ponto de fase na mecânica tradicional), normalmente representado como uma distribuição num espaço de fase com coordenadas canônicas. Em mecânica estatística quântica, o ensemble é uma distribuição de probabilidade sobre estados puros, e pode ser resumido como uma matriz densidade.
O ensemble pode ser interpretado de duas maneiras:[1]
- Um ensemble pode ser considerado como a representação dos vários estados possíveis que um único sistema pode estar (probabilidade epistemológica), ou
- Os membros do ensemble podem ser entendidos como os estados dos sistemas em experiências repetidas em sistemas independentes, que foram preparados de um modo semelhante, mas imperfeitamente controlado (probabilidade empírica), no limite de um número infinito de ensaios
Estes dois entendimentos são equivalentes para fins diversos, e serão utilizados de maneira intercambiável neste artigo.
Em qualquer modo que a probabilidade é interpretada, cada estado no ensemble evolui ao longo do tempo de acordo com a equação de movimento. Assim, o próprio ensemble (a distribuição de probabilidade sobre estados) também evolui, com os sistemas virtuais do ensemble continuamente deixando um estado e entrando em outro. A evolução do ensemble é dada pela equação de Liouville (mecânica clássica) ou a equação de von Neumann (mecânica quântica). Estas equações são derivadas pela aplicação da equação de movimento mecânico separadamente para cada sistema virtual contido no ensemble, com a probabilidade do sistema virtual ser conservado ao longo do tempo à medida que evolui de estado para estado.
Uma classe especial de ensemble trata daqueles que não evoluem ao longo do tempo. Esses ensembles são conhecidos como ensembles de equilíbrio e a sua condição é conhecida como equilíbrio estatístico. O equilíbrio estatístico ocorre se, para cada estado no ensemble, o ensemble também contém todos os seus estados futuros e passados com probabilidades iguais à probabilidade de estar nesse estado. O estudo dos ensembles de equilíbrio de sistemas isolados é o foco da termodinâmica estatística. A mecânica estatística do não-equilíbrio aborda o caso mais geral de conjuntos que mudam ao longo do tempo, e/ou conjuntos de sistemas não-isolados.
Propriedades
A propriedade central da mecânica estatística é a utilização de métodos estatísticos para a formulação de uma teoria cinética para átomos e moléculas, com o intuito de explicar as propriedades deles em um nível macroscópico da natureza.[8]
Um teorema chave é o valor médio da energia cinética das moléculas de um gás a uma certa temperatura que é calculado como
/////
sistema indeterminístico Graceli ; SISTEMA GRACELI INFINITO-DIMENSIONAL
A distribuição de Boltzmann é um resultado muito conhecido na física, que relaciona a Termodinâmica com a Mecânica Estatística.[8] Por exemplo: a distribuição de moléculas na atmosfera - desconsiderando ventos e que se encontra em equilíbrio térmico a uma temperatura
Supondo que é o número de moléculas total em um volume de um gás à pressão então tem-se que:
ou sendo o número de moléculas por unidade de volume. A temperatura sendo uma constante, a sua pressão será proporcional à sua densidade.
A variação de densidade em função da altitude se dá ao tomar-se uma unidade de área com altura sua força vertical será a força sobre a área sendo representado por (pressão).
Em um sistema em equilíbrio, suas forças nas moléculas deverão ser balanceadas ou nulas sendo a pressão feita na área inferior da camada que deve superar a pressão sobre a área de cima da camada assim balanceando com o peso.
Sendo a força da gravidade em cada molécula, é o número total das moléculas em cada área.[8] Com todas essas informações obtém-se a equação diferencial que representa o equilíbrio
/////
sistema indeterminístico Graceli ; SISTEMA GRACELI INFINITO-DIMENSIONAL
Assim, sendo e também constantes , elimina-se e resta a equação para
/////
sistema indeterminístico Graceli ; SISTEMA GRACELI INFINITO-DIMENSIONAL
Tem-se a variação da densidade em função da altura na atmosfera do exemplo:
/////
sistema indeterminístico Graceli ; SISTEMA GRACELI INFINITO-DIMENSIONAL
sendo a densidade em relação à
O numerador do expoente da equação anterior representa a energia potencial para cada átomo, sendo sua densidade em cada ponto igual a
Sendo que é a energia potencial de cada átomo.
Supondo que haja diversas forças em atuação nos átomos, sendo elas carregadas e estejam sob forte influência de um campo elétrico ou haja atração entre elas.
Havendo um tipo apenas de molécula, a força em uma porção de gás será a força sobre uma molécula o número de moléculas nessa mesma porção, sendo que a força age na direção Semelhante em sua forma do problema da atmosfera, tomando dois planos paralelos no gás apenas separados por uma distância representada por então a força sobre cada átomo multiplicada pela a densidade e por deve ser balanceada pela diferença de pressão, ou seja,
V
/////
sistema indeterminístico Graceli ; SISTEMA GRACELI INFINITO-DIMENSIONAL
sendo o trabalho feito sobre uma molécula ao transportá-la de até seu trabalho é igual à diferença de energia potencial (ao quadrado) assim,
/////
sistema indeterminístico Graceli ; SISTEMA GRACELI INFINITO-DIMENSIONAL
Obtém-se da equação de força anterior:
/////
sistema indeterminístico Graceli ; SISTEMA GRACELI INFINITO-DIMENSIONAL
Resultando em
/////
sistema indeterminístico Graceli ; SISTEMA GRACELI INFINITO-DIMENSIONAL
Sendo a variação de energia do estado final e inicial.
Esta última expressão é tratada como sendo a Lei de Boltzmann e pode ser interpretada da seguinte forma:
- A probabilidade de encontrar moléculas em uma dada configuração espacial é tanto menor quanto maior for a energia dessa configuração a uma dada temperatura.
Tal probabilidade diminui exponencialmente com a energia dividida por
Mecânica estatística de equilíbrio
Postulado de igual probabilidade a prioriA mecânica estatística de equilíbrio, também chamada de termodinâmica estatística, tem como objetivo derivar os princípios da termodinâmica clássica dos materiais a partir de suas partículas constituintes e a interação entre elas. Ou seja, a mecânica estatística de equilíbrio relaciona as propriedades macroscópicas dos materiais em equilíbrio termodinâmico com os comportamentos microscópicos ocorrendo dentro do material. Porém, enquanto a mecânica estatística envolve dinâmica, na termodinâmica estatística há o equilíbrio estatístico, ou estado estável. Isso não significa que as partículas não se movam (equilíbrio mecânico), mas sim que o ensemble não está evoluindo.
Uma condição suficiente (mas não necessária) para o equilíbrio estatístico com um sistema isolado é que a distribuição de probabilidade seja uma função somente de propriedades conservadas (energia total, o número de partículas totais, etc.). Existem muitos conjuntos de equilíbrio diferentes que podem ser considerados, e apenas alguns deles correspondem à termodinâmica. Postulados adicionais são necessários para dizer porque o conjunto para um determinado sistema deve ser de uma forma ou de outra.
Uma abordagem comum encontrada em muitos livros didáticos é usar o postulado de igual probabilidade a priori. Esse postulado diz que
- "Para um sistema isolado com uma energia conhecida com exatidão e a composição exatamente conhecida, o sistema pode ser encontrado com igual probabilidade em qualquer microestado consistente com tal conhecimento."
Portanto, o postulado de igual probabilidade a priori proporciona a base para o conjunto microcanônico descrito abaixo. Há vários argumentos a favor do postulado de igual probabilidade a priori:
- Hipótese ergódica: Um estado ergódico é aquele que evolui ao longo do tempo para explorar "todos estados acessíveis": todos aqueles com a mesma energia e composição. Em um sistema ergódico, o conjunto microcanônico é o único conjunto de equilíbrio possível com energia fixa. Esta abordagem tem aplicabilidade limitada, uma vez que a maioria dos sistemas não são ergódicos.
- Princípio da indiferença: Na ausência de quaisquer outras informações, só podemos atribuir probabilidades iguais para cada situação compatível.
- Entropia máxima: Uma versão mais elaborada do princípio da indiferença afirma que o conjunto correto é o conjunto que é compatível com a informação conhecida e que tem a maior entropia de Gibbs.
Outros postulados fundamentais para a mecânica estatística também foram propostos.
Ensembles ou conjuntos
Existem três ensembles de equilíbrio com uma forma simples, que podem ser definidos para qualquer sistema isolado delimitado dentro de um volume finito. Estes são os conjuntos mais frequentemente discutidos em termodinâmica estatística. No limite macroscópico, todos eles correspondem a termodinâmica clássica.
Conjunto microcanônico
Um conjunto microcanônico é um conjunto de réplicas de microssistemas identicamente preparados. Descreve um sistema com energia precisamente determinada e composição fixa (número preciso de partículas). Cada réplica tem os mesmos possíveis valores de massa(m), volume(V) e energia (E), mas cada uma pode evoluir diferentemente através do espaço de configurações. No conjunto microcanônico não há troca de calor entre o sistema e o exterior e o número de partículas é fixo. O conjunto microcanônico contém com igual probabilidade cada estado possível que é consistente com essa energia e composição.
Conjunto canônico
Semelhantemente, um conjunto canônico é um conjunto de réplicas de um sistema, identicamente preparados, onde cada um tem valores definidos de massa(m), volume(V) e temperatura(T). Descreve um sistema de composição fixa que se encontra em equilíbrio térmico com um banho de calor de uma temperatura precisa, ou seja, no conjunto canônico o número de partículas é fixo, mas o sistema troca calor com o ambiente. O conjunto canônico contém estados de variação de energia, mas composição idêntica; os diferentes estados no conjunto possuem diferentes probabilidades, dependendo de sua energia total.
Conjunto grão-canônico
Descreve um sistema com a composição não fixada (número de partículas incerto) que está em equilíbrio térmico e químico com um reservatório termodinâmico. Assim, no conjunto grão-canônico o sistema pode trocar calor e partículas, ou seja, o número de partículas pode variar. O reservatório tem uma temperatura precisa, e os potenciais químicos precisos para diversos tipos de partículas. O ensemble grão-canônico contém estados de variação de energia e número variado de partículas; os diferentes estados no conjunto possuem diferentes probabilidades, dependendo de sua energia total e número de partículas totais.
Para sistemas contendo muitas partículas (o limite termodinâmico), todos os três conjuntos listados acima tendem a ter um comportamento idêntico. Nesse caso, a escolha do conjunto é simplesmente uma questão de conveniência matemática.
Casos importantes onde os conjuntos termodinâmicos não dão resultados idênticos incluem:
- Sistemas microscópicos;
- Grandes sistemas em fase de transição;
- Grandes sistemas com interações de longo alcance.
Nestes casos, o conjunto termodinâmico deve ser escolhido corretamente, pois existem diferenças observáveis entre estes conjuntos não apenas no tamanho das flutuações, mas também em quantidades médias, tais como a distribuição de partículas. O conjunto correto é o que corresponde à maneira como o sistema foi preparado e caracterizado, em outras palavras, o conjunto que reflete o conhecimento sobre esse sistema.
Ensembles termodinâmicos | |||
---|---|---|---|
Microcanônico | Canônico | Grão-canônico | |
Variáveis fixas | N, E, V | N, T, V | μ, T, V |
Características microscópicas |
| ||
Função macroscópica |
|
/////
sistema indeterminístico Graceli ; SISTEMA GRACELI INFINITO-DIMENSIONAL
Uma estatística quantica, no contexto da mecânica quântica e no da mecânica estatística, é a descrição de como a energia de cada um dos entes unitários constituintes de um ensemble está distribuida, dada uma energia total E constante, sob a restrição de que:
- a energia passa a ser quantizada;
- as partículas objeto de estudo passam a ser indistinguíveis.
Isso é feito expressando-se as probabilidades relativas de uma partícula com energia
De modo clássico, a probabilidade é dada por:
/////
sistema indeterminístico Graceli ; SISTEMA GRACELI INFINITO-DIMENSIONAL
onde
/////
sistema indeterminístico Graceli ; SISTEMA GRACELI INFINITO-DIMENSIONAL
é a chamada função de partição
Nos casos quanticos, o que muda é a questão da quantização do espaço de fase, o que impõe um "volume" mínimo de célula possível nesse espaço.
Termodinâmica estatística ou mecânica estatística[notas 1] é um ramo da física que une as propriedades macroscópicas e microscópicas da matéria demonstrando e interpretando atomicamente alguns porquês da termodinâmica como trabalho, calor, energia livre e entropia. Por trabalhar com um número extenso de entidades microscópicas (átomos, moléculas ou íons), faz uso de mecânica clássica, mecânica quântica e do ferramental matemático da estatística, esta última utilizada principalmente para determinar os valores médios das populações.
A quantidade requerida de informações para descrever uma partícula, átomo, molécula ou íon (no contexto da mecânica clássica) implica o estabelecimento de 6 coordenadas para cada uma das entidades microscópicas (3 posições e 3 velocidades), o que representa um número expressivo de dados quando levamos em conta um número relativamente grande de entidades como um mol (6,022x10²³), por exemplo.
A termodinâmica estatística possui uma capacidade de previsão das grandezas macroscópicas por trabalhar com os dados espectroscópicos de moléculas individuais, apresentando assim uma vantagem nesse quesito com relação à termodinâmica clássica. Ambas, porém são regidas pela segunda lei da termodinâmica por meio da entropia. No entanto, a entropia em termodinâmica clássica só pode ser conhecida empiricamente, enquanto que na mecânica estatística, é uma função da distribuição do sistema nos seus microestados.
A termodinâmica estatística é então, uma ponte que explica a termodinâmica clássica (que analisa a parte sensível aos sentidos, ou seja, pressão, temperatura...) utilizando-se da mecânica quântica (que trabalha com a parte atômica, ou seja, colisões intermoleculares, velocidades dos átomos, equipartição da energia...) da mecânica clássica (de onde vem a definição de momento, força, trabalho) e da estatística (utilizada para se obter sistemas simplificados sem a perda da confiabilidade).
Aplicações
A termodinâmica estatística, pode ser usada para explicar diversos fenômenos físicos do cotidiano, dentre os quais a dedução da lei dos gases ideais, a transferência de calor entre dois corpos e a troca de estado físico dos materiais, destacando aqui a evaporação.
Dedução da lei dos gases
Imagine uma caixa cúbica de lado contendo moléculas de um gás dentro dela. Considere o gás como ideal (não há interações moleculares) e, num primeiro momento, analise apenas uma molécula desse gás, onde e são respectivamente a massa e a velocidade da molécula. Essa molécula realiza apenas colisões elásticas com as paredes (a energia do sistema é conservada e a cada colisão apenas uma componente da velocidade é alterada). Nesse caso, a cada colisão, teremos uma variação de momento dado por:
A molécula então, choca-se várias vezes com uma certa parede, sendo que é o intervalo de tempo para que a molécula consiga se deslocar até a parede oposta e voltar para a parede em questão, ou seja, percorrer uma distância de . Nesse caso, o intervalo de tempo é igual a distância percorrida dividida pela velocidade.
Da segunda lei de Newton, sabemos que a força é a derivada do momento em relação ao tempo. Nesse caso, a força que é transferida para a parede é igual a soma da contribuição do momento de cada molécula, levando em conta a que elas podem ter velocidades diferentes. Sabemos que a pressão é igual a força dividida pela área da parede . Assim usando a equação anterior, temos que o somatório das moléculas será:
Sendo a constante de Avogadro, podemos fazer a substituição . O somatório então pode ser visto como , onde é o valor médio do quadrado da componente x da velocidade de todas as moléculas:
Além disso, é igual a massa molar do gás e é igual ao volume do gás.
/////
sistema indeterminístico Graceli ; SISTEMA GRACELI INFINITO-DIMENSIONAL
Podemos pensar agora, que para qualquer molécula . Isso é válido pois como possuimos muitas moléculas e elas se movem em direções aleatórias os valores médios dos quadrados das componentes da velocidade são iguais, de modo que : e então:
/////
sistema indeterminístico Graceli ; SISTEMA GRACELI INFINITO-DIMENSIONAL
Substituímos então pela velocidade quadrática média, definida como , onde é a constante universal dos gases e é a temperatura.
/////
sistema indeterminístico Graceli ; SISTEMA GRACELI INFINITO-DIMENSIONAL
Isolando é fácil ver que a lei de um gás ideal é então:
/////
sistema indeterminístico Graceli ; SISTEMA GRACELI INFINITO-DIMENSIONAL
onde: é a pressão, é o volume, é o número de mols, é a constante universal dos gases perfeitos e a temperatura.[1]
Transições de fase
As transições de fase dependem diretamente das forças intermoleculares (que são de natureza elétrica). A módulo da força de atração é o que determina em que fase a amostra se encontra. Na fase gasosa, as moléculas estão muito separadas e com uma energia cinética quadrática média muito alta, logo as forças de atração são fracas. Na fase líquida e sólida, diminuí-se o espaço entre as moléculas, logo tem-se um aumento das interações de atração, o que faz com que as moléculas se movam cada vez menos diminuindo sua energia cinética.
Segundo o teorema da equipartição da energia, a temperatura é proporcional à energia média de cada grau de liberdade, logo aumentando a temperatura (e mantendo a pressão constante), aumentamos a energia cinética da amostra, o que favorece o afastamento das moléculas. Esse aumento nos módulos das velocidades é similar a distribuição de Maxwell, logo conseguimos inferir sobre a evaporação através dessa distribuição.
Evaporação
Considere uma molécula que está com uma energia cinética maior do que a energia da tensão superficial do líquido ao qual faz parte. Nesse caso, ao chegar próximo a superfície do líquido, ela irá escapar e nesse caso, diminuir a energia cinética média do sistema, ou seja, o sistema irá perder temperatura em decorrência da evaporação. Pela distribuição de Maxwell, temos moléculas com velocidades de zero a infinito independentemente da temperatura do sistema, logo a evaporação sempre existirá. Contudo, se aumentarmos a energia cinética quadrática média, aumentaremos a probabilidade de encontrarmos moléculas com energia suficiente e a direção correta para escapar do líquido.[2]
Transferência de calor
Um processo similar pode explicar a troca de calor entre dois corpos. Imagine um corpo A quente e um corpo B frio. Colocando as duas superfícies em contato, as moléculas da superfície de A colidirão com as moléculas da superfície de B, transmitindo energia, valendo a recíproca. Como a energia cinética quadrática média em A é maior, é plausível pensarmos que as moléculas de A cederão energia para as moléculas de B, e nesse processo A esfrie enquanto B aquece. O ar é um bom isolante térmico pois sendo um gás contém poucas moléculas em comparação com os outros estados físicos, logo a taxa de transferência de energia é menor (considerando um sistema sem convecção).
História
Em 1738, o físico e matemático holandês Daniel Bernoulli publicou Hydrodynamica que estabeleceu a base da teoria cinética dos gases. Em seu trabalho, Bernoulli postulou o argumento, ainda utilizado nos dias de hoje, que afirma que a energia cinética das colisões moleculares dos gases (constituídos de um grande número de moléculas que se movem em todas as direções), é a pressão do gás que sentimos, e o que experimentamos como o calor também é energia cinética do movimento molecular.
Em 1859, depois de ler um artigo sobre difusão das moléculas de Rudolf Clausius, o físico escocês James Clerk Maxwell formulou a distribuição de Maxwell para velocidades moleculares, que mostra a proporção de moléculas com uma certa velocidade em um certo espaço. Esta foi a primeira utilização da estatística na física.[3] Cinco anos mais tarde, em 1864, Ludwig Boltzmann, um jovem estudante de Viena, utilizou os artigos de Maxwell como inspiração para desenvolver um tema adicional, durante sua vida.
Assim, os fundamentos da termodinâmica estatística foram estabelecidas no final de 1800 por aqueles que, como Maxwell, Boltzmann, Max Planck , Clausius, e Josiah Willard Gibbs , começaram a aplicar estatística na teoria quântica atômica para corpos de gases ideais. Predominantemente, no entanto, foram Maxwell e Boltzmann, trabalhando de forma independente, que chegaram a conclusões semelhantes quanto à natureza estatística dos corpos gasosos. No entanto, deve-se considerar Boltzmann como o "pai" da termodinâmica estatística com sua derivação em 1875 da relação entre entropia S e multiplicidade Ω, apresentando o número de arranjos microscópicos que produzem o mesmo estado macroscópico para um determinado sistema.[4]
Ludwig Boltzmann então publicou em 1896 o artigo Lectures on Gas Theory.[5] contendo mais de 2000 páginas interpretando termodinâmica estatística e os seguintes fatores H-teorema, teoria do transporte, equilíbrio térmico, e equação de estado dos gases. O termo "termodinâmica estatística" foi proposto para utilização na termodinâmica pelo físico e químico americano J. Willard Gibbs em 1902. Segundo Gibbs, o termo "estatística", i.e. mecânica estatística, foi usado pela primeira vez pelo físico escocês James Clerk Maxwell em 1871. "Mecânica probabilística" pode parecer um termo mais apropriado, mas hoje em dia, "mecânica estatística" está firmemente enraizada.[6]
Introdução
O problema essencial na termodinâmica estatística é o de calcular a distribuição de uma dada quantidade de energia E em relação aos N sistemas.[7] Enquanto que seu objetivo se foca em compreender e interpretar as propriedades macroscópicas dos materiais em termos das propriedades das suas partículas constituintes e das interações entre elas. Isso se dá através da ligação entre funções termodinâmicas e as equações da mecânica quântica. Três quantidades centrais em termodinâmica estatística são o teorema do limite central o fator de Boltzmann e a função de partição.
A definição mais importante de um sistema termodinâmico é a perspectiva da chamada interpretação estatística da entropia, que é definida como:
/////
sistema indeterminístico Graceli ; SISTEMA GRACELI INFINITO-DIMENSIONAL
onde kB é constante de Boltzmann 1.38066×10−23 J K−1 e Ω é o número de microestados correspondentes à observação do macroestado.
Esta equação só é válida se cada microestado é igualmente acessível (cada microestado tem igual probabilidade de ocorrência).
Distribuição de Boltzmann
Se um sistema for grande podemos utilizar a distribuição de Boltzmann, que é um resultado aproximado dado por:
/////
sistema indeterminístico Graceli ; SISTEMA GRACELI INFINITO-DIMENSIONAL
onde ni representa o número de partículas ocupando um estado de energia i ou o número de microestados ocupando o macroestado i; Ui é a energia potencial do estado i; T é a temperatura; e kB é a constante de Boltzmann.
Se N é o número total de partículas ou microestados, a função distribuição densidade de probabilidade segue:
/////
sistema indeterminístico Graceli ; SISTEMA GRACELI INFINITO-DIMENSIONAL
onde o denominador é a soma de todos os níveis.
Postulado fundamental
O postulado fundamental em termodinâmica estatística é o seguinte:
- Dado um sistema isolado em equilíbrio, o sistema tem a mesma probabilidade de estar em qualquer um de seus microestados acessíveis.
Este postulado é um pressuposto fundamental na mecânica estatística - afirma que um sistema em equilíbrio não tem qualquer preferência por qualquer um de seus microestados disponíveis. Dado Ω microestados com um certo nível de energia, a probabilidade de encontrar o sistema micro em particular é p = 1/Ω.
Este postulado é necessário porque permite concluir que, para um sistema em equilíbrio, o estado termodinâmico (macroestado), que pode resultar do maior número de microestados é também o macroestado mais provável do sistema.
O postulado é justificado em partes (para um sistema clássico) pelo Teorema de Liouville (mecânica hamiltoniana)), visto que, se a distribuição dos pontos do sistema através do espaço fásico é uniforme em algum momento, ele permanecerá assim em momentos posteriores.
Isso permite a definição da função de informação (no contexto da teoria da informação):
/////
sistema indeterminístico Graceli ; SISTEMA GRACELI INFINITO-DIMENSIONAL
Quando todas as probabilidades ρi são iguais, I é máximo, e nós possuímos o mínimo de informações sobre o sistema. Logo, em um sistema isolado em equilíbrio, a entropia é máxima (entropia pode ser considerada como uma medida da desordem: uma maior desordem, maior desinformação e, portanto, um valor inferior de I.
Esta função de informação é a mesma que a função entropia reduzida em termodinâmica..
Mark Srednicki argumentou que o postulado fundamental pode ser derivado, assumindo apenas que a conjectura de Berry (em homenagem a Michael Berry ) aplica-se ao sistema em questão.[8][9] A conjectura de Berry é apenas para sistemas caóticos, e quando os autoestados tem sua energia distribuída como uma distribuição normal. Como todos os sistemas realistas tem um punhado de graus de liberdade então estes deverão ser caótico, o que converge para o postulado fundamental. A conjectura de Berry também tem sido demonstrada na teoria da informação pelo princípio do viés.[10]
Ensembles canônicos
A formulação moderna desta teoria é baseada na descrição de um sistema físico ter um elenco de comum de estados representando todas as configurações possíveis e as probabilidades de ocorrência de cada uma das configurações.
Cada estado está associado a uma função de partição , por manipulações matemáticas, para que então se extraia os valores termodinâmicos do sistema. De acordo com a relação do sistema com o resto do universo, são normalmente identificados três tipos de estados, em ordem crescente de complexidade:
- Ensemble microcanônico descreve um estado completamente isolado, que possui uma energia constante, não trocando energia ou partículas com o resto do Universo;
- Ensemble canônico descreve um sistema em equilíbrio térmico que só pode trocar energia como a transferência de calor para o exterior;
- Ensemble grande canônico descreve sistemas abertos que permitem a troca de partículas com o exterior.
/////
sistema indeterminístico Graceli ; SISTEMA GRACELI INFINITO-DIMENSIONAL
Resumo dos ensembles Ensembles Ensemble microcanônico Ensemble canônico Ensemble grande canônico Constantes E, N, V T, N, V T, μ, V Características microscópicas Número de microestados
Função de partição canônica
Grande função de partição canônica
Funções macroscópicas /////
sistema indeterminístico Graceli ; SISTEMA GRACELI INFINITO-DIMENSIONAL
Comentários
Postar um comentário