エントロピー
読み:エントロピー
外語:entropy

 物質または場からなる系の状態量の一つで、熱力学的系が温度Tの熱源から熱量ΔQを吸収する可逆な微小変化において、ΔS=ΔQ/Tとおいた場合の状態量Sのこと。示量変数。
目次

語源
 エントロピーという言葉はギリシャ語のεν=in、τρεπειν=turningにちなみ、1865(慶応元)年にRudolf Julius Emmanuel Clausius(ルドルフ・クラウジウス)が導入したものである。

性質
 エントロピーは主に次のような性質を持つ。

熱力学
 エントロピーは系の熱力学的状態だけに依存する状態量であるので、ある状態Aから別のある状態Bへの可逆変化の経路に沿ってΔQ/Tを積分したものは、その経路に無関係に状態A,B各々におけるエントロピーの差に等しい。
 

示量変数
 上と同じ理由により、系Aと系Bの合成系の系Cにおけるエントロピーは系A,B各々のエントロピーの合計である(示量変数)。

熱力学第二法則
 閉じた系が勝手に起こす変化ではエントロピーは常に増大する(エントロピー増大の法則=熱力学第二法則)。

絶対零度
 絶対零度におけるエントロピーは0である。
 しかし、絶対零度を作り出せないので、エントロピーの絶対量も測れない。

他のエントロピー

統計力学
 エントロピーは元来は熱力学における言葉であったが、ボルツマンによって、統計力学にも導入された。
 統計力学においては、エントロピーは状態数Wの対数をとったものに比例するが、熱力学におけるエントロピーとあわせるために比例定数としてボルツマン定数kbを使用する。
 統計力学におけるエントロピーの定義は
 S=kb・log W

情報エントロピー
 エントロピーは情報量を表わすことにも使われ、これを特に情報エントロピーと呼ぶ。
 マクスウェルの悪魔のパラドックスは、悪魔の持つ情報エントロピーが負であるということによって説明できる。
 情報エントロピーの定義は
 H=-ΣP(i)log2
 P(i)=- Σ P(j)Pj(i)
 log2 Pj(i)

環境エントロピー
 現在では、さらに環境エントロピーというものも現われており、様々な分野で使われるようになって来ている。

エントロピーの次元
 なお、エントロピーの次元はML2T−2θ−1である。
 用いる単位は使用する単位系によって異なり、国際単位系だとJ・k−1である。
 それ以外にもボルツマン定数kbや、気体定数Rでもってエントロピーの単位とするという考えが存在し、情報エントロピーだとビットを使用することもある。

再検索