エントロピー メトリック – 定義

導入

数学、より正確には、動的システムの理論において、計量エントロピー、またはコルモゴロフ エントロピー(英語では測量理論エントロピーとも呼ばれます) は、1950 年代半ば頃にコルモゴロフによって開発されたツールであり、「エントロピー」という確率論的な概念に由来しています。シャノンの情報理論。コルモゴロフは、エントロピー計量を使用して 2 つの力学系が共役でないかどうかを示す方法を示しました。これは、測定される動的システムの基本的な不変量です。さらに、エントロピー測定基準により、カオスの定性的な定義が可能になります。カオス変換は、ゼロ以外のエントロピーの変換と見なすことができます。

エントロピー メトリック - 定義

エントロピー指標の構築

まず、私たちが置かれている数学的枠組みを提示しましょう。

$$ {(X, \mathfrak{M}, \mu)} $$
は確率空間であり、
$$ {f: X \to X} $$
は測定可能なアプリケーションであり、位相空間X上の離散時間における動的システムの進化の法則を表します。 fに測度を維持するよう課します。つまり、
$$ {\forall M \in \mathfrak{M}, \mu(f^{-1}(M)) = \mu(M)} $$
。初期状態xから開始して、その反復シーケンスをfによって定義できます。
$$ {x, f(x), \dots, f^n(x), \dots} $$
全体
$$ {\{f^n(x) : n \geq 0\}} $$
システムが通過する状態はxの軌道と呼ばれます。

可測集合で構成されるXの有限分割 α を与えるとします。

$$ {\alpha = \{A_1, \dots, A_p\}} $$
初期状態x 、状態f n ( x ) (
$$ {n \geq 0} $$
システムが通過する ) はそれぞれ、パーティション α の部分の 1 つに分類されます。これらの残りの部分は、初期状態xに関する情報を提供します。エントロピーは、反復によって提供される情報の平均に対応します。エントロピー メトリックの構築は、以下で説明する 3 つのステップで行われるプロセスです。まず、エントロピーを定義します
$$ {\mathcal{H}(\alpha)} $$
パーティション α ( xの点が位置する α の部分の知識から得られる平均情報)。次に、分割 α (反復によって提供される平均情報) に対する変換fのエントロピーh ( f , α)を定義します。最後に、エントロピー メトリックh(f) はXのパーティションに対するfのエントロピーの上限です。

エントロピー メトリック - 定義

パーティションのエントロピー

α を可測集合へのXの有限分割とする。ワンポイント

$$ {x \in X} $$
一部に位置しているため、さらに立地が良いです
$$ {A \in \alpha} $$
低い測定値μ( A ) 。これは情報機能の導入を正当化する
$$ {I(\alpha) : X \to [0 ; + \infty ]} $$
によって定義されます:

$$ {\forall x \in X, I(\alpha)(x) = -\sum_{A \in \alpha} \log \mu(A) \chi_A(x)} $$

つまり、 I (α)( x ) = − logμ( A )の場合

$$ {x \in A} $$

パーティション α のエントロピーはI (α)の平均です。

$$ {\mathcal{H}(\alpha) = \frac{1}{\mu(X)} \int_X I(\alpha)(x) d\mu(x) = – \sum_{A \in \alpha} \mu(A) \log \mu(A)} $$

0log0 を0 に等しいとします。 α と β がXの 2 つの測定可能な分割である場合、α と β の結合を定義します。

$$ {\alpha \vee \beta} $$
α と β よりも細かい最小のパーティション:
$$ {\alpha \vee \beta = \{ A \cap B : A \in \alpha, B \in \beta, A \cap B \neq \emptyset\}} $$
。 β は α よりも細かいと言い、次のようになります。
$$ {\beta \geq \alpha} $$
α のAのすべての要素が β の要素の和集合として書かれた場合。

パーティションのエントロピーは、次の直感的な特性を満たします。

  • α と β が 2 つの測定可能な分割である場合、
    $$ {\mathcal{H}(\alpha \vee \beta) \leq \mathcal{H}(\alpha) + \mathcal{H}(\beta)} $$
  • 注意しましょう
    $$ {f^{-1}(\alpha) = \{f^{-1}(A) : A \in \alpha\}} $$
    。我々は持っています:
    $$ {\mathcal{H}(\alpha) = \mathcal{H}(f^{-1}(\alpha))} $$

最初の特性は、2 つのパーティションに対するシステムの状態の位置の同時知識によって提供される情報が、各パーティションに対して提供される情報の合計よりも少ないことを意味します。 2 番目の特性は、 f がメジャーを保存するという事実から来ています。

パーティションに対する変換のエントロピー

α は可測分割です。 α に対する変換fのエントロピーh ( f ,α) を次のように定義します。

$$ {h(f, \alpha) = \lim_{n \to + \infty} \frac{1}{n} \mathcal{H} \Bigg(\bigvee_{i=0}^{n-1} f^{-i}(\alpha) \Bigg)} $$

変換fは、実験中のあるから次の日への移行として見ることができます。時間0では、すべての状態を区別することはできません。区別できない状態をパケットにグループ化し、この方法でパーティション α を形成します。

$$ {\bigvee_{i=0}^{n-1} f^{-i}(\alpha)} $$
したがって、 n日後のすべての考えられる結果を表します。したがって、 h ( f , α) は、実験の実行によって得られる平均的な 1 日の情報です。

定義された制限は存在します。注意すれば

$$ {a_n = \mathcal{H} \Bigg( \bigvee_{i=0}^{n-1} f^{-i}(\alpha) \Bigg)} $$
、残りは
$$ {(a_n)_{n \in \N^*}} $$
は準加法的である理由は次のとおりです。

$$ {a_{n+p} = \mathcal{H} \Bigg(\bigvee_{i=0}^{n+p-1} f^{-i}(\alpha) \Bigg) \leq \mathcal{H} \Bigg(\bigvee_{i=0}^{n-1} f^{-i}(\alpha) \Bigg) + \mathcal{H} \Bigg(\bigvee_{i=n}^{n+p-1} f^{-i}(\alpha) \Bigg) \leq a_n + a_p} $$

前のセクションの 2 つのプロパティをそれぞれ使用しました。

$$ {(a_n/n)_{n \in \N^*}} $$
したがって、限界を認めます。

エントロピー メトリック - 定義

最後のステップ: 変換のメトリック エントロピー

h(f)で示されるfの計量エントロピーは、有限の可測分割に対するfのエントロピーの上限です

$$ {h(f) = \sup_{\alpha} h(f, \alpha)} $$

h(f) はおそらく無限大です。

  1. Measure-theoretic entropy – anglais
  2. Entropie (dubbelsinnig) – afrikaans
  3. إنتروبيا (توضيح) – arabe
  4. Entropie – bavarois
  5. Энтрапія (неадназначнасць) – biélorusse
  6. Энтрапія (неадназначнасьць) – Belarusian (Taraškievica orthography)

エントロピー メトリック – 定義・関連動画

サイエンス・ハブ

知識の扉を開け、世界を変える。