はじめに
前回の記事で、古典的な情報理論におけるエントロピーについておさらいできたので、今回は量子情報理論におけるエントロピーについて勉強します。その定義と性質について説明した後、量子計算シミュレータqlazyを使って、その重要な性質について、実際に計算して確認してみたいと思います。
参考にさせていただいたのは、以下の文献です。
- ニールセン、チャン「量子コンピュータと量子通信(3)」オーム社(2005年)
- 石坂、小川、河内、木村、林「量子情報科学入門」共立出版(2012年)
- 富田「量子情報工学」森北出版(2017年)
- めもめも - 量子エントロピー(フォン・ノイマンエントロピー)の性質を古典エントロピー(シャノンエントロピー)と比較して味わう試み
定義
フォンノイマン・エントロピー
古典的な情報理論におけるエントロピー(シャノン・エントロピー)は、ある事象群があったときに各事象が生起する不確実さの度合いの平均値(期待値)として定義されました。一般に量子系は純粋状態のアンサンブルとして表現されます。純粋状態として正規直交系をとると、そのアンサンブルはと表現されます。この純粋状態の存在確率を事象の生起確率と見なすことで、量子系におけるエントロピーを定義できます。すなわち、
です。この式は、密度演算子を使って、以下のように書き換えることができます。
ほぼ、自明と思いますが、一応、確認します。
です。
式(2)で定義されるエントロピーのことを「フォンノイマン・エントロピー(von neumann entropy)」と呼びます。以下では、面倒なので単に「エントロピー」と言うことにします。
ここで1点、ちょっとした注意事項があります。式(2)ではエントロピーの変数は密度演算子となっていますが、別の書き方もよく見かけます。例えば、量子系Aにおける密度演算子に対するエントロピーという意味を強調するため、量子系を表すラベルを変数にしてと書いたりします。たぶん混乱しないと思いますが、一応、念のためです。本記事でも頻繁に使いますので。
エンタングルメント・エントロピー
ある合成系ABがあったときに、その部分系に対して定義されるエントロピーのことを「エンタングルメント・エントロピー(entanglement entropy)」と呼びます。部分系Aに対するエンタングルメント・エントロピーは、
のように定義されます。
結合エントロピー
量子系AとBを合わせた合成系ABにおける密度演算子に対するエントロピーを「結合エントロピー(joint entropy)」と呼びます。
で、定義されます。
条件付きエントロピー
量子系では、条件付き確率というものは定義されないのですが、古典とのアナロジーで形式的に以下のように「条件付きエントロピー(conditional entropy)」を定義します。
相対エントロピー
量子情報理論における「相対エントロピー(relative entropy)」は、以下のように定義されます。
古典情報理論における相対エントロピー(カルバック・ライブラー距離)と類似した形になっています。
相互情報量
古典情報理論と同様に、量子系Aと量子系Bの「相互情報量(mutual information)」は、各々のエントロピーの和から結合エントロピーを引いたものとして定義されます。
性質
量子情報理論における各種エントロピーの定義ができたところで、これらの間に成り立つ性質について、証明を加えながら説明していきます。参考文献の中に記載してあったものの中から、独断と偏見で、基本的かつ重要そうなものを取り上げてみました。なんと、全部で14個になってしまいました。以下の通りです。
【エントロピー】
- 性質(1) エントロピーは非負
- 性質(2) エントロピーの最大値はlog(n)
- 性質(3) エントロピーはユニタリ不変
- 性質(4) エントロピーは凹関数
【相対エントロピーと相互情報量】
- 性質(5) 相対エントロピーは非負(Kleinの不等式)
- 性質(6) 相互情報量は非負
【結合エントロピーと部分系のエントロピー】
- 性質(7) 純粋状態の部分系
- 性質(8) 劣加法性
- 性質(9) 三角不等式(Araki-Liebの不等式)
- 性質(10) 強劣加法性
【強劣加法性から導出される性質】
- 性質(11) 条件付けによってエントロピーは減少
- 性質(12) 系の一部を捨てると相互情報量は減少
- 性質(13) 量子チャネルによって相互情報量は減少
【測定】
- 性質(14) 射影測定によってエントロピーは増大
では、順に見ていきます。
エントロピー
性質(1) エントロピーは非負
式(1)より、古典情報理論の場合と同様に証明可能です(参考:前回の記事)。エントロピーがゼロになるのは、状態が一つに決まっている場合、すなわち、純粋状態のときのみです。
性質(2) エントロピーの最大値はlog(n)
式(1)より、古典情報理論の場合と同様に証明可能です(参考:前回の記事)。古典情報理論と違うのはの意味です。量子エントロピーの場合のは、考えている量子系のヒルベルト空間の次元数です。つまり、3量子ビット系の場合、ヒルベルト空間の次元は2の3乗で8になりますので、エントロピーはそのということで、3を超えることはありません。
性質(3) エントロピーはユニタリ不変
任意のユニタリ変換に対し、
が成り立ちます。
【証明】
(証明終)
性質(4) エントロピーは凹関数
古典情報理論と同様、エントロピーは凹関数です。すなわち、となると密度演算子の集まりに対し、
が成り立ちます1。
【証明】
で表される量子系をAとして、新たに正規直交系で定義される量子系Bをもってきて、以下のような状態を定義します2。
ここで、の固有値、固有ベクトルは、、とします。
この結合エントロピーを計算します。
一方、
と計算できます。ここで、式(13)(14)(15)に、後述する劣加法性()を適用すると、
となります。これで、エントロピーが凹関数であることが証明できました。(証明終)
相対エントロピーと相互情報量
性質(5) 相対エントロピーは非負(Kleinの不等式)
相対エントロピーは非負です。すなわち、
が成り立ちます。この不等式のことを「Kleinの不等式」と言います。
【証明】
が各々正規直交系で対角化できるとします。すなわち、
と表すことができるものとします。相対エントロピーの定義より、
となります。右辺第2項のは、
ここで、
と定義すると、式(19)は、
となります。
、および、は凹関数なので、
が成り立ちます。とおいて、式(23)を式(22)に代入すると、
となります。の定義よりが成り立つので、式(24)は古典情報理論における相対エントロピーに等しいです。だったので、結局、
が成り立ちます。
等号が成り立つのは、各に対してを満たすが存在するとき、すなわちが置換行列の場合のみです。(証明終)
性質(6) 相互情報量は非負
が成り立ちます。
【証明】
において、なので、式(26)が成り立ちます。
等号は、の場合のみ成り立ちます。つまり、合成系ABが部分系Aと部分系Bの積状態になっている場合のみです3。(証明終)
結合エントロピーと部分系のエントロピー
性質(7) 純粋状態の部分系
合成系ABが純粋状態のとき、部分系のエントロピーとの値は必ず一致します。
【証明】
合成系ABは純粋状態なので、
のようにシュミット分解できます。ここでRはシュミットランクです。このとき、合成系ABの密度演算子は、
となります。部分系の密度演算子は、各々、
となるので、部分系のエントロピー(エンタングルメント・エントロピー)は、
です。したがって、が成り立つことが証明できました。(証明終)
これは、とても面白い性質です。まず、純粋状態は量子状態としては一つに決まっているので、エントロピーはゼロです。それを2つの部分系に分けると、その各々は混合状態になりますが、エントロピーを計算すると、必ず一致するということを表しています。別の言い方をすると、不確実さが一切ない純粋状態の系を2分割すると、各系の中からなぜか不確実さが湧き出してきて、しかも両者が一致するということです。この湧き出す不確実さに相当するのが、2つの系の間に存在していた「量子的な相関」=「量子もつれ」であるというイメージで、この部分系のエントロピーのことをエンタングルメント・エントロピーと呼んでいます。言うまでもないですが、これは古典情報理論ではあり得ません。確実に決まっている事象の一部分に注目しても、確実に決まっているのでエントロピーはゼロのままです。
性質(8) 劣加法性
が成り立ちます。
【証明】
相互情報量が非負(性質(6))であることから、直ちに証明できます。
なので、式(32)が成り立ちます。
等号は、合成系ABが部分系Aと部分系Bの積状態になっている場合のみです。(証明終)
性質(9) 三角不等式(Araki-Liebの不等式)
が成り立ちます。
【証明】
合成系ABに補助系Rを加えて純粋化します。性質(8)の劣加法性より、
が成り立ち、かつ、合成系ABRは純粋状態なので、性質(7)より、
が成り立ちます。式(36)を式(35)に代入すると、
が導けます。AとBを入れ替えても、同じ議論が成り立つので、
です。式(37)と式(38)は同時に成り立っていなければならないので、
でなければなりません。(証明終)
この三角不等式の等号条件は、自明ではありません。というか、結構な難問のようです。実は、ニールセン・チャンに、「演習11.16: (に対する等号条件)」として、その答えが掲載されています。それによると、のスペクトル分解をとしたとき、オペレータが共通の固有基底を持ち(以後、本記事では「条件1」と呼ぶことにします)、が直交する台を持つ場合(「条件2」と呼ぶことにします)に限り、が成り立ちます4、と答えは書いてあるのですが、証明がありません(証明せよ、という演習問題です)。というわけで、やってみました56。
【等号条件の証明】
は純粋状態なので、系A、系Bの基底を使って、以下のようにシュミット分解できます(はシュミットランクです)。
とすると、は、各々、
となります。ここで、係数は各々の対角成分(固有値)ですが、それが、A系、B系の両方で等しいところがシュミット分解の面白ポイントです7。
は、各々どうなるかというと、が、
と書けるので、
となります。
ここで、条件1が成り立っているとすると、はすべて同一の正規直交系ということになり、条件2が成り立っているとすると、は全体として一つの正規直交系になっていると言えそうです8。
そうだとすると、式(40)は、
と書き換えられます(条件1からシュミット係数・シュミットランクはi非依存になり、それは、系Bのシュミット係数・シュミットランクでもあるので)。
このとき、は、どうなるかというと、
です。
この前提で、部分系のエントロピーを計算してみます。
に注意しながら、を計算すると、
となり、条件1と条件2が成り立っている場合、が成り立つことが証明できました。(証明終)
というわけで、ニールセン・チャン「演習11.16」を(半分だけ)クリアしました(したつもりです)。必要十分条件の逆方向がわかったら、記事追加します。
性質(10) 強劣加法性
3つの量子系A,B,Cがあったとき、以下の不等式が成り立ちます。この性質のことを「強劣加法性」と言います。ニールセン・チャンによると、これは「量子情報理論の最も重要で有用な結果の1つである」とのことなので、「なにこれ?」と思わず、しっかり理解するようにしましょう。
【証明】
「相対エントロピーの単調性」を使った証明がてっとり早そうなので、それでやります9。
「相対エントロピーの単調性」というのは、何らかの物理過程(量子チャネル)を通ることで、2つの系の量子状態に対する相対エントロピーが減少するという性質のことです。相対エントロピーは、古典情報理論での「カルバック・ライブラー距離」に相当する概念なので、ざっくりいうとその距離が小さくなるというイメージを量子的に表現したものです。一般に、異なる2つの量子状態は、時間が経つとともに区別できなくなっていくので、感覚的には理解しやすい性質だと思います。式で表すと、
です。ここで、物理過程を表すCPTPマップをとしました。
ということで、式(49)を認めていただいた上で、強劣加法性を証明します。
まず、式(47)の方からやってみます。
系Aと合成系BCとの間の相互情報量は定義、および相互情報量が非負であるという性質(6)を証明したときに使った式(27)より、
が成り立ちます。この右辺から系Cをトレースアウトします。その操作はCPTPマップを適用することに等しいので、式(49)を使うことができて、
となります。式(50)と式(51)より、
ということで、式(47)が証明できました。
次に、式(48)です。
合成系ABCに、系Dを加えて純粋化した系ABCDを考えると、性質(7)より、
が成り立ちます。これを、式(47)に代入すると、
となり、DをAに置き換えると、
で、式(48)が証明できました。
等号が成り立つのは、系Cと他の系とが積状態になっている場合のみです。(証明終)
この強劣加法性から、以下に示す(11)(12)(13)の性質を証明することができます。
強劣加法性から導出される性質について
性質(11) 条件付けによってエントロピーは減少
が成り立ちます。
【証明】
強劣加法性より、
となります。
等号が成り立つのは、系Cと他の系とが積状態になっている場合のみです。(証明終)
性質(12) 系の一部を捨てると相互情報量は減少
が成り立ちます。
【証明】
強劣加法性より、
となります。
等号が成り立つのは、系Cと他の系とが積状態になっている場合のみです。(証明終)
性質(13) 量子チャネルによって相互情報量は減少
系が量子チャネルによって、系に変化したとすると、
が成り立ちます10。
【証明】
いま3つの系A,B,Cが、を満たしているとします。これは、性質(12)の等号条件に相当しますので、
が成り立ちます。系BCにユニタリ変換を適用した結果、A,B,CがA',B',C'に変化したとします。エントロピーのユニタリ不変性(性質(3))より、
です。系C'を捨てると相互情報量は減少するので、
です。式(59)(60)(61)より、
が成り立ちます。
等号が成り立つのは、量子チャネルがユニタリ変換だった場合です。(証明終)
測定について
性質(14) 射影測定によってエントロピーは増大
正確には非選択的な射影測定、つまり測定して結果を確認しない(あるいは忘れてしまう)ような射影測定の場合、エントロピーは増大します。
射影演算子をとすると、非選択的な測定によって状態は、
のように変化します。このとき、
が成り立ちます。
【証明】
Kleinの不等式と相対エントロピーの定義より、
なので、が示せれば良いです。
で、、つまり、とは可換なので、とは可換です。とすると、
となるので、これを、式(66)に代入すると、
となります。
等号が成り立つのは、の場合のみです。(証明終)
ということで、例えば、エントロピーがゼロの純粋状態を(非選択的に)射影測定すると、結果は不確実になるのでエントロピーは増大します。古典情報理論における測定を事象の生起になぞらえると、結果がわかる(=不確実さが減る)のでエントロピーが減少するはずです。測定したのにエントロピーが増大するのは、ちょっとおかしな感じです。量子情報理論においては、純粋状態が確定した状態であるという前提で理論構築がなされているのですが、実は純粋状態というのは複数の固有状態の重ね合わせであって、古典統計における確定状態とは違うのですねぇ、ということを、少々 味わっていただけると幸甚です11。
シミュレータによる確認
それでは、上で示した性質のうち、独断と偏見により、性質(7)および性質(9)の等号条件を取り上げ、シミュレータを使って実際にそれが成り立つことを確認してみます。性質(7)は「純粋状態の部分系のエントロピー」です。量子エントロピーの面白さを一番シンプルに味わうことができる性質だと思いますし、qlazyで簡単に実装できるので選びました。性質(9)は三角不等式です。その等号条件の証明で四苦八苦したので、それが間違っていないかどうかを確認する意味で取り上げてみました。
性質(7) 純粋状態の部分系のエントロピーについて
まず、性質(7)です。先程説明した通り、純粋状態のエントロピーはゼロなのですが、それを2分割したときの各部分系のエントロピーは、一般にゼロ以上となり、かつ、等しいです。というわけで、量子エンタングルメントの不思議さを味わってみましょう。
全体のPythonコードは以下です。
import numpy as np
from scipy.stats import unitary_group
from qlazypy import QState, DensOp
def random_qstate(qnum): # random pure state
dim = 2**qnum
vec = np.array([0.0]*dim)
vec[0] = 1.0
mat = unitary_group.rvs(dim)
vec = np.dot(mat, vec)
qs = QState(vector=vec)
return qs
if __name__ == '__main__':
qnum_A = 2
qnum_B = 2
id_A = list(range(qnum_A))
id_B = [i+qnum_A for i in range(qnum_B)]
qs = random_qstate(qnum_A+qnum_B)
de = DensOp(qstate=[qs], prob=[1.0])
ent = de.entropy()
ent_A = de.entropy(id_A)
ent_B = de.entropy(id_B)
print("** S(A,B) = {:.4f}".format(ent))
print("** S(A) = {:.4f}".format(ent_A))
print("** S(B) = {:.4f}".format(ent_B))
qs.free()
de.free()
短いので、説明は簡単です。random_qstate関数でランダムな純粋状態qsを作って、それに基づき密度演算子deをつくります。密度演算子クラスのentropyメソッド(v0.0.28で追加)でエントロピーを計算します。引数として部分系の量子ビット番号リストを指定すると、それに対応したエンタングルメント・エントロピーを計算してくれます。実行結果は以下です。
** S(A,B) = 0.0000
** S(A) = 1.4852
** S(B) = 1.4852
ランダムな純粋状態を生成することから始めているので、実行のたびにエントロピーの数値は変わるのですが、何度やってもS(A,B)はゼロで、かつS(A)とS(B)の値は一致しました。系A、系Bの量子ビット数(qnum_A,qnum_B)を変えても同様でした。というわけで、性質(7)が確認できました。ちなみに、この例では、系A、系Bの量子ビット数は2なので、性質(2)より、エントロピーは2を超えることはありません。超えたとしたら、バグです。
性質(9) 三角不等式の等号条件について
次に示す性質(9)は、ニールセン・チャンの「演習11.16」となっていた三角不等式の等号条件です。証明で行った手続きに従って、合成系ABの密度演算子を作成すれば、本当に等号が満たされているかを確認できるはずです。実は、ニールセン・チャンの「演習11.17」が、まさに、その等号条件を満たす具体例を示せ、となっているので、それに対する解答例でもあります12。
では、全体のPythonコードを示します。
import random
import math
import numpy as np
from qlazypy import QState, DensOp
def computational_basis(dim,rank):
return np.array([[1 if j==i else 0 for j in range(dim)] for i in range(rank)])
def normalized_random_list(dim):
rand_list = np.array([random.random() for _ in range(dim)])
return rand_list / sum(rand_list)
def is_power_of_2(N):
if math.log2(N) == int(math.log2(N)):
return True
else:
return False
if __name__ == '__main__':
# settings
mixed_num = 3 # mixed number of pure states
qnum_A = 2 # qubit number of system A
# system A
dim_A = 2**qnum_A
rank = dim_A
id_A = list(range(qnum_A))
# system B
dim_B = mixed_num*rank
if is_power_of_2(dim_B):
qnum_B = int(math.log2(dim_B))
else:
qnum_B = int(math.log2(dim_B)) + 1
dim_B = 2**qnum_B
id_B = [i+qnum_A for i in range(qnum_B)]
# basis of system A,B
basis_A = computational_basis(dim_A, rank)
basis_B = computational_basis(dim_B, mixed_num*rank)
# random schmidt coefficients
coef = normalized_random_list(rank)
# random probabilities for mixing the pure states
prob = normalized_random_list(mixed_num)
# basis for system A+B
dim_AB = dim_A * dim_B
basis_AB = [None]*mixed_num
for i in range(mixed_num):
basis_AB[i] = np.zeros(dim_AB)
for j in range(dim_A):
basis_AB[i] = basis_AB[i] + \
math.sqrt(coef[j]) * np.kron(basis_A[j],basis_B[i*dim_A+j])
# construct the density operator
matrix = np.zeros((dim_AB,dim_AB))
for i in range(mixed_num):
matrix = matrix + prob[i] * np.outer(basis_AB[i],basis_AB[i])
de = DensOp(matrix=matrix)
# calculate the entropies
ent = de.entropy()
ent_A = de.entropy(id_A)
ent_B = de.entropy(id_B)
print("** S(A,B) = {:.4f}".format(ent))
print("** S(A) = {:.4f}".format(ent_A))
print("** S(B) = {:.4f}".format(ent_B))
print("** S(B)-S(A) = {:.4f}".format(ent_B-ent_A))
de.free()
先程説明した、条件1と条件2を前提にすると、
のシュミット係数とはi非依存となり、は全体として(i,jをindexとするベクトル集合として)正規直交系をなすのでした。すなわち、
と書けます。これを使って、密度演算子、
を用意すれば良いです。
上に示したコードでは、まず、(変数mixed_num)の値を3、系Aの量子ビット数(変数qnum_A)を2に初期設定しました。そうすると系Aのヒルベルト空間の次元は2の2乗で4になります(変数dim_A)。系Bの方は、i,jをindexとするベクトルとして正規直交系とならないといけないので、に系Aの次元数をかけたもの、つまり12(=3*4)を系Bの次元にすれば良さそうです。が、量子情報理論におけるヒルベルト空間の次元は2のべき乗になっていないと都合が悪いので、16(=2**4)にしておきます。
系Aと系Bの次元と量子ビット数が決まったので、各々で正規直交系を構成します。何でも良いので、もっとも実装が簡単な計算基底とします。関数computational_basisで作成します。
さらに必要なのは、式(69)の係数式(70)の係数です。これはランダムに決めます(ただし総和が1になるように)。関数normalized_random_listで作ります。
これで材料が揃ったので、密度演算子を構成します(変数de)。そして、entropyメソッドで、合成系のエントロピー、系Aと系Bのエントロピー、およびそれらの差を計算して表示し、プログラムは終了します。
結果は、以下の通りです。
** S(A,B) = 1.3598
** S(A) = 1.8018
** S(B) = 3.1616
** S(B)-S(A) = 1.3598
確かに、S(B)-S(A)=S(A,B)が成り立っていることがわかりました。何度実行しても、数値は違うのですが、常にこの等式は成り立っていました。初期設定をいくつか変えてやってみましたが、同様でした。
おわりに
量子情報理論におけるエントロピーの面白さと不思議さを、きちんと堪能したいと思いつつ、こんなに長い記事になってしまいました。実は、まだ言い足りていないところもあったりするのですが、今後、必要に応じて、というか、気が向いたら、別途記事にして追加説明したいと思います。
さて、次回以降ですが、どうしようか思案中です。「量子暗号」か「量子誤り訂正」か、あるいは、その前に、もう少し基礎的な話題を取り上げてからにするか、、というわけで、予定は未定です。あしからず。
以上
-
前回の記事では、2つの古典的な事象系列について、各々の確率がxと1-xで表されるとき、という前提で証明しましたが、3つ以上の事象系列にも拡張できます。今回は、2つに限定せず、複数の量子系(密度演算子)があった場合に成り立つ一般的な不等式を証明します。 ↩
-
とても人為的な操作から入りましたが、補助系を追加して証明するのは、量子情報の世界では、非常によく使われるテクニックです。今回もそれです。が、純粋化まではやっていない想定ですので、ご注意。単に補助系を式(12)のように追加しただけです。 ↩
-
この等号条件から、が導けます。つまり、積状態のエントロピーは各エントロピーの和です。ちょっとした公式として覚えておくと良いです。 ↩
-
が、結局、必要十分条件の片方向だけで力尽きました。しかも、もしかすると怪しい箇所があるかもしれません。が、参考まで、晒してみます、汗。 ↩
-
それから、言わずもがなですが、念のため一つ補足しておきます。この等号条件は、合成系ABが純粋状態の場合、性質(7)そのものになります。 ↩
-
「共通の固有基底」を持つということと、「直交する台」を持つということから、このように言えるのだと思うのですが、もしかすると厳密には怪しい(強すぎる仮定をしている)かもしれません。 ↩
-
ニールセン・チャンでは、別のやり方で入り組んだ証明がなされていました。一方、量子情報科学入門では、「相対エントロピーの単調性」を(初学者には難しいので)未証明のまま使っていました。この単調性に基づく証明の方が感覚的に理解しやすいので、ここでは、量子情報科学入門を参考にして、証明を記載してみました。 ↩
-
をいま考えている量子チャネル(に対応したCPTPマップ)として、がに変化したと思ってください。 ↩
-
別の言い方をすると、「非選択的な射影測定」によって、もとの量子系に存在していた量子もつれがほどけて、不確実さが露呈した、という理解でも良いと思います。それから、一つ注意事項。いま「非選択的な測定」が前提になっているので、一見おかしな感じになるのですが、結果をちゃんと確認する「選択的な射影測定」の場合、エントロピーは古典論と同様ゼロになります。 ↩