ENTROMINとENTROMAX:エントロピーに基づく因子回転基準

1.序論 Shannon (1949)は通信理論において情報量の測度を提案した. このうち平均情報量は(統計的)エントロピーとも言われ, 一般的には不確定性の測度として理解されているが, 工学や統計学はもちろん, 生物学, 社会学, 心理学, 文学, 芸術など多くの領域で応用されてきた. そして, 適用される現象によってカオス, 混乱, ランダム性, (非)組織性, 均衡性などを示す指標として用いられている. これまで, 因子分析における単純構造の問題は, 主として因子回転と直接因子法によって取り扱われてきた. 現在, 探索的因子分析においてはVARIMAX基準(Kaiser,1958)などの...

Full description

Saved in:
Bibliographic Details
Published in行動計量学 Vol. 21; no. 2; pp. 10 - 20
Main Author 稲垣, 敦
Format Journal Article
LanguageJapanese
Published 日本行動計量学会 1994
Online AccessGet full text
ISSN0385-5481
1880-4705
DOI10.2333/jbhmk.21.2_10

Cover

More Information
Summary:1.序論 Shannon (1949)は通信理論において情報量の測度を提案した. このうち平均情報量は(統計的)エントロピーとも言われ, 一般的には不確定性の測度として理解されているが, 工学や統計学はもちろん, 生物学, 社会学, 心理学, 文学, 芸術など多くの領域で応用されてきた. そして, 適用される現象によってカオス, 混乱, ランダム性, (非)組織性, 均衡性などを示す指標として用いられている. これまで, 因子分析における単純構造の問題は, 主として因子回転と直接因子法によって取り扱われてきた. 現在, 探索的因子分析においてはVARIMAX基準(Kaiser,1958)などのように因子負荷量の2n乗の2次のモーメントを最大化する基準で回転する方法が主流となっている. しかし, 上述の特性から, エントロピーは単純性の測度として, さらには解析的因子回転の目的関数として利用可能であると考えられ, この点は古くから指摘されてきた.
ISSN:0385-5481
1880-4705
DOI:10.2333/jbhmk.21.2_10