エントロピー(entropy)とは一般に「乱雑さ」を表す概念です。情報理論においては情報量とも訳されます。おおざっぱな喩えですが、複雑な情報であればあるほどセーブデータのサイズが大きくなるということです。さて、完全な空部屋の乱雑度を0とし完全な汚部
続きを読む
ログインでお困りの方はこちら
mixiニュース一覧へ