Разлика между версии на „Ентропия на Шанън“

или
:<math>\mu = P_i = {1 \over N} \,\,\,\, \forall i </math>
Видяхме, че когато липсата на информация е в максимум, вероятностите за различните изходи са равни помежду си. В рамките на статистическата механика това се интерпретира по следния начин: когато системата е в равновесие, ентропията е в максимум. След повторно изкарване от равновесие, съгласно втория принцип на термодинамиката, ентропията ще нарастненамалее, докато отново не достигне максимум.
 
== Връзка с ентропията ==
Анонимен потребител