Спираль времени, или будущее которое уже было   ::   Ходаковский Николай

Страница: 8 из 465

Природа информации до конца не ясна, но затомы умеем ее измерять, вычислять, просчитывать(Еще в 1928 году Хартли предложил логарифм при основании два для вычисления количества информации через энтропию, а в 1946 году появилась формула, выражающая энтропию через сумму целого ряда вероятностей, помноженных на их логарифмы. Эта знаменитая формула именуется формулой Шеннона. Потом для измерения количества информации стали развиваться другие подходы, невероятностные, как их называют математики.). Но об этом мы поговорим в последней главе книги. Считается, что сложность понятия информации аналогична трудности понимания теории относительности Эйнштейна.

Для нас сейчас важно понять, что информация может проявляться и измеряться в твердом, жидком, газообразном и даже в безвоздушном состояниях. Президент Академии информатизации академик И.И. Юзвишин считает, что информация есть фун7 даментальная первооснова и всеобщее свойство материи. Внутри и вблизи материализованных объектов всегда существует информационное поле. Информационные поля являются начальной, промежуточной и конечной стадиями между материализацией и дематериализацией информации различного рода. Информационные поля влияют на возникновение материи из вакуума.

Может быть, дорогой читатель, я говорю сложно и вам не все понятно. Но ведь уже древние знали, что материя возникла из пустоты. На это обратил особое внимание Э.Р. Мулдашев(Мулдашев Э.Р.

|< Пред. 6 7 8 9 10 След. >|

Java книги

Контакты: [email protected]