GeoSELECT.ru



Физика / Реферат: Энтропия термодинамическая и информационная (Физика)

Космонавтика
Уфология
Авиация
Административное право
Арбитражный процесс
Архитектура
Астрология
Астрономия
Аудит
Банковское дело
Безопасность жизнедеятельности
Биология
Биржевое дело
Ботаника
Бухгалтерский учет
Валютные отношения
Ветеринария
Военная кафедра
География
Геодезия
Геология
Геополитика
Государство и право
Гражданское право и процесс
Делопроизводство
Деньги и кредит
Естествознание
Журналистика
Зоология
Инвестиции
Иностранные языки
Информатика
Искусство и культура
Исторические личности
История
Кибернетика
Коммуникации и связь
Компьютеры
Косметология
Криминалистика
Криминология
Криптология
Кулинария
Культурология
Литература
Литература : зарубежная
Литература : русская
Логика
Логистика
Маркетинг
Масс-медиа и реклама
Математика
Международное публичное право
Международное частное право
Международные отношения
Менеджмент
Металлургия
Мифология
Москвоведение
Музыка
Муниципальное право
Налоги
Начертательная геометрия
Оккультизм
Педагогика
Полиграфия
Политология
Право
Предпринимательство
Программирование
Психология
Радиоэлектроника
Религия
Риторика
Сельское хозяйство
Социология
Спорт
Статистика
Страхование
Строительство
Схемотехника
Таможенная система
Теория государства и права
Теория организации
Теплотехника
Технология
Товароведение
Транспорт
Трудовое право
Туризм
Уголовное право и процесс
Управление
Физика
Физкультура
Философия
Финансы
Фотография
Химия
Хозяйственное право
Цифровые устройства
Экологическое право
   

Реферат: Энтропия термодинамическая и информационная (Физика)


САРАТОВСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ имени Н.Г. Чернышевского



РЕФЕРАТ

на тему: "Энтропия термодинамическая и информационная"



Выполнил: студент 521 группы
физического факультета
Маляев Владимир Сергеевич



-САРАТОВ 2001-
План реферата:



Энтропия – энциклопедическое понятие 3

Термодинамическое описание энтропии 3

Энтропия и общество 5

Информационный аспект 7

Смысловая информация и бессмысленная 8

Краткий вывод 9

Список использованной литературы 10

Чтобы каким-либо образом описать упорядоченность любой системы, физикам
необходимо было ввести величину, функцию состояния системы, которая бы
описывала ее упорядоченность, степень и параметры порядка,
самоорганизованность системы.
От греческого entropia -- поворот, превращение. Понятие энтропии
впервые было введено в термодинамике для определения меры необратимого
рассеяния энергии. Энтропия широко применяется и в других областях науки: в
статистической физике как мера вероятности осуществления какого - либо
макроскопического состояния; в теории информации - мера неопределенности
какого-либо опыта (испытания), который может иметь разные исходы. Все эти
трактовки энтропии имеют глубокую внутреннюю связь.
Энтропия — это функция состояния, то есть любому состоянию можно
сопоставить вполне определенное (с точность до константы -- эта
неопределенность убирается по договоренности, что при абсолютном нуле
энтропия тоже равна нулю) значение энтропии.
Для обратимых (равновесных) процессов выполняется следующее
математическое равенство (следствие так называемого равенства Клаузиуса)
[pic](Q - подведенная теплота,T - температура, A и B - состояния, SA и SB -
энтропия, соответствующая этим состояниям (здесь рассматривается процесс
перехода из состояния А в состояние В)
Для необратимых процессов выполняется неравенство, вытекающее из так
называемого неравенства Клаузиуса
Поэтому энтропия адиабатически изолированной (нет подвода или отвода тепла)
системы при необратимых процессах может только возрастать.
Используя понятие энтропии Клаузиус (1876) дал наиболее общую формулировку
2-го начала термодинамики: при реальных (необратимых) адиабатических
процессах энтропия возрастает, достигая максимального значения в состоянии
равновесия (2-ое начало термодинамики не является абсолютным, оно
нарушается при флуктуациях).
Значит функция состояния, дифференциалом которой является (Q/T, называется
энтропией и обозначается обычно S.
[pic].
Отметим, что справедливость этого выражения для полного дифференциала
энтропии доказана выше лишь для обратимых процессов идеального газа.
Так же энтропия S определятся логарифмом числа микросостояний, посредством
которых реализуется рассматриваемое макросостояние, т.е.
[pic], (формула Больцмана)
где k – постоянная Больцмана, Г - число микросостояний.
Энтропия системы в каком-либо обратимом процессе изменяется под влиянием
внешних условий, воздействующих на систему. Механизм воздействия внешних
условий на энтропию состоит в следующем. Внешние условия определяют
микросостояния, доступные системе, и их число. В пределах доступных для нее
микросостояний система достигает равновесного состояния, а энтропия –
соответствующего значения. В результате значение энтропии следует за
изменением внешних условий, достигая максимального значения, совместимого с
внешними условиями.
Чем более сильно упорядочена система, тем меньше число микросостояний,
которыми осуществляется макросостояние.
Допустим, например, что все атомы закреплены в определенных местах. Тогда
существует только одно микросостояние, а соответствующая ему энтропия равна
нулю. Чем больше число микросостояний, тем больше разупорядочена система.
Поэтому можно сказать, что энтропия является мерой упорядоченности системы.
В состоянии равновесия энтропия достигает своего максимального значения,
поскольку равновесие есть наиболее вероятное состояние, совместимое с
фиксированными условиями и, следовательно, является макросостоянием,
осуществляемым посредством максимального числа микросостояний. Очевидно,
что система, предоставленная самой себе, движется в направлении
равновесного состояния, т.е. энтропия должна возрастать в предоставленной
самой себе системе.
Энтропия определяется логарифмом числа микросостояний, посредством которых
реализуется макросостояние. В состоянии равновесия энтропия достигает
максимального значения, поскольку в равновесном состоянии термодинамическая
вероятность максимальна. Отсюда следует, что энтропия изолированной
предоставленной самой себе системы должна возрастать до тех пор, пока не
достигнет максимального значения, совместимого с условиями.
Следует заметить, что при адиабатическом обратимом процессе энтропия не
изменяется, так как при адиабатическом расширении газа за счет увеличения
объема энтропия увеличивается, однако за счет уменьшения температуры,
которое при этом происходит, она уменьшается и эти две тенденции полностью
компенсируют друг друга.
Неубывание энтропии в изолированной системе обусловливается в конечном
счете равновероятностью всех ее микроскопических состояний, приводящей
систему в наиболее вероятное макросостояние.
В процессах изолированной системы энтропия не убывает, в то время как в
процессах неизолированных систем энтропия может и возрастать, и убывать, и
оставаться неизменной в зависимости от характера процесса.
Так же отметим изменение энтропии в необратимых процессах. Вычисление
основывается на том, что энтропия является функцией состояния. Если система
перешла из одного состояния в другое посредством необратимого процесса, то
логично мысленно перевести систему из первого состояния во второе с помощью
некоторого обратимого процесса и рассчитать происходящее при этом изменение
энтропии. Оно равно изменению энтропии при необратимом процессе.
Рассмотрим роль энтропии в производстве работы: принцип Кельвина запрещает
циклический процесс, результатом которого было бы превращение нацело
некоторого количества теплоты в работу в результате контакта с одним
тепловым резервуаром. Формула для к.п.д. цикла Карно показывает, что взятое
от нагревателя количество теплоты лишь частично может быть превращено в
работу, причем часть теплоты, превращаемая в работу, тем больше, чем меньше
температура холодильника. Физической причиной этого являются требования
второго начала термодинамики. Поскольку энтропия при любых процессах в
замкнутых системах не убывает, некоторое количество теплоты не может нацело
превратиться в работу потому, что это означало бы исчезновение
соответствующей энтропии, что противоречит второму началу термодинамики.
При совершении работы в холодильник должна быть передана по крайней мере
такая же энтропия, какая была взята от нагревателя. Максимальный к.п.д.
достигается в обратимой машине, поскольку в этом случае холодильнику
передается минимально возможная энтропия.



Теперь рассмотрим другое приложение понятия энтропия:
Давно было замечено, что в одну и ту же реку дважды войти нельзя. Мир
вокруг нас меняется, наше общество меняется, и мы сами, члены общества,
только стареем. Изменения необратимы.
Энтропия первоначально была введена для объяснения закономерностей работы
тепловой машины. В узком смысле энтропия характеризует равновесное
состояние замкнутой системы из большого числа частиц.
В обычном понимании равновесие в системе означает просто хаос. Для человека
максимум энтропии - это разрушение. Любое разрушение увеличивает энтропию.
Энтропия замкнутой системы необратима. Но в природе полностью замкнутых
систем не существует. А для открытых неравновесных систем точного
определения энтропии пока не известно. Измерить энтропию нельзя. Из строгих
физических законов она не выводится. Энтропия вводится в термодинамике для
характеристики необратимости протекающих в газах процессов.
Многие ученые не считают феноменологические законы термодинамики законами
природы, а рассматривают их как частный случай при работе с газом с помощью
тепловой машины. Поэтому не рекомендуются расширенная трактовка энтропии в
физике.
С другой стороны необратимость протекающих физических процессов и самой
нашей жизни – это факт. С этой позиции вполне оправдано использование
понятия энтропии в нефизических дисциплинах для характеристики состояния
системы.
Все природные системы, включая человеческий организм и человеческие
сообщества, не являются замкнутыми. Открытость системы позволяет локальным
образом уменьшать энтропию за счет обмена энергией с окружающей средой, что
приводит к упорядочению и усложнению структуры системы.
Человеческие сообщества в любом виде, от племен и групп до народов и
социальных обществ, также являются системами. Каждое человеческое
сообщество имеет свои законы и структуру взаимодействий. Будем говорить об
обществе в целом, ограничивая его рамками государств.
Любое общество как система старается сохранить себя в окружающем мире. Для
этого существуют государственные, общественные, социальные и другие
институты. Применение энтропии для характеристики общества позволяет
установить некоторые приблизительные рамки, в пределах которых общество
может успешно развиваться или, наоборот, деградировать.
В настоящее время существует множество параметров, характеризующих то или
иное общество. Но большинство из этих параметров, в конечном счете,
сводится к двум видам: параметры, характеризующие открытое демократическое
общество, и параметры, описывающие тоталитарные системы.
Почему западные государства достигли такого впечатляющего прогресса в
экономике и государственном устройстве и существенно опережают в своем
развитии другие общественные системы? Западное общество характеризуется
большей степенью открытости. Более открытая система, с одной стороны,
впускает в себя больше энергии из внешнего мира и дает больше степеней
свободы своим элементам, с другой стороны – позволяет увеличить отток
«недоброкачественной» энергии. Таким образом, энтропия системы уменьшается.
При этом усложняется структура системы, что в западном обществе мы и
наблюдаем.
В более замкнутой общественной системе имеют место обратные процессы.
Энтропия увеличивается. Структура общества упрощается. Ярким примером такой
системы служит Северная Корея. Структура общества упростилась до трех
основных элементов – партийная элита, армия и все остальные.
Таким образом, можно сделать вывод, что для успешного развития общества
необходимо соблюдение некоторых условий. Главным из таких условий является
степень свободы элементов общества, т.е. людей. Степень свободы человека
можно определять в терминах прав человека, политических свобод,
экономических возможностей. Суть от этого не меняется. Человек должен иметь
право на свободу выбора целей и путей их достижения.
Если право выбора человека слишком ограничивается, то в обществе начинаются
застойные процессы, и оно постепенно приходит в упадок. Как пример можно
привести Советский Союз. Выбор человека ограничивался идеологическими
установками и партийной принадлежностью. Добиться успеха, сделать карьеру
вне партии было сложно. В конце концов, осталась одна возможность
продвижения: школа, институт комсомол, партия. Партийная принадлежность
была необходима для достижения успеха в любой сфере деятельности.
Такой вариант общественных отношений, в конечном счете, привел к упрощению
структуры общества и последующему упадку. Открытость общества не является
панацеей от всех бед, но создает предпосылки для дальнейшего прогресса.
Демократия - не лучшая система управления. Но, по - видимому, это одна из
необходимых степеней свободы. При детальном исследовании можно вычислить
необходимое для развития количество степеней свободы личности. Перебор
также не желателен. В этом случае отдельные части общества получают слишком
большую независимость, что может привести к распаду целого на отдельные
независимые составляющие.
Поэтому на Западе наблюдается такое огромное количество норм и правил,
регулирующих все сферы жизни человека. Большое количество норм и законов
необходимо для регулирования сложной структуры общества и сохранения его
целостности.
Не следует также путать экономическую и военную мощь государства с
общественными институтами. Замкнутые общества могут иметь оболочку в виде
мощных и сильных государств. Советский Союз тому пример. Государство
является вторичным по отношению к обществу. Государства могут исчезать, но
люди на территории остаются, и, следовательно, остается общество, которое в
отсутствии государства может получить новый импульс к развитию. Если же
распадается общество, то государство исчезает навсегда. В России
государственное устройство неоднократно менялось, но общество,
видоизменяясь, не распадалось.
При использовании понятия энтропии нельзя обойтись без закона сохранения. К
сожалению, он гласит, что если энтропия где-то убывает, то где-то она
прибывает. Прогресс человечества в целом, и общественных институтов - в
частности, приводит к уменьшению энтропии системы. Значит, энтропия
окружающей человека среды увеличивается. Это приводит к гибели природы и
экологическим катастрофам.
На земле кроме человека есть и другая жизнь. Реакция живой природы на
разрушающие действия человеческой системы может быть многообразной: от
новых болезней и эпидемий до мутантов и планетарных катастроф.


Теперь можно разобрать энтропию в информационном аспекте.
При подходе к сложным системам используются законы статистической физики.
В этой области физики предпринимается, в частности, попытка вывести
феноменологические макроскопические законы термодинамики из
микроскопической теории. Такой микроскопической теорией может быть
ньютоновская механика отдельных частиц газа или квантовая механика.
Используя соответствующие статистические средние, мы получаем возможность
вывести макроскопические величины из микроскопических законов. Центральным
понятием и в этом случае является энтропия S. Согласно Больцману, она
связана с числом W различных микроскопических состояний, порождающих одно и
то же макроскопическое состояние системы соотношением
[pic]
Решающее значение имеет так и не получивший убедительного ответа вопрос о
том, почему макроскопические явления необратимы, хотя все фундаментальные
законы обратимы. Например, если у нас есть сосуд с молекулами газа и мы
откроем клапан, чтобы газ мог попасть во второй сосуд, то оба сосуда
окажутся заполнены газом более или менее равномерно. Однако обратный
процесс в природе никогда не наблюдается: никому не доводилось видеть,
чтобы второй сосуд самопроизвольно опустел и все молекулы собрались в
первом сосуде.
Несмотря на трудности, связанные со строгим обоснованием необратимости,
статистическая физика позволяет нам объяснить ряд явлений неравновесной
термодинамики, такие, как релаксационные процессы, теплопроводность,
диффузия молекул и т.д.
Использование слова "информация" приводит ко многим недоразумениям. Это
связано с тем, что оно имеет много различных значений. В обыденном языке
это слово используется в смысле "сообщение" или "сведения". Письмо,
телевизионная передача или телефонный разговор несут информацию. Начнем с
понятия Шенноновской информации, согласно которому информация оценивается
независимо от ее смысла. Средняя информация, приходящаяся например, на одну
букву в книге определяется выражением
[pic],
где pj – относительная частота j-ой буквы.
Шеннон использовал такое определение информации при изучении пропускной
способности канала связи — способности передавать информацию даже при
наличии помех. Шенноновская информация никак не связана со смыслом
передаваемого сигнала. В его концепцию информации не входят такие аспекты,
как осмысленность или бессмысленность, полезность или бесполезность и т.д.
Шенноновская информация относится к замкнутым системам. Имеется
ограниченный резервуар сигналов, число которых равно Z.
Одна из наиболее поразительных особенностей любой биологической системы —
необычайная высокая степень координации между ее отдельными частями. В
клетке одновременно и согласованно могут происходить тысячи метаболических
процессов. У животных от нескольких миллионов до нескольких миллиардов
нейронов и мышечных клеток своим согласованным действием обеспечивает
координированные движения, сердцебиение, дыхание и кровообращение.
Распознавание образов — процесс в высшей степени кооперативный, равно как и
речь и мышление у людей. Совершенно очевидно, что все эти высоко
координированные, когерентные процессы становятся возможными только путем
обмена информацией, которая должна быть произведена, передана, принята,
обработана, преобразована в новые формы информации и должна участвовать в
обмене информацией между различными частями системы и вместе с тем между
различными иерархическими уровнями. Так мы приходим к непреложному выводу
о том, что информация является решающим элементом существования самой
жизни.
Понятие информации весьма тонкое. Как мы видим, она может так же обретать
роль своего рода среды, существование которой поддерживается отдельными
частями системы — среды, из которой эти части получают конкретную
информацию относительно того, как им функционировать когерентно,
кооперативно. И на этом уровне в дело вступает семантика.
Второе начало термодинамики говорит нам, что в замкнутых системах структуры
распадаются и системы становятся всё более однородными – по крайней мере на
макроскопическом уровне. На микроуровне может царить полный хаос. Именно
по этим причинам информация не может порождаться системами в состоянии
теплового равновесия; в замкнутых системах в конце концов устанавливается
тепловое равновесие. Но система, находящаяся в состоянии теплового
равновесия, не может и хранить информацию. Рассмотрим пример — книгу. На
первый взгляд может показаться, что она находится в тепловом равновесии —
ведь мы даже можем измерить ее температуру. Однако полного теплового
равновесия книга достигнет лишь после того, как типографская краска
продиффундирует и, расплываясь по каждой странице все больше и больше,
распространится по ней, — но тогда текст исчезнет.
Таким образом мы видим многоликость понятия "информация". Я думаю, что
будущее этого понятия разовьется именно в разделе самоорганизации сложных
систем, так как синергетическое направление в наше время — одно из самых
перспективных и малоисследованных.



СПИСОК ИСПОЛЬЗОВАННОЙ ЛИТЕРАТУРЫ:


Г. Хакен, "Информация и самоорганизация".
А.Н. Матвеев, "Молекулярная физика"
Большая физическая энциклопедия
О. Наумов, газета "Монолог" 2000г, N4

-----------------------
[pic]

[pic]







Реферат на тему: Энтропия. Теория информации


Содержание.



Введение.

1. Что измерил Клод Шеннон?
2. Пределы эволюционной изменчивости информационных систем.
3. Ограниченность адаптации биологических видов.
4. Этапы развития теории энтропии.
5. Методы исчисления количества структурной информации и информационной
энтропии текстов.
6. Информационно-энтропийные соотношения процессов адаптации и развития.
7. Информация и энергия.
8. Заключение.
9. Список литературы.



ВВЕДЕНИЕ


Во второй половине XX века произошли два события, которые, на наш
взгляд, в значительной мере определяют дальнейшие пути научного постижения
мира. Речь идет о создании теории информации и о начале исследований
механизмов антиэнтропийных процессов, для изучения которых синергетика
привлекает все новейшие достижения неравновесной термодинамики, теории
информации и общей теории систем.
Принципиальное отличие данного этапа развития науки от предшествующих
этапов заключается в том, что до создания перечисленных направлений
исследований наука способна была объяснить лишь механизмы процессов,
приводящих к увеличению хаоса и возрастанию энтропии. Что касается
разрабатываемых со времен Ламарка и Дарвина биологических и эволюционных
концепций, то они и по сей день не имеют строгих научных обоснований и
противоречат Второму началу термодинамики, согласно которому сопровождающее
все протекающие в мире процессы возрастание энтропии есть непременный
физический закон.
Заслуга неравновесной термодинамики заключается в том, что она сумела
выявить механизмы антиэнтропийных процессов, не противоречащих Второму
началу термодинамики, поскольку локальное уменьшение энтропии внутри
самоорганизующейся системы всегда оплачивается большим по абсолютной
величине возрастанием энтропии внешней среды.
Важнейшим шагом на пути постижения природы и механизмов
антиэнтропийных процессов следует введение количественной меры информации.
Первоначально эта мера предназначалась лишь для решения сугубо прикладных
задач техники связи. Однако последующие исследования в области физики и
биологии позволили выявить универсальные меры, предложенные К.Шенноном,
позволяющие установить взаимосвязь между количеством информации и
физической энтропией и в конечном счете определить сущность новой научной
интерпретации понятия «информация» как меры структурной упорядоченности
самых разнообразных по своей природе систем .
Используя метафору, можно сказать, что до введения в науку единой
информационной количественной меры представленный в естественно-научных
понятиях мир как бы «опирался на двух китов»: энергию и вещество. «Третьим
китом» оказалась теперь информация, участвующая во всех протекающих в мире
процессах, начиная от микрочастиц, атомов и молекул и кончая
функционированием сложнейших биологических и социальных систем.
Естественно, возникает вопрос: подтверждают или опровергают
эволюционную парадигму происхождения жизни и биологических видов новейшие
данные современной науки?
Для ответа на этот вопрос необходимо прежде всего уяснить, какие
именно свойства и стороны многогранного понятия «информация» отражает та
количественная мера, которую ввел в науку К.Шеннон.
Использование меры количества информации позволяет анализировать
общие механизмы информационно-энтропийных взаимодействий, лежащих в основе
всех самопроизвольно протекающих в окружающем мире процессов накопления
информации, которые приводят к самоорганизации структуры систем.
Вместе с тем информационно-энтропийный анализ позволяет выявить и
пробелы эволюционных концепций, представляющих собой не более чем
несостоятельные попытки сведения к простым механизмам самоорганизации
проблему происхождения жизни и биологических видов без учета того
обстоятельства, что системы такого уровня сложности могут быть созданы лишь
на основе той информации, которая изначально заложена в предшествующий их
сотворению план.
Проводимые современной наукой исследования свойств информационных
систем дают все основания утверждать, что все системы могут формироваться
только согласно спускаемым с верхних иерархических уровней правилами,
причем сами эти правила существовали раньше самих систем в форме
изначального плана (идеи творения).

ЧТО ИЗМЕРИЛ КЛОД ШЕННОН?

В основу теории информации положен предложенный К.Шенноном метод
исчислений количества новой (непредсказуемой) и избыточной (предсказуемой)
информации, содержащейся в сообщениях, передаваемых по каналам технической
связи.
Предложенный Шенноном метод измерения количества информации оказался
настолько универсальным, что его применение не ограничивается теперь узкими
рамками чисто технических приложений.
Вопреки мнению самого К.Шеннона, предостерегавшего ученых против
поспешного распространения предложенного им метода за пределы прикладных
задач техники связи, этот метод стал находить все более широкое примение в
исследованиях и физических, и биологических, и социальных систем .
Ключом к новому пониманию сущности феномена информации и механизма
информационных процессов послужила установленная Л.Бриллюэном взаимосвязь
информации и физической энтропии. Эта взаимосвязь была первоначально
заложена в самый фундамент теории информации, поскольку для исчисления
количества информации Шеннон предложил использовать заимствованную из
статистической термодинамики вероятную функцию энтропии.
Многие ученые (начиная с самого К.Шеннона) склонны были рассматривать
такое заимствование как чисто формальный прием. Л.Бриллюэн показал, что
между вычисленным согласно Шеннону количеством информации и физической
энтропии существует не формальная, а содержательная связь.

В статистической физике с помощью вероятностной функции энтропии
исследуются процессы, приводящие к термодинамическому равновесию, при
котором все состояния молекул (их энергии, скорости) приближаются к
равновероятным, а энтропия при этом стремится к максимальной
величине.

Благодаря теории информации стало очевидно, что с помощью той же
самой функции можно исследовать и такие далекие от состояния максимальной
энтропии системы, как, например, письменный текст.
Еще один важный вывод заключается в том, что
с помощью вероятностной функции энтропии можно анализировать все
стадии перехода системы от состояния полного хаоса, которому
соответствуют равные значения вероятностей и максимальное значение
энтропии, к состоянию предельной упорядоченности (жесткой
детерминации), которому соответствует единственно возможное состояние
ее элементов.

Данный вывод оказывается в равной мере справедливым для таких
несходных по своей природе систем, как газы, кристаллы, письменные тексты,
биологические организмы или сообщества и др.
При этом, если для газа или кристалла при вычислении энтропии
сравнивается только микросостояние (т.е. состояние атомов и молекул) и
макросостояние этих систем (т.е. газа или кристалла как целого), то для
систем иной природы (биологических, интеллектуальных, социальных)
вычисление энтропии может производится на том или ином произвольно
выбранном уровне. При этом вычисляемое значение энтропии рассматриваемой
системы и количество информации, характеризующей степень упорядоченности
данной системы и равное разности между максимальным и реальным значением
энтропии, будет зависеть от распределения вероятности состояний элементов
нижележащего уровня, т.е. тех элементов, которые в своей совокупности
образуют эти системы.
Другими словами,

количество сохраняемой в структуре системы информации пропорционально
степени отклонения системы от состояния равновесия, обусловленного
сохраняемым в структуре системы порядком.


Сам того не подозревая, Шеннон вооружил науку универсальной мерой,
пригодной в принципе (при условии выявления значенй всех вероятностей) для
оценки степени упорядоченности всех существующих в мире систем.
Опредеделив введенную Шеноном информационную меру как меру
упорядоченности движения, можно установить взаимосвязь информации и
энергии, считая энергию мерой интенсивности движения. При этом
количество сохраняемой в структуре систем информации пропорционально
суммарной энергии внутренних связей этих систем.

Одновременно с выявлением общих свойств информации как феномена
обнаруживаются и принципиальные различия относящихся к различным уровням
сложности информационных систем.
Так, например, все физические объекты, в отличие от биологических, не
обладают специальными органами памяти, перекодировки поступающих из
внешнего мира сигналов, информационными каналами связи. Хранимая в них
информация как бы «размазана» по всей их структуре. Вместе с тем, если бы
кристаллы не способны были сохранять информацию в определяющих их
упорядоченность внутренних связях, не было бы возможности создавать
искусственную память и предназначенные для обработки информации технические
устройства на основе кристаллических структур.
Вместе с тем необходимо учитывать, что создание подобных устройств
стало возможным лишь благодаря разуму человека, сумевшего использовать
элементарные информационные свойства кристаллов для построения сложных
информационных систем.
Простейшая биологическая система превосходит по своей сложности самую
совершенную из созданных человеком информационных систем. Уже на уровне
простейших одноклеточных организмов задействован необходимый для их
размножения сложнейший информационный генетический механизм. В
многоклеточных организмах помимо информационной системы наследственности
действуют специализированные органы хранения информации и ее обработки
(например, системы, осуществляющие перекодирование поступающих из внешнего
мира зрительных и слуховых сигналов перед отправкой их в головной мозг,
системы обработки этих сигналов в головном мозге). Сложнейшая сеть
информационных коммуникаций (нервная система) пронизывает и превращает в
целое весь многоклеточный организм.
Уже на уровне биологических систем возникают проблемы учета ценности
и смысла используемой этими системами информации. Еще в большей мере такой
учет необходим для ананлиза функционирования интеллектуальных
информационных систем.
Глубокое осознание специфики биологических и интеллектуальных систем
позволяет выявить те границы, за пределами которых утрачивает свою
компетентность разработанный современной наукой информационно-энтропийный
подход.
Определить эти границы Шеннону пришлось на самом начальном этапе
создания теории информации, поскольку без этого нельзя было использовать
количественную меру информации для оценки письменных текстов и других
созданных разумом человека информационных систем. Именно с этой целью
Шеннон делает оговорку о том, что предложенный им метод исчисления
информации письменных текстов игнорирует такие же их неотъемлемые свойства,
как смысл и ценность содержащихся в них сообщений.
Так, например, при подсчете количества информации, содержащейся в
таких двух сообщениях, как «очередную партию Каспаров играет белыми» и «у
гражданина Белова родился сын» получится одна и та же величина – 1 бит. Нет
сомнения, что два этих сообщения несут разный смысл и имеют далеко не
равнозначную ценность для гражданина Белова. Однако, как было отмечено
выше, оценка смысла и ценности информации находится за пределами
компетенции теории информации и поэтому не влияет на подсчитываемое с
помощью формулы Шеннона количество бит.
Игнорирование смысла и ценности информации не помешало Шеннону решать
прикладные задачи, для которых предназначалась первоначально его теория:
инженеру по технике связи вовсе не обязательно вникать в суть сообщений,
передаваемых по линии связи. Его задача заключается в том, чтобы любое
подобное сообщение передавать как можно скорее, с наименьшими затратами
средств (энергии, диапазона используемых частот) и, по возможности, безо
всяких потерь. И пусть тот, кому предназначена данная информация
(получатель сообщений), вникает в смысл, определяет ценность, решает, как
использовать ту информацию, которую он получил.
Такой сугубо прагматичный подход позволил Шеннону ввести единую, не
зависящую от смысла и ценности, меру количества информации, которая
оказалась пригодной для анализа всех обладающих той или иной степенью
упорядоченности систем.
После основополагающих работ Шеннона начали разрабатываться основы
смысловой (семантической) и ценностной (прагматической, аксиологической)
информационных теорий .
Однако ни одной из этих теорий и предлагаемых их авторами единиц
измерения ценности или смысла не суждено было приобрести такую же степень
универсальности, какой обладает мера, которую ввел в науку Шеннон.
Дело в том, что количественные оценки смысла и ценности информации
могут производится только после предварительного соглашения о том, что же
именно в каждом конкретном случае имеет для рассматриваемых явлений
ценность и смысл. Нельзя одними и теми же единицами измерить ценность
информации, содержащейся, скажем, в законе Ома и в признании любви. Иными
словами, критерии смысла и ценности всегда субъективны, а потому
применимость их ограничена, в то время как мера, предложенная Шенноном,
полностью исключает субъективизм при оценке степени упорядоченности
структуры исследуемых систем.
Так что же характеризует подсчитанная по формуле Шеннона величина
энтропии текста, выражаемая количеством бит? Только лишь одно свойство
этого текста - степень его упорядоченности или , иными словами, степень его
отклонения от состояния полного хаоса, при котором все буквы имели бы
равную вероятность, а текст превратился бы в бессмысленный набор букв.
Упорядоченность текста (или любой другой исследуемой системы) будет
тем больше, чем больше различие вероятностей и чем больше вероятность
последующего события будет зависеть от вероятностей предыдущих событий[1].
При этом,
согласно негэнтропийному принципу информации количество информации,
выражающее этот порядок, будет равно уменьшению энтропии системы по
сравнению с максимально возможной величиной энтропии,
соответствующей отсутствию упорядоченности и наиболее хаотичному
состоянию систем.

Методы исчисления информации, предложенные Шенноном, позволяют
выявить соотношение количества предсказуемой (то есть формируемой по
определенным правилам) информации и количества той неожиданной информации,
которую нельзя заранее предсказать.

Содержащуюся в правилах информацию Шеннон определил как избыточную,
потому что знание правил построения сообщений позволяет предсказывать
появление букв (или других символов) раньше, чем они будут сообщены
по линии связи.

Таким способом удается в той или иной степени «разгрузить»
предназначенный для передачи сообщений канал. Проведенный Шенноном анализ
английских текстов показал, что содержащаяся в них избыточная информация
составляет около 80% от общего количества информации, которое заключает в
себе письменный текст. Остальные 20% - это та самая энтропия, благодаря
которой текст может служить источником непредсказуемой энергии [2].
Если бы текстовые, устные или зрительные (в частности телевизионные)
сообщения были полностью лишены энтропии, они не приносили бы получателям
сообщений никаких новостей.
Если бы письменный текст строился только на основании заранее
сформулированных правил , то, установив эти правила по тексту первой
страницы, можно было бы заранее предсказать, что будет написано на
страницах 50, 265, 521 и т.д.


ПРЕДЕЛЫ ЭВОЛЮЦИОННОЙ ИЗМЕНЧИВОСТИ ИНФОРМАЦИОННЫХ СИСТЕМ

Наиболее наглядной иллюстрацией информационно-энтропийных
закономерностей и ограничений эволюционных процессов может служить
письменный текст. А поскольку текст есть не что иное, как закодированное
отражение устной речи, имеет смысл в дальнейшем вести речь об эволюции
языка.
Примерами эволюционных изменений языка могут служить, в частности,
образование неологизмов, заимствование иностранных слов и др.
Приобщение бывших социалистических стран к международному рынку
сопровождалось ассимиляцией таких терминов, как «менеджмент», «маркетинг»,
«дилер» и т.п. С переходом к парламентским формам управления государством в
бывших социалистических странах приобрели популярность такие понятия, как
«консенсус» и «плюрализм».
Процесс вовлечения в лексикон новых слов имеет ряд существенных
ограничений. Необходимым условием ассимиляции иностранных слов оказывается
адаптация этих слов к новой языковой среде. При включении иностранного
слова в лексикон нового языка, слово это должно подчиняться действующим в
этом языке правилам согласования слов (т.е. правилам склонения, сопряжения
и др.). Подобная адаптация аналогична процессам обучения живых организмов
правилам поведения в необычной для них среде.
В свою очередь правила согласования слов подчиняются требованиям,
возникающим на еще более высоких уровнях языковой структуры.
Эти требования зависят прежде всего от смыслового содержания текста,
от стиля, присущего составителю, данного текста и, наконец, от всего набора
грамматических и фонетических правил данного языка.

Например, слово спутник было введено в русский язык Достоевским. Из
бытовой сферы («спутник жизни») это слово распространилось в область
астрономии («Луна – спутник Земли») и стало международным словом
после того, как в Советском Союзе был запущен первый искусственный
спутник Земли. Однако, при всех трансформациях смысла форма этого
слова определялась правилами грамматики, установленными вместе с
возникновением языка. Об этом свидетельствует совпадение структуры
слова с-пут-ник с такими аналогами, как со-рат-ник и со-племен-ник,
образованными от корней древних слов племя и рать.

С биологическим и видами тоже могут происходить аналогичные
метаморфозы. В результате мутаций может родиться заяц, у которого уши будут
короче, чем у собратьев, или его шерстяной поркров приобретет необычный
цвет. Эти признаки он передаст по наследству, быть может, они закрепятся в
потомстве, но при этом потомки нашего зайца тоже останутся зайцами, но ни в
коем случае не превратятся в волка или лисицу и, уж тем более, не примкнут
к отряду приматов. Подобно тому, как структура нового слова «спутник»
совпадает со структурой древних слов «соратник» и «соплеменник», внутренняя
и внешняя структура организма современного зайца повторяет структуру зайца,
появившегося в результате акта творения на нашей Земле.
Мутациям могут подвергаться только второстепенные признаки, а
основные признаки вида остаются неизменными, подобно тому, как в
приведенных выше примерах словообразований неизменными остаются
определяющие смысловое значение каждого слова корни путь, племя и рать. При
этом могут меняться второстепенные признаки слова (префиксы, суффиксы,
окончания), превращая путь в спутник, попутчик, путевой, путевка,
распутица, беспутный, путеводный и т.п.
Изначальный смысл слова путь при этом всюду останется неизменным, а
основанные на коренном слове словообразования могут приобретать те или иные
оттенки в процессе последующей эволюции языка.
Каждое новое слово подчиняется правилам, сохраняемым на высоких
иерархических уровнях информационно-энтропической спирали и действующим
сверху вниз и на уровне слов, и на уровне букв.
Подобным образом мог быть сформирован и живой организм. Правила,
которым подчиняются все его согласованно функционирующие органы, ткани и
клетки, могли быть «сформулированы» только на самых высоких, не доступных
нашему разуму уровнях информационно-энтропической спирали.

Приведенная в таблице 1 «фраза», полученная в результате случайного
комбинирования 8-и буквенных сочетаний, имеет формальные признаки
осмысленных фраз. В ней можно различить глагольные формы (враться), наречия
(непо и корко), форму прилагательного (весел) и даже уловить некий опенок
смысла (какого-то бодрого действия, движения).
В свое время академик Щерба тоже приводил пример формализированной
фразы, из которой можно было бы понять, что некая Глокая куздра
штекобуданула (читай: «оттолкнула») некого «бокра» и кудрячит (читай:
«приласкивает») бокренка. Означают ли две рассмотренные «фразы», что при
движении снизу вверх по рассматриваемой нами спирали, можно путем случайных
комбинаций букв и слогов получить осмысленный текст? Такой вывод был бы
ошибочным. Формальное сходство с грамматическими конструкциями порождает
всего лишь иллюзию смысла, потому что не смысл рождается из грамматики, а
грамматика строится таким образом, чтобы с ее помощью можно было передать
(т.е. закодировать) содержащийся в той или иной фразе смысл.
Таким образом, эти примеры еще раз убеждают нас в том, что план
построения сложной информационной системы может формироваться только на
верхних иерархических уровнях и оттуда спускаться на нижележащие уровни,
задавая на них тот или иной порядок чередования элементов.
Сказанное выше имеет самое непосредственное отношение к проблеме
возникновения и функционирования биологических систем.
Выше было отмечено, что проводимый на самом нижнем структурном уровне
текста (на уровне отдельных букв) статистический анализ распределения
вероятностей букв и последующий расчет количества информации и величины
энтропии способны регулировать лишь результирующую упорядоченность текста.
Причины этой упорядоченности формируются на недоступных информационно-
энтропийному анализу верхних иерархических уровнях текста и языка.
Пытаясь преодолеть указанные ограничения возможностей информационно -
энтропийного анализа, К.Шеннон исследовал вероятности появления в тексте
различных 4-х, 6-ти и 8-ми буквенных сочетаний. Подставляя найденные
значения вероятностей в вероятную функцию энтропии, К.Шеннон определил
таким образом величину энтропии с учетом взаимной зависимости (корреляции)
букв в пределах слогов, а затем экстраполировал полученный результат на
более длительные текстовые отрезки, показав, что корреляция не выходит за
пределы отрезков текста в 40-60 букв .
Аналогичные результаты исследований русских текстов представлены в
работе Добрушина (табл. 1).
Используемый теорией информации полуэмпирический метод учета
межбуквенных корреляций обладает рядом существенных ограничений, которые
становятся очевидными, если сопоставить результаты анализа искусственных
текстов Шеннона со свойствами реального языка. Дело в том, что при
искусственном расчленении текста на отрезки из 4-8 букв стираются границы,
разделяющие уровни слогов от уровней слов. В реальных текстах в зависимости
от смыслового контекста и одна, и две, и три буквы могут быть в одних
случаях самостоятельным словом, а в других – входить в состав других слов.
Очевидно, что в двух указанных случаях рассматриваемые сочетания букв
относятся к различным иерархическим уровням текста (или к уровню слогов),
однако подобное разграничение уровней может осуществляться только по
смыслу, который заключает в себе анализируемый текст. А поскольку
используемые теорией информации методы игнорируют смысловое содержание
текста, исследуемые ею искусственные тексты отличаются от реальных текстов
отсутствием четкой иерархической структуры.
Причины возникновения исследуемого порядка всегда остаются за
пределами компетенции статистических методов. Находясь как бы на нижних
ступенях некой упорядоченной иерархической структуры, вооруженная
статистическими методами наука исследует не само действие порождающих
исследуемый порядок причин, а лишь его результат. Любая попытка с помощью
информационно-энтропийного анализа делать какие бы то ни было выводы о
содержательной стороне письменных текстов была бы равносильна суждению о
достоинствах и недостатках какого-то музыкального произведения на основании
того, как часто создававший его композитор прибегал к помощи ноты «до» или
«соль». Подобным способом можно идентифицировать принадлежность тому или
иному автору его сочинений, но бесполезно пытаться по результатам такого
анализа доискиваться до причин, побудивших этого автора сочинить именно эту
симфонию, поэму или роман.
Из всего вышесказанного следует, что адекватное представление об
иерархической структуре реальных текстов не может быть получено на
основании конструирования искусственных текстов, осуществляемого теорией
информации по принципу «снизу вверх».
Присущий реальным текстам порядок чередования букв формируется
согласно правилам, заданным верхними иерархическими уровнями текста, то
есть не «снизу вверх», а «сверху вниз». Что же касается используемой
теорией информации вероятностной функции энтропии, то она может быть
использована в качестве точного математического инструмента только на
нижних уровнях иерархии текста, поскольку только на этих уровнях удается
найти достоверные значения вероятностей появления исходных элементов этого
уровня (т.е. букв). С переходом на следующий уровень мы обнаруживаем такое
обилие исходных элементов этого уровня (т.е. такое количество слов), что
определение вероятности появления в тексте всех слов, составляющих
лексикон, становится практически неразрешимой задачей.
Так, например, лексикон искусственного текста, каждое слово которого
состоит из 6-ти букв, а алфавит - из 30-ти букв, составит 306 = 729 • 106
«слов». Среди этих слов будут попадаться бессмысленные и даже
непроизносимые сочетания из 6-ти гласных или 6-ти согласных букв.
Приняв, что значащие слова составят 0,01% от всех шестибуквенных
комбинаций, получим 72 900 слов. Из сочетаний этих слов можно составить
практически неограниченное количество текстов, поэтому бессмысленно
пытаться определять вероятности появления отдельных слов.
Это значит, что вероятностная функция энтропии не может быть
использована для строгого определения количества информации и энтропии
текстов на уровне слов, и поэтому Шеннон был вынужден использовать
приближенные методы экстраполяции результатов, полученных на уровне слогов
и отдельных букв.
Четкое понимание присущих информационно-энтропийному анализу
ограничений не исключает возможности использования полученной нами на
примере искусственных текстов расширяющейся информационно-энтропийной
спирали (рис. 3) в качестве универсальной модели всех существующих в мире
иерархических систем. Благодаря теории информации, понятие «текст»
приобретает общенаучный смысл.
Так, например, начальным алфавитом всех генетических кодов служат

4 нуклеотида ДНК. Генетический «лексикон» состоит из триплетов,
соответствующих 20-ти аминокислотам. Содержащиеся в генах «фразы» – это
закодированные программы формировния органов и их функций, «концепция» –
это целостный организм.
«Начальным алфавитом» всей природы служат входящие в менделеевскую
таблицу атомы химических элементов. «Лексикон» – это молекулы сложных
веществ. «Фразы, концепции» – это геохимические и биологические системы,
составляющие все многообразие и богатство природы.
Так же, как в случае текста, за пределами когнитивных возможностей
иерархической информационно-энтропийной модели остаются вопросы о том, на
каких высших уровнях и каким образом формируются правила, определяющие
фиксируемую наукой на более низких уровнях упорядоченность структуры
существующих в природе систем.
Как будет показано ниже, этот вопрос приобретает особую актуальность,
когда речь заходит о происхождении, адаптации и эволюционной изменчивости
биологических видов.
Используя текст в качестве универсальной модели, можно установить те
пределы изменчивости, в которых может осуществляться самоорганизация и
адаптация биологических систем. С учетом выявленных ограничений можно
выявить ошибочность основных положений отстаиваемой материалистической
наукой концепции происхождения и эволюции биологических видов.

ОГРАНИЧЕННОСТЬ АДАПТАЦИИ БИОЛОГИЧЕСКИХ ВИДОВ

Рассмотренные механизмы ограничения эволюционной изменчивости
языковых форм могут использоваться в качестве наглядной аналогии при
постижении скрытых от постороннего взгляда механизмов изменчивости
биологических видов. Одним из классических примеров такой изменчивости
может служить адаптация одного из видов бабочек (пяденицы березовой) к
нарушенным индустриальными факторами условиям среды их обитания в районе
Манчестера и других промышленных центров Англии прошлого века. В результате
загрязнения лесов копотью начал исчезать светлый лишайник, ранее
покрывавший стволы деревьев. В результате адаптации к новым условиям наряду
с бабочками, обладавшими маскирующей на фоне лишайников светлой окраской
крыльев, появились популяции с темной окраской крыльев, приспособленной для
маскировки на лишенных лишайников темных стволах. По произведенным оценкам
относительное количество бабочек с темными крыльями в популяции выросло с
1% в 1848 году до 99% в 1898 году. Можно ли данный факт рассматривать как
подтверждение эволюционной теории? Да, если считать эволюцией любое
изменение признаков под влиянием внешней среды. Нет, если, следуя логике
сторонников эволюционной теории, под эволюцией понимать тенденцию
самопроизвольного формирования более сложных биологических форм.
Пяденица березовая не перестала быть бабочкой после того, как
изменился цвет ее крыльев. Точно так же, как заяц никогда не превратится в
лису или волка, амеба не породит многоклеточных организмов, а обезьяны не
смогут стать предками разумных людей.
Эволюционные изменения признаков биологических форм осуществляются
только в пределах, не нарушающих основных признаков данного вида, то есть в
пределах горизонтальной плоскости иерархической информационной модели,
соответствующей неизменному уровню иерархической структуры.
Вместе с тем, пример пяденицы березовой вовсе не подтверждает
возможности эволюции по вертикали, то есть в направлении перехода на более
высокие уровни иерархической структуры и соответствующего самопроизвольного
усложнения биологических форм. Напротив, имеющиеся в распоряжении биологов
факты свидетельствуют о том, что в акте творения были изначально
предусмотрены правила, ограничивающие возможности изменений видовых и
родовых признаков и таким образом обеспечивающие устойчивость к
воздействиям внешней среды.
К числу правил относятся защищенность от внешних воздействий
наследственных генетических кодов и запреты на межвидовые и межродовые
скрещивания, которые могли бы приводить к образованию гибридных пород.
Даже в тех случаях, когда межвидовые скрещивания оказываются
возможными, возникают особи, почти не способные производить потомство. Так,
например, в результате скрещивания ослицы и жеребца в редких случаях
удается получить гибридную особь (лошака). Более продуктивным оказывается
скрещивание кобылы с ослом, однако при этом почти бесплодными оказываются
их потомки (мулы).
Рассмотренные примеры свидетельствуют о том, что в противовес
утверждениям эволюционистов уже сама идея творения заключала в себе условия
последующего сохранения основных признаков биологических форм. По аналогии
с информационными свойствами письменных текстов можно предполагать, что эти
основные и неизменные признаки вида составляют порядка 80% информации,
заключенной в наследственных генетических кодах. Остальные 20% - это те
второстепенные признаки, котрые видоизменяются под воздействием внешней
среды.
Всякая аналогия, в том числе и аналогия свойств генетических и
письменных текстов, является приближенной, поэтому приведенные цифры (80% и
20%) могут характеризовать лишь примерное соотношение сохраняемых и
изменяющихся признаков тех или иных биологических форм. Тем не менее даже
чисто интуитивные оценки дают основания предполагать, что соотношение 80/20
должно соблюдаться в действительности : чтобы курица не превращалась в
утку, она должна сохранить около 80% признаков своего вида, а 20% включают
в себя изменение цвета перьев, размеров гребешка или клюва и т.п.
Имеющиеся научные данные подтверждают возможность адаптационных
изменений второстепенных признаков при условии сохранения тех основных
признаков, по которым осуществляется различение биологических форм.
Источник указанных ограничений находится на недоступных рациональной науке
самых высоких уровнях иерархической информационной структуры. Если за
нижний уровень иерархии информационно-энтропической модели принять
неорганические системы, то следующую ступень иерархической лестницы следует
соотнести с биологическими системами. Над ними находится следующий уровень
более сложно организованных интеллектуальных систем. А самым высоким
оказывается тот недоступный рациональному постижению уровень (логос), на
котором и формируются правила, которым подчиняются все нижележащие уровни,
то есть весь доступный нашим наблюдениям мир.
В сопоставлении с таким представлением об информационной структуре
мира становится особенно очевидной наивность попыток Дарвина и его
последователей объяснить эволюционное происхождение биологических видов в
результате отбора тех особей, преимущества которых возникли в результате
чисто случайных причин.
Критики теории Дарвина утверждали, что случайная изменчивость
способна только нарушить изначальную целостность организма как слаженно
функционирующей системы. В результате снижается их адаптация по отношению к
условиям существования, а следовательно, уменьшаются шансы на закрепление
эти случайно возникших признаков в последующих поколениях.
В ответ на подобную критику и сам Дарвин, и его последователи обычно
ссылались на длительность сроков биологической эволюции, которая, по их
утверждениям, исчисляется миллиардами лет. Неубедительность подобной
аргументации можно проиллюстрировать следующим наглядным примером.

Представим себе, что некий доморощенный «изобретатель», не имеющий
никаких представлений ни о принципах телевидения, ни о схеме имеющейся в
его распоряжении конкретной модели, решил, что он сможет получить
дополнительные телеканалы путем случайной перепайки концов внутренних
проводов. Чем больше времени будетдлиться подобная процедура, тем труднее
будет возвратить в рабочее состояние телевизор, над которым произведен
подобный эксперимент.
А ведь не только телевизор, но даже и самый совершенный из
современных компьютеров в отношении сложности не может идти ни в какое
сравнение с представителями даже самых простейших биологических форм. Ведь
не случайно даже самый сложный компьютер после отказа поддается
восстановлению, а любой живой организм после нарушения его жизненных
функций еще никто из людей не сумел «оживить».
Длительный срок эволюции не может служить аргументом, подтверждающим
возможность случайного возникновения ни новых полезных признаков, ни, тем
более, новых сложных и совершенных биологических форм.
Биосистемы настолько сложны по своей структуре и функциям, что есть
все основания предполагать, что все иерархические уровни их структуры могут
вносить свою лепту в процессы упорядоченного функционирования и
адаптационных изменений этих систем.
Об этом свидетельствуют, в частности, результаты новейших
исследований в области неравновесной термодинамики, исследующей механизмы
процессов самоорганизации неорганических систем.
Оказалось, что в системе, еще находящейся в состоянии равновесия,
которому соответствует предельный хаос движения молекул и атомов, уже
заложены потенциально так называемые атракторы – различные варианты
структур. Реализация этих структур произойдет только в том случае, если
какие-то внешние факторы заставят систему отклониться от равновесного
состояния, а затем случайные флуктуации направят процесс по одному из
заранее обусловленных путей .
И тут опять возникает вопрос, на который рациональная наука не в
состоянии дать ответ: кем же выбраны именно эти структуры? Кто запретил в
точках так называемых бифуркаций одни варианты формирующейся структуры, но
разрешил другие? Кто заложил структурные признаки симметрии и асимметрии,
одни и те же, или весьма сходные и для неорганических, и для живых систем ?
Еще раз подчеркнем, что, проводя исследования на различных
иерархических уровнях информационно-энтропийной спирали (т.е. на уровне
неорганических, биологических, интеллектуальных систем), наука способна
фиксировать лишь сами процессы функционирования различных информационных
структур, оставляя за скобками вопросы о том, почему они функционируют
именно так, а не иначе, где и как формируются правила, согласно которым в
результате координированного взаимодействия всех структурных уровней
иерархической спирали функционирует сложнейшая система -живой организм.
Сам собой напрашивается вывод, что эти правила могут формироваться
только на уровне Логоса, откуда они транслируются на все нижележащие уровни
и обеспечивают их согласованное функционирование и ту гармонию, которой
обладает всякий живой организм.
В поисках истоков этой гармонии некоторые ученые-эволюционисты готовы
признать правомерность телеологических эволюционных концепций . Но если у
эволюции биологических форм есть какие-то конечные цели, то они были заданы
изначально не кем иным, как Творцом не только всех биологических форм, но и
всей биосферы как цельного, гармонично функционирующего компонента земного
мира.
Не находит в науке ответа также вопрос о том, что может служить
стимулом самопроизвольного усложнения организмов, то есть движения по
ступеням иерархической лестницы от одноклеточных к многоклеточным, от
прокариот к эукариотам, от беспозвоночных к позвоночным и т.д. Борьба за
существование не может служить объяснением подобных тенденций, поскольку в
отношении выживаемости постейшие организмы не уступают сложнейшим. Здесь
приходится согласиться с известным английским публицистом Сэмом Батлером,
сказавшим однажды, что ни одна теория эволюции не отвечает на вопрос,
почему развитие биосистем должно идти в направлении не от слона к амебе, а
от амебы к слону.
ЭТАПЫ РАЗВИТИЯ ТЕОРИИ ЭНТРОПИИ

1а. Функция энтропии была введена в термодинамику Р.Клаузиусом,
предложившим исчислять превращение энтропии по формуле:

|( S = |(Q |(1.1) |
| |T | |


где S - энтропия ;
Q - количество тепла ;
Т - абсолютная температура .
При передаче тепла ( Q от более разогретого тела с температурой Т1 к
менее разогретому телу с температурой Т2 превращение
энтропии ( S равно:

|( S = |- (Q |+ |+(Q |(1.2) |
| |T1 | |T2 | |


Из формулы (1.2) с учетом условия T1 > T2 следует вывод :

|( S > 0 |(1.3) |
| | |

Поскольку во всех физических процессах тепло перетекает
самопроизвольно от более разогретых к менее разогретым телам, условие (1.3)
приобретает силу физического закона, получившего название Второго начала
термодинамики.
Пока существует разность температур T1 – T2, часть теплового потока
может быть преобразована в полезную (антиэнтропийную) энергию либо в
естественно протекающих процессах (например, биологических), либо с помощью
тепловых машин.
При условии T1 = T2 энергия полностью утрачивает свои антиэнтропийные
свойства. Этот вывод был положен в основу теории тепловой смерти Вселенной.
Заметим, что сам термин «энтропия» был введен Клаузиусом,
образовавшим его от корня греческого слова «тропе», означающего
«превращение» с добавлением заимствованной из слова «энергия» приставки «эн-
».
1б. Предложенная Клаузиусом формула энтропии (1.1) не раскрывала внутренних
механизмов процессов, приводящих к возрастанию энтропии.Эта задача была
решена Л.Больцманом, предложившим исчислять энтропию идеального газа по
формуле :

|S = K H |(1.4) |
| | |


где K= 1,38 · 10 -16 эрг/градус – коэффициент Больцмана
Н - математическая энтропия.
Согласно Больцману, величина H определяется так :

|H = ln |N ! |(1.5) |
| |N1 ! N2 ! … Nk !| |


где N - общее число молекул газа, находящегося в рассматриваемом
объеме.
Ni - число молекул, движущихся со скоростями, соответствующими i-
ой ячейке условного пространства скоростей.
При этом 1= 1,2, ... К
( 1.6)
Условие (1.6) означает, что все N молекул распределены по
соответствующим ячейкам пространства скоростей, в количествах N1, N2, …
Nk,, учитываемых уравнением (1.5)
Согласно (1.5) перестановка молекул, находящихся внутри каждой из ячеек,
не влияет на величину Н . Отсюда следует, что подсчитанная по формуле (1.5)
величина Р соответствует числу возможных микросостояний системы (в
частности газа), при котором макросостояние системы остается неизменным.

1в. М.Планк преобразовал формулу Больцмана (1.5), использовав для
этого математическую формулу Стирлинга, справедливую для больших значений N
:
|ln(N !) = Nln N – N | (1.7) |


В результате подстановки (1.7) в (1.5) получается соотношение :
|H = Nln N – N –(( Ni ln Ni – ( Ni) |
| |i| |i| |


С учетом условия ( Ni

Новинки рефератов ::

Реферат: Патрульно-постовая служба (Административное право)


Реферат: Ультразвуковой металлоискатель (Технология)


Реферат: Социально–культурные проблемы развития России (Социология)


Реферат: Новгород (История)


Реферат: Героизм советского народа на фронтах Великой Отечественной войны (История)


Реферат: Определение технического состояния рабочей тормозной системы и стояночной тормозной системы автомобиля «ГАЗ 2410» (Транспорт)


Реферат: Власть (Политология)


Реферат: Возникновение злокачественных опухолей (Биология)


Реферат: Социология отклоняющегося поведения и социальный контроль (Социология)


Реферат: Устройство, принцип действия системы зажигания (Транспорт)


Реферат: Михаил Сергеевич Горбачёв (Политология)


Реферат: Гражданское право (Шпаргалка) (Гражданское право и процесс)


Реферат: Милиция общественной безопасности (Государство и право)


Реферат: Учет товарно-материальных запасов (Аудит)


Реферат: Зміст і еволюція поняття мотивації (Менеджмент)


Реферат: Капиталистическое развитие Японии в конце 19 - начале 20 вв. (История)


Реферат: Процессы глобализации в экономике (Социология)


Реферат: Анализ мотивации и оплаты труда на предприятии (Право)


Реферат: Борис Чайковский - путь в искусстве (Искусство и культура)


Реферат: Опорно-двигательный аппарат (Биология)



Copyright © GeoRUS, Геологические сайты альтруист