Студопедия

Главная страница Случайная лекция


Мы поможем в написании ваших работ!

Порталы:

БиологияВойнаГеографияИнформатикаИскусствоИсторияКультураЛингвистикаМатематикаМедицинаОхрана трудаПолитикаПравоПсихологияРелигияТехникаФизикаФилософияЭкономика



Мы поможем в написании ваших работ!




Биологические системы

В 1964 г. наш соотечественник академик А.Н.Колмогоров, известный своими работами в области теории систем, сформулировал определение жизни, ставшее классическим: "Живые системы характеризуются непрерывными потоками вещества, энергии и информации, которые они способны воспринимать, хранить и перерабатывать".

С позиций теории систем любую, в том числе и биологическую, систему можно изучать в двух аспектах: в плане ее структуры; и в плане ее поведения. По своей структуре биосистемы, как правило, делятся на элементы (подсистемы), связанные между собой.

Поведение системы - эти фактически совокупность ее реакций в ответ на воздействия, поступающие из окружающей среды.

По структуре системы подразделяются на замкнутые, открытые и относительно изолированные. Замкнутые системы совершенно изолированы от окружающей среды, в них существует связь только между собственными элементами. В открытых системах - кроме внутренних связей имеются и внешние. В относительно изолированных системах также существуют внутренние и внешние связи. Внешние связи системы осуществляются либо через входы (сенсоры), либо через выходы (эффекторы).

 

Практически все биологические системы относятся к типу открытых.

Академик В.А. Энгельгарт (1969), один из основоположников биоэнергетики, наш соотечественник, постулировал: "Коренное отличие живого от неживого выражается в способности живого создавать порядок из хаотического теплового движения молекул".

Мерой упорядоченности биосистем служит энтропия.

Впервые понятие энтропии было введено Клаузисом в 1865 г. как функция термодинамического состояния системы. Эта функция имеет вид S=Q/T (Q – теплота, Т - температура). Классики не связывали энтропию с информацией. Анализ этой функции показал, что физический смысл энтропии проявляется, как часть внутренней энергии системы, которая не может быть превращена в работу. Клаузиус эмпирически получил эту функцию, экспериментируя с газами.

Л. Больцман (1872) методами статистической физики вывел теоретическое выражение энтропии S = K lnW, где К – константа, W – термодинамическая вероятность (количество перестановок молекул идеального газа, не влияющее на макросостояние системы). Энтропия Больцмана трактуется как мера беспорядка, мера хаоса системы. Энтропии Больцмана и Клаузиуса тождественны, являются мерой вероятности состояния молекулярной системы. Сложилось мнение, что энтропия и беспорядок есть одно и тоже.

Больцман в 1886г. попытался с помощью энтропии объяснить, что такое жизнь. По мнению Больцмана, жизнь это явление, способное уменьшать энтропию.

 

Выделяют энтропию "S" это термодинамическая энтропия и "H" - это информационная энтропия.

Обсудим термодинамическую энтропию "S". Согласно второму закону термодинамики под энтропией понимается процесс рассеивания энергии, заключающийся в переходе всех видов энергии в тепловую и равномерном распределении ее между всеми телами природы.

Приращение энтропии численно равно отношению количества теплоты, сообщенного системе (или отведенного от нее) к термодинамической температуре системы dS=dQ/T.

В живых природных системах выравнивания энергии не происходит. Еще в 1935 году Э.С. Бауэром сформулировал принцип устойчивого неравновесия живых систем: "Все живые системы никогда не бывают в равновесии и исполняют за счет свободной энергии постоянную работу против равновесия, требуемого законами физики и химии при существующих внешних условиях".

Однако это не значит, что биосистемы не подчиняются второму закону термодинамики.

Впервые понятия энтропия и информация связал К. Шеннон в 1948. С его подачи энтропия стала использоваться как мера полезной информации в процессах передачи сигналов. Следует подчеркнуть, что под информацией Шеннон понимал сигналы нужные, полезные для получателя. Неполезные сигналы, с точки зрения Шеннона, это шум, помехи. По К. Шеннону, если сигнал на выходе канала связи является точной копией сигнала на входе то, с точки зрения теории информации, это означает отсутствие энтропии. Отсутствие шума означает максимум информации. Взаимосвязь энтропии и информации нашло отражение в формуле:

H+Y=1

Где Н – энтропия, Y – информация. Этот вывод количественно был обоснован Бриллюэном.

Для расчета энтропии Шеннон предложил уравнение, напоминающее классическое выражение энтропии, найденное Больцманом.

H = SPi log2 1/Pi = - SPi log2 Pi

 

где Н – энтропия Шеннона, Pi – вероятность некоторого события.

Попытаемся разобраться, что такое энтропия Шеннона и как она относится к термодинамическому понятию энтропии Клаузиуса и Больцмана.

Значительный вклад в развитие представлений об энтропии применительно к биосистемам внес австрийский физик, один из создателей квантовой механики, Э. Шредингер. Помимо понятия энтропии он использовал понятие негэнтропии - отрицательной энтропии и сформулировал следующее положение: "Живое остается живым только благодаря постоянному извлечению из окружающей среды отрицательной энтропии - негэнтропии. Ее источником является для растений - солнечный свет, для гетеротрофных организмов - вещества, синтезированные автотрофами". По теории Шредингера живые существа, используя негэнтропию, тем самым увеличивают положительную энтропию в окружающей среде.

На смену теории Шредингера пришла "теория содержательной информации". Согласно этой теории, биосистемы извлекают из окружающей среды не негэнтропию, а содержательную информацию, при этом информация окружающей среды не обедняется, подобно тому, как не обедняется содержание книги при многократном ее прочтении.

На основе этой теории Камшилов предложил рассматривать процесс индивидуального развития как процесс постепенного извлечения информации из окружающей среды.

 


<== предыдущая страница | следующая страница ==>
Основные свойства живого | Биология как система наук

Дата добавления: 2014-12-09; просмотров: 245; Нарушение авторских прав




Мы поможем в написании ваших работ!
lektsiopedia.org - Лекциопедия - 2013 год. | Страница сгенерирована за: 0.003 сек.