Главная страница Случайная лекция Мы поможем в написании ваших работ! Порталы: БиологияВойнаГеографияИнформатикаИскусствоИсторияКультураЛингвистикаМатематикаМедицинаОхрана трудаПолитикаПравоПсихологияРелигияТехникаФизикаФилософияЭкономика Мы поможем в написании ваших работ! |
Тема 2. Информация и информационные процессы
Информация, наряду с веществом и энергией, является одним из основных понятий информатики. Понятие «Информация» (informatio – разъяснение, осведомление, изложение) является одним из ключевых понятий в информатике. Систему мы будем понимать как некоторую совокупность объектов, процессов, связанных общими правилами, ресурсами, целями. Информация – это структурированная последовательность сведений, знаний. Это приращение, развитие, актуализация знаний в процессе интеллектуальной деятельности человека. Человек воспринимает информацию с помощью органов чувств, как правило, в виде знаков, звуков, жестов, изображений (непосредственно или опосредствованно преобразуемых с помощью сигналов). Никакая информация, никакое знание не появляется сразу – этому предшествует этап накопления, осмысления, систематизации опытных данных, взглядов. Знание – продукт такого процесса. Мышление – необходимый атрибут такого процесса. Информация может существовать в пассивной (не актуализированной) или активной (актуализированной) форме. Информация всегда актуализируется сообщениями, при этом формы облачения информации в сообщения различны, например, для живых существ это – сигналы, жесты, для технических устройств – си гналы. Сообщение и информация – это некоторые слова в, вообще говоря, различных алфавитах. Отношение между ними представимо следующим образом: сообщение – конкретная форма передачи информации, которая может быть и абстрактной; информация – содержание сообщений, сообщения – форма проявления или актуализации информации. Пример. Информация от одного человека к другому может передаваться символами в письме, жестами сигнальщика боевого корабля, звуками речи диктора, геометрическими фигурами чертежа, па балерины. При этом одно и тоже информационное сообщение может содержать разное количество информации для разных людей – в зависимости от их предшествующих знаний, от уровня понимания этого сообщения и интереса к нему. Передаваемая животными информация может быть передана звуками (лай, вой, писк), ситуационным поведением (виляние хвостом). Информация в технических устройствах, ЭВМ передаётся электрическими, магнитными, световыми импульсами. Информация по отношению к окружающей среде (использующей ее среде) бывает трех типов: входная, выходная и внутренняя. Входная информация (по отношению к окружающей среде) – информация, которую система воспринимает от окружающей среды. Выходная информация (по отношению к окружающей среде) – информация, которую система выдает в окружающую среду. Внутренняя, внутрисистемная информация (по отношению к системе) – информация, которая хранится, перерабатывается, используется лишь внутри системы, актуализируется только подсистемами системы. Пример. Человек воспринимает, обрабатывает входную информацию, например, данные о погоде на улице, формирует выходную реакцию – ту или иную форму одежды. При этом используется внутренняя информация, например, генетически заложенная (приобретённая) физиологическая информация о реакции, «морозостойкости» человека. Генетически заложенная и приобретённая информация влияет на поведение, адаптацию человека в окружающей среде. Возможна также классификация информации и по другим признакам: Информация по отношению к конечному результату бывает исходная, промежуточная, результирующая. Информация по ее изменчивости бывает постоянная, переменная и смешанная. Информация по стадии ее использования бывает первичная и вторичная. Информация по ее полноте бывает избыточная, достаточная и недостаточная. Информация по доступу к ней бывает открытая и закрытая. Есть и другие типы классификации информации. Пример. Сведения о сути товара могут быть изложены в рекламе, передаваемой различными сообщениями (по телевидению, по радио, в газете и т.д.). При этом соответствие этой рекламы действительности может быть независимо от типа сообщений, т.е. имеется третья сторона информации (кроме, её абстрактной сущности, её представления сообщениями) – соответствие сведений заложенных в информации с проявлениями реальной системы. Если отвлечься от содержания информации и рассматривать сообщения как последовательности знаков, сигналов, то их можно представлять битами (анг. bit – binary digit – двоичная единица), а измерять в байтах, килобайтах, мегабайтах, гигабайтах. Соотношения между ними таковы: 1 бит – это 0 или 1, 1 байт = 8 битов, например, байт вида 10001110, 1 килобайт (1 К)=1024 байтов = 210 байтов = 213 бит, 1 мегабайт (1 М) = 1024 К= 210 К= 220 байт = 223 бит, 1 гигабайт (1 Г) = 1024 М=210 М=220 К=230 байт = 233 бит, 1 терабайт (1 Т) = 1024 Г=210 Г =220 М=230 К = 240 байт =243 бит, 1 петабайт (1 П) = 1024 Т=210 Т =220 Г =230 М=240 К = 250 байт = 253 бит, 1 эксабайт (1 Э) = 1024 П=210 П=220 Т =230 Г =240М=250 К = 260 байт = 263 бит. Пример. Выясним, сколько различных цветов можно будет закодировать 12-разрядными битовыми комбинациями. Такими битовыми комбинациями можно закодировать не более чем 212=4096 различных цветов (от цвета номер 000000000000 до цвета номер 111111111111). Пример. Найдём х и у из равенств: 16у (М)=8х (бит); 32Х (К)=2У (М). Выравниваем единицы информации: 16у (М)=16у*210*210*23(бит); 2у (М)=2у*210(К). Отсюда получаем: 24у+23=23х; 25х=2у+'°. Приравняв показатели и решив систему уравнений, найдём решение х=1, у= - 5. Пример. Принтер имеет скорость печати 1 К в сек. Найдём время, необходимое для распечатки 10 листов, если на одном листе – 60 строк по 30 символов, а на смену листа требуется 0,1 сек. Так как каждый лист содержит 60x30=1800 символов и каждый символ кодируется байтом, то всего будет 1800 байт информации. Печать 1-го листа потребует 1800/1024=1,75 (сек). Для печати 10 листов с учетом 0,9 сек. на смену листов нужно приблизительно 2,65 сек. Количество информации – числовая величина, адекватно характеризующая информацию по разнообразию, структурированности, определённости, выбору состояний системы. В настоящее время получили распространение подходы к определению понятия «количество информации», основанные на том, что информацию, содержащуюся в сообщении, можно формально трактовать в смысле её новизны или, иначе, уменьшения неопределённости наших знаний об объекте. Эти подходы используют математические понятия вероятности и логарифма. Американский инженер Р. Хартли (1928 г.) процесс получения информации рассматривает как выбор одного состояния из конечного заданного множества N равновероятныхразличных состояний а, максимальное количество информации I, содержащее в выбранном состоянии выражается формулой: I = log2N Т.е. сообщение, уменьшающее неопределенность знаний человека в два раза несет для него 1 бит информации. Концепция К. Шеннона, отражая количественно-информационный подход, определяет информацию, как меру неопределенности (энтропию) события. Количество информации в том или ином случае зависит от вероятности его получения: чем более вероятным является сообщение, тем меньше информации содержится в нем. Этот подход оказался весьма полезным в технике, связи и вычислительной технике и прослужил основной для измерения информации и оптимального кодирования сообщения. Кроме того, он представляется удобным для иллюстрации такого важного свойства информации, как новизна, неожиданность сообщения. При таком понимании информация – это снятая неопределенность, или результат выбора из набора возможных альтернатив. Как мы уже отмечали ранее, уже обмен информацией происходит при помощи сигналов. Сигналы, передаваемые по радио и телевидению, а также используемое в магнитной записи имеют форму непрерывных быстро изменяющихся во времени кривых линий. Такие сигналы называются непрерывными или аналоговыми сигналами. В противоположность этому в телеграфии и вычислительной технике сигналы имеют импульсную форму и именуются дискретными сигналами. Другими словами, информация передается в двух формах: дискретной и аналоговой. Для выделения количества любой информации, как символьной, так и текстовой или графической, нужно найти способ представить её в едином, стандартном виде. Таким видом стала двоичная форма представления информации – записи любой информации в виде последовательности только двух символов, например: цифрами 0 или 1, буквами А или Б, словами ДА, НЕТ. Однако ради простоты записи применяют цифры 0 и 1. В компьютере эти сигналы рассматриваются как наличие или отсутствие напряжения. Формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе была предложена Клодом Шенноном в 1948 году: , где N число состояний системы; pi – вероятность (относительная частота) перехода системы в i-ое состояние, сумма всех pi равна 1. Для равновероятных состояний pi=1/N, имеем I=log2N Благодаря потокам информации (от системы к окружающей среде и наоборот) система осуществляет целесообразное взаимодействие с окружающей средой, т.е. управляет или управляема. Информация стала средством не только производства, но и управления. Информация обладает также определенной избыточностью: чем больше сообщений о системе, тем полнее и точнее управляется система. Суть задачи управления системой – отделение ценной информации от «шумов» (бесполезного, иногда даже вредного для системы, возмущения информации) и выделение информации, которая позволяет этой системе существовать и развиваться. Управление системой (в системе) используется для различных целей: – увеличения скорости передачи сообщений; – увеличения объема передаваемых сообщений; – уменьшения времени обработки сообщений; – увеличения степени сжатия сообщений; – модификации и усиления связей системы; – увеличения информации (информированности). Пример. Появление возможности управлять электрическими и магнитными колебаниями сделало массово доступным радио, телевидение, при этом скорость передачи информации достигла скорости света; пропускная способность телеканала при этом по сравнению с пропускной способностью телефонного канала выросла примерно в 2000 раз, ускорение обработки в миллионы раз. Выросла сжатость и информативность сообщений.
Вопросы для самоконтроля 1. Что такое информация? Приведите пример некоторой информации. 2. Чем отличается информация от сообщения? Приведите пример информации и сообщения, соответствующего этой информации. 3. Как зависит управление системой и информация в системе? В чем суть задачи управления системой? Приведите примеры. 4. Что такое количество информации? Какими методами она может быть измерена? Поясните смысл информации по Хартли, Шеннону. 5. Привести пример медицинской системы, её входной, выходной и внутрисистемной информации. Классифицировать эту информацию.
Дата добавления: 2014-11-24; просмотров: 400; Нарушение авторских прав Мы поможем в написании ваших работ! |