Макинтош и образование:Информатика и ИТ:Информация |
Информация -- фундаментальное, первичное понятие информатики.
В быту под информацией понимают сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальными устройствами В технике информация -- сообщения, передаваемые в виде последовательности знаков или сигналов В теории информации под информацией понимают только сведения, уменьшающие существовавшую до их появления неопределенность (Информация -- это снятая неопределенность. (К. Шеннон)) В кибернетике (теории управления) информация -- та часть знаний, которая используется для ориентирования, активного действия, управления, т. е. в целях сохранения, совершенствования, развития системы В семантической теории -- сведения, обладающие новизной В документалистике -- все, что в так или иначе зафиксировано в знаковой форме в виде документов. По отношению к окружающей среде информация бывает
По отношению к конкретной задаче, проблеме
По изменчивости
Прочие классификации информации: по полноте, по принадлежности (территории, физическому или юридическому лицу и т.д.), по доступу, по предметной области, по характеру использования (коммерческая, справочная, учебная и т.п.) и др
Основные свойства информации [1],[4]
Методы получения и использования информации
2 Носители информации [1]Информация всегда связана с материальным носителем
Аналоговый сигнал -- сигнал, непрерывно (плавно) изменяющийся во времени Дискретный сигнал может принимать конечное число значений, скачком переходя от одного такого значения к другому Для работы с аналоговыми сигналами цифровыми методами выполняют их дискретизацию 3 Измерение информации3.1 Объемный способ измерения информации [2]Технический способ измерения количества информации (или, точнее, информационного объема сообщения) основан на подсчета количества символов, из которых образовано сообщение. При этом не учитывается смысловое содержание сообщения. Например, многократное повторение одного и того же текста не несет новой информации, однако в результате занимает больший объем памяти, требует большего времени для передачи и т.п. Поэтому этот способ удобен в технических расчетах За 1 бит в этом случае принимается один двоичный символ в сообщении 3.2 Алгоритмическое измерение информации [2]А. Н. Колмогоров (1965 г.): Алгоритмическая сложность некоторой последовательности данных определяется как минимальная длина вычислительного алгоритма, который мог бы воспроизвести заданную последовательность 3.3 Вероятностный подход к измерению количества информации [4]3.3.1 Мера Р. ХартлиАмериканским инженером Р. Хартли в 1928 г. получена формула для определения количества информации, получаемой при реализации одного из N равновероятных состояний
где a -- основание системы, При a = e единица измерения называется <<нат>>, при a = 2 -- <<бит>>, при a = 10 -- <<дит>> Пример 1
ДНК человека можно представить как некоторое слово четырехбуквенного алфавита, где буквы соответствуют нуклеотидам1. 3.3.2 Задачи с <<двоичными>> ответами [3]Задача 1 Имеется колода из 32 игральных карт (без шестерок). Задумана одна из карт. Какое наименьшее число вопросов нужно задать, чтобы угадать задуманную карту, если на вопросы даются ответы <<Да>> и <<Нет>>? Задача 2 Задумано целое число от нуля до ста. Какое наименьшее число вопросов нужно задать, чтобы угадать это число? Задача 3 Задумано некоторое число. Известно, что отгадать его можно, задав 7 вопросов. Оцените это число. Задача 4 Имеется 26 монет, одна из которых -- фальшивая (более легкая). Каким образом за 3 взвешивания определить фальшивую монету? Задача 5 Имеется 41 монета, из них одна -- фальшивая. Как при помощи двух взвешиваний определить, тяжелее фальшивая монета настоящей или легче? 3.3.3 Мера К. ШеннонаАмериканский математик и инженер К. Шеннон в 1948 г. получил формулу для расчета количества информации, содержащейся в системе, обладающей произвольным набором неравновероятных (в общем случае) состояний
где n -- число возможных состояний системы, pi -- вероятность i-го состояния (причем pi = 1) Чем меньше вероятность наступления события, тем большую информацию это событие несет Задача 6 Используя данные Примера refdnk, определите суммарный объем информации в человеческом теле, считая его состоящим из примерно 1013 клеток. Задача 7 Ресурсы человеческого мозга позволяют обрабатывать информацию со скоростью около 16 бит/с. Какое количество информации перерабатывает человек в течение жизни (принять среднюю продолжительность жизни за 60 лет). Задача 8 Некоторая система может находиться в четырех состояниях: в первом -- с вероятностью 0.1, во втором и третьем -- 0.25, в четвертом -- 0.4. Чему равно количество информации в ситеме? Задача 9 Система может принимать 128 различных равновероятных состояний. Каково количество информации в системе? Задача 10 Определите количество информации, которое несет каждая буква в русском тексте. Какое количество букв в алфавите нужно было бы для передачи такого же количества информации, если бы их появление в слове было равновероятным Table 1: Частотный словарь русского языка
Литература
Дополнительный материал:Примечания:1 В зависимости от входящего в состав нуклеотида гетероциклического основания: аденина, гуанина, цитозина или тимина File translated from TEX by TTH, version 2.25. On 14 Jun 2002, 23:16. |