Информация[4]

Информация -- фундаментальное, первичное понятие информатики.

Информация [1] (от лат. Informatio - разъяснение, осведомление, изложение) -- отражение внешнего мира с помощью знаков и сигналов.

В быту под информацией понимают сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальными устройствами

В технике информация -- сообщения, передаваемые в виде последовательности знаков или сигналов

В теории информации под информацией понимают только сведения, уменьшающие существовавшую до их появления неопределенность (Информация -- это снятая неопределенность. (К. Шеннон))

В кибернетике (теории управления) информация -- та часть знаний, которая используется для ориентирования, активного действия, управления, т. е. в целях сохранения, совершенствования, развития системы

В семантической теории -- сведения, обладающие новизной

В документалистике -- все, что в так или иначе зафиксировано в знаковой форме в виде документов.

По отношению к окружающей среде информация бывает

  • входная (получается от окружающей среды);
  • выходная (выдается в окружающую среду);
  • внутренняя (внутрисистемная).

По отношению к конкретной задаче, проблеме

  • исходная (существовавшая до начала обработки);
  • промежуточная (от начала до завершения обработки);
  • результирующая (после завершения обработки).

По изменчивости

  • постоянная (никогда не изменяемая);
  • переменная (изменяемая в процессе работы);
  • смешанная (условно-постоянная или условно-переменная).

Прочие классификации информации: по полноте, по принадлежности (территории, физическому или юридическому лицу и т.д.), по доступу, по предметной области, по характеру использования (коммерческая, справочная, учебная и т.п.) и др

Ноосфера (от греч. noos -- мысль, разум и sphaira -- сфера) Сфера деятельности человеческого разума. Современное состояние биосферы, возникшее в процессе деятельности человека. (Понятие впервые введено В. И. Вернандским)


Основные свойства информации [1],[4]

  • полнота (<<Недоученный хуже неученого>>);
  • объективность;
  • достоверность;
  • актуальность (необходимость, своевременность);
  • интерпретируемость (понятность);
  • кодируемость и экономичность кодировки;
  • избыточность;
  • защищенность и помехоустойчивость.

Методы получения и использования информации

  • Эмпирические методы
    • наблюдение;
    • сравнение;
    • измерение;
    • эксперимент.
  • Теоретические методы
    • идеализация (мысленное исследование упрощенных, не существующих в действительности подобий изучаемых систем);
    • формализация (описание системы с помощью формальных языков, например, математических формул, и исследование полученной модели);
    • аксиоматизация (получение знаний на основе принятия некоторых аксиом);
    • виртуализация (исследование системы в искусственно созданной среде, обстановке, ситуации).
  • Эмпирико-теоретические методы
    • абстрагирование (установление общих свойств объектов путем отбрасывания несущественных деталей);
    • анализ (разбиение системы на подсистемы);
    • синтез (объединение подсистем в систему);
    • индукция (переход от частного к общему);
    • дедукция (переход от общего к частному);
    • моделирование, макетирование;
    • визуализация и др.

2  Носители информации [1]

Информация всегда связана с материальным носителем

Носитель информации -- среда для записи и хранения информации

Сигнал -- способ передачи информации. Это физический процесс, какая-либо характеристика которого изменяется во времени. Сигнал может быть дискретным или аналоговым.

Аналоговый сигнал -- сигнал, непрерывно (плавно) изменяющийся во времени

Дискретный сигнал может принимать конечное число значений, скачком переходя от одного такого значения к другому

Для работы с аналоговыми сигналами цифровыми методами выполняют их дискретизацию

3  Измерение информации

3.1  Объемный способ измерения информации [2]

Технический способ измерения количества информации (или, точнее, информационного объема сообщения) основан на подсчета количества символов, из которых образовано сообщение. При этом не учитывается смысловое содержание сообщения. Например, многократное повторение одного и того же текста не несет новой информации, однако в результате занимает больший объем памяти, требует большего времени для передачи и т.п. Поэтому этот способ удобен в технических расчетах

За 1 бит в этом случае принимается один двоичный символ в сообщении

3.2  Алгоритмическое измерение информации [2]

А. Н. Колмогоров (1965 г.): Алгоритмическая сложность некоторой последовательности данных определяется как минимальная длина вычислительного алгоритма, который мог бы воспроизвести заданную последовательность

3.3  Вероятностный подход к измерению количества информации [4]

3.3.1  Мера Р. Хартли

Американским инженером Р. Хартли в 1928 г. получена формула для определения количества информации, получаемой при реализации одного из N равновероятных состояний

H = logaN = -logaP,
(1)

где a -- основание системы,
N -- количество равновозможных состояний,
P -- вероятность реализации состояния.

При a = e единица измерения называется <<нат>>, при a = 2 -- <<бит>>, при a = 10 -- <<дит>>

Пример 1 ДНК человека можно представить как некоторое слово четырехбуквенного алфавита, где буквы соответствуют нуклеотидам1.
Определим, какое количество информации содержит ДНК, если она состоит примерно из 1.5×1023 нуклеотидов.
Так как алфавит -- четырехбуквенный, каждый символ слова несет log24 = 2 бита информации. Следовательно ДНК в целом позволяет хранить 3×1023 бит или около 3×1010 Терабайт информации.

3.3.2  Задачи с <<двоичными>> ответами [3]

Задача 1 Имеется колода из 32 игральных карт (без шестерок). Задумана одна из карт. Какое наименьшее число вопросов нужно задать, чтобы угадать задуманную карту, если на вопросы даются ответы <<Да>> и <<Нет>>?

Задача 2 Задумано целое число от нуля до ста. Какое наименьшее число вопросов нужно задать, чтобы угадать это число?

Задача 3 Задумано некоторое число. Известно, что отгадать его можно, задав 7 вопросов. Оцените это число.

Задача 4 Имеется 26 монет, одна из которых -- фальшивая (более легкая). Каким образом за 3 взвешивания определить фальшивую монету?

Задача 5 Имеется 41 монета, из них одна -- фальшивая. Как при помощи двух взвешиваний определить, тяжелее фальшивая монета настоящей или легче?

3.3.3  Мера К. Шеннона

Американский математик и инженер К. Шеннон в 1948 г. получил формулу для расчета количества информации, содержащейся в системе, обладающей произвольным набором неравновероятных (в общем случае) состояний

I = -  
pilog2pi,
(2)

где n -- число возможных состояний системы, pi -- вероятность i-го состояния (причем pi = 1)

Чем меньше вероятность наступления события, тем большую информацию это событие несет

Задача 6 Используя данные Примера refdnk, определите суммарный объем информации в человеческом теле, считая его состоящим из примерно 1013 клеток.

Задача 7 Ресурсы человеческого мозга позволяют обрабатывать информацию со скоростью около 16 бит/с. Какое количество информации перерабатывает человек в течение жизни (принять среднюю продолжительность жизни за 60 лет).

Задача 8 Некоторая система может находиться в четырех состояниях: в первом -- с вероятностью 0.1, во втором и третьем -- 0.25, в четвертом -- 0.4. Чему равно количество информации в ситеме?

Задача 9 Система может принимать 128 различных равновероятных состояний. Каково количество информации в системе?

Задача 10 Определите количество информации, которое несет каждая буква в русском тексте. Какое количество букв в алфавите нужно было бы для передачи такого же количества информации, если бы их появление в слове было равновероятным

Table 1: Частотный словарь русского языка

Буква Частота Буква Частота Буква Частота
о 0.090 к 0.028 ь (ъ), б 0.014
е (ё) 0.072 м 0.026 ч 0.013
а, и 0.062 д 0.025 й 0.012
т, н 0.053 п 0.023 х 0.009
с 0.045 у 0.021 ж, ю, ш 0.006
р 0.040 я 0.018 ц, щ, э 0.003
в 0.035 ы, з 0.016 ф 0.002

Литература

[1]
С. А. Бешенков, В. Ю. Лыскова, Е. А. Ракитина. Информация и информационные процессы//Информатика и образование. 1998. 6 с. 38-50.
[2]
А. А. Веряев. Является ли бит минимальным количеством информации?//Информатика и образование. 1999. 6 с. 82-90.
[3]
С. И. Горлов, П. И. Совертков. Вопросы с <<двоичными>> ответами и задачи о взвешиваниях//Информатика и образование. 2000. 3 с. 32-35.
[4]
В. М. Казиев. Информация: понятия, виды, получение, измерение и проблема обучения//Информатика и образование. 2000. 4 с. 12-22.

Дополнительный материал:


Примечания:

1 В зависимости от входящего в состав нуклеотида гетероциклического основания: аденина, гуанина, цитозина или тимина


File translated from TEX by TTH, version 2.25.
On 14 Jun 2002, 23:16.

[Титульная страница][Макинтош][Информатика и ИТ]
Hosted by uCoz