Добро пожаловать в Университет Бекмана

Здесь каждый может учиться и/или принять участие в создании свободных интерактивных обучающих материалов и открытых научных проектов.

engl

К оглавлению 2 лекции

И.Н. Бекман

ИНФОРМАЦИЯ, ИНФОРМАТИКА И ИНФОРМАЦИОННЫЕ ТЕХНОЛОГИИ

Лекция 2. ИНФОРМАЦИЯ

2. Характеристики информации

Рассмотрим свойства смысловой информации, в освоении которой предусмотрено участие человека, и которая может казаться ему чем-то полезной или вредной.

Информация и её свойства являются объектом исследования многих научных дисциплин, таких как теория информации (математическая теория систем передачи информационных сообщений), кибернетика (наука о связи и управлении в машинах и животных, а также в обществе и человеке), семиотика (наука о знаках и знаковых системах), теория массовой коммуникации (исследование средств массовой информации и их влияния на общество), информатика (изучение процессов сбора, преобразования, хранения, защиты, поиска и передачи всех видов информации и средств их автоматизированной обработки), соционика (теория информационного метаболизма индивидуальной и социальной психики), информодинамика (наука об открытых информационных системах), информациология (наука о получении, сохранении и передаче информации для различных множеств объектов) и т. д.

Подобно тому, как введение понятия энергии позволило рассматривать все явления природы с единой точки зрения, так и введение понятия информации, единой меры количества информации позволяет подойти с единой общей точки зрения к изучению самых различных процессов. Количество переданной информации и тем более эффект воздействия информации на получателя не определяются количеством энергии, затраченной на её передачу. Поэтому одной из важнейших особенностей информации является её неэнергетический характер.

Сущность использования информации состоит в том, что приведение в действие больших масс вещества и процессов передачи и преобразования больших количеств энергии могут направляться, контролироваться при помощи небольших масс и количеств энергии, несущих информацию. Так, например, на автоматизированных робототехнических комплексах изготавливаются сложнейшие детали и узлы современных машин под воздействием весьма маломощных в энергетическом смысле управляющих сигналов, подаваемых встроенными в технологическую линию микропроцессорами на исполнительные органы станков и роботов.

Ценность информации зависит от многих обстоятельств и не поддаётся формализации. Но во многих случаях, в которых применим статистический подход к процессам получения и передачи информации, полезным оказывается введённое К.Шенноном представление о количестве информации, содержащемся в том или ином сообщении. Представление о количестве информации тесно примыкает к понятию энтропии. Связь между этими понятиями становится понятной, если учесть, что получение любой информации (например, в процессе измерения какой-либо физической величины) неизбежно связано с затратами энергии и времени.

Сделать бесплатный сайт с uCoz