Правовой режим информации в отношениях с участием субъектов предпринимательской деятельности - страница 52

Шрифт
Интервал


2) возможность передачи информации от одного субъекта к другому;

3) знаковый, символический характер информации.

1.2. Естественнонаучные методы раскрытия сущности информации

Научные исследования теоретических и практических проблем, связанных с феноменом информации, познанием ее сущности, характерных свойств и функций, выявлением количественных, качественных и ценностных аспектов в XX столетии велись по трем основным направлениям:

во-первых, конструировался математический аппарат, отражающий свойства информации[180];

во-вторых, с помощью имеющихся математических средств изучались свойства информации, в частности измерялась ценность, полезность информации с точки зрения ее использования[181];

в-третьих, информационные методы применялись в отдельных отраслях науки, в частности, в биологии, педагогике, психологии, социологии и др. Например, в лингвистике проводились исследования информационной емкости языков народов мира.

Интуитивное понятие информации было уточнено кибернетикой, которая изучала живые организмы и машины с точки зрения их способности воспринимать определенную информацию, сохранять ее «в памяти», передавать по «каналам связи» и перерабатывать в «сигналы», направляющие их деятельность.

В ходе дальнейших естественнонаучных исследований понятие информации было расширено и включило в себя обмен сведениями не только между людьми, но между человеком и машиной, между двумя машинами; обмен сигналами в животном и растительном мире; передачу признаков («генетической информации») от одной живой клетки другой клетке, от одного организма – другому.

Кроме того, была предложена количественная мера информации, что привело к созданию научной теории информации.

Началом развития теории информации послужила написанная в 1948 г. работа американского инженера и ученого К.Э. Шеннона «Математическая теория связи», в которой автор, с позиций разработанной им теории, объяснял некоторые процессы, происходящие в биологических структурах, что позволяло рассчитывать количество информации, характеризующей строение биологических объектов. Основным понятием теории К.Э. Шеннона явилось количество информации, определяемое как совокупность всех возможных сообщений и их вероятностей, независимо от содержания[182].

По выражению А.Н. Колмогорова, тем самым были заложены основы количественного подхода к исследованию информации, который впоследствии был развит в рамках математической теории информации