Что означает термин информация. Информация (Information) - это

21.11.2023

Очень часто, многие люди, начиная ещё с раннего возраста, задаются вопросом о том, что же такое информация? И, действительно, информация является одним из самых фундаментальных понятий человечества и без раскрытия её смысла будет невозможно в полной мере постигать все те процессы, которые с ней связаны. Но до появления такого предмета, как , понятие информации было очень размытым, а сведения о её сущности разрозненны.

С другой стороны, все мы, так или иначе, в целом понимаем общий смысл, что такое информация . Мы постоянно воспринимаем информацию из окружающего нас мира с помощью органов чувств. Без постоянного приёма информации , мозг человека не сможет существовать.

Понятие информации

У такой науки, как информатика, подход к пониманию информации, особый. Основополагающим будет утверждение, что любое происходящее событие и явление служит для нас источником информации.


В общем, под информацией понимают те сведения, которые принимаемы и передаваемы, сохраняемы различными источниками. Таким образом, информация - является некоторой совокупностью сведений об окружающем нас мире, о всевозможных протекающих в нем процессах, которые способны воспринимать живые организмы, электронно-вычислительные машины и другие виды информационных систем.


Существует определение понятия информации, которое впервые было предложено математиком Клодом Шенноном (основателем количественного подхода к информации и человека, который научил измерять людей информацию), согласно которой:


Информация - это мера снятой неопределенности или сведения, которые нужно снять в той или иной степени существующую у потребителя до их получения неопределенности, с цель. расширения его понимание объекта полезными сведениями.


Также информацию можно рассмотреть как третью составляющую основ мироздания, наряду с веществом и энергией.

Информация и информационные процессы

С понятием информации тесно связано множество остальных фундаментальных понятий и процессов.


Однако стоит отметить, что предметом изучения информатики, как науки, является не сама информация, а данные: методы их создания, хранения, обработки и передачи и т.д.

Классификация информации

В зависимости от выбранного критерия информацию можно разделить на различные виды. Приведем основные из них.

По объектам информационного взаимодействия:

  • Человек - человек
  • Человек - автомат.
  • Автомат - автомат.


Также под информацией можно понимать обмен сигналами в животном и растительном мире

  • посредством передачи признаков от клетки к клетке;
  • через передачу признаков от организма к организму.

По способу восприятия информацию подразделяют на:

  • Визуальную - та, часть информации, которую мы воспринимаем органами зрения.
  • Звуковую - та, часть информации, которую мы воспринимаем органами слуха.
  • Тактильную - та, часть информации, которую мы воспринимаем тактильными рецепторами.
  • Обонятельную - та, часть информации, которую мы воспринимаем обонятельными рецепторами.
  • Вкусовую - та, часть информации, которую мы воспринимаем вкусовыми рецепторами.

По форме своего представления, информация может быть:

  • Текстовой - передаваемой в виде символов, предназначенных обозначать лексемы языка.
  • Числовой - в виде цифр и знаков, обозначающих математические действия.
  • Графической - в виде изображений, предметов, графиков.
  • Звуковой - устная или в виде записи и передачи лексем языка аудиальным путём.
  • Видеоинформацией - передаваемой в виде видеозаписи.


По своему назначению:

  • Массовая - содержит тривиальные сведения и оперирует набором понятий, понятным большей части социума.
  • Специальная - содержит специфический набор понятий, при использовании происходит передача сведений, которые могут быть не понятны основной массе социума, но необходимы и понятны в рамках узкой социальной группы, где используется данная информация.
  • Секретная - передаваемая узкому кругу лиц и по закрытым (защищённым) каналам.
  • Личная (приватная) - набор сведений о какой-либо личности, определяющий социальное положение и типы социальных взаимодействий внутри популяции.

По своему значению информация может быть:

  • Актуальная - та информация, которая нужна и тем ценна в данный момент времени.
  • Достоверная - информация, полученная без искажений.
  • Понятная - информация, выраженная на языке, понятном тому, кому она предназначена.
  • Полная - информация, достаточная для принятия правильного решения или понимания.
  • Полезная - полезность информации определяется субъектом, получившим информацию в зависимости от объёма возможностей её использования.

По истинности, информацию можно разлить на:

  • истинную - является достоверной;
  • ложную - является недостоверной.

Дезинформация

В мире существует понятие противоположное по смыслу информации. В этом случае данные о каком-либо событии предоставляется в неполном или искаженном виде. Причем, это делается целенаправленно. Так нередко поступают в политике или ситуациях, на которых можно извлечь большую выгоду.

Любой человек каждый день сталкивается с большими объемами различной информации. Она разнообразна, может быть полезной или не очень. Но в любом случае без нее невозможно жить. К информации имеет прямое отношение наука информатика, это объект ее изучения. Ниже мы рассмотрим понятие и виды информации.

Информация - это первичное, базовое понятие в информатике. Его невозможно определить с помощью других, так как их еще нет. Проблема определения осложнена тем, что это понятие используется во многих науках (кибернетика, информатика, биология, физика и др.), и в каждой из них оно связано с разными системами научных знаний.

Информация и физика

В физике есть понятие "энтропия системы", которое является мерой хаоса, беспорядка для термодинамической системы, информация же (антиэнтропия) - это мера ее сложности и упорядоченности. Если увеличивается ее сложность, то величина энтропии становится меньше, а величина информации растет. Подобный процесс, при котором увеличивается информация, возникает в открытых, саморазвивающихся, обменивающихся энергией и веществом с окружающей средой системах живой природы (белковые организмы и молекулы, популяции животных). Можно сказать, что в физике информацию рассматривают как антиэнтропию.

Информация и биология

В биологии, изучающей живую природу, информация связана с целесообразным поведением живых организмов. Это поведение строится согласно полученным организмом сведениям о внешней среде.

В биологии понятие «информация» применяется также при исследованиях механизмов наследственности, так как известно, что генетическая информация способна передаваться по наследству и храниться в каждой клетке живого организма. Все сведения о строении организмов содержат в себе такие молекулярные структуры как гены. Ученые, зная это, могут создавать точную копию организмов из всего лишь одной клетки (клонирование).

Информация и кибернетика

Кибернетика - это наука об управлении, понятие «информация» в ней связывается с процессами управления в достаточно сложных системах (технических устройствах, живых организмах). Нормальное функционирование технического устройства или жизнедеятельность каждого организма зависят от управления, благодаря которому могут поддерживаться в нужных пределах значения их параметров. Получение, хранение, преобразование и передача информации - это процессы управления.

Определения понятия «информация»

Информация - это различные сведения о явлениях и объектах окружающей среды, а также об их свойствах, состояниях и параметрах, которые способны уменьшить имеющуюся неопределенность неполноты знаний о них. Это одна из исходных общенаучных категорий, которая отражает структуру материи и способы ее познания, она не может быть сведена к другим, более простым понятиям.

Информация - это представление (понимание, интерпретация, смысл), которое возникает в аппарате мышления человека, сразу после того как он получает данные, взаимоувязанное с предшествующими понятиями и знаниями. Это содержание сигнала или сообщения, сведения, которые рассматриваются в процессе их восприятия или передачи.

Особенность информации

У информации существует характерная особенность, которая отличает ее от прочих объектов общества и природы - это дуализм, так как на ее свойства могут влиять свойства данных, которые составляют ее содержательную часть, а также методов, которые взаимодействуют с данными в ходе информационного процесса.

Исключительность информации

Информация проявляется только в том случае, если имеются объекты, которые находятся в контакте между собой. Обмен ею происходит не между любыми объектами, а только между теми, которые являются организованной структурой (системой). Элементами такой системы могут являться не обязательно люди: обмен различными сведениями может осуществляться между животными и растениями, живой и неживой природой, устройствами и людьми.

Виды информации в информатике

Человек всю свою историю пытался преобразовать природу и общество, в ходе этого возникала все новая и новая информация. Мы рассмотрим все виды информации. Таблица представлена ниже.

Виды информации по форме представления

Информация может быть представлена разными формами. Мы воспринимаем текстовую информацию (представленную в виде символов алфавита какого-либо языка), читая книги, журналы, газеты, ищем ее в текстовом виде по средствам сети Интернет. Одновременно с ней можем получать и символьные сведения, которые состоят из цифр в различных системах счисления. Глядя на всевозможные иллюстрации, картины, схемы, чертежи, графики, мы способны воспринять графический вид информации. Звуковые сообщения поступают к нам от других людей, которые говорят что-то, мы слышим их с помощью радио, звуковоспроизводящих устройств. Но чаще всего мы предпочитаем комбинированный вид получения сведений, когда нам, например, не только рассказывают, но и показывают; рассказывают и дают прочитать это самостоятельно. Он оказывает на нас наибольшее влияние. Рассмотренные виды информации в информатике встречаются постоянно в повседневной жизни любого человека, и мы вольно или невольно воспринимаем ее, она откладывается у нас памяти.

Виды информации по способам восприятия

Урок информатики, на котором рассматриваются виды информации, способен дать сведения о том, что она может быть воспринята по-разному, разными органами чувств. Визуальная - воспринимается при помощи зрения, аудиальная - слуха, тактильная - ощущений, обонятельная - запаха, а данные о вкусе дает нам язык. Отдельные виды информации в информатике могут восприниматься разными людьми по-разному. Кто-то больше запоминает, если что-то услышал, другой - если увидел, а третий - если потрогал.

Виды информации по типу сигнала

В информатике принято различать основные виды информации: аналоговую (непрерывную) и знаковую (дискретную). Знаковая может передаваться, обрабатываться и храниться в виде множества различных символов. Ее можно содержать в рукописных и печатных документах, она способна отразить состояние цифровых автоматов и т. п. Противоположностью этому виду является непрерывная информация, которая воплощается в звуковых, зрительных и прочих образах, ее еще можно наблюдать в непрерывных траекториях процессов (кардиограмма, осцилограмма).

Можно сказать, что все сведения могут быть представлены в аналоговом виде (свет, звук) или последовательностью отдельных сигналов (компьютерный код, электрические импульсы).

Рассмотренные выше понятие и виды информации дают понять, как она многообразна и многолика. Каждый из нас ее постоянно воспринимает, обрабатывает, передает. Без нее невозможна наша жизнь. Виды и средства информации менялись на протяжении истории человечества. От зарубок на стенах пещер и примитивной речи мы перешли к современному уровню развития.

Информация (от лат. informatio, разъяснение, изложение, осведомленность) - общенаучное понятие, связанное с объективными свойствами материи и их отражением в человеческом сознании.

В современной науке рассматриваются два вида информации.

Объективная (первичная) информация - свойство материальных объектов и явлений (процессов) порождать многообразие состояний, которые посредством взаимодействий (фундаментальные взаимодействия) передаются другим объектам и запечатлеваются в их структуре.(см.В.М. Глушков, Н.М. Амосов и др. «Энциклопедия кибернетики». Киев. 1975 г.)

Субъективная (семантическая,смысловая, вторичная) информация – смысловое содержание объективной информации об объектах и процессах материального мира, сформированное сознанием человека с помощью смысловых образов (слов, образов и ощущений) и зафиксированное на каком-либо материальном носителе. Человеку свойственно субъективное восприятие информации через некоторый набор ее свойств: важность, достоверность, своевременность, доступность, «боль­ше-меньше» и т.д. Использование терминов «больше информации» или «меньше информации» подразумевает некую возможность ее измерения (или хотя бы коли­чественного соотнесения). При субъективном восприятии измерение информации возможно лишь в виде установления некоторой субъективной порядковой шкалы для оценки «больше-меньше». При объективном измерении количества информа­ции следует заведомо отрешиться от восприятия ее с точки зрения субъективных свойств, примеры которых перечислены выше. Более того, не исключено, что не всякая информация будет иметь объективно измеряемое количество.

В бытовом смысле информация - сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальным устройством.{см.С.И.Ожегов. "Словарь русского языка". Москва. 1990г.). В простейшем бытовом понимании с термином «информация» обычно ассоции­руются некоторые сведения, данные , знания и т.п. Информация передается в виде сообщений, определяющих форму и представление передаваемой информации. При­мерами сообщений являются музыкальное произведение; телепередача; команды регулировщика на перекрестке; текст, распечатанный на принтере; данные, полу­ченные в результате работы составленной вами программы, и т.д. При этом предполагается, что имеются «источник информации» и «получатель информации». Сообщение от источника к получателю передается посредством какой-нибудь среды, являющейся в таком случае «каналом связи». Так, при передаче речевого сообщения в качестве канала связи можно рассматривать воздух, в котором распространяются звуковые волны, а в случае передачи письменного сообщения (на­пример, текста, распечатанного на принтере) каналом сообщения можно считать лист бумаги, на котором напечатан текст. Чтобы сообщение было передано от источника к получателю, необходима не­которая материальная субстанция - носитель информации. Сообщение, передава­емое с помощью носителя, - сигнал. В общем случае сигнал - это изменяющийся во времени физический процесс. Та из характеристик процесса, которая использу­ется для представления сообщений, называется параметром сигнала. В случае, когда параметр сигнала принимает последовательное во времени ко­нечное число значений (при этом все они могут быть пронумерованы), сигнал на­зывается дискретным, а сообщение, передаваемое с помощью таких сигналов, - дискретным сообщением. Если же источник вырабатывает непрерывное сообще­ние (соответственно параметр сигнала - непрерывная функция от времени), то соответствующая информация называется непрерывной. Примеры дискретного со­общения - текст книги, непрерывного сообщения - человеческая речь, переда­ваемая модулированной звуковой волной; параметром сигнала в последнем случае является давление, создаваемое этой волной в точке нахождения приемника - человеческого уха. Непрерывное сообщение может быть представлено непрерывной функцией, заданной на некотором интервале. Непрерывное сообщение можно преобразовать в дискретное (такая процедура называется дискретизацией). Из бесконечного мно­жества значений параметра сигнала выбирается их определенное число, которое приближенно может характеризовать остальные значения. Для этого область опре­деления функции разбивается на отрезки равной длины и на каждом из этих от­резков значение функции принимается постоянным и равным, например, среднему значению на этом отрезке. В итоге получим конечное множество чисел. Таким образом, любое непрерывное сообщение может быть представлено как дискрет­ное, иначе говоря, последовательностью знаков некоторого алфавита. Возможность дискретизации непрерывного сигнала с любой желаемой точно­стью (для возрастания точности достаточно уменьшить шаг) принципиально важна с точки зрения информатики. Компьютер - цифровая машина, т.е. внутреннее представление информации в нем дискретно. Дискретизация входной информа­ции (если она непрерывна) позволяет сделать ее пригодной для компьютерной обработки.

Понятие «информация» является одним из фундаментальных в современной науке вообще и базовым для информатики. Информацию наряду с веществом и энергией рассматривают в качестве важнейшей сущности мира, в котором мы живем. Однако если задаться целью формально определить понятие «информация», то сделать это будет чрезвычайно сложно. В настоящее время не существует единого определения информации как научного термина. С точки зрения различных областей знания, данное понятие описывается своим специфическим набором признаков. Согласно концепции К.Шеннона, информация - это снятая неопределенность, т.е. сведения, которые должны снять в той или иной степени существующую у потребителя до их получения неопределенность, расширить его понимание объекта полезными сведениями.

Единицы количества информации

Определить понятие «количество информации» довольно сложно. В решении этой проблемы существуют два основных подхода. Исторически они возникли почти одно­временно. В конце 40-х годов XX века один из основоположников кибернетики, амери­канский математик Клод Шеннон, развил вероятностный подход к измерению количества информации, а работы по созданию ЭВМ привели к «объемному» подходу.

Вероятностный подход

Рассмотрим в качестве примера опыт, связанный с бросанием правильной иг­ральной кости, имеющей N граней. Результаты данного опыта могут быть следую­щие: выпадение грани с одним из следующих знаков: 1, 2, ..., N .

Введем в рассмотрение численную величину, измеряющую неопределенность - энтропию (обозначим ее Н ). Согласно развитой теории, в случае равновероятного выпадания каждой из граней величины N и Н связаны между собой формулой Хартли

Важным при введении какой-либо величины является вопрос о том, что при­нимать за единицу ее измерения. Очевидно, H будет равно единице при N = 2. Иначе говоря, в качестве единицы принимается количество информации, связанное с проведением опыта, состоящего в получении одного из двух равновероят­ных исходов (примером такого опыта может служить бросание монеты, при кото­ром возможны два исхода: «орел», «решка»). Такая единица количества информа­ции называется «бит».

В случае, когда вероятности Рi результатов опыта (в примере, приведенном выше, - бросания игральной кости) неодинаковы, имеет место формула Шеннона

В случае равновероятности событий , формула Шеннона переходит в формулу Хартли.

В качестве примера определим количество информации, связанное с появлени­ем каждого символа в сообщениях, записанных на русском языке. Будем считать, что русский алфавит состоит из 33 букв и знака «пробел» для разделения слов. По формуле Хартли

Однако в словах русского языка (равно как и в словах других языков) различ­ные буквы встречаются неодинаково часто. Ниже приведена таблица вероятностей частоты употребления различных знаков русского алфавита, полученная на осно­ве анализа очень больших по объему текстов.

Объемный подход

В двоичной системе счисления знаки 0 и 1 называют битами (bit - от английского выражения Binary digiTs - двоичные цифры). В компьютере бит является наименьшей возможной единицей информации. Объем информации, записанной двоичными зна­ками в памяти компьютера или на внешнем носителе информации, подсчитывается просто по числу требуемых для такой записи двоичных символов. При этом, в частно­сти, невозможно нецелое число битов (в отличие от вероятностного подхода).

Для удобства использования введены и более крупные, чем бит , единицы ко­личества информации. Так, двоичное слово из восьми знаков содержит один байт информации. 1024 байта образуют килобайт (Кбайт), 1024 килобайта - мегабайт (Мбайт), а 1024 мегабайта - гигабайт (Гбайт).

Между вероятностным и объемным количеством информации соотношение неоднозначное. Далеко не всякий текст, записанный двоичными символами, до­пускает измерение объема информации в вероятностном (кибернетическом) смыс­ле, но заведомо допускает его в объемном. Далее, если некоторое сообщение до­пускает измеримость количества информации в обоих смыслах, то это количество не обязательно совпадает, при этом кибернетическое количество информации не может быть больше объемного.

В прикладной информатике практически всегда количество информации пони­мается в объемном смысле.

Классификация информации

Информацию можно разделить на виды по разным критериям.

Способ восприятия: Визуальная - воспринимаемая органами зрения. Аудиальная - воспринимаемая органами слуха. Тактильная - воспринимаемая тактильными рецепторами. Обонятельная - воспринимаемая обонятельными рецепторами. Вкусовая - воспринимаемая вкусовыми рецепторами.

Форма представления: Текстовая - передаваемая в виде символов, предназначенных обозначать лексемы языка. Числовая - в виде цифр и знаков, обозначающих математические действия. Графическая - в виде изображений, предметов, графиков. Звуковая - устная или в виде записи передача лексем языка аудиальным путём.

Предназначение: Массовая - содержит тривиальные сведения и оперирует набором понятий, понятным большей части социума. Специальная - содержит специфический набор понятий, при использовании происходит передача сведений, которые могут быть не понятны основной массе социума, но необходимы и понятны в рамках узкой социальной группы, где используется данная информация. Личная - набор сведений о какой-либо личности, определяющий социальное положение и типы социальных взаимодействий внутри популяции.

Свойства информации

Качество информации - степень её соответствия потребностям потребителей. Свойства информации являются относительными, так как зависят от потребностей потребителя информации.

Объективность информации характеризует её независимость от чьего-либо мнения или сознания, а также от методов получения. Более объективна та информация, в которую методы получения и обработки вносят меньший элемент субъективности.

Информацию можно считать полной , когда она содержит минимальный, но достаточный для принятия правильного решения набор показателей. Как неполная, так и избыточная информация снижает эффективность принимаемых на основании информации решений.

Достоверность - верность информации, не вызывающая сомнений. Объективная информация всегда достоверна, но достоверная информация может быть как объективной, так и субъективной. Причинами недостоверности могут быть: преднамеренное искажение (дезинформация); непреднамеренное искажение субъективного свойства; искажение в результате воздействия помех; ошибки фиксации информации. В общем случае достоверность информации достигается: указанием времени свершения событий, сведения о которых передаются; сопоставлением данных, полученных из различных источников; своевременным вскрытием дезинформации; исключением искажённой информации и др.

Адекватность - степень соответствия смысла реально полученной информации и её ожидаемого содержимого. Например задан вопрос - "Сколько у человека пальцев на руке?" "На руке у человека пять пальцев" - ответ достоверный и адекватный, "У человека две руки" - ответ достоверный но неадекватный.

Доступность информации - мера возможности получить ту или иную информацию.

Актуальность информации - это степень соответствия информации текущему моменту времени.

Эмоциональность - свойство информации вызывать различные эмоции у людей. Это свойство информации используют производители медиаинформации. Чем сильнее вызываемые эмоции, тем больше вероятности обращения внимания и запоминания информации.

Как ни важно измерение информации, нельзя сводить к нему все связанные с этим понятием проблемы. При анализе информации социального (в широким смыс­ле) происхождения на первый план могут выступить такие ее свойства, как истинность, своевременность, ценность, полнота и т.д. Их невозможно оценить в терминах «уменьшение неопределенности» (вероятностный подход) или числа сим­волов (объемный подход). Обращение к качественной стороне информации поро­дило иные подходы к ее оценке. При аксиологическом подходе стремятся исходить из ценности, практической значимости информации, т.е. из качественных харак­теристик, значимых в социальной системе. При семантическом подходе информа­ция рассматривается с точки зрения как формы, так и содержания. При этом информацию связывают с тезаурусом, т.е. полнотой систематизированного набора данных о предмете информации. Эти подходы не исключают количе­ственного анализа, но он становится существенно сложнее и должен базироваться на современных методах математической статистики.

Понятие информации

Понятие информации нельзя считать лишь техническим, междисциплинарным и даже наддисциплинарным термином. Информация - это фундаментальная фи­лософская категория. Дискуссии ученых о философских аспектах информации на­дежно показали несводимость информации ни к одной из этих категорий. Концеп­ции и толкования, возникающие на пути догматических подходов, оказываются слишком частными, односторонними, не охватывающими всего объема этого по­нятия.

Попытки рассмотреть категорию информации с позиций основного вопроса философии привели к возникновению двух противостоящих концепций - функ­циональной и атрибутивной. «Атрибутисты» квалифицируют информацию как свой­ство всех материальных объектов, т.е. как атрибут материи. «Функционалисты» свя­зывают информацию лишь с функционированием сложных, самоорганизующихся систем.

Можно попытаться дать философское определение информации с помощью указания на связь определяемого понятия с категориями отражения и активности. Информация есть содержание образа, формируемого в процессе отражения. Активность входит в это определение в виде представления о формировании некоего образа в процессе отражения некоторого субъект-объектного отношения. При этом не требуется указания на связь информации с материей, поскольку как субъект, так и объект процесса отражения могут принадлежать как к материальной, так и к духовной сфере социальной жизни. Однако существенно подчеркнуть, что матери­алистическое решение основного вопроса философии требует признания необхо­димости существования материальной среды - носителя информации в процессе такого отражения. Итак, информацию следует трактовать как имманентный (неотъемлемо присущий) атрибут материи, необходимый момент ее самодвижения и саморазвития. Эта категория приобретает особое значение применительно к высшим формам движения материи - биологической и социальной.

Известно большое количество работ, посвященных физической трактовке ин­формации. Эти работы в значительной мере построены на основе аналогии форму­лы Больцмана, описывающей энтропию статистической системы материальных частиц, и формулы Хартли. Соответствующие материалы можно найти в литерату­ре, отраженной в приведенном ниже перечне.

Информацию следует считать особым видом ресурса, при этом имеется в виду толкование «ресурса» как запаса неких знаний материальных предметов или энер­гетических, структурных или каких-либо других характеристик предмета. В отличие от ресурсов, связанных с материальными предметами, информационные ресурсы являются неистощимыми и предполагают существенно иные методы воспроизве­дения и обновления, чем материальные ресурсы. В связи с таким взглядом цент­ральными становятся следующие свойства информации: запоминаемость, передаваемость, преобразуемость, воспроизводимость, стираемостъ.

Подводя итог сказанному, отметим, что предпринимаются (но отнюдь не за­вершены) усилия ученых, представляющих самые разные области знания, пост­роить единую теорию, которая призвана формализовать понятие информации и информационного процесса, описать превращения информации в процессах са­мой разной природы. Движение информации есть сущность процессов управле­ния, которые суть проявление имманентной активности материи, ее способности к самодвижению. С момента возникновения кибернетики управление рассматрива­ется применительно ко всем формам движения материи, а не только к высшим (биологической и социальной). Многие проявления движения в неживых - искусственных (технических) и естественных (природных) системах также обладают общими признаками управления, хотя их исследуют в химии, физике, механике в энергетической, а не в информационной системе представлений. Информационные аспекты в таких системах составляют предмет новой междисциплинарной на­уки - синергетики.

Высшей формой информации, проявляющейся в управлении в социальных систе­мах, являются знания. Это наддисциплинарное понятие, широко используемое в пе­дагогике и исследованиях по искусственному интеллекту, также претендует на роль важнейшей философской категории. В философском плане познание следует рассмат­ривать как один из функциональных аспектов управления. Такой подход открывает путь к системному пониманию генезиса процессов познания, его основ и перспектив.

Данные, информация и знания

К базовым понятиям, которые используются в экономической информатике, относятся: данные, информация и знания. Эти понятия часто используются как синонимы, однако между этими понятиями существуют принципиальные различия.

Термин данные происходит от слова data - факт, а информация (informatio) означает разъяснение, изложение, т.е. сведения или сообщение.

Данные - это совокупность сведений, зафиксированных на определенном носителе в форме, пригодной для постоянного хранения, передачи и обработки. Преобразование и обработка данных позволяет получить информацию.

Информация - это результат преобразования и анализа данных. Отличие информации от данных состоит в том, что данные - это фиксированные сведения о событиях и явлениях, которые хранятся на определенных носителях, а информация появляется в результате обработки данных при решении конкретных задач. Например, в базах данных хранятся различные данные, а по определенному запросу система управления базой данных выдает требуемую информацию.

Существуют и другие определения информации, например, информация – это сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределенности, неполноты знаний.

Знания – это зафиксированная и проверенная практикой обработанная информация, которая использовалась и может многократно использоваться для принятия решений.

Знания – это вид информации, которая хранится в базе знаний и отображает знания специалиста в конкретной предметной области. Знания – это интеллектуальный капитал.

Формальные знания могут быть в виде документов (стандартов, нормативов), регламентирующих принятие решений или учебников, инструкций с описанием решения задач. Неформальные знания – это знания и опыт специалистов в определенной предметной области.

Необходимо отметить, что универсальных определений этих понятий (данных, информации, знаний) нет, они трактуются по-разному. Принятия решений осуществляются на основе полученной информации и имеющихся знаний.

Принятие решений – это выбор наилучшего в некотором смысле варианта решения из множества допустимых на основании имеющейся информации. Взаимосвязь данных, информации и знаний в процессе принятия решений представлена на рисунке.

Взаимосвязь данных, информации и знаний в процессе принятия решений

Для решения поставленной задачи фиксированные данные обрабатываются на основании имеющихся знаний, далее полученная информация анализируется с помощью имеющихся знаний. На основании анализа, предлагаются все допустимые решения, а в результате выбора принимается одно наилучшее в некотором смысле решение. Результаты решения пополняют знания.

В зависимости от сферы использования информация может быть различной: научной, технической, управляющей, экономической и т.д. Для экономической информатики интерес представляет экономическая информация.

Литература

  1. Могилев А.В. Практикум по информатике: Учеб. пособие для студ. высш. учеб. заведений/А.В.Могилев, Н.И.Пак, Е.К.Хеннер; Под ред. Е.К.Хеннера. - 2-е изд., стер. - М.: Издательский центр "Академия", 2005. - 608 с.

Добавить сайт в закладки

Что такое информация?

Информация в общепринятом определении - это сведения, сообщения, передаваемые от одного субъекта другому устным, письменным или каким-либо другим способом (например, с помощью условных сигналов, с использованием технических средств и т.д.), а также сам процесс передачи или получения этих сведений или информационный обмен.

Информация для каждого человека является источником энергии. Важно то, как человек ею пользуется.

Другое же, обобщающее определение информации как универсального свойства материи, менее известно. Информация - это
нематериальная категория Вселенной, закодированная в материальных носителях и при раскодировании и адекватной реактивности отрицающая вероятность в статистических процессах перехода от неупорядоченности к порядку; или, как принято говорить в физике, информация - это энтропия с обратным знаком, или отрицательная энтропия.

Однако как нематериальная категория информация с разрушением носителя или исчезает, или перекодируется. Новая информация возникает только в случайных процессах создания нового носителя. Случайный процесс - это совокупность случайных событий, вероятность которых чрезвычайно мала, и чем меньше вероятность создания нового носителя, тем выше качество воспроизведенной информации. С такими процессами работает Естественный Отбор.

Отбор непротиворечивых аргументов или синтез - всего лишь сведения, сообщения, временная совокупность знаний субъекта (субъектов). Вре менная в смысле пожизненная. С разрушением носителя исчезает вся информация - как возникшая при рождении, так и приобретенная в онтогенезе. Вновь возникшая родительская информация может быть сохранена только с рождением нового носителя.

Чем больше объем совокупных знаний субъекта, приобретенных в онтогенезе (временных), тем больше возникает у него точек соприкосновения с неизвестным, тем шире ассоциативное поле воображения, тем глубже эмоциональный накал, тем выше вероятность декодирования объективной информации с обследуемого носителя. Отсюда очевидно, что на данном этапе развития социума доступ к объективной информации, или, точнее, информации об объективной реальности, для нас весьма ограничен. Таким образом, можно говорить об информации и Информации как о двух взаимовложенных понятиях.

Энтропия - это глубоко конкретная физическая величина с размерностью кал/град, которая всегда больше нуля, т.е. положительна, что физически понимается как закон перехода тепла от более горячего тела к холодному. Но, как и для понятия «информация», термином энтропия определяется еще одно понятие, а именно - выражение её через связь со статистической концепцией перехода от неупорядоченности к порядку, что так же мало изучено, как и понятие «информация», хотя и выражается простейшей количественной связью, открытой еще Больцманом и Гиббсом в 1872 г.:

Энтропия=k·lgD, где:

  • D и есть количественный показатель этой неупорядоченности атомно-молекулярного движения в веществе;
  • а k – постоянная Больцмана = 1,3807×10 -23 Дж/К.

Исходя из определения понятия Информации как энтропии с обратным знаком, очевидно, существуют во Вселенной неуправляемые, точнее, самоуправляемые процессы, позволяющие извлекать Информацию без раскодирования, или, что то же самое, процессы, позволяющие осуществлять обратный переход тепла от холодного тела к более горячему. Такие самоуправляемые процессы происходят постоянно вокруг нас, это самовоспроизводство жизни, т.е. извлечение Информации без раскодирования при воспроизводстве себе подобного.

С точки зрения физика очевидно, что живые организмы, как и все во Вселенной, что остывает, непрерывно изменяют свою энтропию, или производят неупорядоченность и таким образом приближаются к состоянию минимальной энтропии, к состоянию «абсолютного нуля» температуры окружающей среды, что представляет собой «тепловую смерть» организма, причем скорость изменения энтропии примерно равна скорости остывания чайника - в зависимости от температуры среды и массы тела организма. Они могут избежать «остывания», т.е. оставаться живыми, только постоянно извлекая тепло из окружающей среды или отрицательную энтропию, как обычный бытовой холодильник, потребляя электроэнергию, извлекает тепло в замкнутом объеме из более холодного тела. А жизнь, потребляя энергию, содержащуюся в продуктах питания, поддерживает внутри себя температуру гомеостаза (+36,6ºС для вида homo erectus). Бактерии в конце питательной цепи извлекают отрицательную энтропию из бульона, переводя его в растворимые соединения, которыми питаются растения, извлекая положительную энтропию Солнца.

Иными словами, процессы обмена в организме ведут к возрастанию энтропии, а саморегулирование этих процессов или гомеостаз уменьшают её. И чем ближе к нулю сбалансированность положительной и отрицательной энтропии, тем выше выживаемость организма, тем выше качество естественного отбора. Отрицательная энтропия - это то, что организмы извлекают из окружающей среды (разность между температурой среды и температурой собственного тела) для поддержания своего гомеостаза (стабильности внутренней среды) и своей комфортности. Жизнь во Вселенной, с точки зрения физики, - это постоянное, непрерывное извлечение энтропии с обратным знаком.

Жизнь - это лишь адаптация к условиям окружающей среды, изначально имманентной Информации как фундаментального свойства материи. Носителем такой Информации является двуспиральная, замкнутая (по Мёбиусу) стабильная ядерная РНК как микромодель Вселенной, занесенная на эту планету со льдом какого-то астероида, когда на ней еще не было атмосферы.

Вот как рассматривает эту проблему К.Ю. Еськов в своей «Истории Земли и Жизни на ней»: «Наш подход к проблеме жизни на Земле будет сугубо функциональным, и в его рамках нам следует принять одно аксиоматическое утверждение: эволюция биосферы и составляющих ее экосистем идет в целом в сторону возникновения все более совершенных, т.е. устойчивых и экономных (извлекающих отрицательную энтропию с минимальными затратами), круговоротов вещества и энергии. Совершенствование циклов направлено на то, чтобы минимизировать безвозвратные потери биологических систем: экосистема стремится препятствовать вымыванию микроэлементов и захоронению неокисленного углерода, переводить воду из поверхностного стока в подземный и т.д. Поэтому с общепланетарной точки зрения жизнь следует рассматривать как способ стабилизации существующих на планете геохимических циклов».

Однако действительная суть этой концепции заключается вовсе не в романтических межпланетных странствиях «зародышей жизни», а в том, что жизнь как таковая просто является одним из фундаментальных свойств материи, и вопрос о происхождении жизни стоит в том же ряду, что и, например, вопрос о происхождении гравитации (но это совсем не означает, что мы перестанем задаваться этими вопросами, тем более что эти явления - «одно из фундаментальных свойств материи»).

«В этом плане предшественником Эйгена является биохимик Г. Кастлер (1966), проанализировавший поведение системы нуклеиновых кислот в рамках теории информации. Он пришел к выводу, что новая информация возникает в системе, только если в ней происходит случайный выбор («методом тыка») с последующим запоминанием его результатов, а не целенаправленный отбор наилучшего варианта. В последнем случае можно говорить лишь о реализации той информации, что заложена в систему изначально, то есть о выделении уже имеющейся информации из «шума» (или ее декодировании).

Сама же возможность возникновения новизны (т.е. акта творчества) определяется свойствами информации как таковой: как было показано А.А. Ляпуновым (1965), на нее не распространяются законы сохранения, т.е. информация, в отличие от материи и энергии, может быть заново создана (и, соответственно, может быть и безвозвратно утрачена.)»

Здесь необходимо выделить две составляющие единого процесса возникновения информации по законам естественного отбора: создание помех с необходимыми и достаточными условиями для уменьшения вероятности события и его повторяемости для «случайного» выбора, или в терминах теории информации - выделение уже имеющейся информации в экосистеме из «шума». Случай и случка - слова однокоренные, и случайность всякого рождения - это, прежде всего, выделение из помех уже имеющейся в экосистеме полезной информации или «целенаправленный отбор наилучшего варианта» . «На то и щука в море, чтобы карась не дремал». Но эта полезная информация не является наследуемой (см. ниже мутация и граничные условия ).

Что же является критерием качества Естественного Отбора, или какая информация является полезной?

Естественный Отбор не имеет никакого иного инструмента для совершенствования своих творений, кроме статистического бросания костей или «метода тыка», где за каждым броском - рождение и смерть, и чем выше частота смены поколений (или количество бросков рождений-смертей за условную единицу времени, определяемую массой тела, точнее, энергоемкостью, потраченной на его взращивание), тем выше скорость обмена генофонда, тем больше преимуществ проявляется в межвидовой борьбе, тем шире видовая экологическая ниша и выше качество Естественного Отбора.

Однако же скорость обмена генофонда можно увеличить не только частотой смены поколений, но и за счет количества особей в одном помете (например, рыбы, насекомые).

Поэтому критерий качества у Естественного Отбора самый примитивный, самый жесткий и потому самый надежный: приращение биомассы популяции. Чем больше биомасса популяции, тем выше частота смены поколений или бросков рождений-смертей, тем выше качество Отбора.

Однако этот статистический закон отбора вступает в противоречие с законом минимизации энергоемкости на выращивание отдельной «экспериментальной» особи, чтобы не зря она опустошала свою экологическую нишу. Это противоречие разрешается тем же отбором, но только еще на уровне семени. Для растений, например, и не существует иного способа совершенствования вида. Отсюда важное следствие.

Для достижения наивысшей эффективности механизма отбора на уровне семени у млекопитающих неизбежна адаптация по признаку моногамии - парной семьи, что уже давно поняли приматы, волки, слоны. Чтобы гибель миллионов сперматозоидов из одной порции эякулята по пути к маточному яйцу не была бесцельной, в организме самки должен быть, обязан быть механизм, консервирующий адаптационную информацию, собранную самцом в борьбе с помехами.

Поэтому у самца происходит практически трехдневное обновление семенного материала, накапливающего информацию об изменениях окружающей среды (возникающие помехи) и реакциях организма самца на них, а в яичниках самки происходит консервация этой информации после каждого коитуса и передача ее каждому яйцевому зародышу при овуляции. Дело в том, что в женском организме от рождения заложено ограниченное, невосполнимое число яйцевых зародышей. Посчитайте число лунных месяцев в промежутке лет между 13 и 45-49, и вы получите это число яйцевых зародышей: примерно 350-400 шт. Как у сорной куры. В мужском организме генерация эякулята не иссякает до последнего часа.

Отсюда очень важное следствие. Это запрет на внебрачные связи для повышения продуктивности парной семьи и повышение качества ее потомства. Это и есть отбор полезной информации. Женский организм при блуде накапливает искажения, вносимые чужеродным эякулятом, и физиологические и психические, а мужской - вхолостую растрачивает свой генный материал и накопленную жизненно необходимую полезную информацию.

Итак, чем больше семени в разовой порции эякулята при коитусе и чем чаще потребность коитуса, тем выше качество Естественного Отбора. У млекопитающих отбор начинается при движении продуктов эякулята по маточным трубам, где ради «просперити» одного гибнет «паблисити» большого государства, примерно 250 млн. И преимущество перед другими имеет тот вид или то семейство, которое имеет более совершенный механизм для естественного отбора на уровне семени.

Этот механизм у нас и наших эволюционных предков ускорен в двенадцать раз по сравнению с другими животными и приматами, для спаривания ожидающими сезонной подготовки кормовой базы для вскармливания потомства. И платим мы за это совершенствование дорогой ценой - ускоренным изнашиванием женского организма и его детородной функции. 40-45 лет - и климакс. Это в современности, а для предковой обезьяны - еще меньше. И это при ожидаемой среднестатистической продолжительности биологической активности для среднего веса 75-80 кг примерно 130 лет.

Каким способом могло появиться семейство приматов, у которых сроки овуляции маточного яйца стали зависимы не от солнечного годового цикла, а от лунного, месячного, как и при каких условиях стала возможной такая трансформация сложнейшего механизма воспроизводства, - для нас тайна. Но это не божественное провидение.

Единственная правдоподобная догадка - всесезонная независимость кормовой базы четверорукой узконосой обезьяны, освоившей плодовый ярус тропического леса. За этой же сезонной независимостью плодовой кормовой базы стоит и отсутствие в нашем организме механизма выработки аскорбиновой кислоты (и человеческого интерферона). Все животные умеют вырабатывать витамин С (и не умеют - интерферон). Все, кроме человека, розового тропического скворца и морской свинки. А зачем был нужен нашей предковой обезьяне этот механизм, если аскорбиновая кислота всесезонно поступает извне с кормом и стимулирует выработку самого совершенного антибиотика - интерферона?

Но почему все-таки двенадцатимесячный менструальный цикл и всегда в одной и той же фазе Луны - полнолуния? Это может означать, что «приливное» действие спутника нашей планеты когда-то было более сильным, чем сейчас. И это «приливное» действие Луны определило адаптационное влияние на детородную функцию какого-то вида обезьян, ставших нашими предками.

Итак, единственным критерием качества естественного отбора, заложенным в геноме, является приращение биомассы популяции. И повышение его качества возможно только при уменьшении вероятности самого события репликации нового организма или наличия помех, необходимых и достаточных условий уменьшения вероятности репликации.

Например, насекомое земляной рак, медведка, капустница спаривается только в июньское полнолуние (летнего солнцестояния) и только в полете; кроты спариваются на поверхности, лосось, чтобы отметать икру, должен войти в устье только своей реки, прорваться через плотный заслон «едоков» по пути к истокам и, отметавшись, пасть гниющей плотью - кормом для своего потомства, несущим генетическую память об истоках своей реки; мужчина в своей единственной женщине ищет свою мать, а женщина в мужчине – своего отца; все самцы проходят через обряд брачного боя, жребия, свадьбы=судьбы: ср. «суженый» и еще масса примеров… Особо одаренные дети на Руси отмечены поговоркой: «Ни в мать, ни в отца, а в проезжего молодца».

Однако совсем не обязательно, что избыточное творчество всегда приведет к выделению полезной информации из помех - появлению потомства.

Думается, что А.А. Ляпунов здесь не ошибается. Это основополагающее свойство информации лежит в основе законов биогенеза планеты и Естественного Отбора, и если бы это было не так, то проще было бы назвать Информацию богом. Информация с разрушением носителя исчезает или перекодируется, но может быть создана из сочетания случайных процессов, и необязательно биохимических, но и чисто физических, где случайность - это событие, вероятность которого определяется количественным показателем неупорядоченности атомно-молекулярного движения в веществе D из закона Больцмана-Гиббса. Это для процессов физических.

Для процессов биологических, с которыми работает Естественный Отбор, показателем неупорядоченности является количество сперматозоидов, истраченных на один оборот поколения одной пары, деленное на общее число особей, рожденных и выживших от той пары. Для вида homo erectus оптимальное содержание сперматозоидов в порции эякулята - 180-250 млн. Содержание менее 150 млн называется олигоспермией, при которой зачатие исключено.

Если вы умножите это количество сперматозоидов на среднее число спариваний одной пары за срок детородной функции самки и разделите полученное на численность выжившего половозрелого поколения, то обратная величина этого числа покажет вероятность выделения полезной информации из «шума» экосистемы для этой пары. Это для идеальной пары, исключающей блуд, снижающий качество информации.

Таким образом, антропогенез необходимо рассматривать как постоянное повышение качества имманентной информации, заложенной в геноме предковой формы примата. И только для вида homo erectus частота смены поколений в 12 раз выше, чем у остальных видов, т.е. женские регулы и являются главным и единственным антропоморфным признаком, который определяет скорость и качество антропогенеза.

Единственно важные, истинные ценности в нашей жизни, ее содержание и смысл - целомудрие женщины, честь мужчины, их совместная любовь к своим детям. Это семья. Взаимное уважение между семьями и к старикам. Это Родина. Любовь к Родине и защита ее. Это государство.

Берегите женщину, свою, одну единственную половину! Целомудрие женщины - основа государственности. Только целомудренная мать может вырастить строителя и защитника Родины.

Информация, как и жизнь, является фундаментальным свойством материи, и может быть утрачена какая-то индивидуальная жизнь с неким объемом информации-сведений, но не Жизнь как имманентное свойство Вселенной.

Можно вычислить количественный показатель неупорядоченности для единицы массы любого вещества, определяющий случайность - числовую величину вероятности событий в системе, при которой возможно возникновение новой информации.

lgD = Энтропия/k

Либо по предложенной методике вычислить вероятность возникновения новой информации для Естественного Отбора. И чем ниже эта вероятность, тем выше качество Естественного Отбора, тем выше качество выделенной информации.

Вторая составляющая единого процесса возникновения информации - переполнение экосистемы помехами, при которых выделение информации по критерию приращения биомассы становится невозможным, что ведет к гибели экосистемы и вырождению вида либо к мутагенному взрыву. Здесь, наверное, необходимо все-таки ввести очень важные граничные условия. Собственно, их необходимо было ввести уже давно, и они подразумевались в предшествующих рассуждениях, т.к. Естественный отбор работает с новой информацией только при скачкообразных ее изменениях.

Отбор не закрепляет качественные результаты при непрерывных изменениях наследственной информации, потому что они не наследуются как видовые признаки при выделении информации из шума, поэтому все попытки обнаружить некие «промежуточные формы» между видами обречены на провал. Непрерывные изменения наследственной информации внутри вида - тот самый наследственный «шум» системы при «целенаправленном отборе наилучшего варианта».

Гуго де Фриз (Hugo de Vries, 1848-1935) - ботаник из Голландии на ошибочном примере Ослинника Ламарка (Oenothera lamarckiana), развивая дарвиновскую теорию происхождения видов, доказал, что новый вид - не результат постепенного накопления непрерывных изменений фенотипа согласно синтетической теории эволюции (СТЭ), а результат скачкообразных изменений (в течение нескольких поколений), превращающих один вид в другой.

«Выражение скачкообразные означает в этом случае не то, что изменения очень значительны, а только факт прерывистости, так как между неизмененными особями и немногими измененными нет промежуточных форм. Де Фриз назвал это мутацией. Здесь существенна именно прерывистость. Физику она напоминает квантовую теорию - там тоже не наблюдается промежуточных ступеней между двумя соседними энергетическими уровнями атома. Физик был бы склонен мутационную теорию де Фриза фигурально назвать квантовой теорией биологии. Позже мы увидим, что это значительно больше, чем фигуральное выражение. Своим происхождением мутации действительно обязаны “квантовым скачкам” в генной молекуле. Но квантовой теории было только два года, когда де Фриз впервые опубликовал свое открытие (в 1902 г.). Не удивительно, что потребовалась жизнь целого поколения, чтобы установить тесную связь между ними! <…>

В свете современных знаний механизм наследственности тесно связан с самой основой квантовой теории и, даже более того, опирается на нее. Эта теория была сформулирована Максом Планком в 1900 г. Современная генетика начинается с “открытия” менделевской работы де Фризом, Корренсом и Чермаком (1900 г.) и с работы де Фриза о мутациях (1901-1903 гг.). Таким образом, время рождения двух великих теорий почти совпадает, и не удивительно, что обе должны были достигнуть определенной степени зрелости, прежде чем между ними могла возникнуть связь.

Для квантовой теории потребовалось больше четверти века, когда в 1926-1927 гг. В. Гайтлер и Ф. Лондон сформулировали основные положения квантовой теории химических связей. Гайтлер-лондоновская теория включает в себя наиболее тонкие и сложные понятия позднейшей квантовой теории, называемой квантовой механикой, или волновой механикой. Изложение ее без применения высшей математики почти невозможно или потребовало бы, по крайней мере, небольшой книги. Но теперь, когда вся работа уже выполнена, становится возможным установить связь между квантовыми переходами и мутациями» (Шрёдингер Эрвин).

Единственным слабым местом мутационной теории де Фриза является решение вопроса: как пара «калек-выродков», «белые вороны» с новыми признаками (и неизвестно, полезными ли) могут отыскать друг друга в обновленной экологической нише для закрепления в фенотипе мутационных изменений? Половина ответа находится в самом вопросе. Именно накопившиеся изменения условий экосистемы, невозможность преодоления помех являются основанием мутационного взрыва или скачкообразного возникновения новой информации. Далее вступают в силу статистические законы Естественного Отбора.

Итак, подытожим. В наиболее широком понимании мы можем поставить знак равенства между понятиями «информация» и «жизнь». Организм жив, пока его мозг в состоянии извлекать и перерабатывать-декодировать информацию. И единственный способ существования мозга - это извлечение, декодирование информации и выработка управляющих воздействий.

И не какой-то отвлеченный, чей-то «ничейный» организм, а наш организм.

Мозг до последней секунды биологической активности сопротивляется небытию, перерабатывает информацию и выдает управляющие воздействия. Отсюда басни о потустороннем бессмертии, основа всех культов. У животных отсутствует необходимость культовых захоронений, а значит, и представления о потусторонней жизни.

И только человеческий мозг, сопротивляясь небытию и оберегая информацию, способен на оккультное безумство и расточительство некрополей. И если именно ваш спермий прорвался сквозь мириады поколений и миллиарды смертей к жизни, будьте достойны этих усилий в своей земной юдоли, в течение всего лишь 25-30 тыс. дней. Помните, что, как и для всех прочих животных, по ту сторону жизни у нас нет ничего. Основатели всех конфессий и их апологеты, оформляя в безумство толпы нашу врожденную религиозность (совестливость), это очень хорошо знали и знают. В основу всех конфессий положен догмат антропоцентризма - «венца творения» «по образу и подобию» и «рая» по ту сторону. Уравняв «венец» с «тварями», Церковь рухнет. И каждый знающий, что нет возмездия «на том свете», совсем иначе ценит каждый день и каждый поступок «на этом». И любит и ненавидит.

Энергетическая целесообразность избыточного творчества организма определяется необходимостью постоянной подпитки мозга его единственной пищей - информацией, поэтому энергозатраты на творчество, даже такое как чтение, всегда избыточны. И вершиной творческих усилий является полная самоотдача, самопожертвование, самоотречение пары - основа всякого плодородия и залог здоровья рожденного носителя выделенной информации.

Также всегда избыточны энергозатраты на творчество при возникновении новой информации в любой физической системе.

А теперь зададимся вопросом, что есть временная совокупность знаний субъекта и что есть объективная Информация, каким мусором нас пичкают средства информации для масс и какие усилия предпринимает организм для выживания, фильтруя из этого мусора жизненно важную информацию (не потому ли мы так катастрофически быстро стареем?), какой организм можно считать мертвым, даже если он ещё шевелится?

Но у жизни, человеческой жизни, есть еще задача, за которую она ответственна: извлечение отрицательной энтропии и уменьшение социальной неупорядоченности на уровне популяции.

Вероятность - математическая категория, говорящая о закономерностях возникновения случайных явлений. Для замкнутой системы становится равной нулю при раскодировании ею Информации с окружающих носителей. Или более категорично информация - это отрицание вероятности.

Случайность - это закономерность более высокого порядка, или событие, вероятность которого определяется количественным показателем D неупорядоченности атомно-молекулярного движения в веществе из закона Больцмана-Гиббса или количественным показателем неупорядоченности для любой другой системы - биологической, социальной, космической.

Материя - объективная реальность, отраженная в Информации о ее свойствах, при этом мера объективности материи не зависит от реальности ощущений субъекта. С точки зрения физика материя состоит из вещества и поля. Вещество - это пространственная атомно-молекулярная решетка, погруженная в поле на девять десятых своего объема (в среднем, в зависимости от плотности и агрегатного состояния вещества, наибольшая плотность вещества в его жидкой фазе).

Сознание - это способность субъекта к отображению объективной реальности, материи, на основе возникшей при рождении Информации, декодированной информации при онтогенезе и возникших при этом эмоций - индивидуальных психических реакций.

Звуковой стереотип - прочно сложившиеся в сознании субъекта ассоциативные связи между возникшим образом и произнесенным звуком.

Общественное сознание - суммарный вектор индивидуальных интересов (по-русски личной корысти) в социуме.

Совесть (лат. RELIGIO) - генетически наследуемая социальная категория, определяющая устойчивое состояние психики изолированного субъекта в социуме, при котором он так оценивает свое поведение, как если бы он находился под пристальным, оценивающим взглядом иных субъектов. А равно и мотивация поведения неизолированного субъекта в среде себе подобных иных субъектов социума.

Свобода - см. Совесть

Нужда, нищета. Мудрец сказал: «Мелочи жизни - это разные события между рождением и смертью». Дополним его. Нужда – это наши рождения и смерти между векторами индивидуальной корысти, под Властью права присвоения общественной собственности.

Самообладание, невозмутимость, хладнокровие - модель поведения личности, которая реализует волю управляющих структур Власти (см.), либо же это равнодушие абсолютного эгоиста. Человек с совестью, обладающий свободой выбора, всегда эмоционален.

Понятие информации

В понятие «информация» (от лат. informatio – сведения, разъяснения, изложение) вкладывается различный смысл соответственно той отрасли, где это понятие рассматривается: в науке, технике, обычной жизни и т.д. Обычно под информацией подразумевают любые данные или сведения, которые кого-либо интересуют (сообщение о каких-либо событиях, о чьей-либо деятельности и т.п.).

В литературе можно найти большое число определений термина «информация» , которые отражают различные подходы к его толкованию:

Определение 1

  • Информация – сведения (сообщения, данные) независимо от формы их представления («Федеральный закон РФ от $27.07.2006$ г. № $149$-ФЗ Об информации, информационных технологиях и о защите информации»);
  • Информация – сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальным устройством (Толковый словарь русского языка Ожегова).

Говоря о компьютерной обработке данных под информацией понимают некоторую последовательность символов или знаков (букв, цифр, закодированных графических образов и звуков и т. п.), которая несет смысловую нагрузку и представлена в понятном для компьютера виде.

В информатике наиболее часто используется следующее определение этого термина:

Определение 2

Информация – это осознанные сведения (знания, выраженные в сигналах, сообщениях, известиях, уведомлениях и т.д.) об окружающем мире, которые являются объектом хранения, преобразования, передачи и использования.

Одно и то же информационное сообщение (статья в журнале, объявление, рассказ, письмо, справка, фотография, телепередача и т. п.) может нести разное количество и содержание информации для различных людей в зависимости от накопленных ими знаниями, от уровня доступности этого сообщения и от уровня интереса к нему. Например, новость, составленная на китайском языке, не несет никакой информации человеку, который не знает этого языка, но может быть полезной для человека со знанием китайского. Никакой новой информации не будет содержать и новость, изложенная на знакомом языке, если ее содержание непонятно или уже известно.

Информацию рассматривают как характеристику не сообщения, а соотношения между сообщением и его получателем.

Виды информации

Информация может существовать в различных видах :

  • текст, рисунки, чертежи, фотографии;
  • световые или звуковые сигналы;
  • радиоволны;
  • электрические и нервные импульсы;
  • магнитные записи;
  • жесты и мимика;
  • запахи и вкусовые ощущения;
  • хромосомы, через которые передаются по наследству признаки и свойства организмов, и т. д.

Различают основные виды информации , которые классифицируют по ее форме представления, способам ее кодирования и хранения:

  • графическая – один из древнейших видов, с помощью которого хранили информацию об окружающем мире в виде наскальных рисунков, а затем в виде картин, фотографий, схем, чертежей на различных материалах (бумага, холст, мрамор и др.), которые изображают картины реального мира;
  • звуковая (акустическая) – для хранения звуковой информации в $1877$ г. было изобретено звукозаписывающее устройство, а для музыкальной информации – разработан способ кодирования с использованием специальных символов, который дает возможность хранить ее как графическую информацию;
  • текстовая – кодирует речь человека с помощью специальных символов – букв (для каждого народа свои); для хранения используется бумага (записи в тетради, книгопечатание и т.п.);
  • числовая – кодирует количественную меру объектов и их свойств в окружающем мире с помощью специальных символов – цифр (для каждой системы кодирования свои); особенно важной стала с развитием торговли, экономики и денежного обмена;
  • видеоинформация – способ хранения «живых» картин окружающего мира, который появился с изобретением кино.

Существуют также виды информации, для которых еще не изобретены способы кодирования и хранения – тактильная информация, органолептическая и др.

Первоначально информация передавалась на большие расстояния с помощью кодированных световых сигналов, после изобретения электричества – передачи закодированного определенным образом сигнала по проводам, позже – используя радиоволны.

Замечание 1

Основателем общей теории информации считают Клода Шеннона, который также положил основу цифровой связи, написав книгу «Математическая теория связи» в $1948$ г., в которой впервые обосновал возможность использования двоичного кода для передачи информации.

Первые компьютеры являлись средством для обработки числовой информации. С развитием компьютерной техники ПК стали использовать для хранения, обработки, передачи различного вида информации (текстовой, числовой, графической, звуковой и видеоинформации).

Хранить информацию с помощью ПК можно на магнитных дисках или лентах, на лазерных дисках (CD и DVD), специальных устройствах энергонезависимой памяти (флэш-память и пр.). Эти методы постоянно совершенствуются, изобретаются и носители информации. Все действия с информацией выполняет центральный процессор ПК.

Предметы, процессы, явления материального или нематериального мира, если их рассматривать с точки зрения их информационных свойств, называют информационными объектами.

Над информацией можно выполнять огромное количество различных информационных процессов, среди которых:

  • создание;
  • прием;
  • комбинирование;
  • хранение;
  • передача;
  • копирование;
  • обработка;
  • поиск;
  • воспринятие;
  • формализация;
  • деление на части;
  • измерение;
  • использование;
  • распространение;
  • упрощение;
  • разрушение;
  • запоминание;
  • преобразование;

Свойства информации

Информация, как и любой объект, обладает свойствами , наиболее важными среди которых, с точки зрения информатики, являются:

  • Объективность. Объективная информация – существующая независимо от человеческого сознания, методов ее фиксации, чьего-либо мнения или отношения.
  • Достоверность. Информация, отражающая истинное положение дел, является достоверной. Недостоверная информация чаще всего приводит к неправильному пониманию или принятию неправильных решений. Устаревание информации может из достоверной информации сделать недостоверную, т.к. она уже не будет отражением истинного положения дел.
  • Полнота. Информация является полной, если она достаточна для понимания и принятия решений. Неполная или избыточная информация может привести к задержке принятия решения или к ошибке.
  • Точность информации – степень ее близости к реальному состоянию объекта, процесса, явления и т. п.
  • Ценность информации зависит от ее важности для принятия решения, решения задачи и дальнейшей применимости в каких-либо видах деятельности человека.
  • Актуальность. Только своевременность получения информации может привести к ожидаемому результату.
  • Понятность. Если ценную и своевременную информацию выразить непонятно, то она, скорее всего, станет бесполезной. Информация будет понятной, когда она, как минимум, выражена понятным для получателя языком.
  • Доступность. Информация должна соответствовать уровню восприятия получателя. Например, одни и те же вопросы по-разному излагаются в учебниках для школы и вуза.
  • Краткость. Информация воспринимается гораздо лучше, если она представлена не подробно и многословно, а с допустимой степенью сжатости, без лишних деталей. Краткость информации незаменима в справочниках, энциклопедиях, инструкциях. Логичность, компактность, удобная форма представления облегчает понимание и усвоение информации.
© rifma-k-slovu.ru, 2024
Rifmakslovu - Образовательный портал