Информация: понятие, передача и научное изучение

Что такое информация?

Термин «информация» происходит от латинского слова «informatio», что означает разъяснение или изложение. По своей сути, информация представляет собой совокупность разнообразных сведений и знаний. Можно выделить два основных её типа: динамическую информацию, которая постоянно возникает в повседневной жизни и деятельности людей, и накопленную информацию — тот объём знаний, который формирует коллективную, или социальную, память человечества.

Каналы передачи информации

Способы передачи информации столь же разнообразны, как и сама жизнь. При обычном разговоре мы используем звуковые волны — упругие колебания воздуха (подробнее об этом можно узнать в разделе Акустика, акустическая техника). Для передачи сообщений на большие расстояния применяются электромагнитные колебания, или радиоволны. В телефонной связи электрические сигналы, преобразованные из звука микрофоном, путешествуют по проводам (см. Телефонная связь).

Информационный взрыв и рождение теории

С развитием цивилизации объём накапливаемых и передаваемых знаний рос в геометрической прогрессии. Это породило серьёзные технические задачи: как увеличить скорость обработки и передачи данных, как эффективно их кодировать и декодировать. Особенно остро эти вопросы встали в середине XX века, когда информация стала ключевым элементом не только в общении между людьми, но и во взаимодействии человека с машиной и даже между самими машинами (см. Автомат, автоматика; Автоматизация и механизация производства; Передача данных для ЭВМ). Стремительный рост информационных потоков получил меткое название «информационного взрыва».

Для осмысления этого феномена потребовался строгий научный подход. Основы теории информации были заложены трудами американских учёных Р. Хартли и К. Шеннона. Значительный вклад в её развитие внесли и советские исследователи, такие как А. Н. Колмогоров, А. Я. Хинчин, В. А. Котельников, А. А. Харкевич и другие.

Как измерить информацию?

Одним из краеугольных камней теории информации является понятие меры её количества. В качестве универсальной единицы измерения принято использовать бит — двоичный знак («0» или «1»). Количество информации определяется числом таких битов, необходимых для записи любого сообщения. Ведь любое сообщение, будь то текст, изображение или звук, можно представить (закодировать) в виде уникальной последовательности нулей и единиц.

Доступность и восприятие информации

Не менее важна, чем количество, доступность информации для её потребителя. Наш мозг имеет свои пределы восприятия. Например, нервная система человека способна передавать в мозг при чтении примерно 16 бит информации в секунду. Если поток данных превышает эту скорость, мозг перестаёт воспринимать их раздельно. Аналогичный принцип лежит в основе кинематографа: частота смены кадров должна быть не менее 16 кадров в секунду, чтобы отдельные изображения слились в нашем сознании в плавное движение.

Информация в науке об управлении

Информация является фундаментальным понятием кибернетики — науки об управлении сложными системами (см. Техническая кибернетика). Кибернетика изучает и машины, и живые организмы именно с точки зрения их способности воспринимать, хранить, обрабатывать и передавать информацию для целей управления и адаптации.

Для комплексного изучения всех аспектов работы с информацией сформировалась отдельная научная дисциплина — информатика. Она исследует структуру и общие свойства информации, особенно научной, а также решает практические задачи, связанные с её сбором, хранением, поиском, обработкой и использованием в самых разных сферах человеческой деятельности.