Увеличить

Информация (от латинского intormatio — разъяснение, изложение) — совокупность сведений, знаний и т. п. Различают информацию, динамически   возникающую  в   повседневной деятельности людей, и накопленный объем знаний, образующий, так сказать, социальную память человечества.

Каналы связи, по которым передается информация, могут быть самыми различными. Так, при разговоре информация передается посредством звуков, распространяющихся в виде упругих колебаний воздуха (см. Акустика, акустическая техника). При передаче сообщений по радио используют электромагнитные колебания, или радиоволны. Сообщение по телефону передается по проводам от одного телефонного аппарата к другому электрическими колебаниями, возникающими в микрофоне (см. Телефонная связь).

По мере того как возрастал объем знаний, накопленных человечеством, увеличивалось и количество передаваемой информации. Это потребовало решения ряда технических проблем, связанных со скоростью передачи и переработки информации, ее кодированием и расшифровкой, а также с преобразованием сигналов на входе и выходе канала связи между источником информации и ее потребителем. В середине XX в. в результате бурного развития науки и техники неизмеримо возросла роль информации как средства общения не только между людьми, но и между человеком и машиной, и даже между машинами (см. Автомат, автоматика; Автоматизация и механизация производства; Передача данных для ЭВМ). Лавинообразное нарастание информации во второй половине XX в. получило название информационного взрыва.


В связи с этим возникла потребность в научном подходе к информации, выявлении ее наиболее характерных свойств. Основы теории информации были заложены американскими учеными Р. Хартли и К- Шенноном; большой вклад в нее внесли советские ученые А. Н. Колмогоров, А. Я. Хинчин, В. А. Котельников, А. А. Харкевич и другие.

Одним из важнейших понятий теории информации является мера количества информации. В качестве такой меры принято число двоичных знаков («О» и «1»), необходимое для записи произвольного сообщения. Любое сообщение можно представить — закодировать — в виде цепочки символов «О» и «1», расположенных в определенном порядке.

Очень важная характеристика информации — ее доступность для потребителя. Например, количество информации, которое нервная система человека способна подать в мозг при чтении текста, составляет примерно 16 двоичных знаков в 1 с. Если информация поступает большими порциями, то мозг уже не воспринимает ее раздельно. Или, например, частота смены кадров при демонстрации фильма должна быть не менее 16 кадров в 1 с, чтобы эти кадры не воспринимались отдельно, а отражались в сознании  как единое  непрерывное  изображение.

Информация является одним из основных понятий кибернетики (см. Техническая кибернетика) — науки об управлении, которая изучает машины и живые организмы именно с точки зрения их способности воспринимать, сохранять и передавать определенную информацию.

Возникла особая отрасль науки — информатика, изучающая структуру и общие свойства научной информации, вопросы, связанные с ее хранением и использованием в различных сферах деятельности.




Вы можете скачать файл реферат "ИНФОРМАЦИЯ" курсовую работу абсолютно бесплатно. Скачивая файл, помните, что он служит основой для самостоятельной работы.

Чтобы получить полную информацию, подпишись на нас Vk.com/enciklopediyatehniki