рефераты конспекты курсовые дипломные лекции шпоры

Реферат Курсовая Конспект

Измерение количества информации по Р.Хартли.

Измерение количества информации по Р.Хартли. - раздел Информатика, ЛЕКЦИЯ № 1. ТЕМА: ИНФОРМАЦИЯ И ИНФОРМАТИКА Меру Количества Информации Установил В 1928 Году Р.хартли На Основе Предложен...

Меру количества информации установил в 1928 году Р.Хартли на основе предложенной им концепции выбора. Согласно этой концепции связь между отправителем и получателем информации осуществляется только при наличии определенного набора сообщений, из которых отправитель в каждый момент времени выбирает только одно. В результате последовательных выборов вниманию получателя предлагается последовательность сообщений (символов). Во время каждого выбора исключаются все другие сообщения (символы), которые могли бы быть выбраны.

Пусть сообщение состоит из элементов, которые последовательно и независимо выбирают из равновероятных элементов. Число возможных сообщений в этом случае (по теореме 1):

(1.3)

Хартли установил, что в роли меры количества информации, которая имела бы практическую ценность, лучше выбрать не число , а логарифм этого числа:

(1.4)

Мера количества информации, введенная Хартли, целиком согласуется с природными интуитивными требованиями к такой мере. Прежде всего, интуитивно ощущается, что количество информации в сообщении будет тем больше, чем длиннее сообщение: например, более длинная телеграмма содержит и больше сведений. Кроме этого, характеристика какого-нибудь явления будет тем лучше, чем большую разновидность сообщений о нем можно использовать. Например, оценка студента по 100-бальной системе лучше отражает его знания, чем пятибальная.

Формула (1.3) отображает и зависимость количества информации от длины сообщения и от разнообразия элементов в сообщении . Следует отметить: для вывода формулы (1.4) Хартли сделал предположение, что элементы сообщения равновероятны и выбор каждого элемента осуществляется независимо от того, какие элементы были раньше выбраны. В информметрии идеи Хартли интерпретируются с более общей позиции, которая вытекает из понятия системы.

Пусть есть система из равновероятных (равновозможных) состояний. Если каждое состояние системы закодировать равномерным кодом определенной длины над алфавитом , то длину нужно выбрать так, чтобы число всех разных комбинаций было меньше чем . Наибольшее число, при котором это возможно, или мера разнообразия множества состояний системы задается формулой Р.Хартли: (1.5)

где - коэффициент пропорциональности (масштабирования, зависимо от выбранной длины измерения), - основа системы меры, - количество информации, которую дает появление одного из равновозможных состояний системы.

Поскольку в информационных процессах наиболее широко используется двоичная система счисления, то из практических соображений выбирают . Формулу Хартли рассматривают в виде:

(1.6)

где - количество равновозможных состояний системы, - количество информации в битах. Отметим, что бит в данном случае имеет другое толкование, чем при техническом (алфавитном) подходе при оценивании информации. Бит – это количество информации, которая поступает от системы, что имеет два разных, одинаково возможных для реализации состояний.

.

Следовательно, тут бит не является наименьшей единицей измерения информации.

 

 
 

– Конец работы –

Эта тема принадлежит разделу:

ЛЕКЦИЯ № 1. ТЕМА: ИНФОРМАЦИЯ И ИНФОРМАТИКА

ТЕМА ИНФОРМАЦИЯ И ИНФОРМАТИКА... ИНФОРМАТИКА КАК ФУНДОМЕНТАЛЬНАЯ... РАЗНЫЕ ПОДХОДЫ К ОПРЕДЕЛЕНИЮ ИНФОРМАЦИИ ОСОБЕННОСТИ ИНФОРМАЦИИ...

Если Вам нужно дополнительный материал на эту тему, или Вы не нашли то, что искали, рекомендуем воспользоваться поиском по нашей базе работ: Измерение количества информации по Р.Хартли.

Что будем делать с полученным материалом:

Если этот материал оказался полезным ля Вас, Вы можете сохранить его на свою страничку в социальных сетях:

Все темы данного раздела:

ИНФОРМАТИКА КАК ФУНДОМЕНТАЛЬНАЯ НАУКА.
Подходя к анализу жизни общества на различных ступенях его развития с точки зрения выяснения того, что определяло в тот или иной период его выживание и прогрессивное развитие, можно заметить, что в

Четвертая революция (70-е годы XX в.) связана с изобретением персонального компьютера.
Разработка и создание компьютеров, как электронных автоматических устройств для работы с информацией, были объективно предопределены. Начиная с последней четверти XX в. стали говорить об «информаци

ПОНЯТИЕ О ДИСКРЕТИЗАЦИИ.
В случаях, когда наука не может дать четкого определения конкретному объекту или явлению, приходится пользоваться понятиями. Понятия отличаются от определений тем, что разные люди при различных обс

СЕМАНТИЧЕСКИЙ, СИНТАКСИЧНЫЙ И ПРАГМАТИЧНЫЙ.
Есть три научных направления, связанных с исследованием информации: семантический (содержательный), синтаксический и прагматичный. Их впервые предложил рассматривать один из авторов так называемой

ИЗМЕРЕНИЕ ИНФОРМАЦИИ.
Существует несколько способов оценивания информации: алфавитный (объемный или технический), алгоритмический, комбинаторный, вероятностный. Наибольшую практическую ценность имеют алфавитный и вероят

Измерение количества информации по К.Шеннону.
Концепцию выбора Хартли развил и обобщил из вероятностных позиций американский ученый Клод Шеннон. Он создал в 1948-1949 гг. основы статистической теории информации, основным понятием которо

Формула Шеннона (мера Шеннона).
Базируясь на вероятностном подходе к оцениванию информации, К.Шеннон в 1948 году вывел формулу, которая дает оценку информации, абстрагируясь от ее содержания:

Хотите получать на электронную почту самые свежие новости?
Education Insider Sample
Подпишитесь на Нашу рассылку
Наша политика приватности обеспечивает 100% безопасность и анонимность Ваших E-Mail
Реклама
Соответствующий теме материал
  • Похожее
  • Популярное
  • Облако тегов
  • Здесь
  • Временно
  • Пусто
Теги