Информация: понятие, свойства, способы измерения. Кодирование информации. Системы

Информация: понятие, свойства, способы измерения. Кодирование информации. Системы счисления

ПОНЯТИЕ ИНФОРМАЦИИ Термин информация происходит от латинского informatio, что означает разъяснение, осведомление, изложение

ЭВОЛЮЦИЯ ПРЕДСТАВЛЕНИЙ ОБ ИНФОРМАЦИИ Докибернетическое понимание информации (сохранялось на протяжение более двух тысячелетий – вплоть до середины XX в. ) Информация понимается как передача сообщений Начало XX в. – появление кибернетики Информация связывается с категорией отражения, как всеобщего свойства материи. Информация рассматривается как нечто самостоятельное, имеющее отношение к процессам управления и развития, обеспечивающим устойчивость и выживаемость любых систем

С позиции материалистической философии: Информация – отражение реального мира с помощью сигналов и знаков, или отраженное многообразие, которое один объект содержит о другом в процессе их взаимодействия. Информация существует независимо от того, воспринимается она или нет, однако проявляется только при взаимодействии объектов (процессов).

В широком смысле: Информация – общенаучное понятие, включающее в себя обмен сведениями между людьми, обмен сигналами между живой и неживой природой, людьми и устройствами.

В теории информации (основатель Клод Шеннон): Информация – это сведения об объекте и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределенности, неполноты знаний.

В информатике: Разделяются понятия формы представления и абстрактного информационного содержания (смысла) какого-либо сообщения. q Информация представляется с помощью символов (знаков). q Информация – это смысл сообщения. q Смысл можно понять, имея правило интерпретации.

Данные – это информация любой природы, представленная в формализованном виде, зафиксированная каким-либо образом, удобным для хранения, обработки и передачи с помощью технических средств. Данные превращаются в информацию, если появляется возможность использовать эти данные для уменьшения неопределенности о чем-либо. Данные не тождественны информации!

СВОЙСТВА ИНФОРМАЦИИ Внутренние – это свойства, органически присущие объекту. Они «скрыты» от изучающего объект и проявляют себя косвенным образом при взаимодействии данного объекта с другими. Внешние – это свойства, характеризующие поведение объекта при взаимодействии с другими объектами

Внешние свойства информации q Объективность и субъективность информации; q Полнота информации – свойство информации исчерпывающе (для данного потребителя) характеризовать отображаемый объект и / или процесс. Полнота информации во многом характеризует качество информации и определяет достаточность данных для принятия решений или для создания новых данных на основе имеющихся.

Внешние свойства информации q Качество информации – обобщенная положительная характеристика информации, отражающая степень ее полезности для пользователя. q Достоверность информации – свойство информации не иметь скрытых ошибок. q Адекватность информации – это степень соответствия реальному объективному состоянию дела. q Доступность информации – мера возможности получить ту или иную информацию

Внешние свойства информации q Защищенность – свойство, характеризующее невозможность несанкционированного использования или изменения. q Эргономичность – свойство, характеризующее удобство формы или объема информации с точки зрения данного потребителя. q Актуальность информации – это степень соответствия информации текущему моменту времени

Внутренние свойства информации q По способу внутренней организации информацию делят на две группы: 1. Данные или простой, логически неупорядоченный набор сведений. 2. Логически упорядоченные, организованные наборы данных. q Среди внутренних свойств информации важнейшими являются объем (количество) информации.

Свойства информации Свойства информации, связанные с процессом ее хранения q живучесть – способность информации сохранять свое качество с течением времени; q уникальность – информация, хранимая в единственном экземпляре

Измерение информации: содержательный подход Суть: количество информации в сообщении зависит от его информативности и определяется мерой снятой им неопределенности. Неопределенность знаний о некотором событии – это количество возможных результатов события.

Единица измерения информации Сообщение, уменьшающее неопределенность знаний в два раза, несет 1 бит информации. Слово bit (англ. binary digit – двоичная цифра) предложил использовать Клод Шеннон в 1948 году. Бит – наименьшая единица измерения количества информации, равная количеству информации, содержащемуся в опыте, имеющем два равновероятных исхода.

Измерение информации: содержательный подход Американский инженер Р. Хартли в 1928 году процесс получения информации рассматривал как выбор одного сообщения из конечного наперед заданного множества из N равновероятных сообщений. Количество информации I, содержащееся в выбранном сообщении определяется как двоичный логарифм N: I = log 2 N (формула Хартли) q при N = 1 (нет неопределенности) количество информации I = 0; q с увеличением возможностей выбора, то есть числа возможных сообщений N, мера информации I монотонно возрастает.

Формула вычисления количества информации Количество информации, содержащееся в сообщении о том, что произошло одно из N равновероятных событий, определяется из решения показательного уравнения: 2 I = N

Формула вычисления количества информации Сколько информации содержит сообщение о том, что из колоды карт достали король пик? Решение: В колоде 32 карты. В перемешенной колоде выпадение любой карты равновероятное событие. N = 32. I - ? 2 I = N 2 I = 32 25 = 32 I = 5 бит

Измерение информации: вероятностный подход В 1948 году Клод Шеннон предложил формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе событий: Формула Шеннона: I = – где pi – вероятность того, что получено именно i-е сообщение в наборе из N сообщений. Меру неопределенности выбора сообщения из набора в N сообщений называют энтропией.

Измерение информации: алфавитный подход Суть: не связывает количество информации с содержанием сообщения. Информационное сообщение рассматривается как последовательность знаков определенной знаковой системы

Измерение информации: алфавитный подход Алфавит – все множество используемых в языке символов (буквы, знаки препинания, цифры, скобки и пробел) Мощность алфавита N – полное количество символов алфавита. Например, мощность алфавита из заглавных русских букв и отмеченных дополнительных символов равна 54. АБВГДЕЁЖЗИЙКЛМНОПРСТУФХЦЧШЩЬЪЭЮЯ 0123456789(). , !? «» : -; (пробел)

Измерение информации: алфавитный подход Сколько информации несет один символ в русском языке? Согласно 2 I = N, каждый символ несет I бит информации, которое можно определить из решения уравнения: 2 I = 54. Получаем: I = 5. 755 бит Таким образом, чтобы найти количество информации во всем тексте, нужно посчитать число символов в нем и умножить на I = 5. 755 бит.

Измерение информации: алфавитный подход Посчитаем количество информации на одной странице книги. Пусть страница содержит 50 строк. В каждой строке — 60 символов. Значит, на странице умещается 50 x 60=3000 знаков. Тогда объем информации будет равен: 5, 755 х 3000 = 17265 бит. При алфавитном подходе к измерению информации количество информации зависит не от содержания, а от размера текста и мощности алфавита.

Двоичный алфавит Если алфавит состоит только из двух символов 0 и 1: N=2 2 I = N 2 I = 2 I=1 Каждый двоичный знак несет 1 бит информации. 1 бит – один разряд двоичного кода может принимать только два взаимоисключающих значения 1 или 0

Достаточный алфавит Удобнее всего измерять информацию, когда мощность алфавита N равна целой степени двойки. Например, при работе с компьютерной техникой удобен алфавит мощностью 256 символов: 256 = 28 Один символ этого алфавита «весит» 8 бит. Байт – это количество информации, которое можно передать с помощью 8 двоичных символов, т. е. восьмиразрядного двоичного кода. 1 байт = 8 бит

Более крупные единицы информации 1 Килобайт (Кбайт) = 1024 байт = 210 байт 1 Мегабайт (Мбайт) = 1024 Кбайт = 210 Кбайт 1 Гигабайт (Гбайт) = 1024 Мбайт = 210 Мбайт 1 Терабайт (Тбайт) = 1024 Гбайт = 210 Гбайт 1 Петабайт (Пбайт) = 1024 Тбайт = 210 Тбайт

Кодирование информации Кодирование – это выражение данных одного типа через данные другого с использованием некоторого кода. Код – это алфавит и система правил, на основе которых производится запись звука, графики, текста, числовых данных. С помощью компьютера информация любого типа преобразуется в двоичный код.

Двоичное кодирование текста Кодовая таблица ASCII (American Standard Code for Information Interchange): n Коды с 0 по 32 - коды операций (перевод строки, ввод пробела, т. е. соответствуют функциональным клавишам); n Коды с 33 по 127 – интернациональные, соответствуют символам латинского алфавита, цифрам, знакам арифметических операций, знакам препинания; n Коды с 128 по 255 – национальные, т. е. кодировка национального алфавита. Правило: На 1 символ отводится 1 байт (8 бит), всего можно закодировать 28 = 256 символов.

Двоичное кодирование текста Существует 5 разных кодовых таблиц для русских букв (КОИ 8, СР 1251, СР 866, Mac, ISO). Широкое распространение получает новый международный стандарт Unicode – система 16 -разрядного кодирования: на каждый символ два байта. Unicode позволяет закодировать 65536 (216 = 65536 ) символов, что достаточно для представления большинства алфавитов национальных языков.

Кодирование графики Растровое Векторное Фрактальное изображение Представляет собой совокупность графических Базовым Изображение примитивов (точка, элементом разбивается на отрезок, эллипс и является сама отдельные т. д. ), каждый математическая маленькие описывается формула. В точки математическими памяти (пиксели), формулами. компьютера каждому Кодирование изображение присваивается зависти от строится только код цвета прикладной среды. по уравнениям. Могут изменять размеры без потери качества!

Кодирование цвета Для кодирования цвета используют несколько систем: q RGB: цвета получается сочетанием базовых – красного (Red), зеленого (Green), синего (Blue). Для сохранения информации о цвете отводится 3 байта - по 1 байту на каждый цвет. Чем больше значение байта цветовой составляющей, тем ярче этот цвет. Такой набор цветов принято называть True Color. Пример: n. Белый – 255, 255 (максимальная яркость всех цветов); n. Черный – 0, 0, 0 (отсутствие цветовых составляющих); n. Красный – 255, 0, 0; n. Серый – 150, 150 или 100, 100 в зависимости от яркости.

Кодирование цвета q HSB: характеризуется тремя компонентами оттенок цвета (Hue), насыщенность цвета (Saturation) и яркость цвета (Brightness). Регулируя их, можно получить большое количество произвольных цветов. Используется в графических редакторах для создания изображений.

Кодирование цвета CMYK: используется при подготовке публикаций к печати, в которой каждому из основных цветов ставится в соответствие дополнительный цвет, дополняющий его до белого. Основными цветами являются голубой (Cyan), пурпурный (Magenta), желтый (Yellow) и черный (blac. K). Режим CMYK является полноцветным, для кодирования цвета каждого пикселя в этом режиме требуется 32 бита (4 байта) памяти.

Кодирование звука Временная дискретизация – способ преобразования звука в цифровую форму путем разбивания звуковой волны на отдельные маленькие временные участки, где амплитуды этих участков квантуются (им присваивается определенное значение). Качество кодирования звука зависит от: 1) глубины кодирования звука – количество уровней звука 2) частоты дискретизации – количество изменений уровня сигнала в единицу времени (за 1 сек).

Системы счисления Система счисления - это совокупность правил и приемов записи чисел с помощью набора цифровых знаков (алфавита). Количество цифровых знаков называют основанием системы счисления. Различают два типа систем счисления: n позиционные, когда значение каждой цифры числа определяется ее местом (позицией) в записи числа; n непозиционные, когда значение цифры в числе не зависит от ее места в записи числа. Примеры: непозиционная система счисления - римская: IX, IV, XL, … позиционная система счисления - десятичная система: 0, 1, …, 9.

В любой позиционной системе счисления целое число Xs, состоящее из n разрядов, может быть представлено в виде: Xs={An. An-1. . . A 1 A 0}s=An. Sn+An-1 Sn-1+…+A 1 S 1+A 0 S 0, где S – основание системы счисления, (*) Ai – цифры числа. Примеры: 152110=1*100+2*101+5*102+1*103 1010012=1*20+1*23+1*25

Перевод чисел из любой системы счисления в десятичную систему счисления Пример 1. Пусть X=3718 Требуется перевести X в 10 -ю систему счисления. Для перевода запишем число в виде полинома и выполним действия в 10 -й системе X = 3 * 82 + 7 * 81 +1* 80 = 249 Пример 2. Пусть X= AF, 4 16 Требуется перевести X в 10 -ю систему. X = 10 *161 + 15*160 + 4 *16 -1 = 175, 25 Пример 3. Пусть 1010012 Требуется перевести X в 10 -ю систему. 1010012=1*20+1*23+1*25=1+8+32=4110

Перевод целого числа из десятичной в другую систему счисления 125/2 1 251/8 3 62/2 0 31/8 7 31/2 1 3 ↑ 15/2 1 25110 = 3738 7/2 1 251/16 3/2 1 11 1 ↑ 15 ↑ 12510 = 11111012 25110 = FB 16

Соответствие десятичной, двоичной, восьмеричной и шестнадцатеричной систем счисления p=10 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 p=2 0 1 10 11 100 101 110 111 1000 1001 1010 1011 1100 1101 1110 1111 10000 p=8 0 1 2 3 4 5 6 7 10 11 12 13 14 15 16 17 20 p=16 0 1 2 3 4 5 6 7 8 9 A B C D E F 10

Двоичная арифметика Двоичное сложение Двоичное вычитание 0 + 0 = 0 0 – 0 = 0 1 + 0 = 1 1 – 0 = 1 0 + 1 = 1 1 – 1 = 0 1 + 1 = 10 10 – 1 = 1 (При вычитании мы можем "занимать" единицу у Двоичное умножение следующего разряда) 0 * 0 = 0 1 * 0 = 0 0 * 1 = 0 1 * 1 = 1

Двоичная арифметика 11001 1101 110 * 1101 + 1011 - 11 11001 11000 011 + 11001 11001__ 101000101

Информация.ppt
- Количество слайдов: 42