Информация: понятие, свойства, способы измерения. Кодирование информации. Системы

>Информация: понятие, свойства, способы измерения. Кодирование информации. Системы счисления Информация: понятие, свойства, способы измерения. Кодирование информации. Системы счисления

> ПОНЯТИЕ ИНФОРМАЦИИ Термин информация происходит от латинского informatio, что означает разъяснение, осведомление, ПОНЯТИЕ ИНФОРМАЦИИ Термин информация происходит от латинского informatio, что означает разъяснение, осведомление, изложение

>  ЭВОЛЮЦИЯ ПРЕДСТАВЛЕНИЙ ОБ ИНФОРМАЦИИ  Докибернетическое понимание информации (сохранялось на протяжение более ЭВОЛЮЦИЯ ПРЕДСТАВЛЕНИЙ ОБ ИНФОРМАЦИИ Докибернетическое понимание информации (сохранялось на протяжение более двух тысячелетий – вплоть до середины XX в. ) Информация понимается как передача сообщений Начало XX в. – появление кибернетики Информация связывается с категорией отражения, как всеобщего свойства материи. Информация рассматривается как нечто самостоятельное, имеющее отношение к процессам управления и развития, обеспечивающим устойчивость и выживаемость любых систем

>  С позиции материалистической философии: Информация – отражение реального мира с  помощью С позиции материалистической философии: Информация – отражение реального мира с помощью сигналов и знаков, или отраженное многообразие, которое один объект содержит о другом в процессе их взаимодействия. Информация существует независимо от того, воспринимается она или нет, однако проявляется только при взаимодействии объектов (процессов).

>   В широком смысле: Информация – общенаучное понятие,   включающее в В широком смысле: Информация – общенаучное понятие, включающее в себя обмен сведениями между людьми, обмен сигналами между живой и неживой природой, людьми и устройствами.

>  В теории информации  (основатель Клод Шеннон):  Информация – это сведения В теории информации (основатель Клод Шеннон): Информация – это сведения об объекте и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределенности, неполноты знаний.

>   В информатике:  Разделяются понятия формы представления  и абстрактного информационного В информатике: Разделяются понятия формы представления и абстрактного информационного содержания (смысла) какого-либо сообщения. q Информация представляется с помощью символов (знаков). q Информация – это смысл сообщения. q Смысл можно понять, имея правило интерпретации.

>    Данные – это информация любой природы,  представленная в формализованном Данные – это информация любой природы, представленная в формализованном виде, зафиксированная каким-либо образом, удобным для хранения, обработки и передачи с помощью технических средств. Данные превращаются в информацию, если появляется возможность использовать эти данные для уменьшения неопределенности о чем-либо. Данные не тождественны информации!

>   СВОЙСТВА ИНФОРМАЦИИ  Внутренние – это свойства, органически присущие объекту. Они СВОЙСТВА ИНФОРМАЦИИ Внутренние – это свойства, органически присущие объекту. Они «скрыты» от изучающего объект и проявляют себя косвенным образом при взаимодействии данного объекта с другими. Внешние – это свойства, характеризующие поведение объекта при взаимодействии с другими объектами

>  Внешние свойства информации  q Объективность и субъективность информации; q Полнота информации Внешние свойства информации q Объективность и субъективность информации; q Полнота информации – свойство информации исчерпывающе (для данного потребителя) характеризовать отображаемый объект и / или процесс. Полнота информации во многом характеризует качество информации и определяет достаточность данных для принятия решений или для создания новых данных на основе имеющихся.

> Внешние свойства информации q Качество информации – обобщенная положительная характеристика информации,  отражающая Внешние свойства информации q Качество информации – обобщенная положительная характеристика информации, отражающая степень ее полезности для пользователя. q Достоверность информации – свойство информации не иметь скрытых ошибок. q Адекватность информации – это степень соответствия реальному объективному состоянию дела. q Доступность информации – мера возможности получить ту или иную информацию

>  Внешние свойства информации q Защищенность – свойство, характеризующее невозможность несанкционированного использования или Внешние свойства информации q Защищенность – свойство, характеризующее невозможность несанкционированного использования или изменения. q Эргономичность – свойство, характеризующее удобство формы или объема информации с точки зрения данного потребителя. q Актуальность информации – это степень соответствия информации текущему моменту времени

> Внутренние свойства информации q По способу внутренней организации информацию делят на две группы: Внутренние свойства информации q По способу внутренней организации информацию делят на две группы: 1. Данные или простой, логически неупорядоченный набор сведений. 2. Логически упорядоченные, организованные наборы данных. q Среди внутренних свойств информации важнейшими являются объем (количество) информации.

>Свойства информации  Свойства информации, связанные с   процессом ее хранения  q Свойства информации Свойства информации, связанные с процессом ее хранения q живучесть – способность информации сохранять свое качество с течением времени; q уникальность – информация, хранимая в единственном экземпляре

>   Измерение информации:  содержательный подход Суть: количество информации в сообщении зависит Измерение информации: содержательный подход Суть: количество информации в сообщении зависит от его информативности и определяется мерой снятой им неопределенности. Неопределенность знаний о некотором событии – это количество возможных результатов события.

>   Единица измерения информации  Сообщение, уменьшающее неопределенность знаний  в два Единица измерения информации Сообщение, уменьшающее неопределенность знаний в два раза, несет 1 бит информации. Слово bit (англ. binary digit – двоичная цифра) предложил использовать Клод Шеннон в 1948 году. Бит – наименьшая единица измерения количества информации, равная количеству информации, содержащемуся в опыте, имеющем два равновероятных исхода.

>  Измерение информации:   содержательный подход Американский инженер Р. Хартли в 1928 Измерение информации: содержательный подход Американский инженер Р. Хартли в 1928 году процесс получения информации рассматривал как выбор одного сообщения из конечного наперед заданного множества из N равновероятных сообщений. Количество информации I, содержащееся в выбранном сообщении определяется как двоичный логарифм N: I = log 2 N (формула Хартли) q при N = 1 (нет неопределенности) количество информации I = 0; q с увеличением возможностей выбора, то есть числа возможных сообщений N, мера информации I монотонно возрастает.

>Формула вычисления количества информации Количество информации, содержащееся в сообщении о том, что произошло одно Формула вычисления количества информации Количество информации, содержащееся в сообщении о том, что произошло одно из N равновероятных событий, определяется из решения показательного уравнения: 2 I = N

>  Формула вычисления количества информации  Сколько информации содержит сообщение о том, что Формула вычисления количества информации Сколько информации содержит сообщение о том, что из колоды карт достали король пик? Решение: В колоде 32 карты. В перемешенной колоде выпадение любой карты равновероятное событие. N = 32. I - ? 2 I = N 2 I = 32 25 = 32 I = 5 бит

>  Измерение информации:   вероятностный подход В 1948 году Клод Шеннон предложил Измерение информации: вероятностный подход В 1948 году Клод Шеннон предложил формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе событий: Формула Шеннона: I = – где pi – вероятность того, что получено именно i-е сообщение в наборе из N сообщений. Меру неопределенности выбора сообщения из набора в N сообщений называют энтропией.

>  Измерение информации:    алфавитный подход  Суть: не связывает количество Измерение информации: алфавитный подход Суть: не связывает количество информации с содержанием сообщения. Информационное сообщение рассматривается как последовательность знаков определенной знаковой системы

>    Измерение информации:   алфавитный подход  Алфавит – все Измерение информации: алфавитный подход Алфавит – все множество используемых в языке символов (буквы, знаки препинания, цифры, скобки и пробел) Мощность алфавита N – полное количество символов алфавита. Например, мощность алфавита из заглавных русских букв и отмеченных дополнительных символов равна 54. АБВГДЕЁЖЗИЙКЛМНОПРСТУФХЦЧШЩЬЪЭЮЯ 0123456789(). , !? «» : -; (пробел)

>   Измерение информации:   алфавитный подход   Сколько информации несет Измерение информации: алфавитный подход Сколько информации несет один символ в русском языке? Согласно 2 I = N, каждый символ несет I бит информации, которое можно определить из решения уравнения: 2 I = 54. Получаем: I = 5. 755 бит Таким образом, чтобы найти количество информации во всем тексте, нужно посчитать число символов в нем и умножить на I = 5. 755 бит.

>   Измерение информации:   алфавитный подход Посчитаем количество информации на одной Измерение информации: алфавитный подход Посчитаем количество информации на одной странице книги. Пусть страница содержит 50 строк. В каждой строке — 60 символов. Значит, на странице умещается 50 x 60=3000 знаков. Тогда объем информации будет равен: 5, 755 х 3000 = 17265 бит. При алфавитном подходе к измерению информации количество информации зависит не от содержания, а от размера текста и мощности алфавита.

>    Двоичный алфавит Если алфавит состоит только из двух символов 0 Двоичный алфавит Если алфавит состоит только из двух символов 0 и 1: N=2 2 I = N 2 I = 2 I=1 Каждый двоичный знак несет 1 бит информации. 1 бит – один разряд двоичного кода может принимать только два взаимоисключающих значения 1 или 0

>  Достаточный алфавит Удобнее всего измерять информацию, когда мощность   алфавита N Достаточный алфавит Удобнее всего измерять информацию, когда мощность алфавита N равна целой степени двойки. Например, при работе с компьютерной техникой удобен алфавит мощностью 256 символов: 256 = 28 Один символ этого алфавита «весит» 8 бит. Байт – это количество информации, которое можно передать с помощью 8 двоичных символов, т. е. восьмиразрядного двоичного кода. 1 байт = 8 бит

>Более крупные единицы информации 1 Килобайт (Кбайт) = 1024 байт = 210 байт 1 Более крупные единицы информации 1 Килобайт (Кбайт) = 1024 байт = 210 байт 1 Мегабайт (Мбайт) = 1024 Кбайт = 210 Кбайт 1 Гигабайт (Гбайт) = 1024 Мбайт = 210 Мбайт 1 Терабайт (Тбайт) = 1024 Гбайт = 210 Гбайт 1 Петабайт (Пбайт) = 1024 Тбайт = 210 Тбайт

>   Кодирование информации Кодирование – это выражение данных одного типа через данные Кодирование информации Кодирование – это выражение данных одного типа через данные другого с использованием некоторого кода. Код – это алфавит и система правил, на основе которых производится запись звука, графики, текста, числовых данных. С помощью компьютера информация любого типа преобразуется в двоичный код.

>  Двоичное кодирование текста Кодовая таблица ASCII (American Standard Code for  Information Двоичное кодирование текста Кодовая таблица ASCII (American Standard Code for Information Interchange): n Коды с 0 по 32 - коды операций (перевод строки, ввод пробела, т. е. соответствуют функциональным клавишам); n Коды с 33 по 127 – интернациональные, соответствуют символам латинского алфавита, цифрам, знакам арифметических операций, знакам препинания; n Коды с 128 по 255 – национальные, т. е. кодировка национального алфавита. Правило: На 1 символ отводится 1 байт (8 бит), всего можно закодировать 28 = 256 символов.

> Двоичное кодирование текста Существует 5 разных кодовых таблиц для русских букв (КОИ 8, Двоичное кодирование текста Существует 5 разных кодовых таблиц для русских букв (КОИ 8, СР 1251, СР 866, Mac, ISO). Широкое распространение получает новый международный стандарт Unicode – система 16 -разрядного кодирования: на каждый символ два байта. Unicode позволяет закодировать 65536 (216 = 65536 ) символов, что достаточно для представления большинства алфавитов национальных языков.

>   Кодирование графики  Растровое  Векторное   Фрактальное  изображение Кодирование графики Растровое Векторное Фрактальное изображение Представляет собой совокупность графических Базовым Изображение примитивов (точка, элементом разбивается на отрезок, эллипс и является сама отдельные т. д. ), каждый математическая маленькие описывается формула. В точки математическими памяти (пиксели), формулами. компьютера каждому Кодирование изображение присваивается зависти от строится только код цвета прикладной среды. по уравнениям. Могут изменять размеры без потери качества!

>   Кодирование цвета Для кодирования цвета используют несколько    систем: Кодирование цвета Для кодирования цвета используют несколько систем: q RGB: цвета получается сочетанием базовых – красного (Red), зеленого (Green), синего (Blue). Для сохранения информации о цвете отводится 3 байта - по 1 байту на каждый цвет. Чем больше значение байта цветовой составляющей, тем ярче этот цвет. Такой набор цветов принято называть True Color. Пример: n. Белый – 255, 255 (максимальная яркость всех цветов); n. Черный – 0, 0, 0 (отсутствие цветовых составляющих); n. Красный – 255, 0, 0; n. Серый – 150, 150 или 100, 100 в зависимости от яркости.

>   Кодирование цвета q HSB: характеризуется тремя компонентами оттенок цвета (Hue), насыщенность Кодирование цвета q HSB: характеризуется тремя компонентами оттенок цвета (Hue), насыщенность цвета (Saturation) и яркость цвета (Brightness). Регулируя их, можно получить большое количество произвольных цветов. Используется в графических редакторах для создания изображений.

>   Кодирование цвета CMYK: используется при подготовке публикаций к печати, в которой Кодирование цвета CMYK: используется при подготовке публикаций к печати, в которой каждому из основных цветов ставится в соответствие дополнительный цвет, дополняющий его до белого. Основными цветами являются голубой (Cyan), пурпурный (Magenta), желтый (Yellow) и черный (blac. K). Режим CMYK является полноцветным, для кодирования цвета каждого пикселя в этом режиме требуется 32 бита (4 байта) памяти.

>   Кодирование звука Временная дискретизация – способ преобразования звука в цифровую форму Кодирование звука Временная дискретизация – способ преобразования звука в цифровую форму путем разбивания звуковой волны на отдельные маленькие временные участки, где амплитуды этих участков квантуются (им присваивается определенное значение). Качество кодирования звука зависит от: 1) глубины кодирования звука – количество уровней звука 2) частоты дискретизации – количество изменений уровня сигнала в единицу времени (за 1 сек).

>  Системы счисления Система счисления - это совокупность правил и  приемов записи Системы счисления Система счисления - это совокупность правил и приемов записи чисел с помощью набора цифровых знаков (алфавита). Количество цифровых знаков называют основанием системы счисления. Различают два типа систем счисления: n позиционные, когда значение каждой цифры числа определяется ее местом (позицией) в записи числа; n непозиционные, когда значение цифры в числе не зависит от ее места в записи числа. Примеры: непозиционная система счисления - римская: IX, IV, XL, … позиционная система счисления - десятичная система: 0, 1, …, 9.

>В любой позиционной системе счисления целое число Xs, состоящее из n разрядов, может быть В любой позиционной системе счисления целое число Xs, состоящее из n разрядов, может быть представлено в виде: Xs={An. An-1. . . A 1 A 0}s=An. Sn+An-1 Sn-1+…+A 1 S 1+A 0 S 0, где S – основание системы счисления, (*) Ai – цифры числа. Примеры: 152110=1*100+2*101+5*102+1*103 1010012=1*20+1*23+1*25

>  Перевод чисел из любой системы счисления   в десятичную систему счисления Перевод чисел из любой системы счисления в десятичную систему счисления Пример 1. Пусть X=3718 Требуется перевести X в 10 -ю систему счисления. Для перевода запишем число в виде полинома и выполним действия в 10 -й системе X = 3 * 82 + 7 * 81 +1* 80 = 249 Пример 2. Пусть X= AF, 4 16 Требуется перевести X в 10 -ю систему. X = 10 *161 + 15*160 + 4 *16 -1 = 175, 25 Пример 3. Пусть 1010012 Требуется перевести X в 10 -ю систему. 1010012=1*20+1*23+1*25=1+8+32=4110

> Перевод целого числа из десятичной в   другую систему счисления  125/2 Перевод целого числа из десятичной в другую систему счисления 125/2 1 251/8 3 62/2 0 31/8 7 31/2 1 3 ↑ 15/2 1 25110 = 3738 7/2 1 251/16 3/2 1 11 1 ↑ 15 ↑ 12510 = 11111012 25110 = FB 16

> Соответствие десятичной, двоичной, восьмеричной и   шестнадцатеричной систем счисления  p=10 Соответствие десятичной, двоичной, восьмеричной и шестнадцатеричной систем счисления p=10 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 p=2 0 1 10 11 100 101 110 111 1000 1001 1010 1011 1100 1101 1110 1111 10000 p=8 0 1 2 3 4 5 6 7 10 11 12 13 14 15 16 17 20 p=16 0 1 2 3 4 5 6 7 8 9 A B C D E F 10

>    Двоичная арифметика Двоичное сложение   Двоичное вычитание 0 + Двоичная арифметика Двоичное сложение Двоичное вычитание 0 + 0 = 0 0 – 0 = 0 1 + 0 = 1 1 – 0 = 1 0 + 1 = 1 1 – 1 = 0 1 + 1 = 10 10 – 1 = 1 (При вычитании мы можем "занимать" единицу у Двоичное умножение следующего разряда) 0 * 0 = 0 1 * 0 = 0 0 * 1 = 0 1 * 1 = 1

>  Двоичная арифметика     11001 1101   110 Двоичная арифметика 11001 1101 110 * 1101 + 1011 - 11 11001 11000 011 + 11001 11001__ 101000101