Скачать презентацию Эволюционирующие искусственные нейронные сети Спицын В Г Скачать презентацию Эволюционирующие искусственные нейронные сети Спицын В Г

65308d03f8df9c8edd9ba71333480c86.ppt

  • Количество слайдов: 30

Эволюционирующие искусственные нейронные сети Спицын В. Г. , Цой Ю. Р. Кафедра вычислительной техники, Эволюционирующие искусственные нейронные сети Спицын В. Г. , Цой Ю. Р. Кафедра вычислительной техники, Томский политехнический университет qai@mail. ru 2006 г.

Содержание 1. 2. 3. 4. 5. 6. 7. 8. 9. Введение Искусственные нейронные сети Содержание 1. 2. 3. 4. 5. 6. 7. 8. 9. Введение Искусственные нейронные сети (ИНС) Эволюционные вычисления (ЭВ) Нейроэволюционный (НЭ) подход Задачи с качественной оценкой ИНС Пример применения НЭ для обработки изображений Перспективы НЭ подхода Конференции и журналы Интернет-ресурсы Спицын В. Г. , Цой Ю. Р. Эволюционирующие искусственные нейронные сети. IV Всероссийская конференция «Молодежь и современные ИТ» , Томск, 28 февраля – 2 марта, 2006.

1. Введение Многие задачи можно в общем виде рассматривать как задачи построения отображения: X 1. Введение Многие задачи можно в общем виде рассматривать как задачи построения отображения: X Y, где X и Y – соответственно пространства входных и выходных параметров. Примеры: 1. Управление и принятие решений. По имеющимся данным (X) необходимо выбрать одно из возможных действий (Y). 2. Классификация и распознавание. Зная входные признаки (X) объекта нужно определить принадлежность этого объекта к одному из известных классов (Y). 3. Аппроксимация и моделирование. Необходимо определить с заданной погрешностью значение выходного сигнала (Y) по имеющимся входным сигналам (X). Спицын В. Г. , Цой Ю. Р. Эволюционирующие искусственные нейронные сети. IV Всероссийская конференция «Молодежь и современные ИТ» , Томск, 28 февраля – 2 марта, 2006.

2. Искусственные нейронные сети (ИНС) (1/2) Формальный нейрон: x 0 x 1 xn Примеры 2. Искусственные нейронные сети (ИНС) (1/2) Формальный нейрон: x 0 x 1 xn Примеры функций активации: w 0 w 1 . . . w 2 Сумматор Преобразователь – функция активации нейрона Спицын В. Г. , Цой Ю. Р. Эволюционирующие искусственные нейронные сети. IV Всероссийская конференция «Молодежь и современные ИТ» , Томск, 28 февраля – 2 марта, 2006.

2. Искусственные нейронные сети (ИНС) (2/2) Пример многослойной ИНС: Выходной сигнал (в векторной форме): 2. Искусственные нейронные сети (ИНС) (2/2) Пример многослойной ИНС: Выходной сигнал (в векторной форме): ИНС может аппроксимировать любую непрерывную функцию, если функции активации будут нелинейными (Колмогоров, 1956, 1957; Арнольд, 1957; Горбань, 1998). Основные параметры ИНС: Структура. Веса связей. Спицын В. Г. , Цой Ю. Р. Эволюционирующие искусственные нейронные сети. IV Всероссийская конференция «Молодежь и современные ИТ» , Томск, 28 февраля – 2 марта, 2006.

3. Эволюционные вычисления (1/2) Эволюционные вычисления (ЭВ) используют для работы принципы наследственности, изменчивости и 3. Эволюционные вычисления (1/2) Эволюционные вычисления (ЭВ) используют для работы принципы наследственности, изменчивости и естественного отбора. Задача оптимизации: 1. «Стандартный» подход. Имеется точка в пространстве возможных решений (пространство поиска). По некоторому правилу координаты точки последовательно изменяются, чтобы приблизиться к локальному (либо глобальному) экстремуму оптимизируемой функции. 2. Эволюционный подход. Имеется n точек (популяция). В соответствии с определенной стратегией выбирается часть этих точек (родительские особи) и их координаты (хромосомы) используются для генерации n новых точек (потомки). Спицын В. Г. , Цой Ю. Р. Эволюционирующие искусственные нейронные сети. IV Всероссийская конференция «Молодежь и современные ИТ» , Томск, 28 февраля – 2 марта, 2006.

3. Эволюционные вычисления (2/2) Основное преимущество ЭВ: Представляют универсальный проблемно-независимый подход к поиску оптимальных 3. Эволюционные вычисления (2/2) Основное преимущество ЭВ: Представляют универсальный проблемно-независимый подход к поиску оптимальных и субоптимальных решений. Основные разновидности ЭВ: 1. Генетический алгоритм. 2. Эволюционное программирование. 3. Эволюционные стратегии. 4. Генетическое программирование. Сложность настроенного эволюционного алгоритма часто имеет порядок O(Nln. N) - O(N 2 ln. N). Спицын В. Г. , Цой Ю. Р. Эволюционирующие искусственные нейронные сети. IV Всероссийская конференция «Молодежь и современные ИТ» , Томск, 28 февраля – 2 марта, 2006.

4. Нейроэволюционный подход (1/6) Нейроэволюционный подход = Эволюционные вычисления + Искусственные нейронные сети Некоторые 4. Нейроэволюционный подход (1/6) Нейроэволюционный подход = Эволюционные вычисления + Искусственные нейронные сети Некоторые задачи: - настройка весов связей ИНС; - настройка структуры ИНС; - одновременная настройка структуры и весов связей ИНС; - настройка параметров алгоритма обучения ИНС; - фильтрация данных для обучения ИНС. Спицын В. Г. , Цой Ю. Р. Эволюционирующие искусственные нейронные сети. IV Всероссийская конференция «Молодежь и современные ИТ» , Томск, 28 февраля – 2 марта, 2006.

4. Нейроэволюционный подход (2/6) n Настройка весов связей ИНС Плюсы: + независимость от структуры 4. Нейроэволюционный подход (2/6) n Настройка весов связей ИНС Плюсы: + независимость от структуры и параметров ИНС; + отсутствие необходимости в обучающей выборке. … … Хромосома Минусы: - трудность «тонкой» настройки весов; - требования к объему памяти; - проблема конкурирующих решений. Спицын В. Г. , Цой Ю. Р. Эволюционирующие искусственные нейронные сети. IV Всероссийская конференция «Молодежь и современные ИТ» , Томск, 28 февраля – 2 марта, 2006.

4. Нейроэволюционный подход (3/6) n Проблема конкурирующих решений (competing conventions problem, Whitley et al. 4. Нейроэволюционный подход (3/6) n Проблема конкурирующих решений (competing conventions problem, Whitley et al. , 1990) Также известна как проблема перестановок (permutations problem, Saravanan, Fogel, 1995). Считается, что случайная рекомбинация идентичных ИНС приведет к разрушению имеющихся «хороших» НС. Спицын В. Г. , Цой Ю. Р. Эволюционирующие искусственные нейронные сети. IV Всероссийская конференция «Молодежь и современные ИТ» , Томск, 28 февраля – 2 марта, 2006.

4. Нейроэволюционный подход (4/6) n Настройка структуры ИНС Плюсы: + возможность автоматического поиска топологии 4. Нейроэволюционный подход (4/6) n Настройка структуры ИНС Плюсы: + возможность автоматического поиска топологии ИНС; + независимость от характеристик функции активации нейронов. Структура ИНС Хромосома Минусы: - сложность оценки структуры ИНС; - сложность организации поиска топологии ИНС. Спицын В. Г. , Цой Ю. Р. Эволюционирующие искусственные нейронные сети. IV Всероссийская конференция «Молодежь и современные ИТ» , Томск, 28 февраля – 2 марта, 2006.

4. Нейроэволюционный подход (5/6) n Настройка структуры ИНС (продолжение) Способы кодирования информации о структуре 4. Нейроэволюционный подход (5/6) n Настройка структуры ИНС (продолжение) Способы кодирования информации о структуре ИНС: 1. Прямое кодирование (direct encoding). Пример: список связей, матрица смежности и др. 2. Косвенное кодирование (indirect encoding). 2. 1. Кодирование параметров (например, количество слоев и нейронов). 2. 2. Использование специализированных грамматик. 2. 2. 1. Эволюция грамматических правил. 2. 2. 2. Эволюция последовательности использования правил. Спицын В. Г. , Цой Ю. Р. Эволюционирующие искусственные нейронные сети. IV Всероссийская конференция «Молодежь и современные ИТ» , Томск, 28 февраля – 2 марта, 2006.

4. Нейроэволюционный подход (6/6) n Одновременная настройка весов и структуры ИНС Плюсы: + независимость 4. Нейроэволюционный подход (6/6) n Одновременная настройка весов и структуры ИНС Плюсы: + независимость от структуры и параметров ИНС; + отсутствие необходимости в обучающей выборке; + возможность автоматического поиска топологии ИНС. … … структура Хромосома* * Хромосома представлена схематично Минусы: - трудность «тонкой» настройки весов; - требования к объему памяти. - сложность организации поиска топологии ИНС. Спицын В. Г. , Цой Ю. Р. Эволюционирующие искусственные нейронные сети. IV Всероссийская конференция «Молодежь и современные ИТ» , Томск, 28 февраля – 2 марта, 2006.

5. Задачи с качественной оценкой ИНС (1/4) НС преобразование: «Стандартное» обучение ИНС с учителем 5. Задачи с качественной оценкой ИНС (1/4) НС преобразование: «Стандартное» обучение ИНС с учителем использует обучающую выборку: множество пар векторов. Для подстройки весов связей ИНС используется информация о расхождении реального и требуемого выходных сигналов. Типичная оценка ИНС: Некоторые проблемы использования обучающей выборки: 1. Необходимость переформулирования исходной задачи. 2. Сложность определения компонент «эталонных» выходных векторов. 3. Большинство обучающих алгоритмов предполагают дифференцируемость функции оценки ИНС. Спицын В. Г. , Цой Ю. Р. Эволюционирующие искусственные нейронные сети. IV Всероссийская конференция «Молодежь и современные ИТ» , Томск, 28 февраля – 2 марта, 2006.

5. Задачи с качественной оценкой ИНС (2/4) Предлагается использование приближенной, интегральной оценки ИНС, отражающей 5. Задачи с качественной оценкой ИНС (2/4) Предлагается использование приближенной, интегральной оценки ИНС, отражающей внешние, качественные аспекты ее функционирования. Будем называть оценку ИНС качественной неполной оценкой или, коротко, качественной оценкой, если эта оценка позволяет с требуемой точностью оценить качество функционирования ИНС, но при этом ее значения недостаточно для подстройки весов связей ИНС с использованием градиентных алгоритмов. Примеры качественной оценки: 1. Время поддержания стабильности системы управления. 2. Успешность действий интеллектуального агента. 3. Качество (информативность и т. д. ) обработанных данных. Спицын В. Г. , Цой Ю. Р. Эволюционирующие искусственные нейронные сети. IV Всероссийская конференция «Молодежь и современные ИТ» , Томск, 28 февраля – 2 марта, 2006.

6. Пример применения НЭ для обработки изображений (1/5) Используется локально-адаптивный подход: Каждый пиксель изображения 6. Пример применения НЭ для обработки изображений (1/5) Используется локально-адаптивный подход: Каждый пиксель изображения обрабатывается в соответствии с характеристиками пикселей в его окрестности. Преобразование яркости в векторном виде: – вектор характеристик пикселя на пересечении i-й строки и j-го столбца изображения Спицын В. Г. , Цой Ю. Р. Эволюционирующие искусственные нейронные сети. IV Всероссийская конференция «Молодежь и современные ИТ» , Томск, 28 февраля – 2 марта, 2006.

6. Пример применения НЭ для обработки изображений (2/5) Рассматривается попиксельная обработка изображений. ИНС Вход 6. Пример применения НЭ для обработки изображений (2/5) Рассматривается попиксельная обработка изображений. ИНС Вход ИНС (обучение): - средняя яркость в окрестности 3 х3; - дисперсия в окрестности 3 х3; - средняя яркость на всем изображении. Оценка ИНС: средняя оценка качества обработанных изображений. ИНС Вход ИНС (тестирование): - яркость пикселя (x, y); - приближенная дисперсия локальной яркости; - приближенное среднее локальной яркости. Спицын В. Г. , Цой Ю. Р. Эволюционирующие искусственные нейронные сети. IV Всероссийская конференция «Молодежь и современные ИТ» , Томск, 28 февраля – 2 марта, 2006.

6. Пример применения НЭ для обработки изображений (3/5) Двухэтапная обработка изображений: 1 этап. НС 6. Пример применения НЭ для обработки изображений (3/5) Двухэтапная обработка изображений: 1 этап. НС обработка с использованием локальных характеристик (среднее и дисперсия яркости). 2 этап. Автовыравнивание уровней. Пример: Исходное изображение 1 этап, окрестность 5 х5 2 этап Спицын В. Г. , Цой Ю. Р. Эволюционирующие искусственные нейронные сети. IV Всероссийская конференция «Молодежь и современные ИТ» , Томск, 28 февраля – 2 марта, 2006.

6. Пример применения НЭ для обработки изображений (2/5) Сравнение различных алгоритмов для 1 -го 6. Пример применения НЭ для обработки изображений (2/5) Сравнение различных алгоритмов для 1 -го этапа обработки: Исходное изображение Автоконтраст НС обработка Нижнее исходное изображение взято из работы Woodell G. A. , Jobson D. J. , Rahman Z. , Hines G. D. Enhancement of imagery in poor visibility conditions // Sensors, and Command, Control, Communications, and Intelligence (C 3 I) Technologies for Homeland Security and Homeland Defense IV, Proc. SPIE 5778, 2005. Далее (Woodell et al. , 2005). Спицын В. Г. , Цой Ю. Р. Эволюционирующие искусственные нейронные сети. IV Всероссийская конференция «Молодежь и современные ИТ» , Томск, 28 февраля – 2 марта, 2006.

6. Пример применения НЭ для обработки изображений (4/5) Сравнение с алгоритмом Multi-Scale Retinex (MSR) 6. Пример применения НЭ для обработки изображений (4/5) Сравнение с алгоритмом Multi-Scale Retinex (MSR) (Woodell et al. , 2005): Двухэтапная обработка с локальными характеристиками Multi-Scale Retinex (MSR) Спицын В. Г. , Цой Ю. Р. Эволюционирующие искусственные нейронные сети. IV Всероссийская конференция «Молодежь и современные ИТ» , Томск, 28 февраля – 2 марта, 2006.

6. Пример применения НЭ для обработки изображений (5/5) 12, 367 0, 211 -13, 033 6. Пример применения НЭ для обработки изображений (5/5) 12, 367 0, 211 -13, 033 Некоторые из обученных ИНС могут использоваться в качестве детектора края с сохранением части тоновой информации при точном вычислении локальных характеристик. Усиление границ достигается посредством настройки параметра а функции активации нейронов: a = 2, окрестность 3 х3 a = 5, окрестность 3 х3 Исходные изображения взяты из работы (Woodell et al. , 2005). Спицын В. Г. , Цой Ю. Р. Эволюционирующие искусственные нейронные сети. IV Всероссийская конференция «Молодежь и современные ИТ» , Томск, 28 февраля – 2 марта, 2006.

7. Перспективы НЭ подхода (1/2) НЭ является унифицированным подходом к решению широкого спектра задач 7. Перспективы НЭ подхода (1/2) НЭ является унифицированным подходом к решению широкого спектра задач классификации, аппроксимации, управления, моделирования, диагностики, распознавания и др. Использование НЭ подхода целесообразно, если существующие аналитические методы не позволяют получить приемлемое решение при разумных затратах ресурсов. Развитие НЭ подхода во многом зависит от полученных результатов в области ИНС, эволюционных вычислений, нечеткой логики, теории сложных систем, биологии и ряда других направлений исследований. Спицын В. Г. , Цой Ю. Р. Эволюционирующие искусственные нейронные сети. IV Всероссийская конференция «Молодежь и современные ИТ» , Томск, 28 февраля – 2 марта, 2006.

7. Перспективы НЭ подхода (2/2) Некоторые задачи, которые потенциально можно решить с использованием НЭ: 7. Перспективы НЭ подхода (2/2) Некоторые задачи, которые потенциально можно решить с использованием НЭ: 1. Создание универсальных адаптивных обучающихся систем обработки данных. 2. Исследование развития интеллектуальных способностей агентов в моделях искусственной жизни и эволюционном моделировании. 3. Синтез таблицы правил клеточных автоматов для моделирования и предсказания нелинейных процессов с хаотической динамикой. 4. Разработка новых концепций и подходов к созданию интеллектуальных систем через их (само)развитие (например, на основе концепции нейродарвинизма Дж. Эдельмана). Спицын В. Г. , Цой Ю. Р. Эволюционирующие искусственные нейронные сети. IV Всероссийская конференция «Молодежь и современные ИТ» , Томск, 28 февраля – 2 марта, 2006.

8. Конференции и журналы (1/2) Конференции: § IEEE International Joint Conference on Neural Networks 8. Конференции и журналы (1/2) Конференции: § IEEE International Joint Conference on Neural Networks (IJCNN) (http: //www. wcci 2006. org). § IEEE Congress on Evolutionary Computation (CEC) (http: //www. wcci 2006. org). § International Conference on Artificial Neural Networks (ICANN) (http: //www. icann 2006. org). § Genetic and Evolutionary Computation Conference (GECCO) (http: //www. sigevo. org/). § Parallel Problems Solving from Nature (PPSN) (http: //ppsn 2006. raunvis. hi. is). § Нейроинформатика (http: //ni. iont. ru/). § Национальная конференция по искусственному интеллекту (КИИ) (http: //www. raai. org/). Спицын В. Г. , Цой Ю. Р. Эволюционирующие искусственные нейронные сети. IV Всероссийская конференция «Молодежь и современные ИТ» , Томск, 28 февраля – 2 марта, 2006.

8. Конференции и журналы (2/2) Журналы: § IEEE Transactions on Neural Networks (http: //ieee-cis. 8. Конференции и журналы (2/2) Журналы: § IEEE Transactions on Neural Networks (http: //ieee-cis. org/pubs/tnn/). § IEEE Transactions on Evolutionary Computation (http: //ieee-cis. org/pubs/tec/). § Evolutionary Computation (http: //www-mitpress. mit. edu). § «Нейрокомпьютеры: разработка и применение» (http: //www. radiotec. ru/catalog. php? cat=jr 7). § Электронный журнал «Нейроинформатика» (http: //ni. iont. ru/Journal/Polojenie. htm). § «Интеллектуальные системы» (http: //intsys. msu. ru/magazine/). Спицын В. Г. , Цой Ю. Р. Эволюционирующие искусственные нейронные сети. IV Всероссийская конференция «Молодежь и современные ИТ» , Томск, 28 февраля – 2 марта, 2006.

9. Интернет-ресурсы (1/2) IEEE Computer Intelligence Society: http: //ieee-cis. org/ § Special Interest Group 9. Интернет-ресурсы (1/2) IEEE Computer Intelligence Society: http: //ieee-cis. org/ § Special Interest Group for Genetic and Evolutionary Computation (SIGEVO): http: //www. sigevo. org/ § Российская ассоциация нейроинформатики: http: //ni. iont. ru/ § Российская ассоциация искусственного интеллекта: http: //www. raai. org/ § Neural Networks Research Group: http: //nn. cs. utexas. edu/ § Страница З. Яо (Xin Yao): http: //www. cs. bham. ac. uk/~xin § Спицын В. Г. , Цой Ю. Р. Эволюционирующие искусственные нейронные сети. IV Всероссийская конференция «Молодежь и современные ИТ» , Томск, 28 февраля – 2 марта, 2006.

9. Интернет-ресурсы (2/2) Страница В. Г. Редько: http: //www. iont. ru/staff/rvg/index_rus. php § Страница 9. Интернет-ресурсы (2/2) Страница В. Г. Редько: http: //www. iont. ru/staff/rvg/index_rus. php § Страница С. А. Терехова: http: //alife. narod. ru/ § Citeseer: http: //citeseer. ist. psu. edu/ § (БНБ) Большая Научная Библиотека: http: //sci-lib. com/full. php § Библиотека ДВО СО РАН: http: //chaos. dvo. ru/lib. htm § Поиск книг: http: //www. poiskknig. ru/ § Спицын В. Г. , Цой Ю. Р. Эволюционирующие искусственные нейронные сети. IV Всероссийская конференция «Молодежь и современные ИТ» , Томск, 28 февраля – 2 марта, 2006.

Спасибо за внимание! http: //qai. narod. ru/Publications/talk. pps По материалам статьи: http: //ni. iont. Спасибо за внимание! http: //qai. narod. ru/Publications/talk. pps По материалам статьи: http: //ni. iont. ru/Journal/N 1/Tsoy. Sp. pdf Использованы карикатуры с сайта http: //www. elkin. ru

Приложение 1. Оценка качества изображений. Оценка качества обработанного изображения: m – количество пикселей на Приложение 1. Оценка качества изображений. Оценка качества обработанного изображения: m – количество пикселей на краях на обработанном изображении, a и b – соответственно ширина и высота изображения в пикселях, li – доля пикселей обработанного изображения с i-м уровнем яркости. Спицын В. Г. , Цой Ю. Р. Эволюционирующие искусственные нейронные сети. IV Всероссийская конференция «Молодежь и современные ИТ» , Томск, 28 февраля – 2 марта, 2006.

Приложение 2. Приближенное вычисление локальных характеристик изображения Рассматривается прямоугольная окрестность пикселя (x, y), ограниченная Приложение 2. Приближенное вычисление локальных характеристик изображения Рассматривается прямоугольная окрестность пикселя (x, y), ограниченная точками (j 1 ; i 1) и (j 2 ; i 2), причем i 2 i 1, j 2 j 1. . Предполагая плавное изменение яркости на изображении, а также малый размер окрестности, можно свести вычисления локальных характеристик по всем пикселям окрестности к вычислению по произвольной строке или столбцу окрестности. Для более точных вычислений используются следующие формулы: где - средняя яркость на всем изображении, Спицын В. Г. , Цой Ю. Р. Эволюционирующие искусственные нейронные сети. IV Всероссийская конференция «Молодежь и современные ИТ» , Томск, 28 февраля – 2 марта, 2006.