Docsity
Docsity

Подготовься к экзаменам
Подготовься к экзаменам

Учись благодаря многочисленным ресурсам, которые есть на Docsity


Получи баллы для скачивания
Получи баллы для скачивания

Заработай баллы, помогая другим студентам, или приобретай их по тарифом Премиум


Руководства и советы
Руководства и советы

Обзор и анализ нейросетей реферат 2010 по информатике , Сочинения из Информатика

Обзор и анализ нейросетей реферат 2010 по информатике

Вид: Сочинения

2016/2017

Загружен 12.04.2017

refbank20406
refbank20406 🇷🇺

4.5

(6)

10 документы

1 / 22

Toggle sidebar

Сопутствующие документы


Частичный предварительный просмотр текста

Скачай Обзор и анализ нейросетей реферат 2010 по информатике и еще Сочинения в формате PDF Информатика только на Docsity! Введение При современном уровне развития техники, когда даже бытовые приборы оснащаются микропроцессорными устройствами, все более актуальным становится разработка новых систем автоматического управления. Но в связи с возрастающей сложностью объектов управления и с увеличением требований к системам управления за последнее десятилетие резко повысилась необходимость в создании более точных, более надежных систем управлении, обладающих большими функциональными возможностями. Интеллектуальные системы на основе искусственных нейронных сетей (ИНС) позволяют с успехом решать проблемы идентификации и управления, прогнозирования, оптимизации. Известны и другие, более традиционные подходы к решению этих проблем, однако они не обладают необходимой гибкостью и имеют существенные ограничения на среду функционирования. Нейронные сети позволяют реализовать любой требуемый для процесса нелинейный алгоритм управления при неполном, неточном описании объекта управления (или даже при отсутствии описания), создавать мягкую адаптацию, обеспечивающую устойчивость системе при нестабильности параметров. ИНС могут применяться для различных задач: аппроксимация функций, идентификация, прогнозирование, управление, классификация образов, категоригизация, оптимизация. Широкий круг задач, решаемый НС, не позволяет в настоящее время создавать универсальные, мощные сети, вынуждая разрабатывать специализированные НС, функционирующие по различным алгоритмам. В данной работе рассматривается возможность применения искусственной нейросети регулятора. Проблема синтеза нейросетевых регуляторов рассматривается с двух позиций, а именно: прямые методы синтеза и косвенные методы синтеза нейросетевых систем управления. В данном случае рассматриваются прямые методы синтеза нейросетевых регуляторах совместно с наблюдающими устройствами. Адресация не по содержанию Адресация по содержанию Вычисления Централизованные Последовательные Хранимые программы Распределенные Параллельные Самообучение Надежность Высокая уязвимость Живучесть Специализация Численные и символьные операции Проблемы восприятия Среда функционирования Строго определена Строго ограничена Без ограничений 1.2 Области применения нейронных сетей Искусственные нейронные сети в настоящее время широко используются при решении самых разных задач и активно применяются там, где обычные алгоритмические решения оказываются неэффективными или вовсе невозможными. В числе задач, решение которых доверяют искусственным нейронным сетям, можно назвать следующие: распознавание текстов, системы безопасности и видео-наблюдения, автоматизация процессов распознавания образов, адаптивное управление, аппроксимация функционалов, прогнозирование – и это далеко не все. С помощью нейросетей можно выполнять распознавание оптических или звуковых сигналов. Аппаратные реализации ИНС идеально подходят для решения задач идентификации и управления, так как обеспечивают, благодаря параллельной структуре, чрезвычайно высокую скорость выполнения операций. Описанные возможности в основном относятся к слоистым нейронным сетям, обучаемым алгоритмом обратного распространения, и растущим нейронным сетям на основе вариантов алгоритма каскадной корреляции. Но существуют и другие классы нейронных сетей − нейросети ассоциативной памяти, нейросети для квантования данных, сжатия данных путем построения главных независимых компонент, нейронные сети для разделения смеси сигналов и др. Т.е. круг задач, решаемых нейронными сетями, очень и очень широк, поскольку широк и сам набор нейросетевых алгоритмов. 1.3 Классификация нейронных сетей Существует широкий спектр достаточно универсальных способов организации инструментальных средств и собственно процесса применения нейронных сетей на различной программно-аппаратной базе. Всегда можно подобрать наиболее оптимальный для некоторой задачи − всё определяется свойствами задачи и требованиями к решению. Однако применение нейросетей осложняется рядом причин. Нельзя придумать какую то одну универсальную ИНС, которая бы подошла для различных типов задач. Нейросети используют в двух вариантах: 1) Строится нейросеть, решающая определенный класс задач, 2) Под каждый экземпляр задачи строится некоторая нейросеть, находящая квази-оптимальное решение этой задачи. Существуют несколько видов нейросетей. Их классификация представлена на рисунке 1.1 Рисунок 1.1 Классификация ИНС Наиболее распространенным семейством сетей прямого действия являются нейрона F в выходной сигнал y. Математически это можно выразить формулой: , (1.2) где n – размерность вектора входов, w0 – «нейронное смещение», вводимое для инициализации сети, - подключается к неизменяемому входу +1, F – активационная функция нейрона. Нейроны могут группироваться в сетевую структуру различным образом. Функциональные особенности нейронов и способ их объединения в сетевую структуру определяет особенности нейросети. Для решения задач идентификации и управления наиболее адекватными являются многослойные нейронные сети (МНС) прямого действия или многослойные персептроны. При проектировании МНС нейроны объединяют в слои, каждый из которых обрабатывает вектор сигналов от предыдущего слоя. Минимальной реализацией является двухслойная нейронная сеть, состоящая из входного (распределительного), промежуточного (скрытого) и выходного слоя. Рисунок 1.4 Структурная схема двухслойной нейронной сети. Реализация модели двухслойной нейронной сети прямого действия имеет следующее математическое представление: , (1.7) где nφ – размерность вектора входов φ нейронной сети; nh – число нейронов в скрытом слое; θ – вектор настраиваемых параметров нейронной сети, включающий весовые коэффициениы и нейронные смещения (wji, Wij) fj(x) – активационная функция нейронов скрытого слоя; Fi(x) – активационная функция нейронов выходного слоя. Персептрон представляет собой сеть, состоящую из нескольких последовательно соединенных слоев формальных нейронов (рисунок 1.3). На низшем уровне иерархии находится входной слой, состоящий из сенсорных элементов, задачей которого является только прием и распространение по сети входной информации. Далее имеются один или, реже, несколько скрытых слоев. Каждый нейрон на скрытом слое имеет несколько входов, соединенных с выходами нейронов предыдущего слоя или непосредственно со входными сенсорами φ1..φn, и один выход. Нейрон характеризуется уникальным вектором настраиваемых параметров θ. Функция нейрона состоит в вычислении взвешенной суммы его входов с дальнейшим нелинейным преобразованием ее в выходной сигнал: 1.5 Обучение нейронной сети Следующий этап создания нейросети – это обучение. Способность к обучению является основным свойством мозга. Для искусственных нейронных сетей под обучением понимается процесс настройки архитектуры сети (структуры связей между нейронами) и весов синаптических связей (влияющих на сигналы коэффициентов) для эффективного решения поставленной задачи. Обычно обучение нейронной сети осуществляется на некоторой выборке. По мере процесса обучения, который происходит по некоторому алгоритму, сеть должна все лучше и лучше (правильнее) реагировать на входные сигналы. Выделяют три типа обучения: с учителем, самообучение и смешанный. В первом способе известны правильные ответы к каждому входному примеру, а веса подстраиваются так, чтобы минимизировать ошибку. Обучение без учителя позволяет распределить образцы по категориям за счет раскрытия внутренней структуры и природы данных, выходы НС формируются самостоятельно, а веса изменяются по алгоритму, учитывающему только входные и производные от них сигналы. При смешанном обучении комбинируются два вышеизложенных подхода. Поскольку ошибка зависит от весов нелинейно, получить решение в аналитической форме невозможно, и поиск глобального минимума осуществляется посредством итерационного процесса – так называемого обучающего алгоритма. Разработано уже более сотни разных обучающих алгоритмов, отличающихся друг от друга стратегией оптимизации и критерием ошибок. Обычно в качестве меры погрешности берется средняя квадратичная ошибка (СКО): (1.8) где М – число примеров в обучающем множестве; d – требуемый выходной сигнал; y – полученный выходной сигнал. Обучение нейросети производится методом градиентного спуска, т. е. на каждой итерации изменение веса производится по формуле. Рисунок 1.6. Обучение нейроконтроллера при помощи алгоритма обратного распространения ошибки. 2.1 Разработка нейросевого регулятора с наблюдающим устройством. Использование нейроконтроллера Model Reference Control В качестве примера использования нейросети показан нейросетевой регулятор с наблюдающим устройством. Данный регулятор компенсирует нелинейную составляющую ускорения манипулятора, обусловленную действием силы тяжести. Объект управления и его математическое описание представлены ниже. Рука вращается в вертикальной плоскости и имеет одну степень свободы. Рисунок 3.1 Схема движения руки робота Уравнение движения руки робота: (3.1) где φ – угол поворота руки, u – вращающий момент двигателя постоянного тока. Составляющая ускорения -10sinφ учитывает силу тяжести. Необходимо, чтобы рука робота двигалась в соответствии с уравнением: Рисунок 3.4 Структурная схема эталонной модели. Рисунок 3.5 Желаемый переходный процесс объекта управления. В качестве среды для разработки и моделирования нейросети был выбран программный продукт фирмы MathWorks, Inc. – MatLab, версия 6.5.0.1. MatLab, из всех доступных программных продуктов обладает наиболее широкими возможностями как для моделирования, в том числе и для моделирования нейросетей. Блок Model Reference Control (модель эталонного управления) содержит в своем составе две нейросети: нейроконтроллер и наблюдатель. Обучение нейросети происходит в два этапа. Сначала идентифицируется нейросетевой наблюдатель, затем обучается нейроконтроллер таким образом, чтобы выходной сигнал ОУ следовал за управляющим сигналом. Структура нейросети изображена на рисунке 5.5 Рисунок 5.5. Упрощенная структурная схема нейросетевого контроллера Взаимосвязь между нейросетью и объектом управления в процессе обучения показана на рисунке 5.5 5.5. Обучение нейросети Model Reference Control. Ошибка наблюдения и ошибка управления используются в обучении соответственно нейросетевого контроллера и нейросетевого наблюдателя. Рисунок 5.6. Управление Model Reference Control. Данная архитектура нейросети обучается с использованием алгоритма обратного распространения ошибки (backpropagation). Параметры обучения нейросетевого наблюдающего устройства: • Число скрытых слоев в нейросети – 10. • Интервал выборки – 0,05. • Число примеров обучения – 10000. • Ограничение выходных данных: • максимальный выход модели – 3,1. • минимальный выход модели – -3,1. • Максимальный выход модели – 15. • Минимальный выход модели – -15. • Число эпох обучения – 300. Параметры обучения нейроконтроллера: • Число скрытых слоев в нейросети – 13. • Интервал выборки – 0,05. • Число примеров обучения – 6000. • Число эпох обучения – 10. • Сегментов обучения – 30. Управление объектом Схема моделирования с использованием нейроконтроллера Model Reference Control показана на рисунке 5.7. Рисунок 5.7. Структурная схема модели с использованием нейроконтроллера Model Reference Controller Параметры модели: • управляющий сигнал изменяется случайно; • интервал изменения уровня управляющего сигнала [-0.5; 0.5] • интервал изменения временного интервала – 10 с. Рисунок 5.8 Переходный процесс объекта под управлением NARMA-L2 Нейроконтроллер с нейросетевым наблюдающим устройством позволяет получить устойчивое движение и желаемую траекторию во всем фазовом пространстве. Полностью компенсирует нелинейную составляющую ускорения руки робота.
Docsity logo