Максимально допустимые ошибки обучения δmax пол и δmax меш примем равными 0,1.
Максимально допустимые ошибки обучения δmax пол и δmax меш примем равными 0,1. - раздел Науковедение, МЕТОДИЧЕСКИЕ УКАЗАНИЯ К КУРСОВОЙ РАБОТЕ ПО ДИСЦИПЛИНЕ СИСТЕМЫ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА 5. Расчет Вектора Весовых Коэффициентов Первого Нейронного Элемен-Та.
...
5. Расчет вектора весовых коэффициентов первого нейронного элемен-та.
5.1. Зададим следующие начальные значения компонент вектора весо-вых коэффициентов:
w11=0,3; w12=0,6; w13=0,5; w14=0,8.
5.2. На вход сети подаем первый сигнал, код которого равен 1100.
5.3. Для заданного начального значения весового вектора для первого сигнала (μ=1) определяется сетевая функция
net´1(1)= ,
где в качестве текущих значений составляющих весового вектора
Одесса ОНПУ 2011
Методические указания к курсовому проектированию по дисциплине
"Системы искусственного интеллекта" для студентов института радио-электроники и тел
График выполнения работы
В результате выполнения работы студент должен выполнить проектирование искусственной нейронной сети каждого из указанных типов, включая
- разработку структуры проектируемой сети;
Первая итерация
5.1. Задают начальное значение вектора весовых коэффициентов (ком-понент вектора) выбранного нейрона. Как правило на первом шаге значени-ям компонент весового вектора присваивают небольшие случайны
Вторая итерация
Для второй итерации в качестве начального значения вектора весовых коэффициентов используется значение, полученное на конечном шаге первой итерации.
5.12. Выполняются
Слои Кохоненна
В своей простейшей форме слой Кохонена функционирует в духе «победи-тель забирает все», т. е. для данного входного вектора один и только один нейрон Кохонена выдает на выходе логическую единицу, вс
Слой Гроссберга
Слой Гроссберга функционирует в сходной манере. Его выход net является взвешенной суммой выходов k1,k2, ..., kn слоя Кохонена, образующих ве
ОБУЧЕНИЕ СЛОЯ КОХОНЕНА
Слой Кохонена классифицирует входные векторы в группы схожих. Это достигается с помощью такой подстройки весов слоя Кохонена, что близкие входные векторы активируют один и тот же нейрон данного сло
Предварительная обработка входных векторов
Весьма желательно (хотя и не обязательно) нормализовать входные векторы перед тем, как предъявлять их сети. Это выполняется с помощью деления каждой компоненты входного вектора на длину вектора. Эт
Выбор начальных значений весовых векторов
Всем весам сети перед началом обучения следует придать начальные зна-чения. Общепринятой практикой при работе с нейронными сетями является присваивание весам небольших случайных значений. При обуче
ОБУЧЕНИЕ СЛОЯ ГРОССБЕРГА
Слой Гроссберга обучается относительно просто. Входной вектор, явля-ющийся выходом слоя Кохонена, подается на слой нейронов Гроссберга, и выходы слоя Гроссберга вычисляются, как при нормальном функ
V12=1; v22=0; v32=0; v42=1.
Если привязать эти коэффициенты к нейронам слоя Гроссберга, то соот-ветственно вектора весовых коэффициентов каждого нейрона Гроссберга когут бать представлены в виде:
V1T
Хотите получать на электронную почту самые свежие новости?
Подпишитесь на Нашу рассылку
Наша политика приватности обеспечивает 100% безопасность и анонимность Ваших E-Mail
Новости и инфо для студентов