Если ошибка сети на контрольном множестве стала расти это означает что

Главная / Искусственный интеллект и робототехника /
Основы теории нейронных сетей / Тест 5

Упражнение 1:


Номер 1

К переобучению склонны сети с:

Ответ:

(1) большим числом весов 

(2) большим числом слоев 

(3) малым числом весов 

(4) малым числом слоев 


Номер 2

Какая сеть может оказаться недостаточно гибкой, для того чтобы смоделировать имеющуюся зависимость?

Ответ:

(1) сеть с большим числом весов 

(2) сеть с большим числом слоев 

(3) сеть с малым числом весов 

(4) сеть с малым числом слоев 


Номер 3

Проблема переобучения заключается в:

Ответ:

(1) слишком близкой подгонке к имеющимся значениям обучающего множества 

(2) увеличении точности вычислений за счет большого увеличения необходимого для обучения времени 

(3) минимизации локальных ошибок в ущерб минимизации глобальной ошибки 


Номер 4

Если сеть имеет очень большое число нейронов в скрытых слоях, то:

Ответ:

(1) возможно переобучение сети 

(2) сеть может оказаться недостаточно гибкой для решения поставленной задачи 

(3) время, необходимое на обучение сети, минимально 


Номер 5

Если сеть имеет небольшое число нейронов в скрытых слоях, то:

Ответ:

(1) возможно переобучение сети 

(2) сеть может оказаться недостаточно гибкой для решения поставленной задачи 

(3) время, необходимое на обучение сети, может оказаться очень большим 


Упражнение 2:


Номер 1

При методе кросс-проверки считается, что множество обучающихся пар некорректно разделено на две части, если:

Ответ:

(1) в начале работы ошибки сети на обучающем и контрольном множествах существенно отличаются 

(2) в начале работы ошибка сети на обучающем и контрольном множествах практически не отличались 

(3) ошибка сети на обучающем множестве убывает быстрее, чем на контрольном множестве 


Номер 2

При методе кросс-проверки считается, что множество обучающихся пар корректно разделено на две части, если:

Ответ:

(1) в начале работы ошибки сети на обучающем и контрольном множествах существенно отличаются 

(2) в начале работы ошибки сети на обучающем и контрольном множествах практически не отличались 

(3) ошибка сети на обучающем множестве убывает быстрее, чем на контрольном множестве 


Номер 3

При методе кросс-проверки считается, что сеть начала переобучаться, если:

Ответ:

(1) ошибка сети на контрольном множестве стала расти 

(2) ошибка сети на контрольном множестве перестала убывать 

(3) алгоритм обратного распространения зациклился 


Номер 4

Механизм контрольной кросс-проверки необходим для того, чтобы:

Ответ:

(1) оградить сеть от возможности переобучения 

(2) проверить точность вычислений, производимых сетью 

(3) определить оптимальное число слоев и нейронов 


Номер 5

Механизм контрольной кросс-проверки заключается в:

Ответ:

(1) разделении множества обучающих пар на две части для поочередного запуска алгоритма обратного распространения то на одной, то на другой части 

(2) резервировании части обучающих пар и использовании их для независимого контроля процесса обучения 

(3) циклическом использовании множества обучающих пар 


Упражнение 3:


Номер 1

Если сеть слишком близко подгоняет выходные значения к имеющимся обучающим значениям, то:

Ответ:

(1) сеть может попасть в локальный минимум 

(2) может возникнуть паралич сети 

(3) процесс сходимости начнет происходить слишком медленно 


Номер 2

Сеть начала переобучаться, если:

Ответ:

(1) ошибка сети на контрольном множестве стала расти 

(2) контрольное множество задано некорректно 

(3) в сети имеется слишком много скрытых слоев 


Номер 3

Тестовое множество необходимо для:

Ответ:

(1) тестирования уже отлаженной сети 

(2) тестирования сети после отработки контрольного множества 

(3) тестирования сети после каждого цикла обучения 


Номер 4

Чем тестовое множество отличается от контрольного множества?

Ответ:

(1) тестовое множество используется только один раз 

(2) тестовое множество является подмножеством контрольного множества 

(3) тестовое множество используется всякий раз, когда ошибка сети на контрольном множестве начинает расти 


Номер 5

Если ошибка сети на контрольном множестве стала расти, это означает, что:

Ответ:

(1) сеть начала переобучаться 

(2) контрольное множество задано некорректно 

(3) в сети недостает слоев или нейронов для решения данной задачи 


Упражнение 4:


Номер 1

Дискриминантной функцией называется:

Ответ:

(1) функция, равная единице в той области пространства объектов, где располагаются объекты из нужного класса, и равная нулю вне этой области 

(2) активационная функция, используемая в многослойном персептроне 

(3) функция, моделирующая пространство решений данной задачи 


Номер 2

Если нейронная сеть не содержит скрытых элементов, то она:

Ответ:

(1) моделирует одинарный «сигмовидный склон» 

(2) служит классификатором только в линейно-отделимых задачах 

(3) моделирует конечное число «сигмовидных склонов» 


Номер 3

Если сеть содержит один промежуточный слой, то она моделирует:

Ответ:

(1) один «сигмовидный склон» 

(2) по одному «сигмовидному склону» для каждого скрытого элемента 

(3) одну выпуклую «взвешенность» 


Номер 4

Если сеть содержит два промежуточных слоя, то она моделирует:

Ответ:

(1) по одному «сигмовидному склону» для каждого скрытого элемента 

(2) одну выпуклую «взвешенность» 

(3) по одной выпуклой «взвешенности» для каждого скрытого элемента первого слоя 

(4) по одной выпуклой «взвешенности» для каждого скрытого элемента второго слоя 


Номер 5

Для решения любой задачи классификации достаточно иметь:

Ответ:

(1) многослойный персептрон с двумя промежуточными слоями 

(2) многослойный персептрон с тремя промежуточными слоями 

(3) многослойный персептрон с достаточно большим числом скрытых элементов 


Упражнение 5:


Номер 1

Паралич сети может наступить, когда:

Ответ:

(1) весовые значения становятся очень большими 

(2) весовые значения становятся очень маленькими 

(3) размер шага становится очень большой 

(4) размер шага становится очень маленький 


Номер 2

Чтобы избежать паралича сети, необходимо:

Ответ:

(1) уменьшить весовые значения 

(2) увеличить весовые значения 

(3) уменьшить размер шага 

(4) увеличить размер шага 


Номер 3

Если размер шага очень мал, то:

Ответ:

(1) процесс сходимости происходит слишком медленно 

(2) может возникнуть паралич сети 

(3) может возникнуть постоянная неустойчивость сети 


Номер 4

Если размер шага очень большой, то:

Ответ:

(1) процесс сходимости происходит слишком медленно 

(2) может возникнуть паралич сети 

(3) может возникнуть постоянная неустойчивость сети 


Номер 5

Если сеть находится в постоянно меняющейся внешней среде, то:

Ответ:

(1) процесс обучения может никогда не сойтись 

(2) может возникнуть паралич сети 

(3) процесс обучения станет происходить слишком медленно 


Правильные ответы выделены зелёным цветом.
Все ответы: Одним из популярных направлений Artificial Intelligence является теория нейронных сетей (neuron nets). Данный курс является систематизированным вводным курсом в это направление. Нашей целью является познакомить слушателей с основными нейроно-сетевыми парадигмами, показать область применения этого направления.

Что является входом искусственного нейрона?

(1) множество сигналов

(2) единственный сигнал

(3) весовые значения

(4) значения активационной функции

Память называется гетероассоциативной, если:

(1) входной образ может быть ассоциирован с другим образом

(2) входной образ может быть только завершен или исправлен

(3) входной образ может быть отнесен к некоторому классу образов

Стабильностью называется способность памяти:

(1) не разрушать уже запомненные образы

(2) к восприятию новой информации

(3) распознавать, является ли данная информация новой или она уже была запомнена ранее

Перед началом процесса обучения сети АРТ все весовые значения, являющиеся входными для слоя распознавания принимают:

(1) небольшие равные значения

(2) единичные значения

(3) случайные, достаточно малые значения

Когнитрон является:

(1) однослойной нейронной сетью с обратными связями

(2) многослойной нейронной сетью с обратными связями

(3) многослойной нейронной сетью прямого распространения

Каждый слой неокогнитрона состоит из:

(1) нейронов

(2) плоскостей нейронов

(3) произвольных трехмерных поверхностей нейронов

Теория обучения Хэбба подразумевает:

(1) только локальное обучение нейронов

(2) как локальное, так и глобальное обучение

Персептроном Розенблатта называется:

(1) однослойная нейронная сеть с бинарным входом

(2) однонейронная сеть

(3) многослойная сеть прямого распространения

Алгоритм обучения персептрона – это:

(1) алгоритм «обучения с учителем»

(2) алгоритм «обучения без учителя»

Какой должна быть активационная функция, для того чтобы возможно было применять алгоритм обратного распространения?

(1) всюду дифференцируемой

(2) непрерывной

(3) сжимающей

(4) разжимающей

К переобучению склонны сети с:

(1) большим числом весов

(2) большим числом слоев

(3) малым числом весов

(4) малым числом слоев

Принцип работы слоя Кохонена заключается в том, что:

(1) для данного входного вектора только один нейрон слоя Кохонена выдает на выходе единицу

(2) для данного входного вектора только один нейрон слоя Кохонена выдает на входе ноль

(3) для данного входного вектора не активизируется только один нейрон слоя Кохонена

Детерминистским методом обучения называется:

(1) метод, использующий последовательную коррекцию весов, зависящую от объективных значений сети

(2) метод, выполняющий псевдослучайные изменения весовых значений

(3) детерминированный метод обучения с учителем

(4) детерминированный метод обучения без учителя

Отсутствие обратных связей гарантирует:

(1) устойчивость сети

(2) сходимость алгоритма обучения

(3) возможность аппроксимировать данную функцию

Ортогонализация исходных образов позволяет:

(1) достигнуть максимальной емкости памяти

(2) избежать локальных минимумов

(3) обеспечить устойчивость сети

Матричное умножение XW вычисляет:

(1) выходной нейронный сигнал

(2) выход суммирующего блока

(3) входной нейронный сигнал

(4) вход суммирующего блока

Сеть ДАП достигает стабильного состояния, когда:

(1) выходы первого и второго слоя нейронов перестают изменяться

(2) только выходы второго слоя нейронов перестают изменяться

(3) целевая функция будет минимизирована

Шаблоном критических черт называется:

(1) определение деталей входного образа, являющихся существенными для восприятия системы

(2) определение пороговых значений для активационных функций

(3) «шаблон» данного класса ассоциированных друг с другом входных образов

В фазе распознавания свертка вычисляется при помощи скалярного произведения

(1) входного вектора на весовой вектор нейрона в слое распознавания

(2) вектора, выходящего из слоя распознавания на весовой вектор нейрона в слое распознавания

(3) вектора, выходящего из слоя сравнения на весовой вектор нейрона в слое распознавания

Область связи пресиноптического тормозящего нейрона:

(1) совпадает с областью связи соответствующего ему постсиноптического нейрона

(2) пересекается с областью связи соответствующего ему постсиноптического нейрона

(3) не пересекается с областью связи соответствующего ему постсиноптического нейрона

(4) включает область связи соответствующего ему постсиноптического нейрона

Каждой плоскости простых узлов сопоставлено:

(1) единственная плоскость комплексных узлов

(2) множество плоскостей комплексных узлов

(3) весь массив плоскостей комплексных узлов

Входная звезда Гроссберга используется для:

(1) распознавании определенного образа

(2) классификации образов

(3) сбора информации о сходных образах

Способность персептрона решать определенную задачу называется:

(1) способностью к обучению

(2) представимостью

(3) линейной разделимостью

Что называется «эпохой» в алгоритме обучения персептрона?

(1) процесс настройки персептрона на одну обучающую пару

(2) один цикл предъявления всей обучающей выборки

(3) полный цикл настройки персептрона на все обучающие пары

Какое минимальное количество слоев должна иметь нейронная сеть, для того чтобы к ней возможно было применить алгоритм обратного распространения?

(1) один

(2) два

(3) три

(4) четыре

При методе кросс-проверки считается, что множество обучающихся пар некорректно разделено на две части, если:

(1) в начале работы ошибки сети на обучающем и контрольном множествах существенно отличаются

(2) в начале работы ошибка сети на обучающем и контрольном множествах практически не отличались

(3) ошибка сети на обучающем множестве убывает быстрее, чем на контрольном множестве

Задачей слоя Кохонена является:

(1) классификация группы входных векторов

(2) определение меры сходства входного вектора с данным эталоном

(3) нахождение нейрона-победителя

Если случайные изменения весовых значений очень малы, то:

(1) сеть может попасть в локальный минимум

(2) процесс обучения может оказаться нестабильным и сеть никогда не обучится

(3) потребуются очень большие затраты вычислительных ресурсов

Сколько слоев полноценных нейронов используется в сети Хопфилда?

(1) один

(2) два

(3) три

(4) четыре

Алгоритмы разобучения применяются для:

(1) «забывания» ложных образов

(2) «забывания» некорректных весовых изменений

(3) «забывания» повторяющихся обучающих пар

Активационная функция называется «сжимающей», если

(1) она сужает диапазон значений величины NET диапазона значений OUT

(2) она расширяет диапазон значений величины NET

(3) она сужает диапазон значений величины OUT

(4) она расширяет диапазон значений величины OUT

Кратковременной памятью сети ДАП называется:

(1) состояние нейронов

(2) значение коэффициентов весовой матрицы

(3) процесс стабилизации выходных значений

Задачей сети АРТ является:

(1) классификация входных образов

(2) нахождение ассоциаций для данного входного образа

(3) аппроксимация заданной функции

Фаза поиска инициализируется, если:

(1) сходство весов выигравшего нейрона с входным нейроном ниже заданного порога

(2) каждый раз при подаче на вход нового вектора

(3) если система дает ответ, что данный входной вектор не является новой информацией

Предусмотрена ли в алгоритме обучения когнитрона процедура сбрасывания сильно больших весовых значений?

Различные узлы в одной плоскости простых узлов реагируют:

(1) на один и тот же образ

(2) на разные образы

(3) на разные повороты одного и того же образа

Алгоритм обучения персептрона является:

(1) алгоритмом «обучения с учителем»

(2) алгоритмом «обучения без учителя»

Функция называется линейно неразделимой, если:

(1) не существует разделения плоскости на две полуплоскости, реализующие эту функцию

(2) не существует нейронной сети, реализующей данную функцию

(3) данная функция является функцией исключающего «или»

Запускаем обучающий вектор Х. В каком случае весовые значения не нужно изменять?

(1) если на выходе сеть даст 0

(2) если на выходе сеть даст 1

(3) если сигнал персептрона совпадает с правильным ответом

Какие из перечисленных ниже шагов в алгоритме обратного распространения являются шагами «прохода вперед»?

(1) выбрать очередную обучающую пару из обучающего множества; подать входной вектор на вход сети

(2) вычислить выход сети

(3) вычислить разность между выходом сети и требуемым выходом (целевым вектором обучающей пары)

(4) подкорректировать веса сети так, чтобы минимизировать ошибку

(5) повторять шаги с 1 по 4 для каждого вектора обучающего множества до тех пор, пока ошибка на всем множестве не достигнет приемлемого уровня

Если сеть слишком близко подгоняет выходные значения к имеющимся обучающим значениям, то:

(1) сеть может попасть в локальный минимум

(2) может возникнуть паралич сети

(3) процесс сходимости начнет происходить слишком медленно

Метод выпуклой комбинации заключается в том, что в начале процесса обучения всем весам слоя Кохонена присваиваются:

(1) небольшие случайные значения

(2) одно и то же фиксированное значение

(3) в добавлении шума к входным векторам

Пусть при Больцмановском обучении сделанное изменение весовых значений увеличило целевую функцию. Всегда ли сделанное изменение скидывается?

Если сеть Хопфилда содержит n нейронов, то она может запомнить примерно:

(1) 2n образцов

(2) n образцов

(3) 1/2n образцов

(4) 0,15n образцов

Метод машины Больцмана позволяет сети Хопфилда:

(1) избежать локальных минимумов

(2) избежать сетевого паралича

(3) ускорить процесс обучения

Сети прямого распространения — это:

(1) сети, имеющие много слоев

(2) сети, у которых нет соединений, идущих от выходов некоторого слоя к входам предшествующего слоя

(3) сети, у которых нет памяти

(4) сети, у которых есть память

Кодированием ассоциаций называется:

(1) процесс обучения сети ДАП

(2) процесс нормального функционирования сети ДАП

(3) процесс сопоставления данному входному вектору некоторого ассоциированного с ним вектора

В слой сравнения информация поступает из:

(1) внешней среды

(2) слоя распознавания

(3) приемника 1

(4) приемника 2

(5) слоя сброса

Суть алгоритма медленного обучения в том, что:

(1) обучающий входной вектор подается на вход сети на очень короткое время и сеть не успевает полностью на него настроиться

(2) обучающий входной вектор подается на вход сети на достаточно длительное время для того, чтобы сеть успела полностью на него настроиться

(3) при инициализации алгоритма обучения изначально весовые значения берутся достаточно малыми, что увеличивает точность обучения

Стратегия обучения когнитрона заключается в том, что:

(1) нейроны с большей реакцией заставляют возбуждающие синапсы увеличиваться сильней, чем тормозящие

(2) нейроны с меньшей реакцией заставляют возбуждающие синапсы увеличиваться слабее, чем тормозящие

Задачей комплексных узлов является:

(1) уменьшение зависимости реакции системы от позиции образа

(2) уменьшение зависимости реакции системы от поворота образа

(3) классификация входных образов

В статистических алгоритмах обучения величина изменения синоптической связи между двумя нейронами зависит:

(1) от уровня возбуждения пресиноптического нейрона

(2) от уровня возбуждения постсиноптического нейрона

(3) от разности между реальным и желаемым выходами нейрона

(4) изменяется случайным образом

В однонейронном персептроне размерность разделяющей гиперплоскости определяется:

(1) количеством входных значений

(2) количеством выходных значений

(3) весовыми значениями

Теорема о сходных персептронах утверждает, что:

(1) если данная задача представляет персептрон, то он способен ей обучиться

(2) алгоритм обучения всегда сходится

(3) найдутся задачи, которым персептроны не смогут обучиться

Сигналом ошибки данного выходного нейрона называется:

(1) разность между выходом нейрона и его целевым значением

(2) производная активационной функции

(3) величина OUT для нейрона, подающего сигнал на данный выходной нейрон

Дискриминантной функцией называется:

(1) функция, равная единице в той области пространства объектов, где располагаются объекты из нужного класса, и равная нулю вне этой области

(2) активационная функция, используемая в многослойном персептроне

(3) функция, моделирующая пространство решений данной задачи

Обучение слоя Гроссберга является:

(1) «обучением с учителем»

(2) «обучением без учителя»

Какая из перечисленных ниже проблем сходимости возникает в алгоритме обратного распространения?

(1) время сходимости бесконечно

(2) нет доказательства сходимости при конечных изменениях весовых значений

(3) сходимость имеет место только при бесконечно больших изменениях весовых значений

Задача сети Хэмминга заключается в:

(1) нахождении образца с наименьшим расстоянием Хэмминга до данного вектора

(2) нахождении номера образца, соответствующего данному входу

(3) том, что по произвольному сигналу «вспоминается» запомненный образец

Обучение обобщенной машины Больцмана является:

(1) «обучением с учителем»

(2) «обучением без учителя»

Как происходит обучение нейронной сети?

(1) эксперты настраивают нейронную сеть

(2) сеть запускается на обучающем множестве, и незадействованные нейроны выкидываются

(3) сеть запускается на обучающем множестве, и подстраиваются весовые значения

(4) сеть запускается на обучающем множестве, и добавляются или убираются соединения между нейронами

Сеть ДАП называется негомогенной, если:

(1) ассоциированные вектора имеют разные размерности

(2) для каждого нейрона задается своя пороговая функция

(3) данному входному вектору можно сопоставить несколько альтернативных ассоциаций

В начальный момент времени выходом слоя распознавания является:

(1) нулевой вектор

(2) единичный вектор

(3) входной вектор

Характеристика «прямого доступа» заключается в том, что:

(1) если на вход обученной сети АРТ подать один из обучающих векторов, то сеть будет активизировать нужный нейрон без инициализации фазы поиска

(2) на фазе распознавания возбуждается только один «выигрышный» нейрон

(3) с каждым новым повтором серии обучающих векторов будет происходить более тонкая настройка весовых значений

Латеральное торможение данный нейрон получает:

(1) от всех нейронов его слоя

(2) от всех нейронов его области конкуренции

(3) от всех нейронов его области связи

При обучении неокогнитрона обучаются:

(1) все синоптические связи

(2) только синоптические связи внутри каждого слоя

(3) только синоптические связи между слоями

Самоорганизующиеся сети используются для:

(1) аппроксимации функций

(2) классификации образов

(3) распознавания образов

Может ли персептрон Розенблатта выделять ограниченную область в пространстве решений?

(1) да

(2) нет

(3) в зависимости от задачи

Если данный персептрон заменить персептроном с целочисленными весами, то:

(1) новый персептрон будет решать более узкую задачу

(2) новый персептрон будет решать ту же самую задачу

(3) новый персептрон будет решать более широкую задачу

Добавление нейронного смещения позволяет:

(1) увеличить скорость обучения

(2) увеличить точность обучения

(3) уменьшить необходимые вычислительные ресурсы

Паралич сети может наступить, когда:

(1) весовые значения становятся очень большими

(2) весовые значения становятся очень маленькими

(3) размер шага становится очень большой

(4) размер шага становится очень маленький

Сеть встречного распространения считается обученной, если:

(1) подавая на вход вектора

x

и

y

, на выходе мы будем получать их копию

(2) подавая на вход вектора

x

и

y

, на выходе мы будем получать меру их сходства

(3) подавая на вход вектор

x

, на выходе мы будем получать номер класса, которому он принадлежит

Комбинирование методов распространения Коши и обратного распространения заключается в:

(1) применении распределения Коши всякий раз, когда обратное распространение дает плохой результат

(2) применении обратного распространения всякий раз, когда распределение Коши дает плохой результат

(3) для каждого веса изменение вычисляется по обоим алгоритмам, а результат складывается

При каком условии сеть обратного распространения является устойчивой?

(1) если ее матрица весов симметрична и по главной диагонали стоят нули

(2) если ее матрица весов симметрична и по главной диагонали стоят единицы

(3) если сеть способна аппроксимировать данную задачу

В алгоритме обучения обобщенной машины Больцмана изменение весовых значений:

(1) зависит от закрепленной вероятности

(2) зависит от незакрепленной вероятности

(3) вычисляется по дельта-правилу

(4) зависит от числа итераций

Что такое множество весовых значений нейрона?

(1) множество значений, характеризующих «силу» соединений данного нейрона с нейронами предыдущего слоя

(2) множество значений, характеризующих «силу» соединений данного нейрона с нейронами последующего слоя

(3) множество значений, моделирующих «силу» биологических синоптических связей

(4) множество значений, характеризующих вычислительную «силу» нейрона

Память называется автоассоциативной, если:

(1) входной образ может быть ассоциирован с другим образом

(2) входной образ может быть только завершен или исправлен

(3) входной образ может быть отнесен некоторому классу образов

Пластичностью называется способность памяти:

(1) не разрушать уже запомненные образы

(2) к восприятию новой информации

(3) распознавать, является ли данная информация новой или она уже была запомнена ранее

Перед началом процесса обучения сети АРТ все весовые значения, являющиеся выходными для слоя распознавания принимают:

(1) небольшие равные значения

(2) единичные значения

(3) случайные, достаточно малые значения

Областью связанности данного нейрона называется:

(1) множество нейронов предыдущего слоя, от которых возбуждение по синоптическим связям передается на данный нейрон

(2) множество всех нейронов, от которых возбуждение по синоптическим связям передается на данный нейрон

(3) множество нейронов следующего слоя, в которые возбуждение по синоптическим связям передается из данного нейрона

Слой неокогнитрона состоит из

(1) одной плоскости нейронов

(2) пары плоскостей нейронов

(3) двух массивов плоскостей нейронов

В алгоритме обучения Хэбба предполагается обучение:

(1) всех синоптических связей

(2) синоптических связей, соединяющих одновременно возбужденные нейроны

(3) синоптических связей только первого слоя нейронов

Сколько слоев имеет персептрон Розенблатта?

(1) один

(2) два

(3) три

(4) любое конечное число

Обучением называют:

(1) процедуру подстройки весовых значений

(2) процедуру подстройки сигналов нейронов

(3) процедуру вычисления пороговых значений для функций активации

Обобщенным многослойным персептроном называется:

(1) многослойная сеть обратного распространения

(2) многослойная сеть прямого распространения

(3) персептрон Розенблатта с произвольным числом входов и выходов

Какая сеть может оказаться недостаточно гибкой, для того чтобы смоделировать имеющуюся зависимость?

(1) сеть с большим числом весов

(2) сеть с большим числом слоев

(3) сеть с малым числом весов

(4) сеть с малым числом слоев

«Победителем» считается нейрон Кохонена

(1) с максимальным значением величины NET

(2) с максимальным значением величины OUT

(3) с минимальным значением величины NET

(4) с минимальным значением величины OUT

Стохастическим методом обучения называется:

(1) метод, использующий последовательную коррекцию весов, зависящую от объективных значений сети

(2) метод, выполняющий псевдослучайные изменения весовых значений

(3) недетерминированный метод «обучения с учителем»

(4) недетерминированный метод «обучения без учителя»

Сеть с обратным распространением называется устойчивой, если:

(1) через некоторое число итераций выход сети станет постоянным

(2) она способна обучится данной задаче

(3) время сходимости сети – конечное

При ортогонализации исходных образов отрицательным фактором является:

(1) возможность появления неустойчивости сети

(2) нелокальность сети

(3) значительное повышение затраты вычислительных ресурсов

Активационная функция применяется для:

(1) активации входного сигнала нейрона

(2) активации выходного сигнала нейрона

(3) активации весовых значений

(4) активации обучающего множества

В какой зависимости находятся веса синаптических связей, исходящих из первого слоя нейронов, от весов синаптических связей, исходящих из второго слоя нейронов?

(1) они образуют транспонированные друг другу матрицы

(2) они образуют взаимно обратные матрицы

(3) они образуют равные матрицы

Самоадаптацией алгоритма обучения сети АРТ называется:

(1) система, которая может самостоятельно принять решение о прекращении поиска резонанса и объявить входной образ новым

(2) процесс обучения сети АРТ без учителя

(3) процесс запоминания новых «шаблонов» образов

Процесс лотерального торможения обеспечивает, что

(1) в слое распознавания возбуждается только тот нейрон, чья свертка является максимальной

(2) система автоматически решает вопрос о прекращении поиска необходимой информации

(3) слой сброса снимает возбуждение с неудачно выбранного нейрона в слое распознавания

Весовые значения тормозящих нейронов:

(1) обучаются по дельта-правилу

(2) обучаются по алгоритму, аналогичному алгоритму обратного распространения

(3) не обучаются

В каждом слое неокогнитрона

(1) количество простых и комплексных плоскостей совпадает

(2) простых плоскостей больше, чем комплексных плоскостей

(3) простых плоскостей не больше, чем комплексных плоскостей

Выходом входной звезды Гроссберга является:

(1) мера сходства входного вектора с весовым вектором

(2) статическая характеристика обучающего набора

(3) номер класса сходных образов

Персептронной представимостью называется:

(1) способность персептрона моделировать определенную функцию

(2) способность персептрона к обучению

(3) разделение гиперпространства решений гиперплоскостью

Что называется обучающей выборкой для обучения персептрона?

(1) набор входных векторов, для которых заранее известны значения аппроксимируемой функции

(2) набор выходных векторов, являющихся точными значениями аппроксимируемой функции

(3) набор пар входов и выходов, используемых при обучении

Обучающей парой называется пара векторов,…

(1) первый из которых является входным вектором, а второй – соответствующим ему выходным вектором

(2) которые должна выдавать обученная нейронная сеть

(3) которые подаются на вход сети во время алгоритма обучения

При методе кросс-проверки считается, что множество обучающихся пар корректно разделено на две части, если:

(1) в начале работы ошибки сети на обучающем и контрольном множествах существенно отличаются

(2) в начале работы ошибки сети на обучающем и контрольном множествах практически не отличались

(3) ошибка сети на обучающем множестве убывает быстрее, чем на контрольном множестве

При обучении слоя Кохонена подстраиваются весовые значения:

(1) всех нейронов слоя

(2) только нейрона-победителя

(3) всех нейронов, кроме нейрона-победителя

Если случайные изменения весовых значений очень велики, то:

(1) сеть может попасть в локальный минимум

(2) процесс обучения может оказаться нестабильным и сеть никогда не обучится

(3) потребуются очень большие затраты вычислительных ресурсов

Состоянием сети Хопфилда называется :

(1) текущее значение сигналов OUT

(2) стадии обучения и нормального функционирования

(3) устойчивость и неустойчивость сети

В алгоритме разобучения в качестве степени забывания выбирают достаточно малое число для того, чтобы:

(1) гарантировать незначительное ухудшение полезной информации

(2) не наступил сетевой паралич

(3) более точно аппроксимировать данную функцию

Слоем нейронной сети называется множество нейронов,

(1) не имеющих между собой синаптических связей

(2) принимающих входные сигналы с одних тех же узлов

(3) выдающих выходные сигналы на одни и те же узлы

Долговременной памятью сети ДАП называется:

(1) состояние нейронов

(2) значение коэффициентов весовой матрицы

(3) процесс стабилизации выходных значений

Если входной вектор соответствует одному из запомненных образов, то:

(1) в распознающем слое возбуждается один нейрон

(2) выходом распознающего слоя является соответствующий запомненный образец

(3) срабатывает блок сброса

Фаза поиска считается успешно завершенной, если:

(1) найдется нейрон, в котором запомнен образ, достаточно похожий на входной образ

(2) входному образу будет сопоставлен нейрон, в котором никакой информации еще не было запомнено

(3) весовые значения «победившего» нейрона из слоя распознавания будут подкорректированы согласно данному входному вектору

Если тормозящий вход данного нейрона слишком мал, то выходной сигнал OUT будет вычисляться по формуле:

(1) files где E — взвешенная сумма его возбуждающих входов и I — взвешенная сумма его тормозящих входов

(2) OUT=E-I, где E— взвешенная сумма его возбуждающих входов и I — взвешенная сумма его тормозящих входов

(3) files, где E— взвешенная сумма его возбуждающих входов и I — взвешенная сумма его тормозящих входов

Месторасположением узла в данной плоскости простых узлов определяется

(1) месторасположение рецептивной области данного узла

(2) образ, на который данный узел реагирует

(3) вид преобразования входного образа, распознающегося данным узлом

В алгоритме обучения персептрона величина изменения синоптической связи между двумя нейронами зависит

(1) от уровня возбуждения пресиноптического нейрона

(2) от уровня возбуждения постсиноптического нейрона

(3) от разности между реальным и желаемым выходами нейрона

Персептрон Розенблатта решает задачи:

(1) в которых множество входов может быть разделено геометрически

(2) классификации входных данных

(3) разделяющие множество входов на два непересекающихся класса

(4) распознавания объектов

Подаем на вход персептрона вектор а. В каком случае весовые значения нужно увеличивать?

(1) если на выходе 0, а нужно 1

(2) если на выходе 1, а нужно 0

(3) если сигнал персептрона не совпадает с нужным ответом

(4) всегда, когда на выходе 0

Какие из перечисленных ниже шагов в алгоритме обратного распространения являются шагами «обратного прохода»?

(1) выбрать очередную обучающую пару из обучающего множества; подать входной вектор на вход сети

(2) вычислить выход сети

(3) вычислить разность между выходом сети и требуемым выходом (целевым вектором обучающей пары)

(4) подкорректировать веса сети так, чтобы минимизировать ошибку

(5) повторять шаги с 1 по 4 для каждого вектора обучающего множества до тех пор, пока ошибка на всем множестве не достигнет приемлемого уровня

Сеть начала переобучаться, если:

(1) ошибка сети на контрольном множестве стала расти

(2) контрольное множество задано некорректно

(3) в сети имеется слишком много скрытых слоев

Модификация алгоритма обучения методом «чувства справедливости» заключается в:

(1) занижении весовых значений тех нейронов, которые очень часто «побеждают»

(2) блокировании нейронов, которые очень часто побеждают

(3) повышении весовых значений тех нейронов, которые очень редко «побеждают»

Пусть при обучении Коши сделанное изменение весовых значений увеличило целевую функцию. Всегда ли сделанное изменение скидывается?

Если два образца сильно похожи, то:

(1) они могут вызывать перекрестные ассоциации

(2) они могут нарушать устойчивость сети

(3) они могут объединиться в один образец

В методе машины Больцмана изменение состояний нейронов обусловлено:

(1) статическими закономерностями

(2) детерминированными закономерностями

Сети с обратными связями это:

(1) сети, имеющие много слоев

(2) сети, у которых существуют соединения, идущие от выходов некоторого слоя к входам предшествующего слоя

(3) сети, у которых нет памяти

Кодирование ассоциаций — это:

(1) «обучение с учителем»

(2) «обучение без учителя»

(3) процесс нормального функционирования сети

Из слоя сравнения информация поступает в:

(1) внешнюю среду

(2) слой распознавания

(3) приемник 1

(4) приемник 2

(5) слой сброса

Суть алгоритма быстрого обучения в том, что:

(1) обучающий входной вектор подается на вход сети на очень короткое время и сеть не успевает полностью на него настроиться

(2) обучающий входной вектор подается на вход сети на достаточно длительное время для того, чтобы сеть успела полностью на него настроиться

(3) при инициализации алгоритма обучения изначально весовые значения берутся достаточно большими, что увеличивает время обучения

Приращение веса возбуждающего входа данного постсиноптического нейрона зависит от:

(1) выходного сигнала возбуждающего пресиноптического нейрона и его возбуждающего веса

(2) выходного сигнала тормозящего пресиноптического нейрона и его возбуждающего веса

(3) выходного сигнала возбуждающего пресиноптического нейрона и его тормозящего веса

Рецепторной областью комплексного узла называется:

(1) ограниченная область соответствующей плоскости простых узлов, лежащей в данном слое

(2) объединение ограниченных областей всех плоскостей простых узлов, лежащих в данном слое

(3) ограниченная область поля входных образов

Статистические методы обучения являются:

(1) алгоритмами «обучения с учителем»

(2) алгоритмами «обучения без учителя»

Сколько слоев должна иметь нейронная сеть, умеющая выделять квадрат?

(1) один

(2) два

(3) три

(4) четыре

Теорема о «зацикливании» персептрона утверждает, что:

(1) любой алгоритм обучения зацикливается

(2) если данная задача не представима персептроном, то алгоритм обучения зацикливается

(3) если задача не имеет решения, то алгоритм обучения зацикливается

При обучении выходного нейрона величина δ является:

(1) разностью между выходом нейрона и его целевым значением

(2) произведением производной активационной функции на сигнал ошибки

(3) суммированием величин δ для нейронов последующих слоев и умножением полученной величины на активационную функцию

Если нейронная сеть не содержит скрытых элементов, то она:

(1) моделирует одинарный «сигмовидный склон»

(2) служит классификатором только в линейно-отделимых задачах

(3) моделирует конечное число «сигмовидных склонов»

Обучение сети встречного распространения является:

(1) «обучением с учителем»

(2) «обучением без учителя»

Какая из перечисленных ниже проблем локальных минимумов возникает в алгоритме обратного распространения?

(1) после окончания обучения нет способа проверки, находится ли сеть в локальном или глобальном минимуме

(2) при попадании в локальный минимум сеть не может оттуда выбраться

(3) нет гарантии, что после конечного числа использований алгоритма обратного распространения глобальный минимум будет найден

Если сеть Хэмминга в каждом слое содержит по n нейронов, то сколько образцов она способна запомнить?

(1) 2n образцов

(2) n образцов

(3) 1/2n образцов

(4) 0,15n образцов

В алгоритме обучения обобщенной машины Больцмана закрепленные вероятности вычисляются, когда:

(1) входным и выходным нейронам придают значения из обучающего множества

(2) сеть начинает работать со случайного значения

(3) входным значениям приписываются равные, довольно малые значения

«Обучение с учителем» это:

(1) использование знаний эксперта

(2) использование сравнения с идеальными ответами

(3) подстройка входных данных для получения нужных выходов

(4) подстройка матрицы весов для получения нужных ответов

В чем преимущество негомогенной сети ДАП перед гомогенной?

(1) негомогенная ДАП обладает гораздо более большей емкостью памяти, чем гомогенная ДАП

(2) для обучения негомогенной ДАП требуется гораздо меньше времени, чем для обучения гомогенной ДАП

(3) негомогенная ДАП способна более точно восстанавливать ассоциации для частично зашумленных векторов

В начальный момент времени выходом слоя сравнения является

(1) нулевой вектор

(2) единичный вектор

(3) входной вектор

Устойчивость процесса поиска заключается в том, что:

(1) на фазе распознавания возбуждается только один «выигрышный» нейрон

(2) поиск всегда заканчивается успешно

(3) обучение не будет вызывать переключений с одного возбужденного нейрона на другой

В чем заключается главный недостаток процедуры латерального торможения?

(1) в необходимости большого количества вычислительных итераций

(2) в локализации памяти когнитрона

(3) в неспособности когнитрона к самовосстановлению

При каких из ниже перечисленных условий, в алгоритме обучения неокогнитрона «без учителя» происходит обучение данной синоптической связи?

(1) данная синоптическая связь является межслойной связью

(2) данная синоптическая связь исходит от возбужденного комплексного узла

(3) данная синоптическая связь входит в возбужденный простой узел

(4) простой узел, связанный данной синоптической связью, возбужден более сильно, чем любой другой узел из его области конкуренции

В алгоритме обучения Кохонена обучению подвергаются:

(1) все синоптические связи

(2) синоптические связи только «победившего» нейрона

(3) синоптические связи всех нейронов, чье расстояние до входного вектора меньше заданного порога

Можно ли построить двухслойную нейронную сеть, выделяющую неограниченную область?

(1) да

(2) нет

(3) в зависимости от задачи

Вопрос о выборе шага при применении процедуры обучения решается следующим образом:

(1) веса и порог следует изменять на 1

(2) веса и порог следует изменять на число ≤1

(3) веса и порог следует изменять на целое число

Метод импульса позволяет:

(1) увеличить скорость обучения

(2) увеличить точность обучения

(3) уменьшить необходимые вычислительные ресурсы

Чтобы избежать паралича сети, необходимо:

(1) уменьшить весовые значения

(2) увеличить весовые значения

(3) уменьшить размер шага

(4) увеличить размер шага

Если на вход обученной сети встречного распространения подать частично обнуленный вектор, то на выходе мы получим:

(1) полностью восстановленный вектор

(2) номер класса полностью восстановленного вектора

(3) копию поданного на вход частично обнуленного вектора

При комбинированном методе распределения Коши и обратного распространения изменение веса сохраняется, если:

(1) оно уменьшает целевую функцию

(2) оно увеличивает целевую функцию

(3) оно увеличивает целевую функцию и вероятность данного изменения достаточно большая

Если матрица весов не является симметричной, то будет ли данная сеть обратного распространения устойчивой?

(1) да

(2) нет

(3) в зависимости от задачи

Сколько нейронов необходимо для реализации задачи коммивояжера, где n — число городов?

(1) n нейронов

(2) 2n нейронов

(3) n2 нейронов

(4) n! нейронов

Что означает величина NET?

(1) выход суммирующего блока

(2) значение активационной функции

(3) входной сигнал нейрона

(4) выходной сигнал нейрона

К какому типу памяти относится ДАП?

(1) адресной

(2) автоассоциативной

(3) гетероассоциативной

Если параметр сходства выбрать неоправданно высоким, то:

(1) сеть будет относить к одному классу только слабо отличающиеся образы

(2) сеть будет относить к одному классу образы, сильно отличающиеся друг от друга

(3) неоправданно сильно будет увеличено время обучения

Со всеми ли нейронами предыдущего слоя связан данный нейрон когнитрона?

Информация, поступающая из предыдущего слоя неокогнитрона, подается

(1) на все нейроны слоя одновременно

(2) на нейроны массива простых плоскостей

(3) на нейроны массива комплексных плоскостей

В алгоритме Хэбба величина изменения синоптической связи между двумя нейронами зависит:

(1) от уровня возбуждения пресиноптического нейрона

(2) от уровня возбуждения постсиноптического нейрона

(3) от разности между реальным и желаемым выходом системы

Выходом персептрона являются:

(1) значения отрезка [0;1]

(2) значения отрезка [-1;1]

(3) вся числовая ось (-∞;+∞)

Однослойный персептрон решает задачи:

(1) классификации

(2) распознавания образов

(3) аппроксимации функций

Входным слоем обобщенного многослойного персептрона называется:

(1) слой, состоящий из элементов, которые только принимают входную информацию и распространяют ее по сети

(2) первый слой нейронов данной сети

(3) слой, не производящий вычислений

Проблема переобучения заключается в:

(1) слишком близкой подгонке к имеющимся значениям обучающего множества

(2) увеличении точности вычислений за счет большого увеличения необходимого для обучения времени

(3) минимизации локальных ошибок в ущерб минимизации глобальной ошибки

Если данный нейрон Кохонена является «победителем», то его значение OUT

(1) равно нулю

(2) равно единице

(3) является максимальным среди всех значений OUT нейронов слоя Кохонена

При стохастическом методе обучения изменения весовых значений сохраняются, если

(1) они уменьшают целевую функцию

(2) они увеличивают целевую функцию

(3) в любом случае

Сеть с обратным распространением называется неустойчивой, если:

(1) выход сети никогда не станет постоянным

(2) сеть не способна обучиться данной задаче

(3) время сходимости сети – бесконечно

Метод обучения сети называется локальным, если:

(1) при добавлении нового обучающего вектора не нужно все вычисление производить заново

(2) он предусматривает избежание попадания в локальные минимумы

(3) вычисление весовых значений для каждого нейрона производится локально

Значение активационной функции является:

(1) входом данного нейрона

(2) выходом данного нейрона

(3) весовым значением данного нейрона

В сети ДАП выходы второго слоя нейронов являются:

(1) входами для первого слоя

(2) входами для третьего слоя

(3) выходами сети

Говорят, что в сети АРТ возник адаптивный резонанс, если:

(1) входной образ классифицируется как допустимая модификация уже запомненного образа

(2) сеть запомнила данный входной образ как новый «шаблон»

(3) процесс вычисления в сети стабилизировался

В фазе сравнения в слое сравнения возбуждаются те нейроны, которым соответствуют:

(1) одновременно единичные компоненты входного вектора и вектора, являющегося выходом для слоя распознавания

(2) одновременно единичные компоненты входного вектора и вектора, являющегося выходом для приемника 1

(3) наиболее близкие «шаблоны»

Выходом тормозящего пресиноптического нейрона является:

(1) значение средней активности возбуждающих пресинаптических нейронов данной области связи

(2) отношение взвешенной суммы его тормозящих входов к взвешенной сумме возбуждающих входов

(3) взвешенная сумма всех его входов

Рецептивной областью данного простого узла называется:

(1) ограниченная область входного образа, с которой информация поступает на данный узел

(2) множество узлов предыдущего уровня, с которого информация поступает на данный узел

(3) область конкуренции данного простого узла

Выходом выходной звезды Гроссберга является

(1) мера сходства входного вектора с весовым вектором

(2) статическая характеристика обучающего набора

(3) номер класса сходных образов

Представима ли персептроном любая интуитивно вычислимая задача?

Нейронная сеть является обученной, если:

(1) алгоритм обучения завершил свою работу и не зациклился

(2) при запуске обучающих входов она выдает соответствующие обучающие выходы

(3) при подаче на вход некоторого вектора сеть будет выдавать ответ, к какому классу векторов он принадлежит

Обучающим множеством называется:

(1) множество обучающих пар

(2) множество векторов, которые подаются на вход сети во время алгоритма обучения

(3) множество векторов, которые должна выдавать обученная нейронная сеть

При методе кросс-проверки считается, что сеть начала переобучаться, если:

(1) ошибка сети на контрольном множестве стала расти

(2) ошибка сети на контрольном множестве перестала убывать

(3) алгоритм обратного распространения зациклился

При обучении слоя Кохонена процесс обучения состоит в:

(1) выборе нейрона с весовым вектором, наиболее близким к входному вектору

(2) выборе нейрона с весовым вектором, имеющим максимальное значение

(3) отбрасывании нейронов с нулевыми весовыми значениями

Стратегия избежания локальных минимумов при сохранении стабильности заключается в

(1) больших начальных шагах изменения весовых значений и постепенном уменьшении этих шагов

(2) малых начальных шагах изменения весовых значений и постепенном увеличении этих шагов

(3) достаточно малых изменениях весовых значений

(4) достаточно больших изменениях весовых значений

Задача сети Хопфилда заключается в

(1) том, что по произвольному сигналу «вспоминается» запомненный образец

(2) классификации множества входных образов

(3) распознавании образов

Непрерывная сеть Хопфилда является устойчивой, если:

(1) она имеет симметричную матрицу весов с нулями по главной диагонали

(2) она имеет симметричную матрицу весов с единицами по главной диагонали

(3) она способна аппроксимировать данную функцию

Какие сети характеризуются отсутствием памяти?

(1) однослойные

(2) многослойные

(3) без обратных связей

(4) с обратными связями

Метод восстановления ассоциаций заключается в том, что:

(1) по частично зашумленному вектору восстанавливается вектор, ассоциированный с ним

(2) определяется, являются ли два заданных вектора взаимно ассоциированными

(3) по заданным векторам находятся ассоциации, их соединяющие

Если входной вектор не соответствует ни одному из запомненных образов, то

(1) создается новая категория образов, сходных с данным входным образом

(2) система выдает ответ, что не может распознать этот образ

(3) срабатывает блок сброса

Фаза поиска считается неуспешно завершенной, если:

(1) найдется нейрон, в котором запомнен образ, достаточно похожий на входной образ

(2) входному образу будет сопоставлен нейрон, в котором никакой информации еще не было запомнено

(3) весовые значения «победившего» нейрона из слоя распознавания будут подкорректированы согласно данному входному вектору

Если возбуждающие и тормозящие входы данного нейрона достаточно велики, то его выходной сигнал OUT будет вычисляться по формуле:

(1) files где E — взвешенная сумма его возбуждающих входов и I — взвешенная сумма его тормозящих входов

(2) OUT=E-I, где E— взвешенная сумма его возбуждающих входов и I — взвешенная сумма его тормозящих входов

(3) files, где E— взвешенная сумма его возбуждающих входов и I — взвешенная сумма его тормозящих входов

Каждый узел в плоскости простых узлов получает вход:

(1) только от одной рецептивной области массива комплексных узлов предыдущего уровня

(2) от всех рецептивных областей массива комплексных узлов предыдущего уровня

(3) от всего массива комплексных узлов предыдущего уровня

При обучении персептрона предполагается обучение:

(1) всех синоптических связей

(2) синоптических связей, соединяющих одновременно возбужденные нейроны

(3) синоптических связей только «победившего» нейрона

В однонейронном персептроне длина входного вектора характеризует:

(1) размерность разделяемого пространства

(2) размерность разделяющей поверхности

(3) количество подпространств, определяющих классификацию объектов

(4) количество разделяющих плоскостей

Подаем на вход персептрона вектор a. В каком случае весовые значения нужно уменьшать?

(1) если на выходе 0, а нужно 1

(2) если на выходе 1, а нужно 0

(3) если сигнал персептрона не совпадает с нужным ответом

(4) всегда, когда на выходе 1

В алгоритме обратного распространения при «проходе вперед»

(1) вычисляется значение сети на обучающей паре

(2) вычисляется ошибка сети

(3) корректируются весовые значения сети

Тестовое множество необходимо для:

(1) тестирования уже отлаженной сети

(2) тестирования сети после отработки контрольного множества

(3) тестирования сети после каждого цикла обучения

Метод коррекции весов пропорционально входу заключается в:

(1) модификации не только «победившего» нейрона, но и всех остальных

(2) модификации «победившего» нейрона пропорционально поданному на сеть входному вектору

(3) модификации не только «победившего», но и «проигравшего» нейрона

Пусть при Больцмановском обучении сделанное изменение весовых значений увеличило целевую функцию. Данное изменение не скидывается, если:

(1) вероятность данного изменения выше случайно выбранного порога

(2) данное изменение достаточно мало

(3) значение искусственной температуры достаточно велико

Сеть Хопфилда заменяется на сеть Хэмминга, если:

(1) нет необходимости, чтобы сеть в явном виде выдавала запомненный образец

(2) необходимо повысить число запомненных образцов

(3) необходимо ускорить время сходимости сети

(4) необходимо обеспечить устойчивость сети

В статической сети Хопфилда вероятность изменения веса является функцией от:

(1) величины, на которую выход OUT превышает заданный порог

(2) разности между целевым и фактическим значением выхода сети

(3) искусственной температуры

«Обучение без учителя» характеризуется отсутствием:

(1) желаемого выхода сети

(2) эксперта, корректирующего процесс обучения

(3) обучающего множества

Обучение сети ДАП происходит:

(1) по дельта-правилу

(2) с помощью машины Больцмана

(3) с помощью однократного вычисления весовых значений

Правило двух третьих заключается в том, что:

(1) каждый нейрон слоя сравнения выдает единичный выход, если на вход к нему поступило не менее двух единиц

(2) в слое распознавания каждый раз возбуждается не более двух третьих нейронов

(3) блок сброса срабатывает каждый раз, когда на его вход подается число, большее, чем 2/3

Если в процессе обучения некоторый вес был обнулен, то:

(1) он больше никогда не примет ненулевого значения

(2) он обязательно будет подвергнут новому обучению

Приращение веса тормозящего входа данного постсиноптического нейрона зависит от:

(1) выходного сигнала возбуждающего пресиноптического нейрона и его возбуждающего веса

(2) выходного сигнала тормозящего пресиноптического нейрона и его возбуждающего веса

(3) выходного сигнала возбуждающего пресиноптического нейрона и его тормозящего веса

Чем реакция комплексного узла на данный входной образ отличается от реакции простого узла, лежащего в том же слое?

(1) комплексный узел менее чувствителен к позиции входного образа

(2) комплексный узел менее чувствителен к повороту и другим видам движения входного образа

(3) рецепторная зона комплексного узла гораздо больше рецепторной зоны простого узла

В статистических алгоритмах обучения искусственная температура используется для:

(1) управления размером случайных изменений весовых значений

(2) минимизации целевой функции

(3) уменьшения полной энергии сети

Выпуклой областью называется:

(1) область, которую можно заключить в круг

(2) область, которую нельзя заключить в круг

(3) область, у которой две ее любые точки можно соединить отрезком, полностью принадлежащим этой области

(4) область, внутренние углы которой меньше 180°

В каком случае персептрон может обучиться решать данную задачу?

(1) если задача представима персептроном

(2) если задача имеет решение

(3) если задача имеет целое численное решение

При обучении скрытого нейрона величина δ является:

(1) разностью между выходом нейрона и его целевым значением

(2) произведением производной активационной функции на сигнал ошибки

(3) суммированием величин δ для нейронов последующих слоев и умножением полученной величины на активационную функцию

Если сеть содержит один промежуточный слой, то она моделирует:

(1) один «сигмовидный склон»

(2) по одному «сигмовидному склону» для каждого скрытого элемента

(3) одну выпуклую «взвешенность»

Обучение слоя Кохонена является:

(1) «обучением с учителем»

(2) «обучением без учителя»

Для какого алгоритма необходимо гораздо большее время сходимости?

(1) алгоритма обратного распространения

(2) алгоритма распределения Коши

Сколько нейронов должна содержать сеть Хемминга для того чтобы она могла запомнить n образцов?

(1) по n в каждом слое

(2) по 2n в каждом слое

(3) n нейронов в первом слое и более, чем n нейронов во втором слое

В алгоритме обучения обобщенной машины Больцмана незакрепленные вероятности вычисляются, когда:

(1) входным и выходным нейронам придают значения из обучающего множества

(2) сеть начинает работать со случайного значения

(3) входным значениям приписываются равные, довольно малые значения

Синапсами называются:

(1) точки соединения нейронов, через которые передаются нейронные сигналы

(2) «усики» нейронов, по которым проходят электрохимические сигналы

(3) тело нейрона, в котором происходит обработка электрохимического сигнала

Сеть ДАП называется асинхронной, если:

(1) любой нейрон может изменять свое состояние в любое время

(2) ассоциированные векторы имеют разные размерности

(3) для каждого нейрона задается своя пороговая функция

В момент времени, отличный от начального, выходом слоя распознавания является

(1) единичный вектор

(2) вектор, у которого только одна компонента отлична от нуля

(3) «шаблон», соответствующий данному входному вектору

Если области связи нейронов имеют постоянный размер во всех слоях, то:

(1) может потребоваться большое количество слоев для перекрытия всего входного поля

(2) области связи могут настолько сильно друг друга перекрывать, что многие нейроны выходного слоя будут иметь одинаковую реакцию

(3) могут возникнуть «дыры» в перекрытии областями связи, что может привести к «неопознанным» образам

Способность неокогнитрона к самовосстановлению выражается в:

(1) способности обучения нового узла, в случае если уже обученный узел по каким-то причинам вышел из строя

(2) способности неокогнитрона «доучиваться» при появлении новых обучающих образов

(3) способности неокогнитрона восстанавливать «забытые» образы

Алгоритм обучения Кохонена является:

(1) алгоритмом обучения с учителем

(2) алгоритмом обучения без учителя

Сколько нейронов должен иметь первый слой нейронной сети, умеющей выделять шестиугольник?

(1) 1

(2) 2

(3) 3

(4) 4

(5) 5

(6) 6

Теорема о двухслойности персептрона утверждает, что:

(1) любой многослойный персептрон может быть представлен в виде двухслойного персептрона

(2) в любом многослойном персептроне могут обучаться только два слоя

(3) способностью к обучению обладают персептроны, имеющие не более двух слоев

Метод импульса заключается в:

(1) добавлении к коррекции веса значения, пропорционального величине предыдущего изменения веса

(2) умножении коррекции веса на значение, пропорциональное величине предыдущего изменения веса

(3) использовании производных второго порядка

Если размер шага очень мал, то:

(1) процесс сходимости происходит слишком медленно

(2) может возникнуть паралич сети

(3) может возникнуть постоянная неустойчивость сети

Способна ли сеть встречного распространения аппроксимировать обратимые функции?

(1) да

(2) нет

(3) в зависимости от задачи

В чем состоит минус метода ограничения диапазона изменений весовых значений?

(1) в повышении вероятности сетевого паралича

(2) есть ряд задач, к которым он неприменим

(3) нет доказательства сходимости для данного алгоритма

Память называется ассоциативной, если извлечение необходимой информации происходит по:

(1) имеющимся образцам

(2) адресу начальной точки данной информации

(3) по содержанию данной информации

В задаче коммивояжера каждый город представляется:

(1) одним нейроном

(2) одним слоем нейронов

(3) строкой из n нейронов, где n — число городов

Что означает величина OUT?

(1) выход суммирующего блока

(2) значение активационной функции

(3) входной сигнал нейрона

(4) выходной сигнал нейрона

Гетероассоциативность ДАП достигается путем:

(1) использования многослойной сети

(2) использования однослойной сети

(3) наличия обратных связей

Обладает ли сеть Хопфилда свойством стабильности-пластичности?

(1) да

(2) нет

(3) в зависимости от задачи

Если параметр сходства выбрать неоправданно низким, то:

(1) сеть будет относить к одному классу только слабо отличающиеся образы

(2) сеть будет относить к одному классу образы, сильно отличающиеся друг от друга

(3) неоправданно сильно будет увеличено время обучения

Величиной NET нейрона когнитрона является:

(1) отношение взвешенной суммы его возбуждающих входов к взвешенной сумме тормозящих входов

(2) отношение взвешенной суммы его тормозящих входов к взвешенной сумме возбуждающих входов

(3) взвешенная сумма всех его входов

В каждом слое неокогнитрона выходы из массива простых плоскостей поступают на вход

(1) массива комплексных плоскостей этого же слоя

(2) массива комплексных плоскостей следующего слоя

(3) массива простых плоскостей следующего слоя

В алгоритме сигнального обучения Хэбба величина синоптической связи между двумя нейронами зависит :

(1) от уровней возбуждения этих нейронов

(2) от выходных уровней этих нейронов

(3) от разности между реальным и желаемым выходом системы

Входом персептрона являются:

(1) значения 0 и 1

(2) вся действительная ось (-∞;+∞)

(3) вектор, состоящий из нулей и единиц

(4) вектор, состоящий из действительных чисел

Скрытым слоем обобщенного многослойного персептрона называется:

(1) слой, состоящий из элементов, которые только принимают входную информацию и распространяют ее по сети

(2) слой, не являющийся ни входным, ни выходным

(3) слой, не производящий вычислений

Если сеть имеет очень большое число нейронов в скрытых слоях, то:

(1) возможно переобучение сети

(2) сеть может оказаться недостаточно гибкой для решения поставленной задачи

(3) время, необходимое на обучение сети, минимально

Значением NET нейрона слоя Гроссберга является:

(1) весовое значение, связывающее данный нейрон с нейроном-победителем из слоя Кохонена

(2) максимальное весовое значение, связывающее данный нейрон с нейронами слоя Кохонена

(3) минимальное весовое значение, связывающее данный нейрон с нейронами слоя Кохонена

Целевой функцией называется:

(1) вероятностное распределение весовых значений

(2) разность между желаемым и фактическим выходом сети

(3) функция, которую аппроксимирует данная сеть

Сеть называется сетью с обратными связями, если:

(1) переданное нейроном возбуждение возвращается к данному нейрону и он повторно производит вычисления

(2) существуют связи, идущие от выходных нейронов к входным

(3) возбуждение может проходить по сети как в одну сторону, так и в обратную

Метод отказа от симметрии синапсов позволяет:

(1) достигнуть максимальной емкости памяти

(2) избежать локальных минимумов

(3) обеспечить устойчивость сети

В каком случае многослойные сети не могут привести к увеличению вычислительной мощности по сравнению с однослойной сетью?

(1) если они имеют два слоя

(2) если они не имеют обратных связей

(3) если они имеют сжимающую активационную функцию

(4) если они имеют линейную активационную функцию

Завершает ли сеть работу, если выходы второго слоя стабилизировались, а выходы первого слоя продолжают изменяться?

В чем заключается отличие АРТ-1 от АРТ-2?

(1) в АРТ-2 используется многослойная иерархия слоев

(2) в АРТ-2 введен специальный механизм зависимости активности синапсов от времени

(3) АРТ-1 обрабатывает только битовые сигналы, а АРТ-2 — аналоговые

В фазе сравнения блок сброса:

(1) сравнивает входной вектор и вектор, являющийся выходом блока сравнения

(2) сравнивает входной вектор и вектор, являющийся выходом блока распознавания

(3) сбрасывает неудачные ассоциации

Весовые значения тормозящих нейронов из области связи задаются так, чтобы:

(1) их сумма была равна единице

(2) обеспечить выигрыш только одного нейрона

(3) их сумма не превышала суммы возбуждающих весов из этой же области связи

Каждая плоскость простых узлов реагирует

(1) на один специфический входной образ

(2) на одну ограниченную область входного поля

(3) на все повороты данного входного образа

Хорошо обученная входная звезда Гроссберга способна реагировать:

(1) только на определенный единичный вектор

(2) на любой вектор из данного класса векторов

Какая из следующих функций непредставима персептроном?

(1) исключающее или

(2) исключающее нет

Алгоритм обучения персептрона завершает свою работу, когда

(1) вектор весов перестает изменяться

(2) абсолютная ошибка станет меньше некоторого малого значения

Какие весовые значения должны быть навешаны на сеть до начала процедуры обучения?

(1) небольшие, выбранные случайным образом

(2) небольшие, равные

(3) нулевые

Механизм контрольной кросс-проверки необходим для того, чтобы:

(1) оградить сеть от возможности переобучения

(2) проверить точность вычислений, производимых сетью

(3) определить оптимальное число слоев и нейронов

В процессе обучения слоя Кохонена «победителем» объявляется нейрон

(1) для которого скалярное произведение весового вектора на входной вектор принимает максимальное значение

(2) имеющий наибольшее значение модуля весового вектора

(3) имеющий максимальное значение величины NET

Метод «имитации отжига» заключается в

(1) больших начальных шагах изменения весовых значений и постепенном уменьшении этих шагов

(2) малых начальных шагах изменения весовых значений и постепенном увеличении этих шагов

(3) достаточно малых изменениях весовых значений

(4) достаточно больших изменениях весовых значений

Если среди запомненных сетью Хопфилда образцов не существует образца, подходящего для данного входного вектора, то:

(1) сеть Хопфильда должна выдать произвольный вектор, не совпадающий ни с одним образцом

(2) сеть Хопфильда будет неустойчивой

(3) сеть Хопфильда выдаст ближайший образец

Есть ли вероятность того, что в алгоритме разобучения сеть «забудет» правильный образ?

(1) да

(2) нет

(3) в зависимости от задачи

Входным слоем сети называется:

(1) первый слой нейронов

(2) слой, служащий для распределения входных сигналов

(3) слой, не производящий никаких вычислений

Способность ДАП к обобщению заключается в:

(1) восстановлении частично зашумленного входного вектора

(2) нахождении вектора, ассоциированного с частично зашумленным вектором

(3) генерировании новых ассоциаций

В сети АРТ запомненный образ подвергается изменению:

(1) если он достаточно похож на входящий образ

(2) если он достаточно сильно отличается от входящего образа

(3) в любом случае

Всегда ли по окончании фазы поиска входному вектору сопоставляется некоторый нейрон из слоя распознавания?

(1) да

(2) нет

(3) в зависимости от задачи

При обучении когнитрона обучаются:

(1) все нейроны

(2) только один нейрон в каждом слое

(3) только один нейрон в каждой области конкуренции

Рецептивные области узлов каждой плоскости простых узлов

(1) пересекаются и покрывают все поле входного образа

(2) не пересекаются, но покрывают все поле входного образа

(3) совпадают и покрывают все поле входного образа

Обучение персептрона считается законченным, когда:

(1) ошибка выхода становится достаточно малой

(2) по одному разу запущены все вектора обучающего множества

(3) достигнута достаточно точная аппроксимация заданной функции

Однонейронным персептроном размерность разделяемого пространства определяется

(1) длиной входного вектора

(2) весовыми значениями

(3) пороговым значением активационной функции

(4) контекстом конкретной задачи

Если на данной обучающей паре символ персептрона не совпадает с нужным ответом, то:

(1) нужно изменять все весовые значения

(2) нужно изменять все весовые значения между одновременно активными нейронами

(3) нужно запускать другую обучающую пару

В алгоритме обратного распространения при «проходе вперед»

(1) вычисляется значение сети на обучающей паре

(2) вычисляется ошибка сети

(3) корректируются весовые значения сети

Чем тестовое множество отличается от контрольного множества?

(1) тестовое множество используется только один раз

(2) тестовое множество является подмножеством контрольного множества

(3) тестовое множество используется всякий раз, когда ошибка сети на контрольном множестве начинает расти

Метод аккредитации заключается в:

(1) активировании лишь одного нейрона Кохонена, имеющего наибольшее значение NET

(2) активировании группы нейронов Кохонена, имеющих максимальные значения NET

(3) активировании двух нейронов, имеющих наибольшее и наименьшее значения NET

Какова роль искусственной температуры при Больцмановском обучении?

(1) при снижении температуры вероятно возможными становятся более маленькие изменения

(2) для регулирования скорости сходимости алгоритма обучения

Какая сеть требует меньших затрат вычислительных ресурсов?

(1) сеть Хопфильда

(2) сеть Хэмминга

Если статическая сеть Хопфилда обладает большой искусственной температурой, то более вероятными становятся:

(1) более большие изменения состояний нейронов

(2) более мелкие изменения состояний нейронов

При каком алгоритме обучения обучающее множество состоит только из входных векторов?

(1) обучение с учителем

(2) обучение без учителя

Всегда ли обученная сеть ДАП является устойчивой?

Лотарально-тормозящая связь используется :

(1) внутри слоя распознавания

(2) между слоями сравнения и распознавания

(3) внутри приемника 1

(4) внутри приемника 2

После окончания алгоритма обучения в нейроне слоя распознавания запоминается информация, являющаяся:

(1) «пересечением» всех предъявленных сходных векторов

(2) «объединением» всех предъявленных сходных векторов

(3) средним значением всех предъявленных сходных векторов

После окончания алгоритма обучения информация о «шаблоне» данного класса образов хранится:

(1) в весовых значениях некоторого возбуждающего нейрона

(2) в весовых значениях некоторого тормозящего нейрона

(3) в весовых значениях некоторой области конкуренции

Чем различаются комплексные узлы, лежащие в разных слоях неокогнитрона?

(1) каждый слой комплексных узлов реагирует на более широкую область поля входного образа, чем предыдущий

(2) каждый слой комплексных узлов реагирует на большее количество преобразований входного образа, чем предыдущий

Всегда ли в статистических алгоритмах обучения производится изменение весовых значений?

Сколько слоев должна иметь нейронная сеть, умеющая выделять выпуклые области?

Когда алгоритм обучения персептрона зацикливается?

(1) если данная задача непредставима персептроном

(2) если данная задача не имеет решения

(3) если коэффициенты в алгоритме обучения подобраны неверно

Алгоритм обратного распространения заканчивает свою работу, когда:

(1) сигнал ошибки становится ниже заданного порога

(2) величина δ становится ниже заданного порога

(3) величина Δw для каждого нейрона становится ниже заданного порога

Если сеть содержит два промежуточных слоя, то она моделирует:

(1) по одному «сигмовидному склону» для каждого скрытого элемента

(2) одну выпуклую «взвешенность»

(3) по одной выпуклой «взвешенности» для каждого скрытого элемента первого слоя

(4) по одной выпуклой «взвешенности» для каждого скрытого элемента второго слоя

При обучении сети встречного распространения обучающей парой является:

(1) пара одинаковых векторов

(2) четверка векторов, из которых два вектора являются входом сети и два других вектора – соответствующим выходом

(3) пара векторов, из которых второй (выходной) вектор является кодом класса, к которому принадлежит первый (входной) вектор

Для какого алгоритма более опасен сетевой паралич?

(1) алгоритма обратного распространения

(2) алгоритма распределения Коши

Синаптические связи называются тормозящими, если :

(1) они являются обратными

(2) они являются обратными и отрицательными

(3) они приводят к увеличению значения целевой функции

В алгоритме обучения обобщенной машины Больцмана вычисление закрепленных вероятностей начинается после:

(1) запуска каждой обучающей пары

(2) после запуска всех обучающих пар

(3) конечного числа запусков сети с некоторого случайного значения

(4) после однократного запуска сети с некоторого случайного значения

Дендритами называются:

(1) точки соединения нейронов, через которые передаются нейронные сигналы

(2) «усики» нейронов, по которым проходят электрохимические сигналы

(3) тело нейрона, в котором происходит обработка электрохимического сигнала

Сеть ДАП называется адаптивной, если:

(1) для каждого нейрона задается своя пороговая функция

(2) сеть изменяет свои весовые значения в процессе обучения

(3) любой нейрон может изменять свое состояние в любой момент времени

Работа блока сброса заключается в:

(1) сравнении вектора, выработанного блоком сравнения с входным вектором

(2) сравнении вектора, выработанного блоком распознавания с входным вектором

(3) сбросе неудачных ассоциаций

Если в процессе обучения на вход сети АРТ подавать повторяющиеся последовательности обучающих векторов, то:

(1) будет происходить циклическое изменение весов

(2) через конечное число обучающих серий процесс обучения стабилизируется

(3) с каждым новым повтором серии обучающих векторов будет происходить более тонкая настройка весовых значений

Каким образом можно уменьшить количество слоев когнитрона, не причинив ущерба его вычислительным свойствам?

(1) путем расширения областей связи в последующих слоях

(2) путем перехода от одномерных слоев к двухмерным слоям

(3) путем введения вероятностных синоптических связей

В алгоритме обучения с учителем сравнение реального выхода с желаемым происходит:

(1) только на выходе системы

(2) только на выходе первого слоя системы

(3) на выходе каждого слоя системы

В алгоритме обучения Кохонена, увеличивая пороговое значение расстояния между входным вектором и весовыми значениями нейрона, мы можем добиться:

(1) объединения нескольких классов образов

(2) разбиения множества входных образов на более мелкие классы

Где в нейронной сети хранится информация о классификации образов?

(1) в количестве нейронов

(2) в весовых значениях

(3) в количестве слоев

(4) в самих нейронах

Все ли нейроны многослойного персептрона возможно обучить?

(1) да

(2) только нейроны первого слоя

(3) только нейроны последнего слоя

Метод ускорения сходимости заключается в:

(1) добавлении к коррекции веса значения, пропорционального величине предыдущего изменения веса

(2) умножении коррекции веса на значение, пропорциональное величине предыдущего изменения веса

(3) использовании производных второго порядка

Если размер шага очень большой, то:

(1) процесс сходимости происходит слишком медленно

(2) может возникнуть паралич сети

(3) может возникнуть постоянная неустойчивость сети

Пусть F — обратимая функция и F(x)=y. Если сеть встречного распространения обучена аппроксимировать эту функцию, то, если на вход подать только вектор

x

, на выходе мы получим:

Метод изменений сигналов OUT заключается в том, что:

(1) на весовые значения накладывают сжимающую функцию

(2) на величины OUT накладывают дополнительную сжимающую функцию

(3) если величина OUT велика, то веса, питающие этот нейрон, уменьшаются

Задачей распознавания образов называется:

(1) поиск идеального образа по имеющейся неполной его версии

(2) определение, к какому классу образов принадлежит данный зашумленный образ

(3) исследование ассоциаций, которые вызывает данный зашумленный образ

Задачей аналого-цифрового преобразователя является то, что:

(1) непрерывно растущее напряжение, подаваемое на вход сети, порождало числовое значение данного напряжения

(2) непрерывно растущее напряжение, подаваемое на вход сети, порождало числовое значение сопротивления, соответствующего данному напряжению

Активационной функцией называется:

(1) функция, вычисляющая выходной сигнал нейрона

(2) функция, суммирующая входные сигналы нейрона

(3) функция, корректирующая весовые значения

(4) функция, распределяющая входные сигналы по нейронам

Автоассоциативность памяти обусловлена:

(1) использованием многослойной сети

(2) использованием однослойной сети

(3) наличием обратных связей

Почему изученные ранее нейронные сети не обладают свойством стабильности-пластичности?

(1) обучение новому образу уничтожает или изменяет результаты предшествующего обучения

(2) они не обладают достаточной емкостью памяти

(3) в них отсутствуют тормозящие синаптические связи

Фаза распознавания инициализируется:

(1) в момент подачи на вход входного вектора

(2) в момент возбуждения победившего нейрона в слое распознавания

(3) в момент срабатывания слоя сброса

В каком случае сигнал OUT совпадает с сигналом NET для данного нейрона когнитрона?

(1) если NET≥0

(2) если NET=0

(3) если NET≥δ где δ — заданное пороговое значение

В каждом слое неокогнитрона выходы из массива комплексных плоскостей поступают на вход

(1) массива комплексных плоскостей этого же слоя

(2) массива комплексных плоскостей следующего слоя

(3) массива простых плоскостей следующего слоя

Метод дифференциального обучения Хэбба заключается в том, что в нем для изменения синоптических связей учитываются:

(1) выходы нейронов в разные моменты времени

(2) производные от выходов нейронов

(3) производные от целевой функции

Какая активационная функция используется в персептроне?

(1) пороговая

(2) гиперболического тангенса

(3) сигмоидальная

На вход однослойного персептрона подается вектор (a1...an). В каком случае выходом будет нулевой вектор?

(1) если для каждого нейрона j будем иметь files

(2) если найдется такой нейрон j, что files

(3) если для каждого нейрона j будем иметь files

(4) если найдется такой нейрон j, что files

Выходным слоем обобщенного многослойного персептрона называется:

(1) слой, состоящий из элементов, которые только выдают выходную информацию из сети

(2) последний слой сети

(3) слой, не производящий вычислений

Если сеть имеет небольшое число нейронов в скрытых слоях, то:

(1) возможно переобучение сети

(2) сеть может оказаться недостаточно гибкой для решения поставленной задачи

(3) время, необходимое на обучение сети, может оказаться очень большим

По принципу «победитель забирает все» действуют:

(1) нейроны слоя Кохонена

(2) нейроны слоя Гроссберга

При стохастическом методе обучения , если целевая функция увеличивается, то:

(1) изменения весовых значений скидываются и производятся новые вычисления

(2) производятся повторные изменения весовых значений

(3) объявляется, что сеть не может обучиться данной задаче

Если в данной сети найдутся нейроны, которые на этапе функционирования возбуждаются более, чем один раз, то:

(1) в данной сети существуют обратные связи

(2) данная сеть является неустойчивой

(3) в данной сети присутствуют нейроны Кохонена

При методе отказа от симметрии синапсов отрицательным фактором является:

(1) возможность появления неустойчивости сети

(2) нелокальность сети

(3) значительное повышение затраты вычислительных ресурсов

Сетью без обратных связей называется сеть,

(1) все слои которой соединены иерархически

(2) у которой нет синаптических связей, идущих от выхода некоторого нейрона к входам этого же нейрона или нейрона из предыдущего слоя

(3) у которой есть синаптические связи

Внутренней памятью нейрона называется:

(1) способность оставлять неизменным выходной сигнал до момента синхронизации

(2) множество весовых значений данного нейрона

(3) способность запоминать «шаблоны» классов образов

Шаблон критических черт используется, когда:

(1) система вошла в резонанс с входным образом

(2) запустился процесс запоминания новых «шаблонов» образов

(3) запустился алгоритм обучения АРТ

В фазе сравнения значение приемника 1 устанавливается равным:

Принцип «элитного обучения» когнитрона заключается в том, что:

(1) обучается только наиболее сильно возбужденный нейрон из данной области связанности

(2) обучаются нейроны только одной области связи

(3) чем более возбужден нейрон, тем более активно на него действует процесс обучения

Способна ли одна и та же плоскость простых узлов реагировать как на заданный образ, так и на его произвольный поворот?

(1) да

(2) нет

(3) в зависимости от задачи

В алгоритме обучения выходной звезды Гроссберга величина синоптической связи между двумя нейронами зависит

(1) от уровней возбуждения этих нейронов

(2) от выходных уровней этих нейронов

(3) от разности между реальным и желаемым выходом

Однонейронный персептрон с двумя входами:

(1) разделяет плоскость XOY на две полуплоскости

(2) разделяет трехмерное пространство XOY на два полупространства

(3) выделяет замкнутую область

В каком случае после завершения алгоритма обучения можно сделать вывод, что данный персептрон не смог обучиться?

(1) в силу теоремы сходимости такого быть не может

(2) когда весовые значения стабилизировались, а ошибка выше порога

Если до начала процедуры обучения по алгоритму обратного распространения все весовые значения сети сделать равными, то

(1) сеть, скорее всего, не обучится

(2) процесс обучения будет замедлен

(3) процесс обучения будет ускорен

Механизм контрольной кросс-проверки заключается в:

(1) разделении множества обучающих пар на две части для поочередного запуска алгоритма обратного распространения то на одной, то на другой части

(2) резервировании части обучающих пар и использовании их для независимого контроля процесса обучения

(3) циклическом использовании множества обучающих пар

Если в обучающее множество входит множество сходных между собой векторов, то сеть должна научиться:

(1) активировать один и тот же нейрон Кохонена, вектор весовых значений которого является усреднением данного множества сходных векторов

(2) активировать один и тот же нейрон Кохонена, вектор весовых значений которого равен максимальному среди сходных векторов

(3) сопоставлять каждому входному вектору отдельный нейрон

При обучении сеть не сможет выбраться из локального минимума, если:

(1) изменения весовых значений слишком малы

(2) изменения весовых значений слишком велики

(3) используется детерминированный метод обучения

Если сеть Хопфилда нашла среди запомненных ею образцов, образец соответствующий данному входному вектору, то сеть должна :

(1) остановиться в этом образце

(2) выдать на выходе единицу

(3) выдать на выходе заданный входной вектор

Если в непрерывной сети Хопфилда коэффициент, определяющий крутизну сигмовидной функции, взять достаточно большим, то:

(1) сеть будет функционировать подобно дискретной сети Хопфилда

(2) сеть станет неустойчивой

(3) сходимость сети станет неочевидной

Можно ли построить однослойную нейронную сеть с обратными связями?

Если на вход ДАП подать частично обнуленный вектор, то сеть выдаст также частично обнуленный ассоциированный с ним вектор?

(1) да

(2) нет

(3) в зависимости от задачи

Сколько функциональных модулей включает в себя сеть АРТ?

(1) один

(2) два

(3) три

(4) четыре

(5) пять

Алгоритм обучения сети АРТ является…

(1) алгоритмом «обучения с учителем»

(2) алгоритмом «обучения без учителя»

Обучение тормозящего входа возбуждающего нейрона

(1) не производится

(2) не отличается от обучения возбуждающего входа

(3) отличается от обучения возбуждающего входа

Простой узел возбуждается, если:

(1) хотя бы в одной комплексной плоскости предыдущего слоя появится «его» образ в его рецептивной области

(2) хотя бы одна его рецептивная область из комплексной плоскости предыдущего слоя подверглась возбуждению

(3) во всех комплексных плоскостях предыдущего слоя появится «его» образ в его рецептивной области

Метод обучения Уидроу-Хоффа отличается от метода обучения персептрона

(1) способом вычисления ошибки нейрона

(2) способом вычисления модификации весовых значений

(3) количеством синоптических связей, которые необходимо обучить

Сколько булевых функций от двух переменных можно представить персептроном?

(1) одну

(2) две

(3) десять

(4) четырнадцать

(5) шестнадцать

Если на данной обучающей паре сигнал персептрона совпал с нужным ответом, то нужно

(1) перейти к другой обучающей паре

(2) завершить процесс обучения

(3) обнулить все весовые значения

Алгоритм обратного распространения работает, пока:

(1) ошибка на всем обучающем множестве не достигнет приемлемого уровня

(2) ошибка на данной обучающей паре не достигнет приемлемого уровня

(3) все обучающие пары не будут использованы заданное число раз

Если ошибка сети на контрольном множестве стала расти, это означает, что:

(1) сеть начала переобучаться

(2) контрольное множество задано некорректно

(3) в сети недостает слоев или нейронов для решения данной задачи

Метод интерполяции заключается в:

(1) активировании лишь одного нейрона Кохонена, имеющего наибольшее значение NET

(2) активировании группы нейронов Кохонена, имеющей максимальные значения NET

(3) активировании двух нейронов, имеющих наибольшее и наименьшее значения NET

В чем преимущество метода Коши перед Больцмановским методом обучения?

(1) для обучения Коши нужно гораздо меньше времени

(2) в процессе обучения Коши используются гораздо более малые вычислительные ресурсы

(3) в более точной подстройке весовых значений

Сколько слоев полноценных нейронов имеет сеть Хэмминга?

(1) один

(2) два

(3) три

(4) четыре

Если статическая сеть Хопфилда обладает низкой искусственной температурой, то более вероятными становятся:

(1) более большие изменения состояний нейронов

(2) более мелкие изменения состояний нейронов

При каком алгоритме обучения обучающее множество состоит как из входных, так и из выходных векторов?

(1) «обучение с учителем»

(2) «обучение без учителя»

В каком случае сеть ДАП превращается в сеть Хопфилда?

(1) если W=WT

(2) если W=W-1

(3) если det W=1

Из слоя распознавания информация поступает в:

(1) внешнюю среду

(2) слой сравнения

(3) приемник 1

(4) приемник 2

(5) слой сброса

В алгоритме обучения сети АРТ процедура самомасштабирования необходима для того, чтобы:

(1) различать входные векторы в том случае, когда один вектор является «поднабором» второго

(2) сбрасывать слишком большие весовые значения

(3) проводить ассоциации между векторами разной размерности

При предъявлении на вход обученного когнитрона некоторого вектора

(1) должен возбудиться только один нейрон последнего слоя

(2) должны возбудиться нейроны только одной области конкуренции в выходном слое

При использовании неокогнитрона как классификатора, можем ли мы классифицировать образы независимо от их позиции, ориентации, размера и т.п.?

Почему для статистических алгоритмов обучения распределение Коши является более приемлемым, чем распределение Больцмана?

(1) использование распределения Коши существенно уменьшает время обучения

(2) использование распределения Коши дает более точные аппроксимации заданных функций

(3) использование распределения Коши позволяет избегать локальных минимумов

Сколько слоев должна иметь нейронная сеть, умеющая выделять невыпуклые области?

(1) один

(2) два

(3) три

(4) четыре

Можем ли мы за конечное число шагов после запуска алгоритма обучения персептрона сказать, что персептрон не может обучиться данной задаче?

(1) да

(2) нет

(3) в зависимост от задачи

Чем отличается обучение скрытого нейрона от обучения выходного нейрона?

(1) для скрытого нейрона нельзя вычислить сигнал ошибки

(2) для скрытого нейрона не известно целевое значение

(3) для скрытого нейрона нужно учитывать номер слоя, в котором он находится

Для решения любой задачи классификации достаточно иметь:

(1) многослойный персептрон с двумя промежуточными слоями

(2) многослойный персептрон с тремя промежуточными слоями

(3) многослойный персептрон с достаточно большим числом скрытых элементов

Если в алгоритме обучения сети встречного распространения на вход сети подается вектор

x

, то желаемым выходом является

(1) двоичный вектор, интерпритирующий номер класса, которому принадлежит вектор

x

(2) вектор

y

, являющийся эталоном для всех векторов, сходных с вектором

x

Для какого алгоритма скорость обучения более высокая?

(1) алгоритма обратного распространения

(2) алгоритма распределения Коши

Какими должны быть весовые значения тормозящих синаптических связей?

(1) равными величинами из интервала (-1/n,0), где n — число нейронов в одном слое

(2) случайными отрицательными числами

(3) небольшими положительными числами

В алгоритме обучения обобщенной машины Больцмана вычисление незакрепленных вероятностей начинается после:

(1) запуска каждой обучающей пары

(2) запуска всех обучающих пар

(3) конечного числа запусков сети с некоторого случайного значения

(4) однократного запуска сети с некоторого случайного значения

Искусственный нейрон

(1) является моделью биологического нейрона

(2) имитирует основные функции биологического нейрона

(3) по своей функциональности превосходит биологический нейрон

Сеть ДАП называется конкурирующей, если:

(1) у нее существуют весовые соединения между нейронами одного слоя

(2) любой нейрон может изменять свое состояние в любой момент времени

(3) данному входному вектору можно сопоставить несколько альтернативных ассоциаций

Если блок сброса выработал сигнал сброса, то:

(1) возбуждение в распознающем слое сбрасывается

(2) на вход сети снова подается тот же самый входной вектор

(3) проводится повторное вычисление при возбуждении другого нейрона в распознающем блоке

Проблема локализованности памяти АРТ заключается в том, что:

(1) при разрушении нейрона из слоя распознавания вся информация о классе образов, хранящаяся в данном нейроне, теряется

(2) при добавлении к обучающему множеству новых векторов приходится переучивать сеть заново

(3) сеть АРТ способна «запоминать» образы довольно узкого класса

Если к обучающему множеству добавить новые вектора, вызовет ли это необходимость переучивать когнитрон заново или нет?

Какой тип обучения можно использовать при обучении неокогнитрона?

(1) «обучение с учителем»

(2) «обучение без учителя»

В алгоритме обучения Кохонена величина синоптической связи между двумя нейронами зависит:

(1) от уровней возбуждения этих нейронов

(2) от выходных уровней этих нейронов

(3) от разности между реальным и желаемым выходами системы

(4) от разности между весовым значением и входами системы

Что такое «неподатливое» множество образов?

(1) множество образов, для классификации которых требуются очень большие вычислительные ресурсы

(2) множество образов, которые нельзя разбить на выпуклые и невыпуклые области

(3) множество образов, которые нельзя классифицировать

Сколько слоев может содержать персептрон?

(1) один

(2) два

(3) три

(4) любое конечное число

Добавление к коррекции веса значения, пропорционального величине предыдущего изменения веса, используется при методе:

(1) добавления нейронного смещения

(2) импульса

(3) экспоненциального сглаживания

(4) ускорения сходимости

Если сеть находится в постоянно меняющейся внешней среде, то:

(1) процесс обучения может никогда не сойтись

(2) может возникнуть паралич сети

(3) процесс обучения станет происходить слишком медленно

Пусть F — обратимая функция и F(x)=y. Если сеть встречного распространения обучена аппроксимировать эту функцию, то, если на вход подать только вектор

y

, на выходе мы получим:

В методе измерений сигнала OUT роль дополнительной сжимающей функции заключается в…

(1) сильном уменьшение значения очень больших весов

(2) сохранение практически без изменений значений малых весов

(3) поддержание симметрии, сохраняющей небольшие различия между большими весами

В чем основное отличие ассоциативной памяти от адресной?

(1) в устройстве с ассоциативной памятью при потере части информации не приводит к потере всей информации

(2) в устройстве с ассоциативной памятью поиск нужной информации происходит гораздо быстрее

(3) в устройстве с ассоциативной памятью требуется гораздо меньшее количество ресурсов для хранения данной информации

В аналого-цифровом преобразователе весовые значения интерпретируют:

(1) напряжение

(2) сопротивление

(3) усилители

Сетью без обратных связей называется сеть,

  • все слои которой соединены иерархически
  • (Правильный ответ) у которой нет синаптических связей, идущих от выхода некоторого нейрона к входам этого же нейрона или нейрона из предыдущего слоя
  • у которой есть синаптические связи

Какие сети характеризуются отсутствием памяти?

  • однослойные
  • многослойные
  • с обратными связями
  • (Правильный ответ) без обратных связей

Входом персептрона являются:

  • (Правильный ответ) вектор, состоящий из действительных чисел
  • значения 0 и 1
  • вектор, состоящий из нулей и единиц
  • вся действительная ось (-?;+?)

Теорема о двухслойности персептрона утверждает, что:

  • в любом многослойном персептроне могут обучаться только два слоя
  • способностью к обучению обладают персептроны, имеющие не более двух слоев
  • (Правильный ответ) любой многослойный персептрон может быть представлен в виде двухслойного персептрона

Обучением называют:

  • процедуру вычисления пороговых значений для функций активации
  • процедуру подстройки сигналов нейронов
  • (Правильный ответ) процедуру подстройки весовых значений

Нейронная сеть является обученной, если:

  • при подаче на вход некоторого вектора сеть будет выдавать ответ, к какому классу векторов он принадлежит
  • (Правильный ответ) при запуске обучающих входов она выдает соответствующие обучающие выходы
  • алгоритм обучения завершил свою работу и не зациклился

Подаем на вход персептрона вектор a. В каком случае весовые значения нужно уменьшать?

  • всегда, когда на выходе 1
  • (Правильный ответ) если на выходе 1, а нужно 0
  • если сигнал персептрона не совпадает с нужным ответом
  • если на выходе 0, а нужно 1

Алгоритм обратного распространения заканчивает свою работу, когда:

  • величина ? становится ниже заданного порога
  • величина ?w для каждого нейрона становится ниже заданного порога
  • (Правильный ответ) сигнал ошибки становится ниже заданного порога

Метод импульса заключается в:

  • использовании производных второго порядка
  • (Правильный ответ) добавлении к коррекции веса значения, пропорционального величине предыдущего изменения веса
  • умножении коррекции веса на значение, пропорциональное величине предыдущего изменения веса

Паралич сети может наступить, когда:

  • (Правильный ответ) весовые значения становятся очень большими
  • размер шага становится очень большой
  • размер шага становится очень маленький
  • весовые значения становятся очень маленькими

Если сеть имеет очень большое число нейронов в скрытых слоях, то:

  • время, необходимое на обучение сети, минимально
  • (Правильный ответ) возможно переобучение сети
  • сеть может оказаться недостаточно гибкой для решения поставленной задачи

Дискриминантной функцией называется:

  • активационная функция, используемая в многослойном персептроне
  • функция, моделирующая пространство решений данной задачи
  • (Правильный ответ) функция, равная единице в той области пространства объектов, где располагаются объекты из нужного класса, и равная нулю вне этой области

При методе кросс-проверки считается, что множество обучающихся пар корректно разделено на две части, если:

  • ошибка сети на обучающем множестве убывает быстрее, чем на контрольном множестве
  • в начале работы ошибки сети на обучающем и контрольном множествах существенно отличаются
  • (Правильный ответ) в начале работы ошибки сети на обучающем и контрольном множествах практически не отличались

Если сеть содержит два промежуточных слоя, то она моделирует:

  • по одной выпуклой «взвешенности» для каждого скрытого элемента первого слоя
  • по одному «сигмовидному склону» для каждого скрытого элемента
  • (Правильный ответ) по одной выпуклой «взвешенности» для каждого скрытого элемента второго слоя
  • одну выпуклую «взвешенность»

Механизм контрольной кросс-проверки заключается в:

  • циклическом использовании множества обучающих пар
  • разделении множества обучающих пар на две части для поочередного запуска алгоритма обратного распространения то на одной, то на другой части
  • (Правильный ответ) резервировании части обучающих пар и использовании их для независимого контроля процесса обучения

Если в алгоритме обучения сети встречного распространения на вход сети подается вектор x, то желаемым выходом является

  • вектор y, являющийся эталоном для всех векторов, сходных с вектором x
  • двоичный вектор, интерпритирующий номер класса, которому принадлежит вектор x
  • (Правильный ответ) сам вектор x

«Победителем» считается нейрон Кохонена

  • (Правильный ответ) с максимальным значением величины NET
  • с минимальным значением величины NET
  • с минимальным значением величины OUT
  • с максимальным значением величины OUT

Если данный нейрон Кохонена является «победителем», то его значение OUT

  • является максимальным среди всех значений OUT нейронов слоя Кохонена
  • равно нулю
  • (Правильный ответ) равно единице

Метод аккредитации заключается в:

  • активировании двух нейронов, имеющих наибольшее и наименьшее значения NET
  • активировании группы нейронов Кохонена, имеющих максимальные значения NET
  • (Правильный ответ) активировании лишь одного нейрона Кохонена, имеющего наибольшее значение NET

Стратегия избежания локальных минимумов при сохранении стабильности заключается в

  • достаточно больших изменениях весовых значений
  • (Правильный ответ) больших начальных шагах изменения весовых значений и постепенном уменьшении этих шагов
  • малых начальных шагах изменения весовых значений и постепенном увеличении этих шагов
  • достаточно малых изменениях весовых значений

Для какого алгоритма более опасен сетевой паралич?

  • алгоритма обратного распространения
  • (Правильный ответ) алгоритма распределения Коши

Какова роль искусственной температуры при Больцмановском обучении?

  • для регулирования скорости сходимости алгоритма обучения
  • (Правильный ответ) при снижении температуры вероятно возможными становятся более маленькие изменения

Сеть Хопфилда заменяется на сеть Хэмминга, если:

  • необходимо ускорить время сходимости сети
  • необходимо повысить число запомненных образцов
  • необходимо обеспечить устойчивость сети
  • (Правильный ответ) нет необходимости, чтобы сеть в явном виде выдавала запомненный образец

Какими должны быть весовые значения тормозящих синаптических связей?

  • (Правильный ответ) равными величинами из интервала (-1/n,0), где n — число нейронов в одном слое
  • небольшими положительными числами
  • случайными отрицательными числами

Метод отказа от симметрии синапсов позволяет:

  • (Правильный ответ) достигнуть максимальной емкости памяти
  • обеспечить устойчивость сети
  • избежать локальных минимумов

Метод машины Больцмана позволяет сети Хопфилда:

  • (Правильный ответ) избежать локальных минимумов
  • ускорить процесс обучения
  • избежать сетевого паралича

Сеть ДАП называется адаптивной, если:

  • (Правильный ответ) сеть изменяет свои весовые значения в процессе обучения
  • любой нейрон может изменять свое состояние в любой момент времени
  • для каждого нейрона задается своя пороговая функция

Лотарально-тормозящая связь используется :

  • между слоями сравнения и распознавания
  • (Правильный ответ) внутри слоя распознавания
  • внутри приемника 1
  • внутри приемника 2

Процесс лотерального торможения обеспечивает, что

  • слой сброса снимает возбуждение с неудачно выбранного нейрона в слое распознавания
  • (Правильный ответ) в слое распознавания возбуждается только тот нейрон, чья свертка является максимальной
  • система автоматически решает вопрос о прекращении поиска необходимой информации

Если в процессе обучения некоторый вес был обнулен, то:

  • (Правильный ответ) он больше никогда не примет ненулевого значения
  • он обязательно будет подвергнут новому обучению

Приращение веса тормозящего входа данного постсиноптического нейрона зависит от:

  • выходного сигнала тормозящего пресиноптического нейрона и его возбуждающего веса
  • выходного сигнала возбуждающего пресиноптического нейрона и его тормозящего веса
  • (Правильный ответ) выходного сигнала возбуждающего пресиноптического нейрона и его возбуждающего веса

Чем различаются комплексные узлы, лежащие в разных слоях неокогнитрона?

  • (Правильный ответ) каждый слой комплексных узлов реагирует на большее количество преобразований входного образа, чем предыдущий
  • (Правильный ответ) каждый слой комплексных узлов реагирует на более широкую область поля входного образа, чем предыдущий

Какой тип обучения можно использовать при обучении неокогнитрона?

  • (Правильный ответ) «обучение без учителя»
  • (Правильный ответ) «обучение с учителем»

Обучение персептрона считается законченным, когда:

  • (Правильный ответ) ошибка выхода становится достаточно малой
  • достигнута достаточно точная аппроксимация заданной функции
  • по одному разу запущены все вектора обучающего множества

Алгоритм обучения персептрона является:

  • (Правильный ответ) алгоритмом «обучения с учителем»
  • алгоритмом «обучения без учителя»

Запускаем обучающий вектор Х. В каком случае весовые значения не нужно изменять?

  • если на выходе сеть даст 1
  • если на выходе сеть даст 0
  • (Правильный ответ) если сигнал персептрона совпадает с правильным ответом

Можем ли мы за конечное число шагов после запуска алгоритма обучения персептрона сказать, что персептрон не может обучиться данной задаче?

  • нет
  • (Правильный ответ) да
  • в зависимост от задачи

Сигналом ошибки данного выходного нейрона называется:

  • (Правильный ответ) разность между выходом нейрона и его целевым значением
  • производная активационной функции
  • величина OUT для нейрона, подающего сигнал на данный выходной нейрон

Метод ускорения сходимости заключается в:

  • умножении коррекции веса на значение, пропорциональное величине предыдущего изменения веса
  • (Правильный ответ) использовании производных второго порядка
  • добавлении к коррекции веса значения, пропорционального величине предыдущего изменения веса

Если два образца сильно похожи, то:

  • они могут объединиться в один образец
  • (Правильный ответ) они могут вызывать перекрестные ассоциации
  • они могут нарушать устойчивость сети

Отсутствие обратных связей гарантирует:

  • (Правильный ответ) устойчивость сети
  • сходимость алгоритма обучения
  • возможность аппроксимировать данную функцию

В алгоритме обучения обобщенной машины Больцмана вычисление закрепленных вероятностей начинается после:

  • запуска каждой обучающей пары
  • конечного числа запусков сети с некоторого случайного значения
  • (Правильный ответ) после запуска всех обучающих пар
  • после однократного запуска сети с некоторого случайного значения

В аналого-цифровом преобразователе весовые значения интерпретируют:

  • усилители
  • (Правильный ответ) сопротивление
  • напряжение

Если входной вектор соответствует одному из запомненных образов, то:

  • выходом распознающего слоя является соответствующий запомненный образец
  • (Правильный ответ) в распознающем слое возбуждается один нейрон
  • срабатывает блок сброса

Если в процессе обучения на вход сети АРТ подавать повторяющиеся последовательности обучающих векторов, то:

  • будет происходить циклическое изменение весов
  • с каждым новым повтором серии обучающих векторов будет происходить более тонкая настройка весовых значений
  • (Правильный ответ) через конечное число обучающих серий процесс обучения стабилизируется

В статистических алгоритмах обучения величина изменения синоптической связи между двумя нейронами зависит:

  • от разности между реальным и желаемым выходами нейрона
  • от уровня возбуждения пресиноптического нейрона
  • от уровня возбуждения постсиноптического нейрона
  • (Правильный ответ) изменяется случайным образом

Однонейронным персептроном размерность разделяемого пространства определяется

  • контекстом конкретной задачи
  • весовыми значениями
  • (Правильный ответ) длиной входного вектора
  • пороговым значением активационной функции

Однослойный персептрон решает задачи:

  • (Правильный ответ) аппроксимации функций
  • распознавания образов
  • (Правильный ответ) классификации

Теорема о «зацикливании» персептрона утверждает, что:

  • (Правильный ответ) если данная задача не представима персептроном, то алгоритм обучения зацикливается
  • если задача не имеет решения, то алгоритм обучения зацикливается
  • любой алгоритм обучения зацикливается

Все ли нейроны многослойного персептрона возможно обучить?

  • только нейроны первого слоя
  • да
  • (Правильный ответ) только нейроны последнего слоя

При методе кросс-проверки считается, что сеть начала переобучаться, если:

  • ошибка сети на контрольном множестве стала расти
  • алгоритм обратного распространения зациклился
  • (Правильный ответ) ошибка сети на контрольном множестве перестала убывать

Детерминистским методом обучения называется:

  • метод, выполняющий псевдослучайные изменения весовых значений
  • детерминированный метод обучения с учителем
  • детерминированный метод обучения без учителя
  • (Правильный ответ) метод, использующий последовательную коррекцию весов, зависящую от объективных значений сети

Есть ли вероятность того, что в алгоритме разобучения сеть «забудет» правильный образ?

  • (Правильный ответ) да
  • нет
  • в зависимости от задачи

В задаче коммивояжера каждый город представляется:

  • одним слоем нейронов
  • (Правильный ответ) строкой из n нейронов, где n — число городов
  • одним нейроном

Чем реакция комплексного узла на данный входной образ отличается от реакции простого узла, лежащего в том же слое?

  • (Правильный ответ) комплексный узел менее чувствителен к позиции входного образа
  • рецепторная зона комплексного узла гораздо больше рецепторной зоны простого узла
  • комплексный узел менее чувствителен к повороту и другим видам движения входного образа

Выходом выходной звезды Гроссберга является

  • мера сходства входного вектора с весовым вектором
  • номер класса сходных образов
  • (Правильный ответ) статическая характеристика обучающего набора

Искусственный нейрон

  • (Правильный ответ) имитирует основные функции биологического нейрона
  • по своей функциональности превосходит биологический нейрон
  • является моделью биологического нейрона

Чтобы избежать паралича сети, необходимо:

  • (Правильный ответ) уменьшить размер шага
  • увеличить размер шага
  • увеличить весовые значения
  • уменьшить весовые значения

В однонейронном персептроне размерность разделяющей гиперплоскости определяется:

  • (Правильный ответ) количеством входных значений
  • весовыми значениями
  • количеством выходных значений

В начальный момент времени выходом слоя распознавания является:

  • (Правильный ответ) нулевой вектор
  • единичный вектор
  • входной вектор

Активационной функцией называется:

  • функция, суммирующая входные сигналы нейрона
  • (Правильный ответ) функция, вычисляющая выходной сигнал нейрона
  • функция, распределяющая входные сигналы по нейронам
  • функция, корректирующая весовые значения

Память называется гетероассоциативной, если:

  • входной образ может быть отнесен к некоторому классу образов
  • входной образ может быть только завершен или исправлен
  • (Правильный ответ) входной образ может быть ассоциирован с другим образом

Память называется ассоциативной, если извлечение необходимой информации происходит по:

  • (Правильный ответ) по содержанию данной информации
  • имеющимся образцам
  • адресу начальной точки данной информации

Весовые значения тормозящих нейронов:

  • обучаются по дельта-правилу
  • обучаются по алгоритму, аналогичному алгоритму обратного распространения
  • (Правильный ответ) не обучаются

Добавление к коррекции веса значения, пропорционального величине предыдущего изменения веса, используется при методе:

  • (Правильный ответ) импульса
  • экспоненциального сглаживания
  • ускорения сходимости
  • добавления нейронного смещения

Фаза распознавания инициализируется:

  • в момент срабатывания слоя сброса
  • в момент возбуждения победившего нейрона в слое распознавания
  • (Правильный ответ) в момент подачи на вход входного вектора

Кодирование ассоциаций — это:

  • (Правильный ответ) «обучение с учителем»
  • процесс нормального функционирования сети
  • «обучение без учителя»

В статистических алгоритмах обучения искусственная температура используется для:

  • (Правильный ответ) управления размером случайных изменений весовых значений
  • минимизации целевой функции
  • уменьшения полной энергии сети

При стохастическом методе обучения , если целевая функция увеличивается, то:

  • (Правильный ответ) изменения весовых значений скидываются и производятся новые вычисления
  • объявляется, что сеть не может обучиться данной задаче
  • производятся повторные изменения весовых значений

В чем заключается отличие АРТ-1 от АРТ-2?

  • в АРТ-2 используется многослойная иерархия слоев
  • в АРТ-2 введен специальный механизм зависимости активности синапсов от времени
  • (Правильный ответ) АРТ-1 обрабатывает только битовые сигналы, а АРТ-2 — аналоговые

При обучении когнитрона обучаются:

  • все нейроны
  • только один нейрон в каждом слое
  • (Правильный ответ) только один нейрон в каждой области конкуренции

Какие из перечисленных ниже шагов в алгоритме обратного распространения являются шагами «прохода вперед»?

  • (Правильный ответ) вычислить выход сети
  • подкорректировать веса сети так, чтобы минимизировать ошибку
  • (Правильный ответ) выбрать очередную обучающую пару из обучающего множества; подать входной вектор на вход сети
  • повторять шаги с 1 по 4 для каждого вектора обучающего множества до тех пор, пока ошибка на всем множестве не достигнет приемлемого уровня
  • вычислить разность между выходом сети и требуемым выходом (целевым вектором обучающей пары)

Из слоя сравнения информация поступает в:

  • приемник 2
  • (Правильный ответ) слой распознавания
  • приемник 1
  • внешнюю среду
  • (Правильный ответ) слой сброса

Обучение сети встречного распространения является:

  • «обучением без учителя»
  • (Правильный ответ) «обучением с учителем»

При стохастическом методе обучения изменения весовых значений сохраняются, если

  • (Правильный ответ) они уменьшают целевую функцию
  • они увеличивают целевую функцию
  • в любом случае

В каком случае персептрон может обучиться решать данную задачу?

  • если задача имеет целое численное решение
  • (Правильный ответ) если задача представима персептроном
  • если задача имеет решение

Теорема о сходных персептронах утверждает, что:

  • найдутся задачи, которым персептроны не смогут обучиться
  • алгоритм обучения всегда сходится
  • (Правильный ответ) если данная задача представляет персептрон, то он способен ей обучиться

Сети прямого распространения — это:

  • (Правильный ответ) сети, у которых нет памяти
  • (Правильный ответ) сети, у которых нет соединений, идущих от выходов некоторого слоя к входам предшествующего слоя
  • сети, у которых есть память
  • сети, имеющие много слоев

Сеть ДАП называется негомогенной, если:

  • (Правильный ответ) для каждого нейрона задается своя пороговая функция
  • данному входному вектору можно сопоставить несколько альтернативных ассоциаций
  • ассоциированные вектора имеют разные размерности

К какому типу памяти относится ДАП?

  • адресной
  • автоассоциативной
  • (Правильный ответ) гетероассоциативной

Если сеть Хопфилда нашла среди запомненных ею образцов, образец соответствующий данному входному вектору, то сеть должна :

  • выдать на выходе заданный входной вектор
  • (Правильный ответ) остановиться в этом образце
  • выдать на выходе единицу

Каким образом можно уменьшить количество слоев когнитрона, не причинив ущерба его вычислительным свойствам?

  • путем введения вероятностных синоптических связей
  • путем перехода от одномерных слоев к двухмерным слоям
  • (Правильный ответ) путем расширения областей связи в последующих слоях

Самоорганизующиеся сети используются для:

  • (Правильный ответ) распознавания образов
  • аппроксимации функций
  • (Правильный ответ) классификации образов

Рецептивные области узлов каждой плоскости простых узлов

  • не пересекаются, но покрывают все поле входного образа
  • совпадают и покрывают все поле входного образа
  • (Правильный ответ) пересекаются и покрывают все поле входного образа

В каком случае сигнал OUT совпадает с сигналом NET для данного нейрона когнитрона?

  • если NET=0
  • (Правильный ответ) если NET?0
  • если NET?? где ? — заданное пороговое значение

Однонейронный персептрон с двумя входами:

  • выделяет замкнутую область
  • разделяет трехмерное пространство XOY на два полупространства
  • (Правильный ответ) разделяет плоскость XOY на две полуплоскости

Метод восстановления ассоциаций заключается в том, что:

  • определяется, являются ли два заданных вектора взаимно ассоциированными
  • (Правильный ответ) по частично зашумленному вектору восстанавливается вектор, ассоциированный с ним
  • по заданным векторам находятся ассоциации, их соединяющие

Сколько нейронов необходимо для реализации задачи коммивояжера, где n — число городов?

  • 2n нейронов
  • n! нейронов
  • (Правильный ответ) n2 нейронов
  • n нейронов

Значение активационной функции является:

  • (Правильный ответ) выходом данного нейрона
  • весовым значением данного нейрона
  • входом данного нейрона

При обучении персептрона предполагается обучение:

  • синоптических связей, соединяющих одновременно возбужденные нейроны
  • синоптических связей только «победившего» нейрона
  • (Правильный ответ) всех синоптических связей

Фаза поиска считается успешно завершенной, если:

  • (Правильный ответ) найдется нейрон, в котором запомнен образ, достаточно похожий на входной образ
  • весовые значения «победившего» нейрона из слоя распознавания будут подкорректированы согласно данному входному вектору
  • входному образу будет сопоставлен нейрон, в котором никакой информации еще не было запомнено

Если до начала процедуры обучения по алгоритму обратного распространения все весовые значения сети сделать равными, то

  • процесс обучения будет ускорен
  • (Правильный ответ) сеть, скорее всего, не обучится
  • процесс обучения будет замедлен

Модификация алгоритма обучения методом «чувства справедливости» заключается в:

  • блокировании нейронов, которые очень часто побеждают
  • (Правильный ответ) занижении весовых значений тех нейронов, которые очень часто «побеждают»
  • повышении весовых значений тех нейронов, которые очень редко «побеждают»

Скрытым слоем обобщенного многослойного персептрона называется:

  • (Правильный ответ) слой, не являющийся ни входным, ни выходным
  • слой, не производящий вычислений
  • слой, состоящий из элементов, которые только принимают входную информацию и распространяют ее по сети

Ортогонализация исходных образов позволяет:

  • избежать локальных минимумов
  • (Правильный ответ) обеспечить устойчивость сети
  • (Правильный ответ) достигнуть максимальной емкости памяти

Главная /
Основы теории нейронных сетей /
Если ошибка сети на контрольном множестве стала расти, это означает, что:

сеть начала переобучаться

контрольное множество задано некорректно

в сети недостает слоев или нейронов для решения данной задачи

ОПИСАНИЯ ЛАБОРАТОРНЫХ РАБОТ ПО КУРСУ ННСУИД

ВВЕДЕНИЕ …………………………………………………………………………………………

3

1. ТЕОРЕТИЧЕСКИЕ ОСНОВЫ КУРСА ……………………………………………..

4

1.1. Основы искусственных нейронных сетей ……………………………………

4

1.2.Основы генетических алгоритмов………………………………………………..

7

1.3. Основы нечёткой логики…………………………………………………………..

12

1.4. Основы нейро-нечётких систем…………………………………………………

23

2. ОПИСАНИЯ ЛАБОРАТОРНЫХ РАБОТ…………………………………………

33

Лабораторная работа №1. Изучение основ применения искусственных

нейронных сетей …………………………………………………………………………….

33

Лабораторная работа №2. Изучение основ применения генетических

алгоритмов ……………………………………………………………………………………..

39

Лабораторная работа № 3. Изучение основ применения нечёткой

логики…………………………………………………………………………………………….

41

Лабораторная работа №4. Изучение основ применения нейро-нечётких

систем …………………………………………………………………………………………….

43

2

ВВЕДЕНИЕ

В настоящее время всё большее распространение приобретают разработки в области управления и обработки информации, основанные на математических аппаратах искусственных нейронных сетей, нечёткой логики, генетических алгоритмов.

Среди задач обработки информации одной из немаловажных задач, которая может быть решена с применением указанными выше подходов является задача диагностики технических систем.

Цель учебного пособия – познакомить читателя с основами применения современных подходов в задачах управления и диагностики технических систем на примере выполнения лабораторных работ.

Выполнение лабораторных работ предусмотрено в программном пакете MatLab, широко распространённом и хорошо себя зарекомендовавшим во многих инженерных приложениях, что позволит получить полезный для практической работы навык.

3

1.ТЕОРЕТИЧЕСКИЕ ОСНОВЫ КУРСА

1.1.Основы искусственных нейронных сетей

1.1.1.Принципы функционирования

Под искусственными нейронными сетями (ИНС) подразумеваются вычислительные структуры, которые моделируют простые биологические процессы, обычно ассоциируемые с процессами человеческого мозга. Они представляют собой распараллеленные системы, способные к обучению и адаптации путем анализа положительных и отрицательных воздействий. Элементарным преобразователем в данных сетях является искусственный нейрон или просто нейрон, названный так по аналогии с биологическим.

Нейрон — это составная часть нейронной сети. Нейрон состоит из умножителей (синапсов), сумматора и нелинейного преобразователя.

При помощи синапсов осуществляется связь между нейронами. При этом входной сигнал нейрона умножается на число, характеризующее силу связи, — вес синапса.

Сумматор осуществляет сложение сигналов, поступающих по синаптическим связям от других нейронов, и внешних входных сигналов. Нелинейный преобразователь реализует нелинейную функцию одного аргумента — выхода сумматора. Эта функция называется функцией активации нейрона. Нейрон в целом реализует скалярную функцию векторного аргумента.

Математическая модель нейрона может быть описана следующими соотношениями

swi xi b

i1n

yf (s)

Вобщем случае входной сигнал, весовые коэффициенты и значения смещения могут принимать действительные значения. Выход нейрона у определяется видом функции активации f(s) и может быть как действительным, так и целым. Во многих практических задачах входы,

4

веса и смещения могут принимать лишь некоторые фиксированные значения

Таким образом, нейрон полностью описывается своими весами wi и передаточной функцией f(s). Для заданного набора чисел (вектора) xi в качестве входов, нейрон формирует некоторое число у на выходе.

Процесс функционирования ИНС зависит от значений синаптических связей. Поэтому, задав определенную структуру ИНС, необходимо найти значения всех переменных весовых коэффициентов (некоторые синаптические связи могут быть постоянными).

Этот этап называется обучением ИНС, и от того, насколько качественно он будет выполнен, зависит способность сети решать поставленные перед ней проблемы во время функционирования.

1.1.2.Обучение ИНС

Математически процесс обучения может быть описан следующим образом.

В процессе функционирования нейронная сеть формирует выходной сигнал Y, соответствующий входному сигналу X, реализуя некоторую функцию Y = G(X).

Пусть решением некоторой задачи является функция Y = F(X),

которая представлена известными парами входных-выходных данных

(X1, Y1), (X2, Y2), …, (XN, YN), где Yk = F(Xk) (k = 1, 2, …N).

Процесс обучения заключается в поиске функции G, близкой к F в смысле некоторой функции ошибки Е.

Если выбраны множество обучающих примеров — пар (Xk, Yk) (где k = 1,2,…, N) и способ вычисления функции ошибки Е, то обучение нейронной сети превращается в задачу многомерной оптимизации, имеющую очень большую размерность. Т.к. функция Е может иметь произвольный вид, обучение в общем случае — многоэкстремальная невыпуклая задача оптимизации.

Для решения этой задачи могут быть использованы следующие (итерационные) алгоритмы:

алгоритмы локальной оптимизации с вычислением частных производных первого порядка;

алгоритмы локальной оптимизации с вычислением частных производных первого и второго порядка;

стохастические алгоритмы оптимизации;

алгоритмы глобальной оптимизации.

К первой группе относятся: градиентный алгоритм (метод скорейшего спуска); методы с одномерной и двумерной оптимизацией целевой функции в направлении антиградиента; метод сопряженных

5

градиентов; методы, учитывающие направление антиградиента на нескольких шагах алгоритма.

Ко второй группе относятся: метод Ньютона, методы оптимизации с разреженными матрицами Гессе, квазиньютоновские методы, метод Гаусса Ньютона, метод Левенберга-Марквардта и др.

Стохастическими методами являются: поиск в случайном направлении, имитация отжига, метод Монте-Карло (численный метод статистических испытаний).

Задачи глобальной оптимизации решаются с помощью перебора значений переменных, от которых зависит целевая функция (функция ошибки Е).

1.1.3.Переобучение и обобщение

Вотсутствие полной и бесконечно большой обучающей выборки на самом деле, минимизируется не «истинная» ошибка на поверхности ошибок в заранее неизвестной модели явления, а только ошибка относительно имеющихся данных.

Сильнее всего это различие проявляется в явлении слишком близкой подгонки параметров ИНС под данные обучающей выборки, называемом переобучением. Это явление хорошо иллюстрируется на примере аппроксимации посредством полиномов.

Графики полиномов могут иметь различную форму. При этом, чем выше его степень, тем более сложной может быть эта форма. Полиномиальная кривая (модель) может быть подогнана под конкретные данные и таким образом объяснить существующую зависимость.

При этом данные могут быть зашумлены, поэтому нельзя считать, что самая лучшая модель задается кривой, которая в точности проходит через все имеющиеся точки данных. Полином низкого порядка может быть недостаточно гибким средством для аппроксимации данных, в то время как полином высокого порядка может оказаться чересчур гибким,

ибудет точно следовать данным, принимая при этом замысловатую форму, не имеющую никакого отношения к форме настоящей зависимости.

Нейронная сеть сталкивается с точно такой же трудностью. ИНС с большим числом весов моделируют более сложные функции и, следовательно, склонны к переобучению. ИНС с небольшим числом весов может оказаться недостаточно гибкой, чтобы смоделировать имеющуюся зависимость.

Для борьбы с переобучением используется механизм контрольной кросс-проверки, при котором часть обучающих наблюдений резервируется и в обучении не используется. Вместо этого она

6

используется для независимого контроля результата в процессе осуществления обучения сети.

В самом начале обучения ошибки сети на обучающем и контрольном множествах будут одинаковыми (если они существенно отличаются, то, вероятно, разбиение всех наблюдений на два множества было неоднородным). По мере того как сеть обучается, ошибка обучения будет убывать, и, пока обучение уменьшает действительную функцию ошибок, ошибка на контрольном множестве также будет убывать. Если же контрольная ошибка перестала убывать или даже стала расти, это означает, что сеть начала слишком близко аппроксимировать данные и обучение следует остановить. Этот эффект слишком точной аппроксимации в процессе обучения и называется переобучением. Если такое случилось, то обычно советуют уменьшить число скрытых элементов и/или слоев, ибо сеть является слишком мощной для данной задачи. Если же сеть, наоборот, была взята недостаточно богатой для того, чтобы моделировать имеющуюся зависимость, то переобучения, скорее всего, не произойдет, и обе ошибки — обучения и проверки — не достигнут достаточного уровня малости.

1.2.Основы генетических алгоритмов

1.2.1. Генетические алгоритмы и традиционные методы оптимизации

Генетический алгоритм представляет собой метод, отражающий естественную эволюцию методов решения проблем, и в первую очередь задач оптимизации. Генетические алгоритмы — это процедуры поиска, основанные на механизмах естественного отбора и наследования. В них используется эволюционный принцип выживания наиболее приспособленных особей.

Генетические алгоритмы отличаются от традиционных методов оптимизации несколькими базовыми элементами. В частности, они:

1)обрабатывают не значения параметров самой задачи, а их закодированную форму;

2)осуществляют поиск решения исходя не из единственной точки,

аиз их некоторой популяции;

3)используют только целевую функцию, а не ее производные либо иную дополнительную информацию,

4)применяют вероятностные, а не детерминированные правила

вывода.

7

1.2.2.Основные понятия генетических алгоритмов

Втеории генетических алгоритмов используются определения, заимствованные из генетики Например, речь идет о популяции особей, а в качестве базовых понятий

применяются ген, хромосома, генотип, фенотип, аллель.

Также используются соответствующие этим терминам определения из технического лексикона, в частности, цель, двоичная последовательность, структура.

Популяция — это конечное множество особей.

Особи, входящие в популяцию, в генетических алгоритмах представляются хромосомами с закодированными в них множествами параметров задачи, т.е. решений, которые иначе называются точками в пространстве поиска. В некоторых работах особи называются организмами.

Хромосомы (другие названия — цепочки или кодовые последовательности) — это упорядоченные последовательности генов.

Ген (также называемый свойством, знаком или детектором) — это атомарный элемент генотипа, в частности, хромосомы.

Генотип или структура — это набор хромосом данной особи. Следовательно, особями популяции могут быть генотипы либо единичные хромосомы (в довольно распространенном случае, когда генотип состоит из одной хромосомы).

Фенотип — это набор значений, соответствующих данному генотипу, т.е. декодированная структура или множество параметров задачи (решение, точка пространства поиска).

Аллель — это значение конкретного гена, также определяемое как

значение свойства или вариант свойства.

Локус или позиция указывает место размещения данного гена в хромосоме (цепочке). Множество позиций генов — это локи.

Очень важным понятием в генетически алгоритмах считается

функция приспособленности (fitness function), иначе называемая функцией оценки:

Представляет меру приспособленности данной особи в популяции. Играет важнейшую роль, поскольку позволяет оценить степень приспособленности конкретных особей в популяции и выбрать из них наиболее приспособленные (т.е. имеющие наибольшие значения функции приспособленности) в соответствии с эволюционным принципом выживания «сильнейших» (лучше всего приспособившихся). Оказывает сильное влияние на функционирование генетических

алгоритмов и должна иметь точное и корректное определение.

8

Взадачах оптимизации функция приспособленности, как правило, оптимизируется (точнее говоря, максимизируется) и называется целевой функцией. В задачах минимизации целевая функции преобразуется, и проблема сводится к максимизации.

Втеории управления функция приспособленности может принимать вид функции погрешности, а в теории игр — стоимостной функции. На каждой итерации генетического алгоритма приспособленность каждой особи данной популяции оценивается при помощи функции приспособленности, и на этой основе создается следующая популяция особей

Очередная популяция в генетическом алгоритме называется поколением, а к вновь создаваемой популяции особей применяется термин «новое поколение» или «поколение потомков».

1.2.3. Классический генетический алгоритм

Основной (классический) генетический алгоритм (также называемый элементарным или простым генетическим алгоритмом) состоит из следующих шагов:

1)инициализация, или выбор исходной популяции хромосом;

2)оценка приспособленности хромосом в популяции;

3)проверка условий остановки алгоритма;

4)селекция хромосом;

5)применение генетических операторов;

6)формирование новой популяции;

7)выбор «наилучшей» хромосомы,

Формирование исходной популяции заключается в случайном выборе заданного количества хромосом (особей), представляемых двоичными последовательностями фиксированной длины.

Оценивание приспособленности хромосом заключается в расчете функции приспособленности для каждой хромосомы этой популяции. Чем больше значение этой функции, тем выше «качество» хромосомы. Форма функции приспособленности зависит от характера решаемой задачи. Предполагается, что функция приспособленности всегда принимает неотрицательные значения и. кроме того, что для решения оптимизационной задачи требуется максимизировать эту функцию. Если исходная форма функции приспособленности не удовлетворяет этим условиям, то выполняется соответствующее преобразование (например, задачу минимизации функции можно легко свести к задаче максимизации).

Определение условий остановки генетического алгоритма зависит от его конкретного применения. В оптимизационных задачах, если

9

известно максимальное (или минимальное) значение функции приспособленности, то остановка алгоритма может произойти после достижения ожидаемого оптимального значения, возможно — с заданной точностью. Остановка алгоритма также может произойти в случае, когда его выполнение не приводит к улучшению уже достигнутого значения. Алгоритм может быть остановлен по истечении определенного времени выполнения либо после выполнения заданного количества итераций. Если условие остановки выполнено, то производится переход к завершающему этапу выбора «наилучшей» хромосомы. В противном случае на следующем шаге выполняется селекция.

Селекция хромосом заключается в выборе (по рассчитанным на втором этапе значениям функции приспособленности) тех хромосом, которые будут участвовать в создании потомков для следующей популяции, т.е. для очередного поколения. Такой выбор производится согласно принципу естественного отбора, по которому наибольшие шансы на участие в создании новых особей имеют хромосомы с наибольшими значениями функции приспособленности. Существуют различные методы селекции. Наиболее популярным считается так называемый метод рулетки (roulette wheel selection), который свое название получил по аналогии с известной азартной игрой. Каждой хромосоме может быть сопоставлен сектор колеса рулетки, величина которого устанавливается пропорциональной значению функции приспособленности данной хромосомы. Поэтому чем больше значение функции приспособленности, тем больше сектор на колесе рулетки.

Всё колесо рулетки соответствует сумме значений функций приспособленности всех хромосом рассматриваемой популяции. Каждой хромосоме, обозначаемой chi, для i = 1, 2,…, N (где N обозначает численность популяции) соответствует сектор колеса v(chi), выраженный в процентах согласно формуле

v(chi ) ps (chi ) 100%,

где ps (chi ) NF (chi ) .

F (chi )

i 1

причем F(chi) — значение функции приспособленности хромосомы chi, а рs(chi) вероятность селекции хромосомы chi. Селекция хромосомы может быть представлена как результат поворота колеса рулетки, поскольку «выигравшая» (т.е. выбранная) хромосома относится к выпавшему сектору этого колеса.

10

  • Если ошибка положительна а больше то
  • Если ошибка повторить python
  • Если ошибка может быть совершена она будет совершена
  • Если ошибка или ноль то
  • Если ошибка впр ложь