Основы теории нейронных сетей

Ответы на курс: Основы теории нейронных сетей

Сетью без обратных связей называется сеть,
все слои которой соединены иерархически
у которой нет синаптических связей, идущих от выхода некоторого нейрона к входам этого же нейрона или нейрона из предыдущего слоя
у которой есть синаптические связи

Какие сети характеризуются отсутствием памяти?
однослойные
многослойные
с обратными связями
без обратных связей

Входом персептрона являются:
вектор, состоящий из действительных чисел
значения 0 и 1
вектор, состоящий из нулей и единиц
вся действительная ось (-?;+?)

Теорема о двухслойности персептрона утверждает, что:
в любом многослойном персептроне могут обучаться только два слоя
способностью к обучению обладают персептроны, имеющие не более двух слоев
любой многослойный персептрон может быть представлен в виде двухслойного персептрона

Обучением называют:
процедуру вычисления пороговых значений для функций активации
процедуру подстройки сигналов нейронов
процедуру подстройки весовых значений

Нейронная сеть является обученной, если:
при подаче на вход некоторого вектора сеть будет выдавать ответ, к какому классу векторов он принадлежит
при запуске обучающих входов она выдает соответствующие обучающие выходы
алгоритм обучения завершил свою работу и не зациклился

Подаем на вход персептрона вектор a. В каком случае весовые значения нужно уменьшать?
всегда, когда на выходе 1
если на выходе 1, а нужно 0
если сигнал персептрона не совпадает с нужным ответом
если на выходе 0, а нужно 1

Алгоритм обратного распространения заканчивает свою работу, когда:
величина ? становится ниже заданного порога
величина ?w для каждого нейрона становится ниже заданного порога
сигнал ошибки становится ниже заданного порога

Метод импульса заключается в:
использовании производных второго порядка
добавлении к коррекции веса значения, пропорционального величине предыдущего изменения веса
умножении коррекции веса на значение, пропорциональное величине предыдущего изменения веса

Паралич сети может наступить, когда:
весовые значения становятся очень большими
размер шага становится очень большой
размер шага становится очень маленький
весовые значения становятся очень маленькими

Если сеть имеет очень большое число нейронов в скрытых слоях, то:
время, необходимое на обучение сети, минимально
возможно переобучение сети
сеть может оказаться недостаточно гибкой для решения поставленной задачи

Дискриминантной функцией называется:
активационная функция, используемая в многослойном персептроне
функция, моделирующая пространство решений данной задачи
функция, равная единице в той области пространства объектов, где располагаются объекты из нужного класса, и равная нулю вне этой области

При методе кросс-проверки считается, что множество обучающихся пар корректно разделено на две части, если:
ошибка сети на обучающем множестве убывает быстрее, чем на контрольном множестве
в начале работы ошибки сети на обучающем и контрольном множествах существенно отличаются
в начале работы ошибки сети на обучающем и контрольном множествах практически не отличались

Если сеть содержит два промежуточных слоя, то она моделирует:
по одной выпуклой «взвешенности» для каждого скрытого элемента первого слоя
по одному «сигмовидному склону» для каждого скрытого элемента
по одной выпуклой «взвешенности» для каждого скрытого элемента второго слоя
одну выпуклую «взвешенность»

Механизм контрольной кросс-проверки заключается в:
циклическом использовании множества обучающих пар
разделении множества обучающих пар на две части для поочередного запуска алгоритма обратного распространения то на одной, то на другой части
резервировании части обучающих пар и использовании их для независимого контроля процесса обучения

Если в алгоритме обучения сети встречного распространения на вход сети подается вектор x, то желаемым выходом является
вектор y, являющийся эталоном для всех векторов, сходных с вектором x
двоичный вектор, интерпритирующий номер класса, которому принадлежит вектор x
сам вектор x

«Победителем» считается нейрон Кохонена
с максимальным значением величины NET
с минимальным значением величины NET
с минимальным значением величины OUT
с максимальным значением величины OUT

Если данный нейрон Кохонена является «победителем», то его значение OUT
является максимальным среди всех значений OUT нейронов слоя Кохонена
равно нулю
равно единице

Метод аккредитации заключается в:
активировании двух нейронов, имеющих наибольшее и наименьшее значения NET
активировании группы нейронов Кохонена, имеющих максимальные значения NET
активировании лишь одного нейрона Кохонена, имеющего наибольшее значение NET

Стратегия избежания локальных минимумов при сохранении стабильности заключается в
достаточно больших изменениях весовых значений
больших начальных шагах изменения весовых значений и постепенном уменьшении этих шагов
малых начальных шагах изменения весовых значений и постепенном увеличении этих шагов
достаточно малых изменениях весовых значений

Для какого алгоритма более опасен сетевой паралич?
алгоритма обратного распространения
алгоритма распределения Коши

Какова роль искусственной температуры при Больцмановском обучении?
для регулирования скорости сходимости алгоритма обучения
при снижении температуры вероятно возможными становятся более маленькие изменения

Сеть Хопфилда заменяется на сеть Хэмминга, если:
необходимо ускорить время сходимости сети
необходимо повысить число запомненных образцов
необходимо обеспечить устойчивость сети
нет необходимости, чтобы сеть в явном виде выдавала запомненный образец

Какими должны быть весовые значения тормозящих синаптических связей?
равными величинами из интервала (-1/n,0), где n — число нейронов в одном слое
небольшими положительными числами
случайными отрицательными числами

Метод отказа от симметрии синапсов позволяет:
достигнуть максимальной емкости памяти
обеспечить устойчивость сети
избежать локальных минимумов

Метод машины Больцмана позволяет сети Хопфилда:
избежать локальных минимумов
ускорить процесс обучения
избежать сетевого паралича

Сеть ДАП называется адаптивной, если:
сеть изменяет свои весовые значения в процессе обучения
любой нейрон может изменять свое состояние в любой момент времени
для каждого нейрона задается своя пороговая функция

Лотарально-тормозящая связь используется :
между слоями сравнения и распознавания
внутри слоя распознавания
внутри приемника 1
внутри приемника 2

Процесс лотерального торможения обеспечивает, что
слой сброса снимает возбуждение с неудачно выбранного нейрона в слое распознавания
в слое распознавания возбуждается только тот нейрон, чья свертка является максимальной
система автоматически решает вопрос о прекращении поиска необходимой информации

Если в процессе обучения некоторый вес был обнулен, то:
он больше никогда не примет ненулевого значения
он обязательно будет подвергнут новому обучению

Приращение веса тормозящего входа данного постсиноптического нейрона зависит от:
выходного сигнала тормозящего пресиноптического нейрона и его возбуждающего веса
выходного сигнала возбуждающего пресиноптического нейрона и его тормозящего веса
выходного сигнала возбуждающего пресиноптического нейрона и его возбуждающего веса

Чем различаются комплексные узлы, лежащие в разных слоях неокогнитрона?
каждый слой комплексных узлов реагирует на большее количество преобразований входного образа, чем предыдущий
каждый слой комплексных узлов реагирует на более широкую область поля входного образа, чем предыдущий

Какой тип обучения можно использовать при обучении неокогнитрона?
«обучение без учителя»
«обучение с учителем»

Обучение персептрона считается законченным, когда:
ошибка выхода становится достаточно малой
достигнута достаточно точная аппроксимация заданной функции
по одному разу запущены все вектора обучающего множества

Алгоритм обучения персептрона является:
алгоритмом «обучения с учителем»
алгоритмом «обучения без учителя»

Запускаем обучающий вектор Х. В каком случае весовые значения не нужно изменять?
если на выходе сеть даст 1
если на выходе сеть даст 0
если сигнал персептрона совпадает с правильным ответом

Можем ли мы за конечное число шагов после запуска алгоритма обучения персептрона сказать, что персептрон не может обучиться данной задаче?
нет
да
в зависимост от задачи

Сигналом ошибки данного выходного нейрона называется:
разность между выходом нейрона и его целевым значением
производная активационной функции
величина OUT для нейрона, подающего сигнал на данный выходной нейрон

Метод ускорения сходимости заключается в:
умножении коррекции веса на значение, пропорциональное величине предыдущего изменения веса
использовании производных второго порядка
добавлении к коррекции веса значения, пропорционального величине предыдущего изменения веса

Если два образца сильно похожи, то:
они могут объединиться в один образец
они могут вызывать перекрестные ассоциации
они могут нарушать устойчивость сети

Отсутствие обратных связей гарантирует:
устойчивость сети
сходимость алгоритма обучения
возможность аппроксимировать данную функцию

В алгоритме обучения обобщенной машины Больцмана вычисление закрепленных вероятностей начинается после:
запуска каждой обучающей пары
конечного числа запусков сети с некоторого случайного значения
после запуска всех обучающих пар
после однократного запуска сети с некоторого случайного значения

В аналого-цифровом преобразователе весовые значения интерпретируют:
усилители
сопротивление
напряжение

Если входной вектор соответствует одному из запомненных образов, то:
выходом распознающего слоя является соответствующий запомненный образец
в распознающем слое возбуждается один нейрон
срабатывает блок сброса

Если в процессе обучения на вход сети АРТ подавать повторяющиеся последовательности обучающих векторов, то:
будет происходить циклическое изменение весов
с каждым новым повтором серии обучающих векторов будет происходить более тонкая настройка весовых значений
через конечное число обучающих серий процесс обучения стабилизируется

В статистических алгоритмах обучения величина изменения синоптической связи между двумя нейронами зависит:
от разности между реальным и желаемым выходами нейрона
от уровня возбуждения пресиноптического нейрона
от уровня возбуждения постсиноптического нейрона
изменяется случайным образом

Однонейронным персептроном размерность разделяемого пространства определяется
контекстом конкретной задачи
весовыми значениями
длиной входного вектора
пороговым значением активационной функции

Однослойный персептрон решает задачи:
аппроксимации функций
распознавания образов
классификации

Теорема о «зацикливании» персептрона утверждает, что:
если данная задача не представима персептроном, то алгоритм обучения зацикливается
если задача не имеет решения, то алгоритм обучения зацикливается
любой алгоритм обучения зацикливается

Все ли нейроны многослойного персептрона возможно обучить?
только нейроны первого слоя
да
только нейроны последнего слоя

При методе кросс-проверки считается, что сеть начала переобучаться, если:
ошибка сети на контрольном множестве стала расти
алгоритм обратного распространения зациклился
ошибка сети на контрольном множестве перестала убывать

Детерминистским методом обучения называется:
метод, выполняющий псевдослучайные изменения весовых значений
детерминированный метод обучения с учителем
детерминированный метод обучения без учителя
метод, использующий последовательную коррекцию весов, зависящую от объективных значений сети

Есть ли вероятность того, что в алгоритме разобучения сеть «забудет» правильный образ?
да
нет
в зависимости от задачи

В задаче коммивояжера каждый город представляется:
одним слоем нейронов
строкой из n нейронов, где n — число городов
одним нейроном

Чем реакция комплексного узла на данный входной образ отличается от реакции простого узла, лежащего в том же слое?
комплексный узел менее чувствителен к позиции входного образа
рецепторная зона комплексного узла гораздо больше рецепторной зоны простого узла
комплексный узел менее чувствителен к повороту и другим видам движения входного образа

Выходом выходной звезды Гроссберга является
мера сходства входного вектора с весовым вектором
номер класса сходных образов
статическая характеристика обучающего набора

Искусственный нейрон
имитирует основные функции биологического нейрона
по своей функциональности превосходит биологический нейрон
является моделью биологического нейрона

Чтобы избежать паралича сети, необходимо:
уменьшить размер шага
увеличить размер шага
увеличить весовые значения
уменьшить весовые значения

В однонейронном персептроне размерность разделяющей гиперплоскости определяется:
количеством входных значений
весовыми значениями
количеством выходных значений

В начальный момент времени выходом слоя распознавания является:
нулевой вектор
единичный вектор
входной вектор

Активационной функцией называется:
функция, суммирующая входные сигналы нейрона
функция, вычисляющая выходной сигнал нейрона
функция, распределяющая входные сигналы по нейронам
функция, корректирующая весовые значения

Память называется гетероассоциативной, если:
входной образ может быть отнесен к некоторому классу образов
входной образ может быть только завершен или исправлен
входной образ может быть ассоциирован с другим образом

Память называется ассоциативной, если извлечение необходимой информации происходит по:
по содержанию данной информации
имеющимся образцам
адресу начальной точки данной информации

Весовые значения тормозящих нейронов:
обучаются по дельта-правилу
обучаются по алгоритму, аналогичному алгоритму обратного распространения
не обучаются

Добавление к коррекции веса значения, пропорционального величине предыдущего изменения веса, используется при методе:
импульса
экспоненциального сглаживания
ускорения сходимости
добавления нейронного смещения

Фаза распознавания инициализируется:
в момент срабатывания слоя сброса
в момент возбуждения победившего нейрона в слое распознавания
в момент подачи на вход входного вектора

Кодирование ассоциаций — это:
«обучение с учителем»
процесс нормального функционирования сети
«обучение без учителя»

В статистических алгоритмах обучения искусственная температура используется для:
управления размером случайных изменений весовых значений
минимизации целевой функции
уменьшения полной энергии сети

При стохастическом методе обучения , если целевая функция увеличивается, то:
изменения весовых значений скидываются и производятся новые вычисления
объявляется, что сеть не может обучиться данной задаче
производятся повторные изменения весовых значений

В чем заключается отличие АРТ-1 от АРТ-2?
в АРТ-2 используется многослойная иерархия слоев
в АРТ-2 введен специальный механизм зависимости активности синапсов от времени
АРТ-1 обрабатывает только битовые сигналы, а АРТ-2 — аналоговые

При обучении когнитрона обучаются:
все нейроны
только один нейрон в каждом слое
только один нейрон в каждой области конкуренции

Какие из перечисленных ниже шагов в алгоритме обратного распространения являются шагами «прохода вперед»?
вычислить выход сети
подкорректировать веса сети так, чтобы минимизировать ошибку
выбрать очередную обучающую пару из обучающего множества; подать входной вектор на вход сети
повторять шаги с 1 по 4 для каждого вектора обучающего множества до тех пор, пока ошибка на всем множестве не достигнет приемлемого уровня
вычислить разность между выходом сети и требуемым выходом (целевым вектором обучающей пары)

Из слоя сравнения информация поступает в:
приемник 2
слой распознавания
приемник 1
внешнюю среду
слой сброса

Обучение сети встречного распространения является:
«обучением без учителя»
«обучением с учителем»

При стохастическом методе обучения изменения весовых значений сохраняются, если
они уменьшают целевую функцию
они увеличивают целевую функцию
в любом случае

В каком случае персептрон может обучиться решать данную задачу?
если задача имеет целое численное решение
если задача представима персептроном
если задача имеет решение

Теорема о сходных персептронах утверждает, что:
найдутся задачи, которым персептроны не смогут обучиться
алгоритм обучения всегда сходится
если данная задача представляет персептрон, то он способен ей обучиться

Сети прямого распространения — это:
сети, у которых нет памяти
сети, у которых нет соединений, идущих от выходов некоторого слоя к входам предшествующего слоя
сети, у которых есть память
сети, имеющие много слоев

Сеть ДАП называется негомогенной, если:
для каждого нейрона задается своя пороговая функция
данному входному вектору можно сопоставить несколько альтернативных ассоциаций
ассоциированные вектора имеют разные размерности

К какому типу памяти относится ДАП?
адресной
автоассоциативной
гетероассоциативной

Если сеть Хопфилда нашла среди запомненных ею образцов, образец соответствующий данному входному вектору, то сеть должна :
выдать на выходе заданный входной вектор
остановиться в этом образце
выдать на выходе единицу

Каким образом можно уменьшить количество слоев когнитрона, не причинив ущерба его вычислительным свойствам?
путем введения вероятностных синоптических связей
путем перехода от одномерных слоев к двухмерным слоям
путем расширения областей связи в последующих слоях

Самоорганизующиеся сети используются для:
распознавания образов
аппроксимации функций
классификации образов

Рецептивные области узлов каждой плоскости простых узлов
не пересекаются, но покрывают все поле входного образа
совпадают и покрывают все поле входного образа
пересекаются и покрывают все поле входного образа

В каком случае сигнал OUT совпадает с сигналом NET для данного нейрона когнитрона?
если NET=0
если NET?0
если NET?? где ? — заданное пороговое значение

Однонейронный персептрон с двумя входами:
выделяет замкнутую область
разделяет трехмерное пространство XOY на два полупространства
разделяет плоскость XOY на две полуплоскости

Метод восстановления ассоциаций заключается в том, что:
определяется, являются ли два заданных вектора взаимно ассоциированными
по частично зашумленному вектору восстанавливается вектор, ассоциированный с ним
по заданным векторам находятся ассоциации, их соединяющие

Сколько нейронов необходимо для реализации задачи коммивояжера, где n — число городов?
2n нейронов
n! нейронов
n2 нейронов
n нейронов

Значение активационной функции является:
выходом данного нейрона
весовым значением данного нейрона
входом данного нейрона

При обучении персептрона предполагается обучение:
синоптических связей, соединяющих одновременно возбужденные нейроны
синоптических связей только «победившего» нейрона
всех синоптических связей

Фаза поиска считается успешно завершенной, если:
найдется нейрон, в котором запомнен образ, достаточно похожий на входной образ
весовые значения «победившего» нейрона из слоя распознавания будут подкорректированы согласно данному входному вектору
входному образу будет сопоставлен нейрон, в котором никакой информации еще не было запомнено

Если до начала процедуры обучения по алгоритму обратного распространения все весовые значения сети сделать равными, то
процесс обучения будет ускорен
сеть, скорее всего, не обучится
процесс обучения будет замедлен

Модификация алгоритма обучения методом «чувства справедливости» заключается в:
блокировании нейронов, которые очень часто побеждают
занижении весовых значений тех нейронов, которые очень часто «побеждают»
повышении весовых значений тех нейронов, которые очень редко «побеждают»

Скрытым слоем обобщенного многослойного персептрона называется:
слой, не являющийся ни входным, ни выходным
слой, не производящий вычислений
слой, состоящий из элементов, которые только принимают входную информацию и распространяют ее по сети

Ортогонализация исходных образов позволяет:
избежать локальных минимумов
обеспечить устойчивость сети
достигнуть максимальной емкости памяти



Опубликовано 24.11.2017 admin в категории "Ответы на intuit.ru