Cybernetics Wiki
Advertisement

G - матрица перцептрона - используется для анализа перцептронов. Имеет следующий вид:

,

где - число стимулов (величина обучаемой выборки, число примеров для запоминания);

- коэффициенты обобщения.

Смысл G - матрицы перцептрона[]

Коэффициент обобщения равен полному изменению веса () всех А-элементов, реагирующих на стимул , если на каждый А-элемент из множества, реагирующего на стимул , подается сигнал подкрепления .

Отсюда понятно, что коэффициент обощения показывает относительное число А-элементов, реагирующих как на стимул , так и на стимул .

Для простых перцептронов G - матрица не изменяется со временем и является симметричной.

Связь А и G - матриц перцептрона[]

Связь между А и G - матрицами перцептрона выражается следующими соотношением: G = A×AT, где AT транспонированная матрица. Поэтому G матрица является положительно определенной, либо положительно полуопределенной. Так же ранг матрицы G равен рангу матрицы А.

Важными является условия при которых G - матрица особенная, т.е. матрица не имеющая обратной, для квадратной матрицы это тогда когда определитель матрицы равен нулю.

Рассмотрим несколько случаев:

  1. Пусть матрица G = A×AT особенная, то есть |G| = 0; Рассмотрим |G| = |A×AT| = |A|×|AT| = |A|×|A| = |A|2, получаем что |A|2 = 0 → |A| = 0 → матрица А особенная.
  2. Пусть матрица G = A×AT не особенная, то есть |G| = ξ ≠ 0; Рассмотрим |G| = |A×AT| = |A|×|AT| = |A|×|A| = |A|2, получаем что |A|2 = ξ≠0 → |A| ≠ 0 → матрица А не особенная.
  3. Пусть |А|=0; Найдем |G|, |G|=|А|*|АT|=0*0=0.
  4. Пусть |А|=ξ≠0; Найдем |G|,|G|=|А|*|АT|=ξ*ξ=ξ²≠0.

Таким образом получаем, что Матрица G = A×AT особенна, тогда и только тогда, когда матрица А особенна.

Матрицы и вектора классификаций в перцептроне[]

Файл:Perceptron XOR3.jpg

Решение элементарным перцептроном «задачи XOR»

Ниже матрицы и вектора, характеризующие классификацию буду изложенны на примере решения перцептроном задачи XOR. Напомним, что стимулы и их принадлежность классам при решении задачи XOR следующие:

Вход 1 (X1) Вход 2 (X2) Класс
Стимул 0 0 0 -
Стимул 1 1 1 -
Стимул 2 0 1 +
Стимул 3 1 0 +


D матрица перцептрона[]

Диагональная матрица, элементы которой , где задает принадлежность стимулов к классам в некоторой классификации C(W) следующим образом:

,

т.е. , если стимул принадлежит к положительному классу, и , если стимул принадлежит к отрицательному классу.

D матрица перцептрона при решении задачи XOR имеет вид:

 ;


B матрица перцептрона[]

B матрица перцептрона отражает активность А-элементов, так же как и A - матрица перцептрона, но в отличии от нее еще показывает принадлежность стимулов к классам классификации, поэтому получается перемножением матриц А и D, т.е. . При решении задачи XOR будет иметь вид:

.

H матрица перцептрона[]

H матрица перцептрона очень близка по сути к матрицы G, но так же как и матрица B показывает еще принадлежность стимулов к классам классификации, и получается следующим образом . При решении задачи XOR будет иметь вид:

.

V вектор перцептрона[]

Z вектор перцептрона[]

Z вектор имеет размерность n, где n - число стимулов. Компонента вектора Z равна полной велечине подкрепления, введенного во время всех коррекций реакций на стимул , т.е. , где - величина подкрепления (равно единице в методе коррекции ошибки с квантованием)

X матрица перцептрона[]

См. также[]

Литература[]



Это основополагающая версия, написанная участниками этого проекта. Но содержимое этой страницы очень близкое по содержанию предоставлено для раздела Википедии на русском языке. Так же, как и в этом проекте, текст этой статьи, размещённый в Википедии, доступен на условиях GNU FDL. Статью, размещенную в Википедии можно найти по адресу: G - матрица перцептрона.


Advertisement