G - матрица перцептрона - используется для анализа перцептронов. Имеет следующий вид:
,
где - число стимулов (величина обучаемой выборки, число примеров для запоминания);
- коэффициенты обобщения.
Смысл G - матрицы перцептрона[]
Коэффициент обобщения равен полному изменению веса () всех А-элементов, реагирующих на стимул , если на каждый А-элемент из множества, реагирующего на стимул , подается сигнал подкрепления .
Отсюда понятно, что коэффициент обощения показывает относительное число А-элементов, реагирующих как на стимул , так и на стимул .
Для простых перцептронов G - матрица не изменяется со временем и является симметричной.
Связь А и G - матриц перцептрона[]
Связь между А и G - матрицами перцептрона выражается следующими соотношением: G = A×AT, где AT транспонированная матрица. Поэтому G матрица является положительно определенной, либо положительно полуопределенной. Так же ранг матрицы G равен рангу матрицы А.
Важными является условия при которых G - матрица особенная, т.е. матрица не имеющая обратной, для квадратной матрицы это тогда когда определитель матрицы равен нулю.
Рассмотрим несколько случаев:
- Пусть матрица G = A×AT особенная, то есть |G| = 0; Рассмотрим |G| = |A×AT| = |A|×|AT| = |A|×|A| = |A|2, получаем что |A|2 = 0 → |A| = 0 → матрица А особенная.
- Пусть матрица G = A×AT не особенная, то есть |G| = ξ ≠ 0; Рассмотрим |G| = |A×AT| = |A|×|AT| = |A|×|A| = |A|2, получаем что |A|2 = ξ≠0 → |A| ≠ 0 → матрица А не особенная.
- Пусть |А|=0; Найдем |G|, |G|=|А|*|АT|=0*0=0.
- Пусть |А|=ξ≠0; Найдем |G|,|G|=|А|*|АT|=ξ*ξ=ξ²≠0.
Таким образом получаем, что Матрица G = A×AT особенна, тогда и только тогда, когда матрица А особенна.
Матрицы и вектора классификаций в перцептроне[]
Ниже матрицы и вектора, характеризующие классификацию буду изложенны на примере решения перцептроном задачи XOR. Напомним, что стимулы и их принадлежность классам при решении задачи XOR следующие:
Вход 1 (X1) | Вход 2 (X2) | Класс | |
---|---|---|---|
Стимул 0 | 0 | 0 | - |
Стимул 1 | 1 | 1 | - |
Стимул 2 | 0 | 1 | + |
Стимул 3 | 1 | 0 | + |
D матрица перцептрона[]
Диагональная матрица, элементы которой , где задает принадлежность стимулов к классам в некоторой классификации C(W) следующим образом:
,
т.е. , если стимул принадлежит к положительному классу, и , если стимул принадлежит к отрицательному классу.
D матрица перцептрона при решении задачи XOR имеет вид:
;
B матрица перцептрона[]
B матрица перцептрона отражает активность А-элементов, так же как и A - матрица перцептрона, но в отличии от нее еще показывает принадлежность стимулов к классам классификации, поэтому получается перемножением матриц А и D, т.е. . При решении задачи XOR будет иметь вид:
.
H матрица перцептрона[]
H матрица перцептрона очень близка по сути к матрицы G, но так же как и матрица B показывает еще принадлежность стимулов к классам классификации, и получается следующим образом . При решении задачи XOR будет иметь вид:
.
V вектор перцептрона[]
Z вектор перцептрона[]
Z вектор имеет размерность n, где n - число стимулов. Компонента вектора Z равна полной велечине подкрепления, введенного во время всех коррекций реакций на стимул , т.е. , где - величина подкрепления (равно единице в методе коррекции ошибки с квантованием)
X матрица перцептрона[]
См. также[]
Литература[]
- Розенблатт, Ф. Принципы нейродинамики: Перцептроны и теория механизмов мозга = Principles of Neurodynamic: Perceptrons and the Theory of Brain Mechanisms. — М.: Мир, 1965. — 480 с.
Это основополагающая версия, написанная участниками этого проекта. Но содержимое этой страницы очень близкое по содержанию предоставлено для раздела Википедии на русском языке. Так же, как и в этом проекте, текст этой статьи, размещённый в Википедии, доступен на условиях GNU FDL. Статью, размещенную в Википедии можно найти по адресу: G - матрица перцептрона.