<<

стр. 2
(всего 2)

СОДЕРЖАНИЕ

тегральным уравнением, то качественный вывод будет таким же,
как и при использовании уравнений (6.1) и (6.5) в моделях 6.2 и 6.3
[90]. •

Модель 6.5. (В.А. Трапезников [76, 77]).
О. Переработка информации человеком-оператором.
Г(Ф, В, А). Экспоненциальная зависимость качества работы
оператора в зависимости от времени обучения постулируется. •

41
Модель 6.6. (Г.П. Шибанов [89]).
О. Переработка информации оператором (в человеко-
машинной системе) при обучении и в процессе профессиональной
деятельности.
Г. Количество информации I, перерабатываемой оператором в
процессе его деятельности, соответствует изменению его энтро-
пии: I = ?H. Следовательно, неупорядоченность деятельности
оператора W (число возможных состояний научаемой системы,
логарифм которого определяет энтропию) зависит от времени
следующим образом:
(6.7) W(t) = W0 e - ? t.
Предположим, что I(t) = ? t, где t – время обучения оператора,
? – константа, характеризующая систему подготовки. Определим
качество работы оператора следующим образом
Q(t) = Qmax (1 – W(t)).
Ф(В). Тогда
(6.8) Q(t) = Qmax (1 – W0 e- ? t),
где ? = ? ?.
А. Экспоненциальный характер КН обусловлен выбором эн-
тропии и информации как характеристик неупорядоченности,
конкретными (в частности, линейными) зависимостями характери-
стик деятельности оператора от неупорядоченности и предположе-
нием линейного увеличения количества накопленной информации.
В рассматриваемой модели скорость научения зависит как от
темпа поступления информации в процессе обучения, так и от
характерного времени изменения неупорядоченности.
Следует отметить, что в [89] выделялись три этапа обучения:
1. Первоначальная "приработка" человека-оператора к данно-
му режиму работы.
2. "Отработка" результативных характеристик в рамках фик-
сированного режима (собственно этап итеративного научения).
3. Деятельность, характеризуемая статистически стабильными
характеристиками.
Зависимость ошибки от времени можно в этом случае схема-
тично представить кривой, приведенной на рисунке 6.2. •



42
x(t)
x0
I этап
II этап


III этап

t


Рис. 6.2. Зависимость ошибки оператора от времени


Модель 6.7. (В.М. Глушков [33]).
О. Переработка информации в процессе обучения перцептро-
на (системы распознавания образов, которая может рассматривать-
ся как модель запоминания и научения в живых системах).
Г. Для правильного распознавания i-го изображения необхо-
димо и достаточно, чтобы оно было хоть раз показано перцептрону
в процессе обучения.
Ф. При n случайных (равновероятных) показах изображений
вероятность появления одного из N образцов составляет
(1 – 1 / N)n ? exp ( – n / N).
В. Тогда полная эффективность обучения (вероятность пра-
вильного распознавания в зависимости от длительности этапа
научения)
pn = 1 – e - ? n.
где ? = 1 / N.
А. Сравним с моделью 5.2. В данной модели, как и в 5.2, веро-
ятность уменьшения рассогласования элементов (каждый элемент
"отвечает" за запоминание одного образа) характеризуется посто-
янной вероятностью ? "зануления" его рассогласования в единицу
времени (вероятностью того, что соответствующий образ был
показан и запомнен). Обучаемая система предполагается достаточ-
но пассивной, поэтому скорость научения обратно пропорцио-
нальна числу возможных вариантов N. •
43
Модель 6.8.
О. Обучаемая система имеет канал связи, через который в
процессе научения из внешней среды поступает информация,
причем чем большая часть информации получена системой, тем
меньше рассогласование.
Г. В канале связи, пропускная способность которого ограни-
чена, присутствуют помехи [88]. На каждом шаге посылается вся
информация, которая еще не получена системой, причем каждый
раз система получает неискаженной лишь некоторую фиксирован-
ную ее часть.
Ф. Предположим, что для успешного научения система долж-
на получить полную информацию I. На первом шаге посылается
вся информация, неискаженной "доходит" ? I (? < 1).
На втором шаге посылается информация в объеме (1 – ?) I, из
которой система получает ? (1 – ?) I и т.д. Количество информации,
полученной системой через n > 2 шагов, определяется выражением
(6.8) Jn = (1 + (1 – ?) + (1 – ?)2 + ... + (1 – ?)n-1) ? I,
то есть Jn = ? I (1 – (1 – ?)n).
Возможны и другие интерпретации. Пусть, например, на каж-
дом шаге посылается вся информация I. Тогда количество полу-
ченной информации изменяется со временем следующим образом:
(6.9) J(t+?t) = J(t) + ? (I – J(t)) ?t.
В. Решение (6.9) имеет вид
(6.10) J(t) = I (1 – e - ? t).
А. Такой вид решения обусловлен пропорциональностью ко-
личества новой информации, получаемой системой, тому количе-
ству информации, которое осталось передать. Другими словами
это свойство (предположение) можно интерпретировать следую-
щим образом: способность системы усваивать (запоминать) ин-
формацию уменьшается пропорционально количеству запомнен-
ной и переработанной информации.
Критическим при этом (для того, чтобы решение имело вид,
совпадающий с (6.10)) является то, что пропорция между получае-
мой частью информации и уже накопленной остается постоянной
во времени. Следует отметить, что в рамках данной модели просто
предположение об ограниченности пропускной способности кана-
ла связи привело бы к совершенно другим выводам (количество
44
накопленной информации росло бы линейно и т.д.). Скорость
научения в рассматриваемой модели определяется пропускной
способностью канала ? – чем большая часть информации доходит
без искажений, тем выше скорость научения. •

Модель 6.9.
О. Представим сложную обучаемую систему в виде множества
элементов (их число обозначим N), совместные действия которых
ведут к достижению некоторой фиксированной цели.
Предположим, что каждый элемент характеризуется конечным
множеством его допустимых состояний Si(t) (число элементов
множества Si равно ni(t)), в одном из которых он может находиться
в момент времени t, i = 1, n . Число независимых состояний систе-
мы в целом (описываемой перечислением состояний ее невзаимо-
действующих элементов) равно произведению числа допустимых
состояний всех элементов.
Г. Предположим, что научение заключается в сведении числа
допустимых состояний каждого элемента к некоторому минимуму,
то есть в оставлении одного или нескольких фиксированных со-
стояний, соответствующих решаемой задаче. Цель обучения для
системы – минимизация числа ее допустимых состояний. Умень-
шение числа допустимых состояний каждого элемента происходит
по мере получения им информации.
Энтропия i-го элемента (его неупорядоченность):
(6.11) Hi(t) = ln ni(t).
Количество управляющей информации ?i(t), поступившей i-му
элементу в момент времени t, идет на снижение неопределенности:
dH i (t )
= – ?i(t), t > 0.
(6.12)
dt
Предположим, что существует абсолютный предел количества
регулирующей информации, поступающей в каждый момент:
?i(t)? ?i, ? t ? 0. В общем случае, в момент времени t, ?i(t) принад-
лежит отрезку [0; ?i] (?i(t) ? 0 соответствует тому, что i-ый элемент
в момент t не обучается).
Ф. Исследуем, как будет изменяться со временем число до-
пустимых состояний элементов. Подставляя (6.11) в (6.12) и решая
соответствующее дифференциальное уравнение, получим
45
t

?
(6.13) ni (t) = n exp ( – ?i (? )d? ), i = 1, n , t > 0,
0
i
0

где ni0 – число допустимых состояний i-го элемента до начала
научения. Интеграл в показателе экспоненты соответствует накоп-
t

?
ленной элементом информации Ii(t) = ?i (? )d? .
0
В. Рассмотрим как будет вести себя во времени число допус-
тимых состояний системы в целом, отражающее, в силу введенно-
го выше предположения, эффективность научения:
n

? n (t ) = n 0
(6.14) n(t) = exp (– I(t)),
i
i =1
n

?n 0
где n0 = ,
i
i =1
n

? I (t ) .
(6.15) I(t) = i
i =1
Если предположить, что характеристики элементов и темп по-
ступления информации постоянны, то есть постоянно количество
информации, перерабатываемое каждым элементом в единицу
времени: Ii(t) = ?i t, то (6.14) переходит в классическую экспоненту
n

??
с показателем I(t) = t .
i
i =1
А. Гипотеза о монотонном уменьшении числа допустимых со-
стояний не снижает общности приведенных рассуждений, так как в
случае их роста получится выражение вида
n(t) = n? (1 – e – I(t)),
примерно с теми же промежуточными выкладками.
Результаты моделей 6.2, 6.3, 6.5, 6.6, и 6.8 могут рассматри-
ваться как частные случаи модели 6.9.
Во всех моделях настоящего раздела скорость научения опре-
деляется количеством накопленной информации, поэтому для
увеличения скорости научения, в рамках рассматриваемой модели,
целесообразно выбирать как можно больший темп передачи ин-
формации. Следует, однако, учитывать, что в реальных системах
46
превышение некоторого порогового (для обучаемой системы)
объема поступающей информации может оказать отрицательное
влияние и снизить эффективность научения (аналог эффекта ин-
терференции навыков). •

Таким образом, в теоретико-информационных моделях итера-
тивного научения экспоненциальный характер кривых научения
обусловлен постоянством количества информации, обрабатывае-
мой, передаваемой, усваиваемой и т.д. элементами системы в
единицу времени.




47
7. Модели – аналогии кибернетических систем

Отличие моделей итеративного научения, рассматриваемых в
настоящем разделе, от описанных выше заключается в том, что
объектами исследования являются не живые системы, изучение
которых основывается на гипотетических аналогиях и предполо-
жениях о зависимости между параметрами элементов и обучаемой
системы, а кибернетические системы – автоматы, алгоритмы,
нейронные сети и др. Другими словами, при построении математи-
ческих моделей итеративного научения биологических систем
выше использовались аналогии с физическими явлениями, те или
иные интуитивные предположения и т.д. В моделях – аналогиях
кибернетических (абстрактно-логических моделях, не реализован-
ных материально, в отличие от технических) систем принципы
функционирования последних с одной стороны переносятся (на
уровне гипотез) на моделируемые системы, а с другой стороны
многие кибернетические системы используют аналогии с система-
ми живой природы.
Проведенное разделение не случайно. Например, конечные
автоматы и нейронные сети нашли широкое распространение в
теории управления, прикладной математике и других областях
науки не только как модели живых систем, но и как объекты,
заслуживающие самостоятельного изучения и используемые при
синтезе управляющих систем, распознавании образов и т.д.
[68? 72]. К этому же классу моделей мы относим и модели, исполь-
зующие аналогии с методами оптимизации – существует целый
ряд моделей ИН, в которых предполагается, что природа "исполь-
зует" тот или иной алгоритм для снижения, например, значения
рассогласования. С другой стороны, если мы хотим на основании
анализа поведения, например, нейронной сети при ее научении
[34] сделать какие-то выводы о поведении человека и животных
при итеративном научении, то необходимо понять какое отноше-
ние исследуемая кибернетическая система имеет к сети нейронов в
мозге человека.
При этом, однако, надо четко понимать, что искусственные
системы ведут себя тем или иным образом не сами по себе, а в
строгом соответствии с теми правилами и алгоритмами, которые
были в них заложены человеком – создателем системы.
48
Первым использованием методов поиска экстремума при ана-
лизе и моделировании поведения биологических систем является,
по-видимому, метод оврагов [32], в котором все переменные (па-
раметры системы) разбиваются на два качественно различных
класса – существенные и несущественные. Одни из них характери-
зуются тем, что при их изменении значение минимизируемой
функции изменяется достаточно быстро (спуск по склону "оврага"
– поверхности функции), а другие – достаточно медленным изме-
нением минимизируемой функции (спуск по наклонному дну
оврага). Соответственно, для максимально быстрого достижения
минимума нужно насколько возможно быстро двигаться именно по
дну оврага (отметим, что здесь и в ходе дальнейшего изложения
мы не будем обсуждать локальность алгоритмов, их сходимость и
т.д. [39], ограничиваясь лишь качественным анализом).

Модель 7.1.
О(Г, Ф, В). Предположим, что алгоритм минимизации рассо-
гласования использует метод поиска корня (некоторой функции
f(x) на отрезке [a; b]) делением отрезка пополам. Оценка сверху
рассогласования (в зависимости от числа итераций) дается выра-
жением xn ? (b – a) / 2n, то есть xn ? ? e - ? n, где
? = exp (log2 (b – a) ln 2), ? = ln 2.
А. Примерно экспоненциальную сходимость (для достаточно
"хороших" функций – см. более подробно, например [39]) имеют
не только дихотомические методы поиска корня, но и многие
другие. •

Модель 7.2.
О(Г). Предположим, что рассогласование системы в момент
времени n определяется как среднее арифметическое текущих
значений рассогласований всех N элементов.
Пусть рассогласования всех элементов в начальный момент
времени равны единице, неотрицательны в любой момент времени,
и в n-й момент времени рассогласование i-го элемента xi(n) может
принимать с равной вероятностью любое значение, меньшее xi (n –
1).


49
Ф(В). Тогда, если определить рассогласование всей системы
N
1
? x ( n) ,
как XN(n) = то, если число элементов достаточно
i
N i =1
велико, то рассогласование системы Xn = Xn-1 / 2 n, n = 1, 2, …,
X0 = 1.
А. Предположение о невозрастании рассогласований элемен-
тов вполне соответствует известному принципу "не упускать дос-
тигнутого" [93, 94]. В то же время, использование среднего ариф-
метического в качестве значения рассогласования системы и
предположение о равновероятности допустимых значений рассо-
гласований элементов представляются не очень обоснованными.
Стоит отметить некоторую близость рассматриваемой модели к
моделям 5.1 и 8.4. •

Модель 7.3. (О.М. Аттли [15]).
О. Техническая система, изменяемыми характеристиками ко-
торой являются вероятности (определенных действий, состояний,
реакций и т.д.).
Г. В зависимости от "успеха" или "неуспеха" на шаге n, на ша-
ге n + 1 вероятность p определяется следующим образом:
? pn + ? (1 ? pn )
pn+1 = ? .
pn ? ? pn
?
Ф(В). Предположим, что, если на n-ом шаге выбирается пра-
вильное действие (с вероятностью pn), то вероятность "успеха"
равна p (соответственно, "неуспеха" – (1 – p)). Если выбирается
неправильное действие (с вероятностью (1 – pn)), то вероятность
"успеха" равна q. Тогда ожидание "успеха" на (n + 1)-ом шаге
равно: Vn+1 = Vn (pn+1 p + (1 – pn+1) q).
Подставляя закон изменения вероятности, получим, что Vn
экспоненциально изменяется со временем (см. модель 4.2.).
А. Экспоненциальный вид кривой, отражающей изменение
ожидаемого "успеха" обусловлен линейным изменением вероятно-
сти. В 50-60-х годах, в период бурного развития кибернетики, было
построено значительное число самых разнообразных обучающихся
машин: машины условной вероятности [15], обучающиеся матри-
цы [91], "мышь" К. Шеннона (лабиринтная модель), "черепаха"

50
Г. Земанека, "машина-спекулятрикс" (аналог безусловного рефлек-
са) и "CORA" (аналог условного рефлекса) Г. Уолтера [80] и др. В
большинстве из них использовались линейные законы изменения
переменных (в отличие, например, от нелинейных законов, ис-
пользуемых в гомеостате У.Р. Эшби [93]). Более того, при иссле-
довании общих закономерностей процессов адаптации и обучения
в автоматических системах, многие законы обучения (например,
линейные алгоритмы оптимального обучения) выбирались также
линейными [86, 87]. •

Большой класс обучающихся автоматов составляют так назы-
ваемые конечные вероятностные автоматы с переменной структу-
рой. Под конечным автоматом понимается объект, имеющий неко-
торые внутренние состояния, на вход которого могут поступать
внешние воздействия и выходной параметр которого может при-
нимать одно из конечного числа значений [24-26]. Внутренние
состояния автомата изменяются с изменением входных парамет-
ров, а выходные – с изменением внутренних состояний. Для наше-
го анализа важна способность автомата "самостоятельно" изменять
свою структуру – преобразование "вход" – "внутреннее состояние",
"вход, внутреннее состояние" – "выход" (естественно, автомат
меняет эти законы не по своему усмотрению, а в соответствии с
заложенным в него алгоритмом), функционируя в нестационарной
среде. Эта способность позволяет говорить об адаптивности пове-
дения, эффектах коллективного поведения (игры автоматов, иерар-
хические обучаемые автоматы [48, 49]) и наличии некоторого рода
научения (понимаемого в данном случае как накопление и перера-
ботка информации о внешней среде и выработка целесообразных
законов поведения в данных конкретных условиях [85]).

Модель 7.4. (В.И. Варшавский, В.Ю. Крылов и др. [24, 49]).
О. Вероятностный автомат в момент времени t совершает i-е
действие (выбирает i-е выходное состояние) с вероятностью pi(t),
i = 1, k , где k – конечное число выходных состояний. Цель автома-
та – максимизировать выигрыш, зависящий от его действий и
состояния окружающей среды. "Переменность" его структуры
означает возможность изменения вероятностей. Понятно, что если
в данных условиях (при данном состоянии окружающей среды)
51
было выбрано "правильное" действие, приведшее к положитель-
ному выигрышу, то вероятность выбора этого действия следует
увеличить, а вероятности выбора остальных действий, соответст-
венно, уменьшить, так как должно выполняться условие норми-
ровки (ср. с "лабиринтной" моделью 4.2).
Г. Предположим, что вероятности выбора действий i и j изме-
няются по закону ?±pi(t), такому, что выполнено:
pi(t + 1) = pi(t) ± ?±pi(t),
pj(t + 1) = pj(t) ± ?±pj(t), j ? i,
причем
?
?±pi(t) + ?±pj(t) = 0.
j ?i

Ф(В, А). Если закон изменения ?±pi(t) линеен по pi(t), получа-
ем экспоненциальную последовательность. В общем случае, ко-
нечно, чисто экспоненциальной кривой наблюдаться не будет,
однако, в большинстве случаев при имитационном моделировании
наблюдались примерно экспоненциальные замедленно-
асимптотические кривые зависимости, например, среднего выиг-
рыша от числа сыгранных партий [24, 25]. •

Другим обширным классом кибернетических систем, претен-
дующих на моделирование явлений и процессов, происходящих в
биологических системах, являются так называемые нейронные
сети.
Алгоритмы научения нейронных сетей условно можно разде-
лить на детерминированные алгоритмы и алгоритмы случайного
поиска. Фактически обучение нейронной сети – не что иное как
задача минимизации многоэкстремальной функции многих пере-
менных [103]. Число известных на сегодняшний день различных
методов обучения (алгоритмов минимизации) и разнообразных
конструкции сетей (их архитектур) составляет, как минимум,
несколько десятков. Мы рассмотрим некоторые общие подходы к
обучению нейронных сетей, не вдаваясь в детали.

Модель 7.5.
О. Нейронная сеть представляет собой несколько слоев ней-
ронов, имеющих логистические или какие-либо другие сигмо-
образные передаточные функции [103, 108]. Выходы нейронов
52
каждого слоя подаются на входы нейронов других слоев с опреде-
ленными весами. Вес "связи" (i, j) – число, на которое перед сум-
мированием на входе j-го нейрона умножается выходной сигнал i-
го нейрона. Обучение нейронной сети заключается в подборе
(последовательном изменении) весов нейронов, соответствующих
решаемой задаче (распознавание сигнала, минимизация функции и
т.д.). Обучение происходит следующим образом: нейронной сети
подаются на вход определенные сигналы, выходные сигналы сети
сравниваются с нормативными значениями и на основании этого
сравнения корректируются веса.
Г(Ф). Достаточно распространенными алгоритмами измене-
ния весов являются алгоритм обратного хода (BP – backpropagation
neural network) – сначала изменяются веса нейронов последнего
(выходного) слоя, затем предпоследнего и т.д. [112], и так назы-
ваемый случайный мультистарт (точнее, его модификации – выби-
рается начальная точка, следующая точка определяется путем
добавления к начальной, например, гауссовского случайного век-
тора и "инерционной добавки", сравниваются значения функции
ошибки в этих точках и т.д. [97]).
В(А). Справедливости ради, следует констатировать, что в
общем случае, веса отдельных нейронов и их ошибки не всегда
изменяются замедленно-асимптотическим образом. Однако общая
ошибка, которая чаще всего вычисляется как средняя ошибка
нейронов, в большинстве случаев изменяется примерно экспонен-
циально (в частности – при использовании метода градиентного
спуска [97]). Понятно, что динамика ошибки зависит как от ис-
пользуемого метода научения, так и от специфики минимизируе-
мой функции [97]. Например, в работе [107] для аппроксимации
времени обучения BP-сети предлагается полиномиальная функция.
Скорость сходимости к точке минимума функции ошибки (ско-
рость научения нейронной сети) зависит от алгоритма изменения
весов нейронов, который, в свою очередь, закладывается конструк-
тором. •

Таким образом, при научении кибернетических систем экспо-
ненциальный характер соответствующих КН обусловлен линей-
ным законом изменения внутренних параметров системы и/или
большим числом составляющих ее элементов.
53
8. Модели коллективного поведения

В настоящем разделе рассматриваются модели итеративного
научения, основывающиеся либо на результатах эксперименталь-
ных наблюдений взаимодействия членов коллектива, либо на
аналогиях с принципами, используемыми в формальных моделях
коллективного поведения.

Модель 8.1. (У.Р. Эшби [94]).
Одной из первых моделей адаптационного взаимодействия
элементов является гомеостат Эшби, служащий хорошей иллюст-
рацией возможностей использования ультрастабильных динамиче-
ских систем при моделировании свойств нервной системы. Следу-
ет признать, что так как при изучении гомеостата основной акцент
делается на адаптивность поведения, его "кривые научения" в ряде
случаев не являются замедленно-асимптотическими. Эта модель
настолько известна и детально исследована, что мы ограничимся
ссылкой на первоисточник [94]. •

Модель 8.2. (М.А. Новиков [58]).
О. Модель гомеостата может быть использована для анализа
групповой деятельности операторов. Фактически, отличие от
предыдущей модели заключается в том, что компенсация воздей-
ствий (внешних по отношению к конкретному оператору) осуще-
ствляется не за счет физической обратной связи (устройства при-
бора), а за счет целенаправленной деятельности каждого
оператора, учитывающего действия остальных.
Г(Ф,В,А). Матричное уравнение "Гомеостата" имеет вид [58]:
? = A U, U – матрица положений ручек управления, ? – матрица
положений стрелок приборов, A – матрица, характеризующая
структуру "гомеостата" и величины коэффициентов взаимной
связи (показания каждого прибора являются линейной комбинаци-
ей положений ручек управления). В зависимости от способа со-
единения операторов (использовались кольцо, звезда, цепь и др.) и
числа операторов определяется трудность решаемых задач.
А. При различных структурах трудность решаемой задачи су-
щественно зависит от числа операторов. Предположение о линей-
ности взаимосвязи существенно упрощает модель. При этом, опять
54
же в силу адаптивности, динамика системы не всегда описывается
замедленно-асимптотической кривой. •

Модель 8.3. (А. Раппопорт [71]).
О. Параметры самоорганизации в группе из трех испытуемых.
Г. Обозначим Hmax – максимальное значение энтропии систе-
мы, H(t) ? Hmax – текущее значение энтропии, h = Hmax – H – коли-
чество накопленной информации. Предположим, что скорость
накопления информации (приращение информации за одну итера-
цию или за одну ошибку) постоянна (см. раздел 6) и, что остаточ-
ная энтропия равномерно распределена между опознаваемыми
объектами.
Ф(В). В соответствии с принятыми предположениями, если
dx
обозначить x(t) – полное число ошибок за время t, то – вероят-
dt
dH dx
= ?, H(t) = – M ln(1 –
ность ошибки в момент t, ) (откуда
dt dt
берутся эти выражения, как справедливо заметил переводчик
работы [71], не очень понятно). Если x(0) = 0, то H = ? x. В резуль-
тате получается следующее уравнение теоретической кривой
суммарной ошибок:
x = Hmax / ? – M / ? [exp(Hmax / M – 1) exp (– ? t / M) + 1].
А. Справедливость ряда предположений, принятых автором
этой модели не очевидна, некоторые утверждения (особенно фор-
мальные) нуждаются в объяснении. Тем не менее [71] считается
одной из классических работ по экспериментальному и формаль-
ному исследованию процессов самоорганизации в коллективах.
Отметим, что полученное выражение определяет зависимость
накопленной ошибки от времени. Кривая текущего значения рас-
согласования будет логистической. •

Достаточной общностью, с нашей точки зрения, обладают
теоретико-игровые модели итеративного научения, точнее – моде-
ли, использующие результаты теории коллективного поведения.
Прежде чем рассматривать конкретные модели, проведем опи-
сание общих принципов. Пусть система состоит из n элементов,
каждый из которых может в момент времени t находиться в со-
55
стоянии si(t) ? ? = [ si? ; si+ ]. Предположим, что состояние всей
системы однозначно описывается вектором состояний элементов:
n

? ? , ? t ? 0.
s(t) = (s1(t), s2(t), ..., sn(t)), s(t) ? ? = i
i =1
Величину h(?) = {s(t) ? ? | ? < t}, то есть информацию о стра-
тегиях всех элементов, выбранных до момента ?, назовем историей
игры.
Рассмотрим как будут вести себя элементы. Предположим, что
существуют некоторые функции ?(?) = {?i(s)}, которые мы будем
называть целевыми функциями элементов, отражающие интересы
элементов (каждый элемент стремится максимизировать значение
свей целевой функции). Отметим, что целевая функция каждого
элемента в общем случае зависит не только от его собственного
состояния (выбираемой им или назначаемой ему "управляющим
устройством" стратегии), но и от состояний других элементов, то
есть имеет место игра элементов (например, каждый элемент
может стремиться минимизировать функцию-индикатор [52, 53]).
Мы будем считать, что эта игра некооперативная, то есть каждый
элемент выбирает стратегию самостоятельно, не имея возможно-
сти договориться с остальными элементами.
Последовательно изменяя свои стратегии, элементы стремятся
достичь некоторой точки равновесия. В теории игр существует
несколько концепций равновесия. Если мы считаем игру элементов
некооперативной, то, целесообразно рассматривать равновесие
Нэша (как такую совокупность стратегий, одиночное отклонение
от которой невыгодно ни одному из элементов). Для нашего анали-
за первичным является не концепция равновесия, а принципы
поведения элементов. Под принципом поведения i-го АЭ мы будем
понимать правило, по которому он выбирает свою стратегию в
момент времени t, зная свою целевую функцию и допустимое
множество, зная (а иногда и не зная или зная только частично)
целевые функции и допустимые множества остальных элементов и
зная (а иногда и не зная или зная только частично) историю игры
h(?). То есть
(8.1) si(t) = Fi(?, ?, h(t), t), i = 1, n , t > 0.


56
Предвосхищая возможные возражения против наделения эле-
ментов обучаемой системы некоторыми "интересами", отметим,
что, действительно, в активных системах (например, группа взаи-
модействующих операторов) функции {?i, Fi} отражают интересы
элементов системы, а в пассивных системах Fi(?) – не что иное, как
закон (иногда неизвестный исследователю) изменения состояний
элементов, удовлетворяющий физическим, биологическим и дру-
гим ограничениям.
Понятно, что, приняв ту или иную гипотезу о поведении эле-
ментов и их взаимодействии, можно рассчитать траектории каждо-
го из них. С ростом размерности системы целесообразность ис-
пользования такого метода становится проблематичной и
возникает желание описать поведение системы в целом (может
быть несколько усредненно и не совсем точно), не вдаваясь в
подробное описание каждого из элементов.
Интуитивно, такое агрегированное описание в ряде случаев
будет оказываться с ростом размерности системы все более точ-
ным.
В частном случае (8.1) превращается в динамическую систему
&
(8.2) si = fi(s(t)), i = 1, n , t > 0,
или, если время дискретно, систему разностных уравнений:
(8.3) si(k + 1) = fi(s(k)), i = 1, n , k = 0, 1, 2, ... .
В последних двух случаях задача исследования динамики кол-
лективного поведения сводится к изучению свойств динамической
системы [65, 66]. В частности, необходимо определить – существу-
ет ли точка равновесия (иногда это эквивалентно исследованию
существования положения равновесия динамической системы) и
устойчиво ли оно, сходятся ли траектории системы к этому поло-
жению равновесия (каковы области притяжения различных равно-
весных точек), какова скорость сходимости и т.д. На сегодняшний
день ответов на эти вопросы в общем случае не существует, и
большинство исследований сконцентрировалось на изучении тех
или иных частных моделей.

Модель 8.4.
О(Г). Состояния элементов системы удовлетворяют нормаль-
ной системе дифференциальных уравнений:
57
&
(8.4) si = fi(s(t), t), i = 1, n , t > 0.
Пусть функции {fi} непрерывны и липшицевы (удовлетворяют
определенному ограничению на скорость роста) во всей допусти-
мой области.
Ф(В). Для любой допустимой начальной точки решение сис-
темы (8.4) существует и единственно. Более того, если решение
(8.4) асимптотически устойчиво, то положение равновесия дости-
жимо за бесконечное время (групповое свойство).
Если {fi} – линейные функции и все собственные значения со-
ответствующей матрицы имеют отрицательные действительные
части, то существуют две экспоненциальные функции, ограничи-
вающие траекторию системы (8.4) сверху и снизу. Введение до-
полнительного предположения о монотонности правой части
системы (8.4) приводит к замедленно-асимптотическому виду
траекторий ее решения.
А. Липшицевость правой части системы дифференциальных
уравнений может интерпретироваться как ограниченность скоро-
сти возможных изменений состояний элементов (и, следовательно,
рассогласования), приводящая к недостижимости положения
равновесия (нулевой ошибки) за конечное время. Для того, чтобы
исключить возможность появления точек перегиба, следует ввести
достаточно сильное предположение о монотонности правой
части. •

Одним из наиболее распространенных и хорошо изученных
предположений о рациональном поведении элементов активной
системы является гипотеза индикаторного поведения. В соответст-
вии с этой гипотезой на каждой итерации каждый элемент делает
шаг в направлении той стратегии, которая была бы оптимальной,
если все остальные элементы выбрали бы те же стратегии, что и на
предыдущем шаге. В этом случае определим положение цели i-го
элемента:
wi(s-i) = arg max ?i(si, s-i),
s i ?? i

где s-i = (s1, s2, ..., si-1, si+1, ..., sn) – обстановка для i-го элемента.
Тогда гипотезу индикаторного поведения можно записать в
виде

58
si(k+1) = si(k) + ? ik (wi(s-i(k)) – si(k)), i = 1, n , k = 0, 1, 2, ... ,
где параметры 0 ? ? ik ? 1 определяют "величины шагов". Деталь-
ное исследование систем, в которых элементы ведут себя в соот-
ветствии с гипотезой индикаторного поведения проведено в [61-
63, 65].
С ростом числа элементов при "примерно одинаковом" их
влиянии на систему в целом, оказывается, что поведение системы
определяется некоторым "усредненным" элементом. При этом нет
необходимости исследования всех элементов – значения показате-
лей, характеризующих всю систему оказываются стабильными на
достаточно широкой области значений параметров элементов
[1, 60]. Возможность такого "усреднения" (без существенной поте-
ри точности описания) представляется достаточно привлекатель-
ной, так как число элементов в реальных итеративно научаемых
системах, как правило, чрезвычайно велико (при этом не принци-
пиально, что понимать под "элементом" – нейрон мозга, степень
свободы руки и т.д.) [64]. Примером использования методов асим-
птотического агрегирования при исследовании коллективного
поведения (в рамках гипотезы индикаторного поведения) является
приводимая ниже модель (читатель, не знакомый с используемым
аппаратом, может пропустить приводимые ниже формальные
результаты, границы которых отмечены " ").

Модель 8.5.
О. Рассмотрим систему, состоящую из n взаимосвязанных
элементов, функционирующих в дискретном времени. Состояние
системы в момент времени k: sk = ( s1k , s2 , …, sn ) ? ? ? ? n опре-
k k


деляется состояниями элементов sik ? ?i, k = 1, 2, … , где
? < si? < si+ < +?, i = 1, n .
Г. Предположим, что поведение системы удовлетворяет гипо-
тезе индикаторного поведения – в каждый момент времени каждый
из элементов изменяет свое состояние в направлении текущего
положения цели, т.е. описывается итерационной процедурой типа
(8.5) sik +1 = sik + ? ik [wi( s? i ) – sik ], k = 1, 2, … , i = 1, n .
k




59
k
где wi( s? i ) – текущее положение цели i-го элемента, зависящее от
состояний остальных элементов, а параметры
? k = ( ? 1k , ? 2 , …, ? n ), выбираемые элементами, определяют вели-
k k


чины шагов (скорость научения) и имеют произвольные распреде-
ления в единичном кубе.
Предположим, что точка равновесия системы
c = (c1, c2, …, cn), ci ? [ si? ; si+ ], i = 1, n , существует, единственна и
траектории (8.5) сходятся к этой точке (соответствующие условия
приведены, например, в [52, 65]).
В качестве меры текущей "удаленности" системы от положе-
ния равновесия выберем рассогласование
1n
(8.6) ? = ||c – s || = ? | ci ? sik | ,
k k
n
n i =1
т.е. расстояние между точками s и c в пространстве ? n.
Ф. Воспользовавшись (8.5), получим:
1n
= ? | (ci ? sik )(1 ? ? ik ) + ? ik (ci ? wi ( s k )) |
k +1
(8.7) ? n
n i =1
˜
Очевидно: ?kn+1 ? ?kn+1 , где
˜k +1 1 n 1n k
(8.8) ? n = ? | ci ? si | (1 ? ? i ) + ? ? i | ci ? wi ( s k ) | .
k k

n i =1 n i =1
˜
При достаточно больших n оценка рассогласования ?kn+1
должна слабо отличаться от "среднего значения"
1n
? | ci ? wi (s k ) | ,
k +1
(8.9) ? = (1 – ? ) ? + ?
k k k
n n n n
n i =1
1n k
где ? = ? ? i . Приведем корректную формулировку и обос-
k
n
n i =1
нование этого утверждения. Определим, что понимается под бли-
˜
зостью ?kn+1 и ?kn+1 . В соответствии с [60, 64], последовательность



60
˜
функций ?kn+1 (? k) стабилизируется на единичных кубах Kn = [0;1]n,
если существует такая числовая последовательность ?kn+1 , что
˜
(8.10) Pr {| ?kn+1 – ?kn+1 | ? ?} > 0, n > +?
для любого наперед заданного ? > 0.
Для того, чтобы судить о стабилизации, оценим разность зна-
˜
чений функции ?kn+1 (?) в следующих точках: ? k ? Kn и
? k = ( ?1k , ? 2 , …, ? n ) ? Kn:
k k


1n
˜k k ˜k k
| ? n (? ) – ? n (? )| = | ? | ci ? sik | (? ik ? ? ik ) +
n i =1
1n k
+ ? (? i ? ? ik ) | ci ? wi ( s k ) | |.
n i =1
Обозначив ? = max ( si+ – si? ), получим
i

2? n
˜ ˜
?| ?
| ?kn (? k) – ?kn (? k)| ? ? ? ik | ,
k
i
n i =1

т.е. ? (?) является липшицевой функцией с постоянной Липшица
k
n
порядка 1 / n.
В силу теоремы 2 [64], для любых распределений ? k на Kn дис-
персия D{ ?kn } > 0, n > +?, следовательно, по неравенству Че-
бышева выполняется (8.10).
˜
В. Стабилизация последовательности ?kn позволяет сформу-
лировать следующий вывод. С ростом числа элементов системы
оценка (8.8) рассогласования (8.6) сходится по вероятности к (8.9),
т.е. имеет место:
1n
? | ci ? wi ( s k ) | } n>+? 0.
k +1
(8.11) Pr { ? > (1 – ? ) ? + ? >
k k k
n n n n
n i =1
Некоторые частные случаи приведенного утверждения рас-
смотрены ниже:
- если система монотонно движется к положению равновесия
(если sik ? сi, то sik ? wi(sk) ? ci и, соответственно, если sik ? сi, то

61
sik ? wi(sk) ? ci, i = 1, n , k = 1, 2, ...), то (8.7) сходится по вероятно-
сти к (8.9);
- если элементы системы не взаимодействуют или существует
? > 0: |ci – wi(sk)| ˜ o(n?), i = 1, n , k = 1, 2, ... , то (8.7) сходится по
вероятности к (1 – ? n ) ?kn .
k


А. Исследование модели позволяет сделать следующий каче-
ственный вывод: если
- элементы не взаимодействуют, или
- положения цели не меняются со временем (например,
wi = ci), или
- среднее изменение положений цели относительно точек рав-
новесия для каждого элемента на каждом шаге достаточно мало:
|ci – wi(sk)| << |ci – sik | ? i = 1, n , k = 1, 2, ... ,
то среднее рассогласование достаточно точно может быть аппрок-
симировано экспоненциальной кривой.
Существенным в настоящей модели является допущение о
справедливости гипотезы индикаторного поведения и выбор рас-
согласования в виде (8.6). Более того, предположение о стационар-
ности положений цели, фактически, сводит рассматриваемую
модель к модели 4.1. •

В моделях коллективного поведения замедленно-
асимптотический характер КН является следствием либо большого
числа элементов системы, либо/и отсутствия или ограниченности
их взаимодействия, либо/и постоянства положений цели.




62
9. Некоторые обобщения

Как уже неоднократно отмечалось выше, итеративное науче-
ние характеризуется постоянством внешних условий и целей нау-
чения, то есть имеет место стационарность внешних (по отноше-
нию к обучаемой системе) параметров (условий
функционирования). Покажем, что для объяснения замедленно-
асимптотического (экспоненциального) характера кривых итера-
тивного научения достаточно ввести предположение о стационар-
ности некоторых параметров самой обучаемой системы (внутрен-
них условий функционирования). Более того, этого предположения
достаточно для объяснения гораздо более широкого круга явлений
и процессов, чем только ИН – начиная от ряда физических и хими-
ческих закономерностей и заканчивая процессами самоорганиза-
ции и адаптации в сложных биологических и кибернетических
системах.
Рассмотрим следующую модель, являющуюся обобщением
практически всех рассматриваемых выше моделей в следующем
смысле: мы не будем вводить предположений о характере, законах
и т.д. взаимодействия элементов и структуре системы, считая, что
существуют некоторые характеристики элементов (их рассогласо-
вания), определяющие рассогласование системы.
О. Рассмотрим систему, состоящую из n элементов. Рассогла-
сование i-го элемента обозначим xi(t), i = 1, n . Без потери общно-
сти можно считать, что если система научается, то имеет место:
xi(0) = 1, xi(t) > 0 ? t > 0, lim xi(t) = 0, i = 1, n .
t >?
Любая кривая такого типа может быть представлена в виде
?? (t )
(9.1) xi(t) = e i , i = 1, n .
где ?i(0) = 0, ?i(t) > +?, i = 1, n . Назовем условно скоростью
t >?
научения i-го элемента логарифмическую производную его рассо-
&
гласования ("относительную скорость" – xi / xi ), то есть величину
d? i (t )
?i(t) = (в каждом конкретном случае нужно четко представ-
dt
лять себе – что является элементом моделируемой системы и
каковы содержательные интерпретации скорости его научения).
63
Как правило, траектории реальных физических и биологиче-
ских систем обладают достаточной гладкостью, поэтому в боль-
шинстве случаев соответствующая производная определена. Если
?i(?) – абсолютно непрерывные функции (с точностью до констан-
ты допускающие представление в виде интеграла от производной),
то (9.1) примет вид
t

?
(9.2) xi(t) = exp { – ? i (? )d? }, i = 1, n .
0
Г. Рассогласование системы в целом является некоторой
функцией рассогласований элементов:
x(t) = F(x1(t), x2(t) ..., xn(t)).
Естественно предположить, что функция F(?) неотрицательна,
монотонна по каждой переменной и обращается в нуль тогда и
только тогда, когда обращаются в нуль рассогласования всех эле-
ментов. Например, F(?) может быть нормой в пространстве ? n.
Известно, что в конечномерных пространствах (в рассматриваемой
модели размерность пространства определяется числом элементов
научаемой системы, а оно всегда конечно) все нормы эквивалент-
ны, то есть для любых двух норм F1(?) и F2(?) найдутся такие кон-
станты ? и ?, что для любого x ? ? n будет выполнено:
(9.3) ? F2(x) ? F(x) ? ? F (x).
Пусть рассогласование F(?) – среднее геометрическое рассо-
гласований элементов:
1/ n
?n ?
t
1n
= exp {– ? ? ? i (? )d? }.
(9.4) x(t) = ?? xi (t )?
? i =1 ? 0 n i =1
Если выбрать в качестве рассогласования системы среднее
арифметическое рассогласований элементов:
n

? | x (t ) | ,
F(x1(t), x2(t) ..., xn(t)) = i
i =1
то при достаточно больших n среднее арифметическое "совпадает"
(с точностью до мультипликативной константы) со средним гео-
метрическим (корректное обоснование приведено в [60, 64]).
Таким образом, для того, чтобы (9.4) было в определенном в
[60] смысле оценкой рассогласования системы (см. (9.3)), требует-
ся, чтобы число элементов системы было велико.
64
Ф(В). Теперь воспользуемся гипотезой о стационарности ха-
рактеристик элементов. Более точно, будем считать, что скорости
научения элементов – независимые случайные величины, имею-
щие произвольные стационарные распределения.
Тогда подынтегральное выражение в (9.3) асимптотически по-
стоянно [64], то есть при больших n выполнено:
1n
(9.5) ? ? i (t ) ? Const, ? t ? 0.
n i =1
Обозначая эту константу (скорость научения) через ?, из (9.4)
и (9.5) получаем:
(9.6) x(t) ? ˜ e-? t.
А. Таким образом, в рамках рассмотренной модели экспонен-
циальный вид зависимости рассогласования системы от времени
является следствием стационарности внешних и внутренних пара-
метров (условий функционирования), а также большого числа
элементов системы.
Наличие большого числа элементов системы является сущест-
венным – "кривые научения" отдельных элементов могут быть
далеко не экспоненциальными. Грубо говоря, чем больше число
элементов системы и чем "стационарней" их характеристики, тем
более точно (9.6) аппроксимирует кривую научения системы.
Следует отметить, что предлагаемая модель далеко не совер-
шенна. Например, внимательный читатель может спросить: а
почему мы использовали именно представление (9.1) для "кривой
научения" отдельного элемента? (если предположить стационар-
&
ность производных xi (t ) , то получится линейная функция, не
удовлетворяющая условию асимптотичности), что такое функция
?i(t) и почему именно распределение ее производных стационарно?
Аналогичные возражения может вызвать обоснованность предпо-
ложений о свойствах функции F(?), независимости характеристик
элементов и т.д.
Оправданием может служить следующее рассуждение. Пусть
некоторая система характеризуется экспоненциальной КН со ско-
ростью научения ?, значение которой, фактически, определяет
отличие одной КН (научаемой системы) от другой. Строя модель
ИН, исследователь при рассмотрении взаимодействия элементов
системы вынужден вводить те или иные предположения. Как
65
свидетельствует проведенный выше анализ, существует целое
множество предположений, приводящих к требуемому выводу о
экспоненциальной динамике поведения системы. Поэтому крите-
рием сравнения моделей ИН (какая модель "лучше") должны
служить именно вводимые предположения. С этой точки зрения
предлагаемая модель "лучше" рассмотренных выше (является
более общей, то есть включает большинство известных моделей
как частные случаи). Процесс генерации моделей можно и нужно
продолжать дальше. Тем не менее, при этом нужно четко пред-
ставлять себе, что скорее всего отказаться полностью от предпо-
ложений о стационарности и/или ограниченности тех или иных
параметров системы и/или множественности составляющих ее
элементов вряд ли удастся. •

Теперь покажем, что приведенная модель обобщает модели,
рассмотренные в предыдущих разделах.
Большое число элементов обучаемой системы оказывается
существенным в моделях: 4.2, 5.2, 5.3, 6.1, 6.7, 6.10, 7.2, 7.5, 8.5.
Стационарность характеристик элементов систем имеет место
и играет ключевую роль:
- в моделях 4.1, 4.5, 5.1, 5.4, 6.5, 8.2, 8.3 постоянна логарифми-
ческая производная рассогласования, то есть постоянен коэффици-
ент пропорциональности между скоростью изменения рассогласо-
вания и ее текущим значением (понятно, что даже при n = 1 это
предположение сразу приводит к экспоненциальному виду кривой
рассогласования);
- в моделях 4.2, 7.3, 7.4 постоянны коэффициенты пропорцио-
нальности в выражениях для приращения вероятностей;
- в модели 5.2 вероятность "распада" не зависит от времени и
числа "распавшихся атомов";
- в модели 5.3 постоянна относительная ошибка каждого из
регуляторов;
- в модели 5.5 вариация организации системы постоянна (рав-
на нулю);
- в моделях 6.2, 6.3, 6.6 постоянно количество информации,
усваиваемое, получаемое или перерабатываемое обучаемой систе-
мой в единицу времени;

66
- в модели 6.7 равны вероятности показа различных изображе-
ний;
- в модели 6.9 пропорция между переданной и полученной
информацией не зависит от времени и количества накопленной
информации;
- модель 6.10 (как и 5.2) очень близка к модели, рассмотрен-
ной в настоящем разделе;
- в модели 7.1 постоянна пропорция отрезков разбиения;
- в модели 7.2 рассогласования элементов системы распреде-
лены равномерно в каждый момент времени;
- в модели 8.4 ограниченность скорости изменения (липшице-
вость) правых частей нормальной системы дифференциальных
уравнений оказывается достаточной для асимптотичности траекто-
рии системы;
- в модели 8.5 невзаимодействие элементов или постоянство
положения цели приводят к экспоненциальному виду кривой
рассогласования.
В то же время, следует отметить, что при итеративном науче-
нии в случае нестационарных внутренних характеристик системы
могут наблюдаться и многократно наблюдались в экспериментах
неэкспоненциальные (логистические, с промежуточным плато и
др. – см. второй раздел) кривые научения.
Таким образом, в приведенных выше моделях для получения
вывода об экспоненциальности кривой научения делаются либо
предположения о множественности и однородности элементов
системы (см. также замечание о необходимости усреднения инди-
видуальных КН во втором разделе) и о стационарности некоторых
характеристик элементов (множественность при "слабой" стацио-
нарности дает возможность произвести "усреднение" и получить
"сильную" стационарность "в среднем"; интуитивно – "небольшая
нестационарность" приводит к "примерной экспоненциальности"),
либо более сильное предположение о стационарности.

Значит можно сделать следующий вывод: если число элемен-
тов научаемой системы достаточно велико, а ее характеристики и
условия функционирования (внутренние и внешние) стационарны,
то соответствующая кривая научения будет экспоненциальной.
Более того, приведенная в настоящем разделе модель оказывается
67
адекватной не только итеративному научению, но и процессам
самоорганизации и адаптации в больших системах, удовлетво-
ряющих предположениям стационарности.




68
Заключение

Таким образом, анализ математических моделей итеративного
научения, проведенный в настоящей работе, позволяет сделать
следующие выводы.
Моделирование итеративно научаемых систем является эф-
фективным методом их исследования, предсказания специфики
поведения реальных систем в различных условиях, а также совер-
шенствования организации учебного процесса.
Результаты исследования математических моделей итератив-
ного научения позволили выдвинуть следующий закон итератив-
ного научения:
ЕСЛИ ЧИСЛО ЭЛЕМЕНТОВ НАУЧАЕМОЙ СИСТЕМЫ
ДОСТАТОЧНО ВЕЛИКО И/ИЛИ ВНЕШНИЕ И ВНУТРЕННИЕ
УСЛОВИЯ ЕЕ ФУНКЦИОНИРОВАНИЯ СТАЦИОНАРНЫ, ТО
КРИВАЯ НАУЧЕНИЯ, СООТВЕТСТВУЮЩАЯ ЕГО
РЕЗУЛЬТАТИВНЫМ ХАРАКТЕРИСТИКАМ, БУДЕТ
ПРИМЕРНО ЭКСПОНЕНЦИАЛЬНОЙ.
Одновременно можно сформулировать двойственное утвер-
ждение (выдвинуть объясняющую гипотезу):
ЕСЛИ КРИВАЯ НАУЧЕНИЯ, СООТВЕТСТВУЮЩАЯ ЕГО
РЕЗУЛЬТАТИВНЫМ ХАРАКТЕРИСТИКАМ, ЯВЛЯЕТСЯ
ЭКСПОНЕНЦИАЛЬНОЙ, ТО СКОРЕЕ ВСЕГО ВНЕШНИЕ И
ВНУТРЕННИЕ УСЛОВИЯ ФУНКЦИОНИРОВАНИЯ
НАУЧАЕМОЙ СИСТЕМЫ СТАЦИОНАРНЫ И/ИЛИ ЧИСЛО ЕЕ
ЭЛЕМЕНТОВ ДОСТАТОЧНО ВЕЛИКО.
Сформулированные утверждения вполне согласованы с соот-
ветствующими экспериментальными закономерностями, физиче-
скими законами и результатами наблюдений.
В качестве перспективных направлений будущих исследова-
ний механизмов и закономерностей итеративного научения следу-
ет выделить: необходимость дальнейшего анализа различного рода
моделей ИН и, в первую очередь, моделей, использующих обрат-
ный метод построения; исследование соответствия между гипоте-
зами, лежащими в основе существующих и вновь создаваемых
прямых моделей ИН и экспериментальными исследованиями ИН в
живых системах; а также широкое применение результатов моде-


69
лирования для выработки рекомендаций по выбору оптимальных
форм и методов обучения.
Необходимо отметить, что многие из рассмотренных выше
моделей описывают и отражают гораздо более широкий круг
явлений и процессов, нежели только итеративное научение. Мож-
но выдвинуть гипотезу, что замедленно-асимптотический характер
изменения агрегированных параметров больших и сложных систем
является общей закономерностью, проявляющейся при стационар-
ных внешних и внутренних условиях не только при итеративном
научении, но и в процессах адаптации, самоорганизации и др.




70
Литература

1 Адилов Г.Р., Опойцев В.И. Об асимптотическом агрегировании //
Автоматика и Телемеханика. 1989. N 1. С. 131 – 140.
2 Акофф Р., Эмери Ф. О целеустремленных системах. М.:
Сов. радио, 1974. – 272 с.
3 Александров Е.А. Основы теории эвристических решений. М.:
Сов. радио, 1975. – 256 с.
4 Алексеев М.А., Залкинд М.С., Кушнарев В.М. Решение челове-
ком задачи выбора при вероятностном подкреплении двигательных
реакций / Биологические аспекты кибернетики. М.: Изд-во АН
СССР, 1962. С. 198 – 209.
5 Амосов Н.М. Моделирование сложных систем. Киев: Наукова
думка, 1968. – 81 с.
6 Анохин П.К. Опережающее отражение действительности //
Вопросы философии. 1962. N 7. С. 97 – 112.
7 Анохин П.К. Принципиальные вопросы общей теории функцио-
нальных систем // Принципы системной организации функций. М.:
Наука, 1973. С. 5 – 61.
8 Анохин П.К. Теория функциональной системы, как предпосылка
к построению физиологической кибернетики / Биологические
аспекты кибернетики. М.: Изд-во АН СССР, 1962. С. 74 – 91.
9 Антомонов Ю.Г. Моделирование биологических систем. Спра-
вочник. Киев: Наукова думка, 1977. – 259 с.
10 Антомонов Ю.Г. Организация и оптимальность / Моделирова-
ние в биологии и медицине. Киев: Наукова думка, 1968. С. 163 –
182.
11 Антомонов Ю.Г. Принципы нейродинамики. Киев: Наукова
думка, 1974. – 199 с.
12 Аптер М. Кибернетика и развитие. М.: Мир, 1970. – 215 с.
13 Аткинсон Р., Бауэр Г., Кротерс Э. Введение в математическую
теорию обучения. М.: Мир, 1969. – 468 с.
14 Аткинсон Р. Человеческая память и процесс обучения. М.:
Прогресс, 1980. – 528 с.
15 Аттли О.М. Машины условной вероятности и условные реф-
лексы / Сб. "Автоматы". М.: ИЛ, 1956. С. 326 – 351.
16 Бернштейн Н.А. Очерки по физиологии движений и физиоло-
гии активности. М.: Медицина, 1966. – 347 с.
71
17 Бернштейн Н.А. Пути и задачи физиологии активности // Во-
просы философии. 1961. N 6. С. 77 – 92.
18 Бернштейн Н.А. Пути развития физиологии и связанные с ними
задачи кибернетики / Биологические аспекты кибернетики. М.:
Изд-во АН СССР, 1962. С. 52 – 65.
19 Бир Ст. Кибернетика и управление производством. М.: Наука,
1965. – 391 с.
20 Братко А.А., Кочергин А.Н. Информация и психика. Новоси-
бирск: Наука, 1977. – 198 с.
21 Бриллюэн Л. Наука и теория информации. М.: Гос. изд-во физ.-
мат. лит., 1960. – 392 с.
22 Бриллюэн Л. Научная неопределенность и информация. М.:
Мир, 1966. – 271 с.
23 Буш Р., Мостеллер Ф. Стохастические модели обучаемости. М.:
Гос. изд-во физ.-мат. лит., 1962. – 483 с.
24 Варшавский В.И. Коллективное поведение автоматов. М.:
Наука, 1973. – 408 с.
25 Варшавский В.И., Воронцова И.П. О поведении стохастических
автоматов с переменной структурой // Автоматика и Телемеханика.
1963. том 24. N 3. С. 353 – 369.
26 Варшавский В.И., Воронцова И.П., Цетлин М.Л. Обучение
стохастических автоматов / В сб. Биологические аспекты киберне-
тики, Изд-во АН СССР, 1962. С. 192 – 197.
27 Венда В.Ф. Системы гибридного интеллекта: эволюция, психо-
логия, информатика. М.: Машиностроение, 1990. – 448 с.
28 Винер Н. Кибернетика или управление и связь в животном и
машине. М.: Наука, 1983. – 338 с.
29 Винер Н. Кибернетика и общество. М.: Изд-во иностр. лит.,
1958. – 200 с.
30 Вильсон А.Дж. Энтропийные методы моделирования сложных
систем. М.: Наука, 1978. – 248 с.
31 Вудвортс Р. Экспериментальная психология. М.: Изд-во иностр.
лит., 1950. – 800 с.
32 Гельфанд И.М., Цетлин М.Л. Принцип нелокального поиска в
задачах автоматической оптимизации // ДАН СССР. 1961. Том 137.
N 2. С. 295 – 298.
33 Глушков В.М. Введение в кибернетику. Киев: Изд-во Академии
наук УССР, 1964. – 323 с.
72
34 Горбань А.Н. Обучение нейронных сетей. М.: Параграф, 1990. –
157 с.
35 Дейч С. Модели нервной системы. М.: Мир, 1970. – 325 с.
36 Джордж Ф. Мозг как вычислительная машина. М.: Изд-во
иностр. лит., 1963. – 528 с.
37 Дружинин В.В., Контров Д.С. Проблемы системологии (про-
блемы теории сложных систем). М.: Сов. радио, 1976. – 295 с.
38 Емельянов – Ярославский Л.Б. Интеллектуальная квази-
биологическая система. М.: Наука, 1990. – 112 с.
39 Жиглявский А.А., Жилинскас А.Г. Методы поиска глобального
экстремума. М.: Наука, 1991. – 248 с.
40 Жуков Н.И. Информация. Минск: Наука и техника, 1971. –
276 с.
41 Зингерман А.М., Меницкий Д.Н., Усов В.В. Информация и
функциональные системы / Принципы системной организации
функций. М.: Наука, 1973. С. 86 – 91.
42 Ительсон Л.Б. Математические и кибернетические методы в
педагогике. М.: Просвещение, 1964. – 248 с.
43 Кадыров Х.К., Антомонов Ю.Г. Синтез математических моде-
лей биологических и медицинских систем. Киев: Наукова думка,
1974. – 222 с.
44 Касти Дж. Большие системы: связность, сложность, катастро-
фы. М.: Мир, 1982. – 216 с.
45 Клаус Г. Кибернетика и общество. М.: Прогресс, 1967. – 431 с.
46 Коган А.Б., Наумов Н.П., Режабек В.Г., Чораян О.Г. Биологиче-
ская кибернетика. М.: Высшая школа, 1972. – 384 с.
47 Козелецкий Ю. Психологическая теория решений. М.: Про-
гресс, 1979. – 504 с.
48 Крылов В.Ю., Морозов Ю.И. Кибернетические модели и психо-
логия. М.: Наука, 1984. – 174 с.
49 Крылов В.Ю., Цетлин М.Л. Об играх автоматов // Автоматика и
Телемеханика. 1963. том 24. N 7. С. 910 – 921.
50 Линдсей П., Норман Д. Переработка информации у человека
(введение в психологию). М.: Мир, 1974. – 550 с.
51 Ляпунов А.А. Об управляющих системах живой природы и
общем понимании жизненных процессов. М.: Энергия, 1962.



73
52 Малишевский А.В. Модели совместного функционирования
многих целенаправленных элементов // Автоматика и Телемехани-
ка. 1972. ч. I – N 11. С. 92 – 110, ч. II. – N 12. С. 108 – 128.
53 Малишевский А.В., Тенисберг Ю.Д. Один класс игр, связанный
с моделями коллективного поведения // Автоматика и Телемехани-
ка. 1969. N 11. С. 128 – 137.
54 Меницкий Д.Н. Информация и проблемы высшей нервной
деятельности. Л.: Медиздат, 1974. – 230 с.
55 Миллер Д., Галантер Е., Прибрам К. Планы и структура поведе-
ния. М.: Прогресс, 1964. – 236 с.
56 Новиков А.М. Анализ количественных закономерностей про-
цесса упражнения. Методические рекомендации. М.: Высшая
школа, 1976. – 22 с.
57 Новиков А.М. Процесс и методы формирования трудовых
умений: профпедагогика. М.: Высшая школа, 1986. – 288 с.
58 Новиков М.А. Коммуникационные структуры и эффективность
групповой деятельности операторов // Вопросы психологии. 1970.
N 4. С. 132 – 135.
59 Нурминский И.И., Гладышева Н.К. Статистические закономер-
ности формирования знаний и умений учащихся. М.: Педагогика,
1991. – 224 с.
60 Опойцев В.И. Задачи и проблемы асимптотического агрегиро-
вания // Автоматика и Телемеханика. 1991. N 8. С. 133 – 144.
61 Опойцев В.И. Динамика коллективного поведения. ч.I – Гомо-
генные системы // Автоматика и Телемеханика. 1974. N 4. С. 157 –
168.
62 Опойцев В.И. Динамика коллективного поведения. ч.II – Сис-
темы с ограниченным межэлементным взаимодействием // Авто-
матика и Телемеханика. 1974. N 6. С. 133 – 144.
63 Опойцев В.И. Динамика коллективного поведения. ч.III // Ав-
томатика и Телемеханика. 1975. N 1. – С. 124 – 138.
64 Oпойцев B.И. Hелинейный закон больших чисел // Автоматика
и Телемеханика. 1994. N 4. С. 65 – 75.
65 Опойцев В.И. Равновесие и устойчивость в моделях коллектив-
ного поведения. М.: Наука, 1977. – 245 с.
66 Опойцев В.И. Устойчивость систем большой размерности //
Автоматика и Телемеханика. 1986. N 6. С. 43 – 49.


74
67 Полтырева Т.Е. Условнорефлекторное поведение собаки в
вероятностной среде / Некоторые проблемы биологической кибер-
нетики. Л.: Наука, 1972. С. 83 – 89.
68 Поспелов Д.А. Вероятностные автоматы. М.: Энергия, 1970. –87
с.
69 Присняков В.Ф., Приснякова Л.М. Математическое моделиро-
вание переработки информации оператором человеко-машинных
систем. М: Машиностроение, 1990. – 248 с.
70 Присняков В.Ф., Приснякова Л.М. Модель процесса удержания
информации в памяти человека // Психологический журнал. 1984.
том 5. N 4. С. 29 – 36.
71 Раппопорт А. Экспериментальное исследование параметров
самоорганизации в группах из трех испытуемых / Принципы само-
организации. М.: Мир, 1966. С. 21 – 47.
72 Розенблатт Ф. Принципы нейродинамики. Перцептроны и
теория механизмов мозга. М.: Мир, 1965. – 480 с.
73 Романов Н.А. О возможностях контакта между теорией вероят-
ностей и учением академика И.П. Павлова об условных рефлексах
// ДАН СССР. Математика. 1935. том 1. N 4. С. 193 – 199.
74 Рублев Ю.В., Востров Г.Н. Математические основы логической
структуры курса // Вестник высшей школы. 1970. N 9. С. 27 – 31.
75 Экспериментальная психология. Под ред С.С. Стивенса, М.:
ИЛ, т. I, 1960. т. II, 1963. (в т.ч. – Спенс К.У. Теоретический анализ
процесса научения. С. 224 – 273.).
76 Трапезников В.А. Автоматическое управление и экономика //
Автоматика и Телемеханика. 1966. N 1. С. 5 – 22.
77 Трапезников В.А. Человек в системе управления // Автоматика
и Телемеханика. 1972. N 2. С. 4 – 18.
78 Трухаев Р.И. Модели принятия решений в условиях неопреде-
ленности. М.: Наука, 1981. – 258 с.
79 Умрюхин Е.А. Обучение в живых системах / Принципы сис-
темной организации функций. М.: Наука, 1973. С. 202 – 206.
80 Уолтер Г. Живой мозг. М.: Мир, 1970. – 300 с.
81 Урсул А.Д. Природа информации. М.: Политиздат, 1968. –
288 с.
82 Ферстер Г. О самоорганизующихся системах и их окружении /
Самоорганизующиеся системы. М.: Мир, 1964. С. 113 – 139.


75
83 Ховленд К. Научение и сохранение заученного у человека /
Экспериментальная психология. Под ред. С.С. Стивенса, М.: ИЛ,
том II, 1963. С. 124 – 223.
84 Цетлин М.Л. Исследования по теории автоматов и моделирова-
нию биологических систем. М.: Наука, 1969. – 316 с.
85 Цетлин М.Л. О поведении конечных автоматов в случайных
средах // Автоматика и Телемеханика. 1961. том 22. N 10. С. 1345 –
1354.
86 Цыпкин Я.З. Адаптация и обучение в автоматических системах.
М.: Наука, 1968. – 399 с.
87 Цыпкин Я.З. Основы теории обучающихся систем. М.: Наука,
1970. – 252 с.
88 Шеннон К. Работы по теории информации и кибернетике. М.:
Изд-во иностр. лит., 1963. – 829 с.
89 Шибанов Г.П. Количественная оценка деятельности человека в
системах человек-техника. М.: Машиностроение, 1983. – 263 с.
90 Шленский О.Ф., Бодэ Б.В. К математическому выражению
накопления информации и ее забывания // Вопросы психологии.
1967. N 4. С. 180 – 182.
91 Штейнбух К. Автомат и человек. М.: Сов. радио, 1967. – 494 с.
92 Эстес В.К. Статистические модели способности человека-
наблюдателя вспоминать и опознавать возбуждающие образы /
Самоорганизующиеся системы. М.: Мир, 1964. С. 50 – 64.
93 Эшби У.Р. Введение в кибернетику. М.: Изд-во иностр. лит.,
1959. – 432 с.
94 Эшби У.Р. Конструкция мозга. Происхождение адаптивного
поведения. М.: Мир, 1964. – 411 с.
95 Яглом А.М., Яглом И.М. Вероятность и информация. М.: Наука,
1973. – 511 с.
96 Baba N. A new approach for finding the global minimum of error
function of neural networks // Neural Networks. 1989. V.2. P. 367–373.
97 Baldi P., Hornic K. Neural network and principal component analy-
sis: learning from examples without local minima // Neural Networks.
1989. V. 2. P. 53 – 58.
98 Bryan W.L., Harter N. Studies on the telegrafic language. The
acquisition of a hierarchy of habits // Psychol. Rev. 1899. V. 6. P. 345 –
375.


76
99 Estes W.K. The statistical approach to learning theory / Psychology:
a study of science. Ed. by Koch S. New York: McGraw Hill Book
Company Inc., 1951. P. 380 – 491.
100 Grant D. Information theory and the discrimination of sequences in
stimulus events / Current trends in information theory. Pittsburgh: Univ.
of Pittsburgh Press, 1953. P. 18 – 46.
101 Gulliksen H. A rational equation of the learning curve based on the
Thornike's law of effect // J. Gen. Psychol., 1934. V. 11. P. 395 – 434.
102 Guthrie E.R. The psychology of learning. New York and London:
Harper and Broth. Pub., 1935. – 258 p.
103 Hecht-Hidsen R. Neurocomputing. Addiron-Wesley Publishing
Company Inc., 1989. – 222 p.
104 Hull C.L. Behavior postulates and corollaries // Psychol. Rev. 1950.
V. 57. P. 173 – 180.
105 Hull C.L. Principles of behavior and introduction to behavior the-
ory. New York: D. Appleton century company, 1943. – 422 p.
106 Jones M.R. From probability learning to sequential processing: a
critical review // Psychological Bulletin, 1971. V. 76. N 3. P. 153 – 185.
107 Klaus K. Time to fired up // Neural Networks. 1989. August. P. 217
– 224.
108 Linsker R. Self-organization in a perceptual network // Computer.
1988. March. P. 105 – 117.
109 Meehl P.E., MacCorquodale K. Some methodological comments
concerning expectancy theory // Psychol. Rev. 1951. V. 58. P. 230 –
233.
110 Miller G. The magical number seven plus or minus two: some
limits on capacity for processing information // Psychol. Rev. 1956. V.
63. P. 81 – 92.
111 Peterson G. Experiments in ball tossing: the significance of learning
curves // J. Exp. Psychol. 1917. V. 2. P. 178 – 224.
112 Russ R. Implementing a neural network in C / MicroCorncopia.
1990. N 51. P. 16 – 25.
113 Stenberg S. Stochastic learning theory / Handbook on mathematical
psychology, V. II, New York: J. Wiley and Sons Inc., 1963. P. 1 – 120.
114 Thurstone L.L. The learning curve equation // Psychol. Monogr. 1919.
V. 26. N 3.
115 Tolman E.C. Theories of learning / Comparative Psychology. Ed.
Moss F.A. New York: Prentice Hall, 1934.

77

<<

стр. 2
(всего 2)

СОДЕРЖАНИЕ