стр. 1
(всего 4)

СОДЕРЖАНИЕ

>>

РОССИЙСКАЯ АКАДЕМИЯ НАУК
Институт проблем управления
им. В.А. Трапезникова



Д.А. Новиков, А.В. Цветков




МЕХАНИЗМЫ ФУНКЦИОНИРОВАНИЯ
ОРГАНИЗАЦИОННЫХ СИСТЕМ
С РАСПРЕДЕЛЕННЫМ КОНТРОЛЕМ




Москва - 2001
УДК 007
ББК 32.81
Н 73

Новиков Д.А., Цветков А.В. Механизмы функционирова-
ния организационных систем с распределенным контро-
лем. М.: ИПУ РАН, 2001. – 118 с.


Настоящая работа содержит результаты исследований теоре-
тико-игровых моделей управления организационными системами с
распределенным контролем, включающими линейные, матричные и
сетевые структуры управления. Значительное внимание уделяется
изучению практически важных частных случаев взаимодействия
участников системы - задачам стимулирования и др.
Работа рассчитана на специалистов (теоретиков и практиков)
по управлению организационными системами.



Рецензент: д.т.н. А.В. Щепкин



Утверждено к печати Редакционным советом Института
СОДЕРЖАНИЕ

Введение……….…………………………………………………........4
1. Система классификаций моделей организационных систем
с распределенным контролем……………………………………..10
2. Исследование базовых моделей организационных систем
с распределенным контролем……………………………………..16
2.1. Модель организационной системы
с унитарным контролем (модель РК1)…..…..........………….16
2.2. Модели первого уровня сложности……………………….....36
2.2.1. Модель РК2……………………………………………..36
2.2.2. Модель РК3…..…………………………………………37
2.2.3. Модель РК5…..…………………………………………58
2.2.4. Модель РК13....…………………………………………59
2.3. Модели второго уровня сложности.........................................64
2.3.1. Модель РК4……………………………………………..64
2.3.2. Модель РК6…..…………………………………………65
2.3.3. Модель РК7…..…………………………………………65
2.3.4. Модель РК9…..…………………………………………65
2.3.5. Модель РК14..…………………………………………..66
2.3.6. Модель РК15..…………………………………………..73
2.4. Модели третьего уровня сложности…………………………74
2.4.1. Модель РК8……………………………………………..74
2.4.2. Модель РК10..…………………………………………..75
2.4.3. Модель РК11..…………………………………………..75
2.4.4. Модель РК16..…………………………………………..76
2.5. Общая модель организационной системы
с распределенным контролем (модель РК12)..……………...80
3. Сетевые структуры управления…………………………………..81
3.1. Межуровневое взаимодействие………………………………82
3.2. Ромбовидная структура управления…………………………89
3.3. Сетевое взаимодействие………………………………………95
Заключение…………………………………………………………..111
Литература…………………………………………………………...113




3
ВВЕДЕНИЕ

Функционирование организационных систем (ОС), характери-
зуемых целенаправленным поведением участников, действующих в
рамках определенной системы правил и процедур1, является объек-
том исследований экономики, психологии, социологии, теории
управления и других отраслей науки. В зависимости от рассматри-
ваемого аспекта, то есть для различных предметов исследований,
используются различные методы исследований. Одним из распро-
страненных методов синтеза оптимальных управлений является
математическое моделирование, позволяющее в условиях отсутст-
вия возможности проведения натурного эксперимента проанализи-
ровать возможные реакции управляемой системы на те или иные
управляющие воздействия, и выбрать такие допустимые управле-
ния, которые приводят к желаемому поведению системы.
Формальные модели механизмов функционирования организа-
ционных систем исследуются в таких разделах теории управления
социально-экономическими системами как теория активных систем
(ТАС) [6, 11, 13, 22-26, 57, 61], теория иерархических игр [30-
34, 45], теория контрактов [83-87] и др. В рамках всех этих научных
направлений принимается следующее теоретико-игровое описание
ОС. Участники ОС – игроки – подразделяются на управляющие
органы (центры) и управляемые субъекты (агенты), причем в
многоуровневой системе один и тот же участник может одновре-
менно являться и агентом, то есть подчиняться участникам, при-
надлежащим более высокому уровню иерархии, и центром (с точки
зрения управляемых им участников более низких уровней иерар-
хии).

1
Напомним, что группой называется объединение субъектов, совместно
осуществляющих свою деятельность; коллективом называется группа,
члены которой объединены общностью интересов; организацией (органи-
зационной системой) называется коллектив, функционирующий в рамках
определенных заданных извне условий, правил и процедур взаимодействия,
называемых механизмом функционирования. Таким образом, системооб-
разующим фактором для группы является совместная деятельность, для
коллектива - совместная деятельность и общность интересов, для
организации - совместная деятельность, общность интересов и меха-
низм функционирования.
4
Активность (способность к целенаправленному поведению)
участников описывается их возможностью самостоятельного при-
нятия решений – выбора стратегий, влияющих на состояния (ре-
зультаты деятельности, выигрыши и т.д.) всех участников. Пред-
почтения участников на множестве их состояний, как правило,
описываются целевыми функциями, ставящими в соответствие
стратегиям участников1 их выигрыши. Рациональность поведения
участников – стремление к максимизации своей целевой функции –
отражается, в зависимости от их информированности (той инфор-
мации, которой они обладают на момент принятия решений о
выбираемой стратегии2) и порядка функционирования ОС (последо-
вательности получения информации и выбора стратегий), в исполь-
зуемой концепции равновесия: в большинстве случаев считается,
что, действуя некооперативно (в настоящей работе рассматривают-
ся только некооперативные модели), то есть, выбирая свои страте-
гии одновременно и независимо, игроки должны оказаться в точке
Нэша (или Байеса - в зависимости от принятого описания и введен-
ных предположений) [26, 27, 31, 61, 65, 67, 86].
Рассмотрим взаимодействие между одним агентом и одним
центром, находящимся на следующем (более высоком относитель-
но агента) уровне иерархии. Простейшая3 ОС ?, включающая этих
1
Целевые функции могут зависеть не только от стратегий участников
ОС, но и от неопределенных или неконтролируемых ими факторов. Моде-
ли ОС, функционирующих в условиях неопределенности, описаны в [62]. В
настоящей работе рассматриваются детерминированные модели, в
рамках которых участники ОС принимают решения в условиях полной
информированности о всех существенных внешних и внутренних пара-
метрах.
2
Относительно понятия "стратегия" следует сделать следующее тер-
минологическое замечание. В узком смысле стратегия - предмет и ре-
зультат выбора игрока, в широком смысле - правило, по которому игрок
осуществляет свой выбор (то есть отображение его информированно-
сти во множество допустимых выборов). В настоящей работе мы будем
по умолчанию использовать понятие стратегии в первом (узком) его
смысле.
3
Детерминированная организационная система, состоящая из одного
агента и одного центра, производящих однократно выбор своих страте-
гий, действительно является "точкой отсчета", то есть базовой моде-
лью как в теории активных систем, так и в теории иерархических игр и в
5
двух участников, описывается совокупностью множеств допусти-
мых стратегий центра и агента (U и A соответственно) и их целе-
выми функциями (?(?) и f(?) соответственно), то есть
? = {U, A, ?(?), f(?)} (см. конкретизацию информированности и
порядка функционирования ниже).
Целевые функции (предпочтения) участников в общем случае
n
являются векторными, то есть ?: U ? A > ?n ? , f: U ? A > ? f ,
где n? ? 1 и nf ? 1 - соответствующие размерности. В целях удобст-
ва записи скалярные предпочтения (n? = 1, nf = 1) будем иногда
r
обозначать ? и f, а векторные (n? ? 2, nf ? 2) – соответственно ? и
r
f.
Множества допустимых стратегий также могут быть много-
мерными, то есть A ? ?n A , nA ? 1, u = (u1, u2, …, un u ), nu ? 1.
r
Векторное управление1 (nu ? 2) будем обозначать u , скалярное
(nu = 1) управление – u.
Сделав маленькое отступление, отметим, что двухуровневыми
расширениями описываемой базовой модели являются многоэле-
ментные ОС, в которых имеется более одного агента: n > 1 (здесь и
далее n обозначает число агентов), и двухуровневые ОС с несколь-
кими центрами2: k > 1 (здесь и далее k обозначает число центров).

теории контрактов, и обычно изучение более сложных классов моделей
начинается с обсуждения их отличий от базовой. Расширениями базовой
модели являются многоэлементные [63], многоуровневые [59], динамиче-
ские и др. ОС, не рассматриваемые подробно в настоящей работе.
1
В большинстве рассматриваемых в настоящей работе теоретико-
игровых моделей управление является функцией от стратегии управляе-
мого субъекта. В этом случае под скалярным управлением понимается
функция, принимающая значения из ?1, а под векторным управлением -
вектор-функция.
2
Несколько забегая вперед, отметим, что критерием отнесения субъек-
та к множеству центров или множеству агентов, является информиро-
ванность, порядок функционирования и ограничения на допустимые
множества - центр является метаигроком, наделенным правом первого
хода и, следовательно, имеющим право выбирать свою стратегию в виде
функции от стратегии агента, делающего свой ход вторым (см. также
общее описание и классификацию иерархических игр в [31, 34, 45]).
6
В работах [72, 73] было предложено называть ОС, в которых
каждый агент подчинен одному и только одному центру, ОС с
унитарным контролем, а ОС, в которых хотя бы один агент подчи-
нен одновременно двум центрам – ОС с распределенным контро-
лем (ОС РК).
В более общем случае в класс ОС РК можно условно включить
ОС с векторными предпочтениями участников, ОС с многомерны-
ми множествами допустимых стратегий и т.д. Именно ОС РК в
этом (расширенном) смысле и являются предметом исследования в
настоящей работе.
Частным случаем ОС РК являются ОС с межуровневым взаи-
модействием, в которых агент подчинен одновременно двум цен-
трам, находящимся на разных уровнях иерархии [59]. Обобщением
ОС РК являются сетевые структуры управления, в которых отсут-
ствует ярко выраженная иерархия и древовидность отношений
подчинения [59]. Подробное рассмотрение сетевых структур
управления выходит за рамки предмета исследования настоящей
работы (краткое их описание приводится в третьем разделе на-
стоящей работы) и является перспективным предметом будущих
исследований.
Примеры различных структур управления (линейной, матрич-
ной и сетевой) и составляющих их элементов (соответственно -
прямая, треугольная и ромбовидная структуры) приведены на
рисунках 1-3 (вертикальные связи между соседними уровнями в
рамках древовидной структуры обозначены тонкими линиями,
взаимодействие (игра) центров - горизонтальные связи между
управляющими органами - обозначены жирными линиями, межу-
ровневое взаимодействие обозначено двойными линиями).
Стандартным порядком функционирования одноэлементной1
ОС назовем следующий – центры выбирают одновременно свои
стратегии (u1, u2, …, uk), являющиеся функциями от будущего
выбора агента, то есть ui = u i(y), i = 1, k , k ? 1, и сообщают их
?
агенту. Агент при известном управлении выбирает свою стратегию
– действие y ? A, которое становится известным центрам. Множе-
ство действий агента, доставляющих при фиксированном управле-

1
В настоящей работе исследуются одноэлементные ОС РК. Специфика
многоэлементных ОС подробно описана в [21, 58, 63].
7
нии "максимум" его целевой функции1, называется множеством
решений игры или множеством действий, реализуемых данным
управлением.

Ц Ц




Аi Аi
А1 А2 An
… …

Рис. 1. Линейная структура управления и ее элемент
(прямая структура управления)




Цk
Ц1 Цj
Ц2 … … Ц1 Ц2




Аi
Аi
А1 А2 An
… …

Рис. 2. Матричная структура управления и ее элемент
(треугольная структура управления)

1
Употребление кавычек обусловлено следующими причинами. Во-первых,
если не оговорено особо (и если на этом не надо акцентировать внимание
читателя), будем считать, что все максимумы и минимумы достигают-
ся (в противном случае будут использоваться соответственно Sup и Inf).
Во-вторых, не всегда понятно, что означает "максимум" векторной
функции, поэтому до тех пор, пока соответствие рационального выбора
участника ОС РК не введено корректно (см. ниже), будем ограничивать-
ся интуитивным пониманием рационального поведения.
8
Ц Ц




Цk
Ц1 Цj
Ц2 … … Ц1 Ц2




Аi
Аi
А1 А2 An
… …

Рис. 3. Сетевая структура управления и ее элемент
(ромбовидная структура управления)


При этом стандартная информированность участников сле-
дующая: центрам и агенту на момент принятия решений известна
модель ОС ?, кроме того агенту известны стратегии центров. В
ходе дальнейшего изложения, если не оговорено особо, по умолча-
нию будем считать, что имеют место стандартные информирован-
ность и порядок функционирования.
В ОС с унитарным контролем, то есть в системе, в которой
имеется единственный управляющий орган, эффективностью
управления (гарантированной эффективностью управления) назы-
вается "максимальное" ("минимальное") значение целевой функции
центра на множестве решений игры. Следовательно задача управ-
ления заключается в поиске допустимого управления, имеющего
максимальную (или максимальную гарантированную) эффектив-
ность.
Теоретико-игровые модели управления исследовались в ос-
новном для ОС с унитарным контролем (исключениями, описы-
9
вающими частные случаи, являются работы [31, 38, 39, 59, 72,
73, 87]), поэтому в настоящей работе предпринимается попытка
систематического исследования ОС РК. Изложение имеет следую-
щую структуру. В первом разделе вводится система классификаций
ОС РК и выделяется совокупность базовых моделей, которые под-
робно исследуются во втором разделе. Следует отметить, что изло-
жение ведется индуктивно – последовательно от самой простой
модели (раздел 2.1) к наиболее общей (раздел 2.5), что позволяет
наиболее отчетливо представить специфику ОС РК. Раздел 3 со-
держит описание обобщения ОС РК - сетевых структур управления,
а также постановку и обсуждение задачи синтеза оптимальной
структуры ОС, решаемой на основании исследования сетевого
взаимодействия участников ОС. В заключении обсуждаются ос-
новные результаты и перспективы дальнейших исследований.


1. СИСТЕМА КЛАССИФИКАЦИЙ
МОДЕЛЕЙ ОРГАНИЗАЦИОННЫХ СИСТЕМ
С РАСПРЕДЕЛЕННЫМ КОНТРОЛЕМ

Соответственно перечисленным во введении специфическим
характеристикам ОС с распределенным контролем, можно выде-
лить следующие основания системы их классификаций (в скобках
приводятся возможные значения признаков классификации):
- множество допустимых действий АЭ (одномерное – nA = 1,
многомерное – nA ? 2);
r
- целевая функция АЭ (скалярная – f, векторная – f );
- число центров (один – k = 1, несколько – k ? 2);
- управление со стороны центров (скалярное – u, векторное –
r
u ).
Перечисляя все возможные комбинации значений признаков
системы классификаций1, получаем шестнадцать базовых моделей
ОС РК, описание которых приведено на рисунке 4 и в таблице 1.


1
Список оснований системы классификаций может быть расширен,
например, за счет рассмотрения возможности наличия у центра вектор-
ных предпочтений, однако, учет последних производится по аналогии с
10
ОС




Рис. 4. Система классификаций ОС РК




учетом векторных предпочтений агента, поэтому предпочтения центра
считаются скалярными (см. предположение А.0 ниже) и т.д.
11
Модель Множество Целевая Число Управ-
допустимых функция центров ление
действий агента агента
РК1 nA = 1 f k=1 u
r
РК2 u
nA = 1 f k=1
k?2
РК3 nA = 1 f u
r
k?2
РК4 u
nA = 1 f
nA ? 2
РК5 f k=1 u
r
nA ? 2
РК6 u
f k=1
nA ? 2 k?2
РК7 f u
r
nA ? 2 k?2
РК8 u
f
r
nA ? 2
РК9 k=1 u
f
r r
nA ? 2
РК10 u
k=1
f
r
nA ? 2 k?2
РК11 u
f
r r
nA ? 2 k?2
РК12 u
f
r
РК13 nA = 1 k=1 u
f
r r
РК14 u
nA = 1 k=1
f
r
k?2
РК15 nA = 1 u
f
r r
k?2
РК16 u
nA = 1 f

Таб. 1. Базовые модели ОС РК

Из введенной выше системы классификаций видно, что шест-
надцать базовых моделей ОС РК (условно обозначенных РК1 –
РК16) не являются "независимыми": модель РК12 является
наиболее общей, включающей все остальные модели в качестве
частных случаев. При этом простейшей моделью (базовой моделью
ТАС) является модель РК1, в которой собственно распределенный
контроль отсутствует. Процесс генерации моделей ОС РК (в
порядке усложнения) можно представить следующим образом (см.
12
усложнения) можно представить следующим образом (см. рисунок
5).
В модели РК1 (условно назовем ее моделью нулевого уровня
сложности) агент имеет скалярные множество допустимых дейст-
вий и предпочтения и управляется единственным центром, страте-
гии которого также скалярны. При изменении одного из четырех
параметров, описывающих ОС РК (A, f, k, u), модель РК1 "превра-
щается", соответственно в модели РК5, РК13, РК3 и РК2 (на рисун-
ке 5 переходы изображены стрелками, около которых стоит та
переменная, которая изменяется при данном переходе), которые
условно назовем моделями первого уровня сложности. Из четырех
моделей первого уровня сложности можно, изменяя значения
одного из неизмененных параметров, получить шесть различных
моделей второго уровня сложности (РК9, РК7, РК6, РК15, РК14,
РК4). Изменяя в последних по одному из двух неизмененных (по
сравнению с моделью РК1) параметров, получим четыре модели
третьего уровня сложности – РК11, РК10, РК8, РК16. И, наконец,
изменяя в них единственный неизмененный до сих пор параметр,
получаем одну (наиболее общую) модель четвертого уровня слож-
ности – РК12. Таким образом, классы моделей ОС РК различного
уровня сложности образуют иерархию, представленную на рисунке
5.
Приведенные на рисунке 5 отношения между базовыми моде-
лями ОС РК позволяют систематизировать их изучение, поэтому во
втором разделе последовательно рассматриваются базовые модели
в порядке увеличения уровня сложности их класса – от нулевого
(модель РК1) к максимальному (модель РК12).
Следует отметить, что не все шестнадцать определенных выше
базовых моделей ОС РК как одинаково сложны для теоретического
анализа и необходимы для последовательного перехода от более
простых моделей к более сложным, так и представляют одинако-
вый интерес с точки зрения практических приложений. Как будет
видно из последующего изложения, так как в ОС РК имеются два
наиболее ярких свойства - наличие игры центров и векторные
предпочтения агента, характерными являются четыре модели:
РК 1, РК 3, РК 14 и РК 16, выделенные на рисунке 5 жирными
линиями.


13
РК1

f
A k u




РК5 РК13 РК2
РК3

A
u k
f f f
k k u
A A
u




РК7 РК6 РК15
РК9 РК4
РК14




k f f
u
A k k f
u
A A u

РК11 РК10 РК8 РК16


f
k
u A



РК12



Рис. 5. Иерархия классов базовых моделей ОС РК


14
Объяснение сделанным акцентам следующее: модель РК 1, яв-
ляясь моделью ОС с унитарным контролем, есть та точка отсчета, с
которой сравниваются в процессе индуктивного усложнения все
модели ОС РК; в модели РК 3 впервые появляется игра центров; в
модели РК 14 впервые появляются векторные предпочтения агента,
а в модели РК 16 - одновременно имеют место как игра центров,
так и векторные предпочтения агента.
Несколько забегая вперед, можно сделать следующие качест-
венные выводы. Во-первых, размерность множеств допустимых
стратегий участников ОС не является существенным фактором - с
теоретической точки зрения большинство результатов выглядят
одинаково и для одномерных, и для многомерных множеств1,
различие обусловлено лишь тем, что отличаются содержательные
интерпретации (например, формулировка задачи стимулирования
возможна не для всех комбинаций признаков, различающих базо-
вые модели – см. раздел 2). Во-вторых, наличие векторных пред-
почтений агента вызывает значительные трудности в основном в
силу того, что понятие рационального выбора в этой ситуации
неоднозначно с точки зрения теории принятия решений. И, нако-
нец, в третьих, наиболее интересные (с субъективной точки зрения
авторов) эффекты в ОС РК (по сравнению с ОС с унитарным кон-
тролем) возникают при наличии нескольких центров, которые
вовлечены в игру на этапе согласованного определения управле-
ний. Перейдем к последовательному описанию базовых моделей
ОС РК.




1
Все результаты, полученные для модели РК 1 справедливы и в модели
РК 5, для модели РК 13 - в модели РК 9, для модели РК 3 - в модели РК 7,
для модели РК 2 - в модели РК 6 и т.д. - см. рисунок 5 и раздел 2.
15
2. ИССЛЕДОВАНИЕ БАЗОВЫХ МОДЕЛЕЙ
ОРГАНИЗАЦИОННЫХ СИСТЕМ
С РАСПРЕДЕЛЕННЫМ КОНТРОЛЕМ

2.1. Модель организационной системы
с унитарным контролем (модель РК1)

Рассмотрим базовую модель организационной системы с уни-
тарным контролем – модель РК1. Отметим, что данная модель
является базовой для теории активных систем (и собственно рас-
пределенный контроль в ней отсутствует) - с ее изучения начинает-
ся исследование всех моделей ОС (многоэлементных, многоуров-
невых, динамических и т.д.), то есть она является той "точкой
отсчета", с которой сравниваются более сложные модели, обла-
дающие соответствующей спецификой.
В общем случае модель одноэлементной, статической, двух-
уровневой ОС описывается заданием целевых функций и допусти-
мых множеств участников системы – центра и агента (активного
элемента (АЭ) в терминах ТАС), то есть ? = {?(?), f(?), U, A}, а
также информированностью участников и порядком функциониро-
вания.
Относительно информированности и порядка функционирова-
ния предположим следующее1. На момент принятия решений и
центр, и агент имеют полную и достоверную информацию относи-
тельно ? (условно этот этап отражен "нулевым" шагом на рисунке
6). Центр выбирает свою стратегию u ? U, являющуюся функцией
?
от действия агента2, то есть u = u (y), и сообщает ее агенту (первый
шаг). Затем агент при известной ему стратегии центра выбирает
свое действие y ? A (второй шаг), которое наблюдается центром и
определяет значения целевых функций участников: ?(u, y) и f(u, y)
(третий шаг - см. рисунок 6).


1
Напомним, что выше было введено предположение о том, что имеют
место стандартные порядок функционирования и информированность,
которые иллюстрируются рисунком 6.
2
Отметим, что в настоящей работе символ "^" над стратегией центра
обозначает, что рассматривается функция от стратегий агента.
16
Ц Ц Ц
Ц

?(u, y)
?(?) f(?)
u y
A
U
f(u, y)

АЭ АЭ АЭ
АЭ

1-ый шаг 2-ой шаг 3-ий шаг
0-ой шаг

Рис. 6. Стандартный порядок функционирования ОС


Относительно целевой функции центра ниже всюду, то есть
при рассмотрении всех моделей ОС РК, считается, что выполнено
следующее предположение1.
А.0. Целевая функция центра (центров в моделях с нескольки-
ми управляющими органами) скалярна: ?: U ? A > ?1.
Модель РК1, обозначаемая ?РК1, характеризуется наличием од-
ного центра, выбирающего скалярные управления, то есть
u : A > ?1, а также скалярным множеством допустимых действий
?
агента и скалярными предпочтениями агента. Таким образом,
?РК1 = {nA = 1, f, k = 1, u}, то есть модель РК1 описывается игрой Г2
(в терминологии теории иерархических игр (ТИИ) [31, 33, 45])2.
Будем считать, что при выборе стратегий участники следуют
гипотезе рационального поведения, то есть выбирают соответст-
вующие стратегии, стремясь максимизировать значение своей
целевой функции. Это, в частности, означает, что агент выбирает




1
Возможность наличия векторных предпочтений центра описывается
по аналоги с тем как это делается ниже для агента.
2
Далее по "игрой" будем понимать игру типа Г2 или ее модификации.
17
одно из действий, реализуемых управлением u ? U, назначенным
центром, то есть y ? P(u), где1
(1) P(u) = Arg max f(u, y).
y? A
Напомним, что множество P(u) называется множеством реше-
ний игры, или множеством действий, реализуемых данным управ-
лением.
Для определения эффективности управления необходимо до-
определить рациональный выбор агента, то есть указать то кон-
кретное его действие, на выбор которого рассчитывает центр при
использовании управления u ? U. Среди возможных подходов
наиболее распространены два "предельных" – гипотеза благожела-
тельности (ГБ), в рамках которой считается, что агент выбирает из
множества решений игры наиболее благоприятное для центра
действие, и принцип максимального гарантированного результата
(МГР), в соответствии с которым центр вправе рассчитывать на
выбор агентом наихудшего (с точки зрения центра) реализуемого
действия.
Следовательно, в рамках ГБ можно определить эффективность
управления K(u) (соответственно, в рамках МГР – гарантирован-
ную эффективность управления Kg(u)) как максимальное (мини-
мальное) по множеству решений игры значение целевой функции
центра:
(2) K(u) = max ?(u, y),
y?P ( u )
(3) Kg(u) = min ?(u, y).
y?P ( u )
Задача управления (задача синтеза оптимальных управлений)
заключается в выборе допустимых управлений, имеющих макси-
мальную эффективность (или максимальную гарантированную
эффективность):
(4) K(u) > max ,
u?U
(5) Kg(u) > max .
u?U


1
В настоящей работе принята независимая внутри каждого подраздела
нумерация формул.
18
Обозначим максимальные значения функционалов (4) и (5) со-
ответственно:
(6) K* = max max ?(u, y)
u?U y?P ( u )
и
min ?(u, y),
(7) Kg* = max
y?P ( u )
u?U
а оптимальные управления соответственно:
(8) u* = arg max max ?(u, y)
u?U y?P ( u )
и
min ?(u, y).
(9) ug* = arg max
y?P ( u )
u?U
Управление u? ? U называется ?-оптимальным, если выполне-
но:
K* - K(u?) ? ?, ? ? 0.
Аналогичным образом определяется гарантированная ?-
оптимальность. Понятно, что если на величину ? не наложить
никаких ограничений, то при минимальных предположениях для
любого допустимого управления в рамках ГБ найдется такое значе-
ние ? ? 0, что это управление будет ?-оптимальным [52, 60, 66].
Введем следующее предположение1:
А.1. Функции ?(?) и f(?) непрерывны на компактах U и A.
Стратегия наказания uн агента центром соответствует мини-
мизации целевой функции агента по стратегии центра:
?
(10) f( uн (y), y) = min f(u, y).
u?U
Абсолютно оптимальная стратегия центра u0 соответствует
максимизации его целевой функции по собственной стратегии:
?
(11) ?( u0 (y), y) = max ?(u, y).
u?U



1
Отметим, что предположение А.1 не подразумевает "скалярности"
множеств допустимых стратегий участников ОС, то есть результаты
теорем 1-4, приводимых ниже, имеют место и для векторных действий
агента, и для векторных управлений центра, однако при этом предпоч-
тения участников считаются скалярными.
19
Следуя терминологии и обозначениям [31], введем некоторое
малое ? > 0 и следующие величины и множества: L - максимальное
гарантированное значение целевой функции агента:
?
(12) L = max f( uн (y), y);
y? A
E - множество действий агента, обеспечивающих ему получение
выигрыша не менее L:
?
(13) E = {y ? A | f( uн (y), y) = L};
D - множество пар стратегий центра и агента, при которых значе-
ние целевой функции агента строго превышает ее максимальное
гарантированное значение:
(14) D = {(u, y) ? U ? A | f(u, y) > L};
K1 - максимальное на множестве D значение целевой функции
центра:
? sup ? (u, y ), D ? ?
?
(15) K1 = ?( u , y )?D ;
? ? ?, D=?
?
K2 - максимальное на множестве E значение целевой функции
центра:
(16) K2 = min max ?(u, y);
y?E u?U
(u?, y?) ? D ? ? - пара ?-оптимальных стратегий центра и агента:
(17) ?(u?, y?) ? K1 - ?.
Решение задачи (5) дается следующей теоремой.
Теорема 1 [31, 33]. Пусть выполнено предположение А.1. То-
гда Kg* = max {K1, K2} - ?, ? > 0, а стратегия
?u? , если y = y? , K1 > K 2
?
(18) u? = ? u0 , если y ? E , K1 ? K 2
*

?u , в остальных случаях

является гарантированно ?-оптимальной стратегией центра.
Введем в рассмотрение множество D0 - множество пар страте-
гий центра и агента, при которых значение целевой функции агента
не меньше ее максимального гарантированного значения:
(19) D0 = {(u, y) ? U ? A | f(u, y) ? L}.


20
Очевидно, ? y ? E (uн, y) ? D0. Решение задачи (4) дается сле-
дующей теоремой.
Теорема 2а [31, 33]. Пусть выполнено предположение А.1 и ГБ.
Тогда
(20) K* = max ?(u, x),
( u , x )?D0
а стратегия
?u * , если y = x *
˜
(21) u = ?
*
,
?uн , если y ? x
*

где
˜
(22) ( u * , x*) = arg ?(u, y)
max
( u , y )?D0
является оптимальной стратегией центра.
Величина x* ? A, фигурирующая в утверждении теоремы 2а,
является планом - желательным с точки зрения центра состоянием
агента [17-19, 23, 53].
Содержательно результат теоремы 2а означает, что агент нака-
зывается в случае выбора им стратегии, отличной от плана, и по-
ощряется при выполнении плана. В последнем случае его выигрыш
не меньше того, что он мог бы получить при использовании цен-
тром стратегии наказания. Легко видеть, что x* ? P(u*), то есть план
x*, определяемый как решение задачи (19)-(22), является согласо-
ванным [23].
В теореме 2а оптимальное управление определялось на множе-
стве (19), то есть рассматривались пары управлений и действий
агента, обеспечивающие последнему выигрыш не менее макси-
мального гарантированного. Возможен альтернативный подход,
приводящий к тому же результату, который основывается на ис-
пользовании метода "минимальных затрат" центра на управле-
ние1. Этот метод заключается в следующем.



1
Не очень удачный термин "затраты" обусловлен тем, что впервые
этот метод использовался в задачах стимулирования, в которых управ-
ление интерпретировалось как затраты центра на стимулирование
агента [20, 82, 85].
21
Определим для каждого действия агента y ? A множество
U(y) ? U управлений, реализующих эти действия:
U(y) = {u ? U | y ? P(u)}.
Обозначим P(U) = U P (u ) ? A - множество тех действий агента,
u?U
которые могут быть реализованы при заданных ограничениях на
управление. Управление umin, реализующее заданное действие и
максимизирующее целевую функцию центра, называется "мини-
мальными затратами" центра на управление по реализации этого
действия: umin = arg max ?(u, y).
u?U ( y )
Теорема 2б. Пусть выполнено предположение А.1 и ГБ. Тогда
стратегия
?umin , если y = y *
*
=? u min ,
? uн , если y ? y
*

?
где y* = arg max ?( u min ( y ) , y), является оптимальной стратеги-
y?P (U )
ей центра1.
Доказательство. Докажем, что при использовании подхода
"минимальных затрат" на управление эффективность управления не
*
снижается, то есть покажем, что K( u min ) = K*.
Во-первых, в силу ГБ при использовании центром управления
*
u min агент выбирает действие y*. Во-вторых, так как по определе-
max ?(u, x), K( u min ) = ?( u min ( y * ) , y*),
*
?
нию имеет место K* =
( u , x )?D0

max ?(u, x) = ?( u min ( y * ) ), то
?
то достаточно показать, что
( u , x )?D0
max ?(u, x) = max max ?(u, y).
есть, что
( u , x )?D0 y?P (U ) u?U ( y )




1
Частный случай теоремы 2б (для задач стимулирования) доказан в
[46, 62].
22
Обозначим D' = {(u, y) ? U ? A | y ? P(U), u ? U(y)} - множест-
во пар стратегий центра и агента, по которым вычисляются макси-
*
мумы при определении эффективности управления u min .
*
Предположим противное, то есть пусть K( u min ) < K*, следова-
тельно должны найтись управление u* и действие x*, принадлежа-
щие множеству D0, доставляющие максимум по этому множеству
целевой функции центра и не принадлежащие множеству D'. Но
действие x* при этом непременно должно быть реализуемо, причем
именно управлением u*. Следовательно, (u*, x*) ? D' - противоре-
˜
чие. Более того, стратегии u * и umin, фигурирующие в теоремах 2а
и 2б соответственно, могут быть выбраны совпадающими. •1
Таким образом, в рамках ГБ для решения задачи синтеза опти-
мальных управлений возможно использование как результата
теоремы 2а, так и теоремы 2б. Во многих практически важных
частных случаях (см. ниже) применение теоремы 2б менее трудо-
емко и позволяет приводить более простые содержательные интер-
претации.
Проведем качественное обсуждение различий ГБ и принципа
МГР см. также теорему 4 ниже). Различие между утверждениями
теорем 1 и 2 (под теоремой 2 понимаются теоремы 2а и 2б) имеет
место, если для оптимального решения (22) выполнено f(u*, x*) = L
(в противном случае, то есть при f(u*, x*) > L, единственный опти-
мальный выбор агента – стратегия x*). В данном случае центр
сравнивает два механизма2 (см. теорему 1). В первом механизме
назначается ?-оптимальное управление, являющееся решением
задачи (15), (17) и гарантирующее агенту значение целевой функ-
ции строго большее, чем L. Эффективность этого механизма равна
K1. Во втором механизме центр побуждает агента выбрать одну из
стратегий из множества E и назначает абсолютно оптимальную при

1
Символ «•» здесь и далее обозначает окончание доказательства, приме-
ра и т.д.
2
Механизмом управления в широком смысле называется совокупность
методов, правил, процедур и т.д., регламентирующих взаимодействие
участников ОС. В узком смысле механизм управления – правило принятия
решений центром [23, 26, 61], то есть – стратегия центра в широком
смысле (см. выше).
23
этом выборе агента собственную стратегию. Эффективность этого
механизма равна K2. В обоих случаях центр предлагает агенту
выигрыш не менее L, угрожая использованием стратегии наказания.
Как следует из (18), центр выбирает механизм, обладающий наи-
большей эффективностью.
Результат теоремы 1 может быть упрощен при введении до-
полнительных предположений (обеспечивающих выполнение
K1 ? K2).
Следствие 3 [31, 33]. Если функция f(?) не имеет локальных
максимумов со значением L на U ? A и max f(u, y) > L, то
( u , y )?U ? A
стратегия
?u? , если y = y?
*
(23) u? = ?
?uн , если y ? y?
является гарантированно ?-оптимальной стратегией центра.
В частности, условия следствия 3 выполнены, если центр мо-
жет использовать побочные платежи, что достаточно распростра-
нено в прикладных моделях управления социально-
экономическими системами [23, 30, 62].
Напомним, что в игре с побочными платежами целевые функ-
ции центра и агента имеют соответственно вид:
??(u, z, y) = ?(u, y) - z, f?(u, z, y) = f(u, y) + z,
где z ? [0; С], С > 0, то есть z - выплаты центра агенту. При этом
стратегией центра является выбор пары (u, z), u ? U, z ? [0; С].
Если появляется возможность использования побочных плате-
жей, то множества L и E, стратегия наказания (uн, 0), абсолютно
оптимальная стратегия (u0, 0), а также значение K2, введенные
выше, не изменятся, а множество D и значение K1 примут соответ-
ственно вид:
(24) D(C) = {(u, z, y) | f(u, y) + z > L, 0 ? z ? C},
sup
(25) K1(C) = {?(u, y) - z} =
( u , z , y )?D (C )
min {?(u, y) ; ?(u, y) + f(u,y) - L},
max
=
( u, y )
f ( u , y ) ? L ?C




24
причем ?-оптимальной будет стратегия (23), где z? = ??(y),
??: A > [0; C], и 0 < ??(y?)<? ? C, а (u?, y?) определяется (15), (17)
[30, 31].
Таким образом, в игре с побочными платежами стратегией
?
центра является выбор {u = u ( y ) , z = ?(y)}, что позволяет исполь-
зовать простые стратегии типа (23).
Важным частным случаем рассматриваемой модели управле-
ния является модель стимулирования, описываемая игрой Г2 с
побочными платежами, в которой целевые функции ?(?) и f(?) не
зависят явным образом от управления u ? U (см. подробное описа-
ние и содержательные интерпретации в [46, 62], а также ниже).
Обозначим эту игру Г?. В модели стимулирования стратегия центра
z = ?(y) называется1 функцией стимулирования (механизмом сти-
мулирования, системой стимулирования - см. обсуждение термино-
логических различий в [62]), стратегия y ? A агента называется его
действием, а величина C > 0 – ограничением механизма стимули-
рования2.
Для двух практически важных случаев связь между гарантиро-
ванной оптимальностью и оптимальностью в рамках ГБ устанавли-
вается следующей теоремой (см. также результаты, приведенные в
[30, 31, 60]).
Теорема 4. Пусть выполнено предположение А.1 и (u*, x*) -
решение задачи (20), (21), имеющее в исходной игре Г2 с побочны-
ми платежами или без них в рамках ГБ эффективность K*. Тогда,
если выполнено одно из следующих условий:
1) z* = ?*(x*) < C;
2) исходная игра является игрой Г?,
то в соответствующей игре с побочными платежами (С > 0) суще-
* * * *
ствуют ? > 0 и ( u? , z? ) ? U ? [0; C] такие, что Kg( u? , z? ) ? K* - ?.




1
При рассмотрении моделей стимулирования зависимость от стратегии
центра в записи целевых функций ?(?) и f(?) будет опускаться.
2
Можно рассматривать и отрицательное по знаку стимулирование
(z ? 0) агента, которое может интерпретироваться как штрафы,
выплачиваемые центру.
25
Доказательство. Если P(u*) = {x*}, то, независимо от наличия
или отсутствия в исходной игре побочных платежей (условия 1 и 2
* *
не требуются!), выбрав u? = u*, z? = 0, получим, что
* *
Kg( u? , z? ) = K*.
Если ? y' ? x*, x*, y' ? P(u*) ? A, то есть f(u*, y') = f(u*, x*) и
?(u*, y') < ?(u*, x*), тогда возможно, что для ? > 0 выполнено
? (u, z) K* - Kg(u, z) > ?.
Если в исходной игре отсутствовали побочные платежи, то
* *
введем их, то есть построим стратегию ( u? , z? ) следующим обра-
зом1:
?? , y = x *
* *
= ?? (y) = ?
*
u? z?
(26) =u, ,
0, y ? x *
?
где ? ? (0; C] - произвольное (даже сколь угодно малое!) положи-
тельное число. Содержательно предельное значение K1(0) (см.
выражение (25)) есть реализация ГБ в исходной игре без побочных
платежей. Если в исходной игре имелись побочные платежи, удов-
летворяющие первому пункту условий теоремы, то есть
z* = ?*(x*) < C, то в (26) следует выбрать ??(x*) = ?*(x*) + ?, где
0 < ? ? C - ?*(x*).
* *
Если x* ? P(u*), то P( u? , z? ) = {x*}. При этом имеет место:
* *
Kg( u? , z? ) = K* - ?.
Осталось рассмотреть случай, когда в исходной игре, являю-
щейся игрой типа Г? (см. второй пункт условий теоремы), присут-
ствовали побочные платежи, причем z* = ?*(x*) = C (иначе попада-
ем в условия уже доказанного первого пункта условий теоремы)2.


1
Содержательно в (26) производится увеличение степени централизации
механизма управления (см. определения и обсуждение в [17-19, 23, 44]). В
ТАС известен следующий результат: на множестве согласованных
механизмов управления оптимален механизм с максимальной степенью
централизации [23].
2
Более общий случай (когда исходная игра не является игрой типа Г?)
обсуждается в [31].
26
В задаче стимулирования целевые функции центра и агента
имеют соответственно вид:
(27) ??(z, y) = ?(y) - z,
(28) f?(z, y) = f(y) + z.
Фиксируем некоторое малое ? > 0 и введем в рассмотрение
следующие множества:
(29) B(x*, ?) = {y ? A | ?(x*) - ?(y) ? ?},
(30) P(C) = {y ? A | f(y) ? L - C}.
Если функции ?(?) и f(?) монотонны, то в силу предположения
А.1 B(x*, ?) и P(C) – замкнутые множества.
Сделав маленькое отступление, отметим, что содержательно
B(x , ?) - множество таких действий агента, на которых значение
*

функции ?(?) меньше, чем максимальное значение в исходной игре
не более, чем на ?, то есть, если при некотором y' ? B(x*, ?)
?(y') = C, то значение целевой функции центра не меньше, чем K* -
?, причем в силу того, что рассматривается случай, при котором
выполнено z* = ?*(x*) = C, последнее значение равно ?(x*) - C - ?.
Множество P(C) представляет собой множество таких действий
агента, которые обеспечивают ему значение функции f(?) не мень-
шее, чем L. Как мы увидим в дальнейшем (см. также выражения
(19) и (25)) в задаче стимулирования множество P(C) есть макси-
мальное множество действий агента, реализуемых при данном
ограничении C механизма стимулирования. Вернемся к доказатель-
ству.
? ? ? (0; C]
Из предположения А.1 следует, что
x ? B(x , ?) ? P(C) ? ?.
* *

? ? ? (0; C], ? y ? B(x*, ?) ? P(C)
Если выполнено
f(y) ? f(x ) = L - C, то z = 0 - противоречие. Таким образом
* *

? ? ? (0; C] ? y? ? B(x*, ?) ? P(C): f(y?) > f(x*). Отметим, что если
функция f(?) строго монотонна1, то в рамках предположения А.1,
величина ? может быть выбрана сколь угодно малой.




1
Достаточным является выполнение более слабого условия – отсутст-
вия у функции f(?) в точке x* локального максимума со значением L - C.
27
Используя систему стимулирования
?C , y = y?
*
(31) z? = ? ,
0, y ? y?
?
центр обеспечивает единственность точки максимума целевой
*
функции агента, то есть P( z? ) = {y?}.
Из (29) следует, что потери центра от реализации действия y?
по сравнением с действием x* не превышают ?, что и требовалось
доказать. •
Рекламный вариант теоремы 4 может быть сформулирован
следующим образом: 1) за счет увеличения или введения при их
отсутствии побочных платежей гарантированная эффективность
управления может быть сделана сколь угодно близкой к эффектив-
ности управления в рамках гипотезы благожелательности; 2) в
задаче стимулирования гарантированная эффективность управле-
ния может быть сделана сколь угодно близкой к эффективности
управления в рамках гипотезы благожелательности1.
Следствие 52. Пусть имеются две игры, отличающиеся лишь
ограничениями на размер побочных платежей, а побочные платежи
удовлетворяют следующему условию: C1 ? 0, C2 > C1. Тогда для
эффективностей управления в этих играх выполнено K1 ? K2.
Следствие 6. При отсутствии ограничений на размер побочных
платежей (C = +?) результат теоремы 4 справедлив без дополни-
тельных условий типа 1 или 2.
Теорема 4 имеет важное методологическое значение, так как
она устанавливает связь между эффективностью и гарантированной
эффективностью управления (понятно, что при выборе агентом
любого действия из множества P(u) эффективность управления
u ? U будет не выше оценки, даваемой выражением (2), и не ниже
оценки, даваемой выражением (3)). Из теоремы 4 также следует,
что в рамках введенных предположений для любого оптимального
в рамках ГБ управления существует сколь угодно мало отличаю-
1
За исключением случая, когда f(x*) = L - C и x* - точка локального макси-
мума.
2
Аналогичные утверждения, полученные в ТАС [23, 62], формулировались
следующим образом: с ростом ограничений механизма стимулирования
его эффективность не уменьшается.
28
щееся от него по эффективности гарантированно ?-оптимальное
управление. Поэтому результат теоремы 4 дает нам возможность
при рассмотрении моделей ОС РК ограничиться случаем гипотезы
благожелательности, то есть предполагать благожелательное отно-
шение агента к центру (следует отметить, что для случая несколь-
ких центров ГБ доопределяется ниже), так как отказ от ГБ, то есть
переход к методу МГР при определении выбора агента, слабо
изменяет эффективность управления, но иногда существенно за-
трудняет поиск решения (ср. для примера стратегии (21) и (18)).
Итак, в рамках достаточно общих предположений, отражаю-
щих специфику рассматриваемых задач управления, эффективность
управления (определяемая в рамках гипотезы благожелательности)
и гарантированная эффективность управления1 слабо отличаются
друг от друга (см. выражения (26), (29) и (31), в которых величина
?, аддитивно входящая в целевую функцию центра, может быть
выбрана сколь угодно малой). Поэтому в ходе дальнейшего изло-
жения результатов исследования теоретико-игровых моделей
ОС РК, если не оговорено особо, будем считать, что выполнена
гипотеза благожелательности, в рамках которой решение задачи
управления для базовой модели дается теоремой 2.
Чрезвычайно важным (как с теоретической - см. теорему 4, так
и с практической точек зрения2) частным случаем задачи управле-
ния ОС РК является задача стимулирования (см. определение вы-
ше). Поэтому при рассмотрении всех шестнадцати базовых моде-
лей ОС РК будем, наряду с общими теоретическими результатами
(которые иногда настолько сложны и громоздки, что не допускают
простых содержательных интерпретаций), рассматривать в качест-
ве примера модель стимулирования в соответствующей ОС.


1
Необходимо отметить, что речь идет о максимальных значениях
функционалов (2) и (3), достигаемых на вообще говоря различных управ-
лениях - см. обсуждение проблем устойчивости решений задач управлений
и адекватности моделей в [31, 43, 51, 52, 60, 66].
2
С теоретической точки зрения задача стимулирования представляет
интерес в частности потому, что для нее удается получить простое
аналитическое решение. С практической точки зрения она описывает
широкий класс прикладных задач мотивации, управления персоналом и
т.д. [37, 46, 62, 77, 80-85].
29
Задача стимулирования в модели РК1.
Для того, чтобы различать игру Г? как частный случай игры Г2
введем следующие определения: целевые функции участников ОС
имеют вид:
(32) ??(z, y) = ?(y) - z = W(?, y) = H(y) - ?(y),
(33) f?(z, y) = f(y) + z = w(?, y) = ?(y) - c(y),
где H(y) - функция дохода центра, c(y) - функция затрат агента (то
есть H(y) = ?(y), ?(y) = z (y), f(y) = -c(y)), удовлетворяющие сле-
?
дующему предположению.
А.2. A = ?1 , H(?) и c(?) - непрерывные строго возрастающие
+
функции, H(0) = c(0) = 0.
А.2'. A.2 и H(?) - вогнутая, c(?) - выпуклая дифференцируемые
функции.
Содержательно, действием агента могут являться число отра-
ботанных часов, объем выпуска и т.д. Доход центра и затраты
агента зависят от действия последнего, причем целевая функция
центра представляет собой разность между его доходом и стимули-
рованием – вознаграждением, выплачиваемым агенту, а целевая
функция агента – разность между стимулированием, полученным
от центра и затратами1.
Несколько забегая вперед отметим, что при рассмотрении за-
дач стимулирования2 под векторной целевой функцией агента
r
(случай f ) будем понимать векторную функцию затрат, то есть
n
c: A > ? f , nf ? 2. Аналогично, при векторных управлениях (слу-
r
чай u ) будем считать, что целевая функция центра скалярна и


1
Аддитивность" целевых функций подразумевает, что доход центра,
затраты агента и стимулирование измеряются в одних и тех же едини-
цах, например, в рублях или каких-либо условных единицах.
2
Необходимость доопределения того, что понимается под векторными
целевыми функциями и управлениями (то есть согласования различных
значений признаков оснований системы классификаций, введенной в
разделе 1.1) возникает из-за того, что выше предполагалось, что целевая
функция центра скалярна, а в задаче стимулирования управление адди-
тивно входит в целевые функции участников ОС, причем остальные
слагаемые не зависят от управления.
30
определяется суммарными затратами на стимулирование, опреде-
ляемыми следующим образом:
nA
?? i ( y) ,
?(y) =
i =1
где ?i(y) - стимулирование за i-ю компоненту вектора действий.
Введенные выше величины и множества в игре Г? имеют сле-
дующий вид:
?н(y) = 0; L = min c(y) = 0; E = {0}; K2 = 0.
y? A
Выражение (24) примет в игре Г? вид:
(34) D0(C) = {(?(y), y) | C ? ?(y) ? c(y)},
выражение (25) примет в игре Г? вид:
(35) K1(C) = max min {?(u, y) ; ?(u, y) + f(u,y) - L},
(? ( y ), y )
C ?? ( y ) ? c ( y )

выражение (30) примет в игре Г? вид:
(36) P(C) = {y ? A | с(y) ? С}.
В силу предположения А.2 эффективность управления (35)
равна:
(37) K1(C) = max {H(y) - c(y)},
y?P ( C )
оптимальное реализуемое действие y* равно1
(38) y*(C) = arg max {H(y) - c(y)},
y?P ( C )
а максимальное множество (36) реализуемых при заданных ограни-
чениях механизма стимулирования действий равно
(39) P(C) = [0; y+(C)],
где
(40) y+(C) = max {y ? A | c(y) ? C}.


1
Если выполнено предположение А.2', то выражение (38) может быть
dH ( y * ) dc( y * )
=
записано в виде: . Данное условие в экономике интер-
dy dy
претируется следующим образом: заработная плата является эффек-
тивной, если предельный продукт агента равен его предельной произво-
дительности [42, 46, 75].
31
Теорему 2 (см. выражения (24), (25)) для игры Г? сформулиру-
ем в виде отдельной теоремы, имеющей множество аналогов в
[31, 46, 62].
Теорема 7. Пусть выполнены предположения А.1, А.2 и ГБ.
Тогда система стимулирования
?c( y ), y = y * (C )
(41) ? (y) = ?
*
,
y ? y (C )
*
?0,
где y*(C) удовлетворяет (38), является оптимальной системой сти-
мулирования, эффективность которой определяется выражением
(37).
Легко видеть, что в рамках введенных предположений множе-
ство реализуемых действий состоит из двух точек, то есть
P(?*) = {0} ? {y*}.
В силу гипотезы благожелательности агент выбирает действие
y . Если ориентироваться на метод максимального гарантированно-
*

го результата, то гарантированная эффективность управления (41)
равна Kg(?*) = H(0) - c(y*) < K1(C). Используя систему стимулиро-
вания
?c( y ) + ? / 2, y = y?
(42) ??(y) = ? ,
y ? y?
? 0,
где ? > 0, y? ? B(y*, ?/2) ? P(С) в силу предположения А.2 и (29)
получаем, что Kg(??) ? K1(C) - ? (ср. с доказательством теоремы 4 - в
силу ). Строго положительная величина ? при этом может быть
выбрана сколь угодно малой.
Система стимулирования (41) в ТАС получила название квази-
компенсаторной (К-типа) [46, 61, 62]. Содержательно, ее использо-
вание означает компенсацию центром затрат агента в случае выбо-
ра последним наиболее предпочтительного для центра действия.
Система стимулирования
?C , y = x
(43) ?С(y) = ? ,
0, y ? x
?
где x ? P(C), получила название квазискачкообразной [46, 61, 62], а
система стимулирования
(44) ?L(y) = ? y,

32
где ? ? 0 получила название пропорциональной (или линейной)
системы стимулирования [46, 61, 62]. Понятно, что, если (41) -
оптимальная система стимулирования, то любые другие системы
стимулирования (в том числе – (43), (44)) имеют не большую эф-
фективность (см. оценки сравнительной эффективности различных
систем стимулирования в [46, 62]).
Теорема 7 является непосредственным следствием теоремы 4.
В то же время, для игры Г? можно доказать справедливость утвер-
ждения теоремы 7 используя специфику задачи стимулирования, то
есть не прибегая к использованию общих результатов, полученных
для игр типа Г2. Для этого введем следующее определение. Мини-
мальными затратами на стимулирование по реализации действия
y ? P(C) в классе допустимых систем стимулирования M (классом
систем стимулирования называется подмножество множества U:
например, класс пропорциональных систем стимулирования (с
параметром ? ? 0), класс скачкообразных систем стимулирования
(с параметром x ? P(C)) и т.д.) называется следующая величина:
?min(y) = min {?(y) | y ? P(?)}, то есть минимальное допустимое
? ?M
вознаграждение, которое побудит агента выбрать заданное дейст-
вие. Для тех действий, которые в рамках предположения А.2 не
могут быть реализованы в классе M, положим минимальные затра-
ты на стимулирование равными бесконечности: ?min(y) = +?,
y ? A \ P(С).
Минимальные затраты на стимулирование являются чрезвы-
чайно важным понятием. Их анализ позволяет решать задачу син-
теза оптимальной функции стимулирования, изучать свойства
оптимального решения и т.д. [61, 62]. Обозначим максимальную в
классе Mi ? M эффективность управления KMi = max K(?),
? ? Mi
i = 1, 2.
Теорема 8 [46, 61]. Пусть M1 ? M, M2 ? M - два класса допус-
?y?A
тимых систем стимулирования и выполнено:
?min1(y) ? ?min2(y). Тогда KM1 ? KM2.




33
Таким образом, эффективность стимулирования может быть
определена и через минимальные затраты на стимулирование,
причем имеет место (ср. с выражением (37)):
(45) KM = max {H(y) - ?min(y)},
y? A
то есть анализ минимальных затрат на стимулирование является
одним из эффективных методов решения задачи стимулирования,
которым мы неоднократно будем пользоваться в ходе дальнейшего
изложения.
Пример 1. Рассмотрим задачу стимулирования в ОС, в кото-
рой H(y) = y, c(y) = y2/2r, где r > 0 - параметр функции затрат
1

агента. Из выражений (34)-(41) следует, что в данном случае
? r, при r ? y + ( C )
2 rC , y (C) = ? +
+ *
y (C) = ,
y ( C ), при r ? y + ( C )
?
K1(C) = min {r/2, 2 rC /2},
причем оптимальный размер ограничения C механизма стимулиро-
вания, который может трактоваться как максимальная величина
фонда заработной платы (ФЗП), равен r/2 (что позволяет сделать
интересный с содержательной точки зрения вывод – увеличение
ФЗП свыше этой величины нецелесообразно).
Если центр использует принцип МГР и y* = y+(C), то, фиксируя
произвольное (сколь угодно малое!) ? > 0 и выбирая y? = y* - ?, при
использовании системы стимулирования
? C , y = y?
??(y) = ?
?0, y ? y?
центр реализует единственное действие агента – y?. Очевидно,
имеет место Kg(??) = y* - ? - C и K1(C) = y* - C, то есть разность
между эффективностью и гарантированной эффективностью
управлений ?* и ?? сколь угодно мала (равна ?). •


1
Как отмечалось выше, составляющие целевых функций участников ОС
измеряются в одних и тех же единицах, поэтому заменой переменных (и
соответствующим изменением допустимых множеств) иногда возмож-
но "линеаризовать" одну из функций – в рассматриваемом примере ли-
нейной считается функция дохода центра.
34
Таким образом, в настоящем подразделе мы привели (точнее –
в основном описали известные из литературы результаты) полное
решение задачи управления в базовой модели ОС РК, то есть в
модели РК1. Перейдем к систематическому1 исследованию расши-
рений базовой модели.




1
Понятно, что так как модель РК12 является наиболее общей из 16-ти
базовых моделей (см. раздел 1), то, исследовав ее, мы автоматически
получили бы решения задач управления для всех частных моделей. Однако
при таком подходе оказывается, что результаты получаются слишком
громоздкими (см. ниже) по сравнению с реализуемым индуктивным
подходом, учитывающим специфику той или иной модели по сравнению с
моделями предыдущего уровня сложности.
35
2.2. Модели первого уровня сложности

Рассмотрим класс моделей ОС РК первого уровня сложности,
отличающихся от базовой модели РК1 наличием одного и только
одного из присущих ОС с распределенным контролем характерных
признаков: либо векторного множества допустимых действий
агента (модель РК5), либо векторной целевой функции агента
(модель РК13), либо нескольких центров (модель РК3), либо век-
торных управлений (модель РК2). Так как специфика ОС РК впер-
вые проявляется именно при переходе от базовой модели к классу
моделей первого уровня сложности, рассматривать этот класс
моделей мы будем относительно подробно с тем, чтобы при иссле-
довании классов моделей более высоких уровней сложности иметь
возможность адаптированно использовать комбинации приведен-
ных в настоящем разделе результатов.


2.2.1. Модель РК2

Отличие модели РК2 от модели РК1 заключается в наличии
векторных управлений центра, предпочтительность которых оце-
нивается агентом по значениям скалярной функции полезности
(напомним, что во всех моделях, рассматриваемых в настоящей
работе, целевая функция центра считается скалярной), то есть
r
?РК2 = {nA = 1, f, k = 1, u }.
Все общие результаты, описанные в разделе 2.1 для модели
РК1, остаются в силе и для модели РК2 (напомним, что предполо-
жение А.1 заключалось в частности только в компактности допус-
тимых множеств, размерность которых не оговаривалась). Следова-
тельно, решение задачи синтеза оптимальных (гарантированно ?-
оптимальных) управлений для модели РК2 дается теоремой 2 (со-
ответственно - теоремой 1).
Для задач стимулирования векторное управление в модели РК2
соответствует нескольким поощрениям за одни и те же показатели
r
деятельности, то есть ? ( y ) = (?1(y), ?2(y), …, ? n u (y)), y ? A.



36
При этом суммарные затраты на стимулирование ?(y) опреде-
ляются следующим образом:
nu
?? i ( y) ,
(1) ?(y) =
i =1

стр. 1
(всего 4)

СОДЕРЖАНИЕ

>>