<<

стр. 2
(всего 6)

СОДЕРЖАНИЕ

>>

нулю (см. также системы стимулирования (1) и (3) в разделе 4.1).
Если же мы хотим, чтобы равновесие было единственным (в част-
ности, чтобы АЭ не выбирали нулевые действия), то элементам
следует доплатить сколь угодно малую, но строго положительную
величину за выбор именно того действия, которое предлагается
центром. Более того, величины {?i} в выражении (1) (и других
подобных конструкциях, встречающихся ниже при исследовании
модели S4 и др.) играют важную роль и с точки зрения устойчиво-
сти компенсаторной системы стимулирования (1) по параметрам
модели. Например, если функция затрат i-го АЭ известна с точно-
стью до ?i ? ?i / 2, то система стимулирования (1) все равно реали-
зует действие y* (см. доказательства и подробное обсуждение в
[37]).
Пример 3. Рассмотрим АС, состоящую из двух АЭ с функция-
( y i + y ?i ) 2
ми затрат ci(y) = , i = 1, 2. Легко проверить, что данные
2ri
функции затрат удовлетворяют условиям (2) и (3).
Единственность равновесия Нэша можно доказать непосредст-
венно следующим образом. Пусть центр использует систему сти-
мулирования (1) и имеются два различных равновесия Нэша: y* и
y'. Записывая определения равновесий Нэша, получаем, что должна
иметь место следующая система неравенств:




35



PDF created with FinePrint pdfFactory Pro trial version http://www.pdffactory
? '2 ' *
y1 y2
?( y1 ) + ( y 2 ) ? 2 y1 y 2 (1 ? ?
*2 *'
)
? * '
y1 y2
? ,
* '
y1 y2
? ( y ' ) 2 + ( y * ) 2 ? 2 y ' y * (1 ? ? )
?1 2 12 ' *
? y1 y2
которая несовместна, то есть, если выполнено первое неравенство,
то не выполнено второе, и наоборот. •
Вектор оптимальных реализуемых действий АЭ y*, фигури-
рующий в качестве параметра в выражении (1), определяется в
результате решения следующей задачи оптимального согласован-
ного планирования: y* = arg max {H(t) – c(t)}, а гарантированная
t?A?
эффективность системы стимулирования (1) равна следующей
n
? ( ci ( y * ) + ? i ) .
величине: K1 = H(y*) -
i =1
Теорема 4.2.2. Класс (с параметром y*) систем стимулирования
n
?? i .
(1) является ?-оптимальным в модели S2, где ? =
i =1
Доказательство. Теоремы 4.2.1а и 4.2.1б утверждают, что при
использовании систем стимулирования (1а) и (1б), соответственно,
действие y* является равновесием (Нэша или РДС). При ?i = 0, i ?
I, эта система стимулирования характеризуется минимально воз-
можными затратами на стимулирование1, следовательно, по теоре-
ме о том, что оптимальным является класс систем стимулирования,
реализующих действия с минимальными затратами на стимулиро-
вание [42, 44], класс систем стимулирования (1) имеет максималь-
ную эффективность в задачах стимулирования как первого, так и
второго рода.
При использовании системы стимулирования (1) затраты цен-
тра на стимулирование по реализации действия y* равны следую-

1
Напомним, что в силу предположений А.3 и А.4 центр должен обеспе-
чить АЭ неотрицательную полезность (условие индивидуальной рацио-
нальности гласит, что АЭ всегда имеет возможность выбрать нулевое
действие, которое даже при нулевом вознаграждении обеспечивает ему
нулевую полезность).
36



PDF created with FinePrint pdfFactory Pro trial version http://www.pdffactory
n
? ( ci ( y * ) + ? i ) .
щей величине:
i =1
Предположим, что существует другая система стимулирова-
ния, которая реализует то же действие y*, но с меньшими затратами
на стимулирование. Из условия индивидуальной рациональности
АЭ следует, что затраты на стимулирование по реализации вектора
n
? ci ( y * ) . Так как функция
действий y не могут быть меньше, чем
*

i =1
стимулирования входит в целевую функцию центра аддитивно, то
потери эффективности при использовании центром системы сти-
n
?? i . •
мулирования (1) не превышают ? =
i =1
Отметим, что при доказательстве теоремы 4.2.2 не использо-
валась сепарабельность затрат АЭ, то есть результат этой теоремы
справедлив, не только для модели S2, но и для ряда других моде-
лей АС с несепарабельными затратами (см. ниже).
Так как теорема 4.2.2 гласит, что оптимален класс систем сти-
мулирования (1), то есть оптимальная функция стимулирования
принадлежит этому классу, а сам класс задан параметрически (с
параметром – y*), то остается найти оптимальное значение пара-
метра. Другими словами, необходимо определить какое действие
следует центру реализовывать системой стимулирования (1).
Если на систему стимулирования, используемую центром, не
наложено никаких ограничений, то решение задачи стимулирова-
ния второго рода заключается в вычислении на основании (1)
n
?
минимальных затрат на стимулирование: ?(y ) = ci(y*) и поис-
*

i =1
ке вектора действий x ? A’, максимизирующего целевую функцию
*

центра: x* = arg max [H(y) - ?(y)].
y?A'
Если на функции стимулирования наложено следующее огра-
ничение ? ? M, то на первом шаге решения задачи стимулирования
необходимо найти множество действий АЭ, реализуемых система-
ми стимулирования вида (1), при заданных ограничениях. Делается
это следующим образом: ищется множество действий АЭ AM,
37



PDF created with FinePrint pdfFactory Pro trial version http://www.pdffactory
затраты от выбора которых после подстановки в (1) не нарушают
ограничений на стимулирование: AM = {y*?A’ | ? i?I ?i(y*, yi) ? Mi,
y* ? P(?)}. Второй шаг решения задачи остается без изменений
(необходимо только учесть, что максимизация ведется по множе-
ству AM):
x * = arg max [H(y) - ?(y)].
M
y?AM
Рассмотрим пример, иллюстрирующий использование пред-
ложенного подхода.
Пример 4. Рассмотрим задачу стимулирования первого рода в
( y i + ? y ?i ) 2
АС с двумя АЭ, имеющими функции затрат: ci(y) = ,
2ri
i=1, 2, где ? - некоторый параметр. Пусть функция дохода центра
H(y) = y1 + y2, а фонд заработной платы ограничен величиной R
(глобальное ограничение). Если центр использует систему стиму-
лирования (1), то задача стимулирования первого рода сводится к
поиску оптимальных реализуемых действий:
? H ( y ) > max
y ?0
(5) ? .
c1 ( y ) + c2 ( y ) ? R
?
Предполагая существование внутреннего решения и применяя
метод множителей Лагранжа, получаем, что решение задачи (5)
имеет вид:
2 R ? r2 ? r1 2 R ? r1 ? r2
* *
(6) y1 = , y2 = .
r1 + r2 ? ? 1 r1 + r2 ? 2 ? 1
2

Отметим, что при ?=0 выражение (6) переходит в оптималь-
ное решение, полученное в примере 1 для модели S1M. •
В заключение настоящего подраздела отметим, что чрезвы-
чайно интересным и перспективным направлением будущих ис-
следований представляется изучение модели S2 в предположении
возможности образования коалиций активными элементами. До-
пущение кооперативного поведения, несомненно, породит новые
свойства модели (и, естественно, новые трудности ее анализа),
однако, как отмечалось выше, их рассмотрение выходит за рамки
настоящей работы.
38



PDF created with FinePrint pdfFactory Pro trial version http://www.pdffactory
4.3. МОДЕЛЬ S3: СТИМУЛИРОВАНИЕ АЭ ЗАВИСИТ ОТ
ДЕЙСТВИЙ ВСЕХ АЭ, ЗАТРАТЫ СЕПАРАБЕЛЬНЫ

Предположим, что индивидуальные затраты i-го АЭ зависят
только от его собственных действий: ci = ci(yi) (случай сепарабель-
ных затрат). Тогда при заданной системе коллективного (то есть –
зависящего от действий всех АЭ) стимулирования ? = {?i(y)}
множество решений игры P(?) АЭ является множеством EN(?)
равновесий Нэша, определяемым следующим образом:
(1) EN(?) = {y* ? A' | ? i?I, ? yi?Ai ?i(y*) - ci(yi*) ? ?i(y-i*, yi,) - ci(yi)}.
Суммарные затраты центра на стимулирование равны:
n
?? i ( y) .
(2) ?(y,?) =
i =1
Обозначим ?min(y), y ? A’ - значение целевой функции в сле-
дующей задаче:
?? ( y ,? ) > min
? ?M .
(3) ?
y ?E N (? )
?
Если для некоторого y' ? A' решения задачи (3) не существует,
то положим ?min(y') = +?. Содержательно, ?min(y) - минимальные
затраты на стимулирование по реализации действия y ? A'. Вычис-
лив минимальные затраты на стимулирование, можно определить
действие, реализация которого наиболее выгодна для центра, то
есть максимальная эффективность коллективного стимулирования
в данной модели в рамках гипотезы благожелательности равна:
(4) K = max {H(y) - ?min(y)}.
y? A?
Решение задачи (2)-(4) чрезвычайно трудоемко с вычисли-
тельной точки зрения, и даже для простых примеров редко удается
получить ее аналитическое решение. Поэтому рассмотрим возмож-
ности «упрощения» этого класса задач стимулирования, то есть
сведения их к более простым с точки зрения, как процесса реше-
ния, так и исследования зависимости оптимального решения от
параметров модели, задачам.
Перейдем к рассмотрению индивидуального стимулирования.
˜ ˜
˜ ˜
Обозначим ? (y) = ( ? 1 (y1), ? 2 (y2), ..., ? n (yn)) - систему индивиду-
39



PDF created with FinePrint pdfFactory Pro trial version http://www.pdffactory
ального стимулирования. При использовании индивидуального
n
стимулирования множество решений игры есть P(? )= ? Pi (? i ) ,
˜
˜
i =1
где
˜ ˜
(5) Pi( ? i ) = Arg max { ? i (yi) - ci(yi)}.
y i ? Ai
Суммарные затраты на индивидуальное стимулирование рав-
ны:
n
˜˜
?? i ( y i ) .
(6) ? ( ? ,y) = ˜
i =1
˜
Обозначим ?min (y), y ? A’ - значение целевой функции в сле-
дующей задаче:
˜˜
?? (? , y ) > min
(7) ? ˜
? ?M .
˜
? y ? P(? )
Если для некоторого y' ? A' решения задачи (7) не существует,
˜
то положим ?min (y') = +?. Максимальная эффективность индиви-
дуального стимулирования в модели S3 в рамках гипотезы благо-
желательности равна:
˜
˜
(8) K = max {H(y) - ?min (y)}.
y?A?
Следующая теорема дает ответ на вопрос о сравнительной эф-
фективности использования индивидуального и коллективного
стимулирования в рассматриваемой модели.
Теорема 4.3.1. В модели S3 для любой системы коллективного
стимулирования найдется система индивидуального стимулирова-
ния не меньшей эффективности.
Доказательство теоремы. Так как множество всех допустимых
систем коллективного стимулирования включает в себя множество
всех допустимых систем индивидуального стимулирования (по-
следние могут рассматриваться как частный случай, так как имеет
˜
˜
место U P (? ) ? U E N (? ) ), то, очевидно, что K ? K . Поэтому
˜
? ?M ? ?M
˜
˜
докажем, что K = K , то есть, что не может иметь места K > K .
Выражения (4) и (8) отличаются лишь минимальными затра-
40



PDF created with FinePrint pdfFactory Pro trial version http://www.pdffactory
тами на стимулирование. Обозначим y* = arg max {H(y) - ?min(y)}1,
y? A?
?*(y) - оптимальную систему коллективного стимулирования (для
которой выполнено y* ? EN(?*) и для которой величина ?(?, y*)
минимальна). Фиксируем произвольный номер i ? I. Из y* ? EN(?*)
следует, что
(9) ? yi ? Ai ?i(y*) - ci( yi* ) ? ?i( y ?i , yi) - ci(yi).
*

˜
Выберем индивидуальную систему стимулирования ? i* (yi)
следующим образом (частный случай y*-трансформации игры
элементов в терминологии [22]):
˜
(10) ? i ? I ? i* (yi) = ? i* ( y ?i , yi).
*

˜
Так как ?* ? M, то ? * ? M. Подставляя (10) в (9), получим,
что
˜ ˜
(11) ? i ? I ? yi ? Ai ? i* ( yi* ) - ci( yi* ) ? ? i* (yi) - ci(yi),
˜
то есть y* ? P( ? * ), причем из (2), (6) и (10) следует, что выполне-
˜ ˜
но: ?(y*, ?*) = ? (y*, ? * ), то есть по теореме 2.2, приведенной в
˜
работе [42], система стимулирования ? * обладает эффективно-
стью, не меньшей, чем исходная система стимулирования. •
Таким образом, теорема 4.3.1 утверждает, что в случае сепара-
бельных затрат для любой системы коллективного стимулирования
можно построить систему индивидуального стимулирования,
которая будет обладать той же эффективностью. Переход от одной
системы стимулирования к другой осуществляется достаточно
просто - индивидуальное вознаграждение каждого АЭ в случае
индивидуального стимулирования равно его же индивидуальному
вознаграждению в случае коллективного стимулирования при


max {H(y) - ?min(y)} может содер-
1
Отметим, что множество Arg
y? A?
жать более одной точки, однако для каждой из них можно построить
систему индивидуального стимулирования, в том числе и для той, по
которой определяется эффективность (или гарантированная эффек-
тивность) исходной системы коллективного стимулирования.
41



PDF created with FinePrint pdfFactory Pro trial version http://www.pdffactory
условии, что все остальные элементы выбирают равновесные по
Нэшу действия.
Итак, в соответствии с теоремой 4.3.1 для любой системы кол-
лективного стимулирования (в том числе и для оптимальной сис-
темы коллективного стимулирования) существует система индиви-
дуального стимулирования не меньшей эффективности.
Следовательно, при решении задачи синтеза оптимального меха-
низма стимулирования в модели S3 можно ограничиться классом
индивидуальных систем стимулирования (то есть классом моделей
типа S1).
Следует отметить, что выше мы не акцентировали внимание
на том, что множество решений игры может содержать более
одной точки - при фиксированной системе стимулирования может
существовать несколько равновесий Нэша. Поэтому в случае мно-
жественности равновесий отдельного внимания заслуживает во-
прос о том, что понимать под гипотезой благожелательности -
выбор элементами равновесия, наиболее благоприятного с точки
зрения центра (такому предположению в (3) и (7) соответствовала
бы дополнительная минимизация по y ? P(?)) из множества всех
реализуемых действий, или из множества Парето эффективных
реализуемых действий и т.д.
Также необходимо подчеркнуть, что приведенный выше ре-
зультат об "эквивалентности" систем индивидуального и коллек-
тивного стимулирования (с точки зрения их потенциальной эффек-
тивности) справедлив лишь для случая сепарабельных затрат. Если
индивидуальные затраты АЭ не сепарабельны (см. модель S4
ниже), то есть, если затраты каждого АЭ могут зависеть от дейст-
вий всех элементов, то замены типа (10) оказывается недостаточно.
Построим оптимальную систему индивидуального стимулиро-
вания (которая в силу теоремы 4.3.1 будет оптимальна в модели
S3). В теореме 4.3.1 для исходной системы стимулирования по-
строена эквивалентная система индивидуального стимулирования.
Использованная идея декомпозиции игры активных элементов
позволяет найти систему стимулирования, оптимальную в модели
S3. В частности, из индивидуальной рациональности АЭ (напом-
ним, что свойство индивидуальной рациональности гласит, что
выбираемое АЭ действие должно приводить к неотрицательным
42



PDF created with FinePrint pdfFactory Pro trial version http://www.pdffactory
значениями его функции полезности1) и свойств минимальных
затрат на стимулирование, следует справедливость следующего
утверждения.
Теорема 4.3.2. Класс систем стимулирования2 (с параметром
y *)
?ci ( yi* ) + ? i , yi = yi*
(12) ?i(y) = ?
yi ? yi*
?0,
реализует вектор действий y* ? A’ как РДС и ?-оптимален в модели
S3. Более того, если ?i > 0, i ? I, то y* - единственное РДС.
Единственность соответствующего РДС доказывается по ана-
логии с доказательством пункта в) теоремы 4.2.1.
Наличие единственного равновесия при использовании цен-
тром системы стимулирования (12) чрезвычайно привлекательно,
так как при использовании исходной системы коллективного сти-
мулирования в модели S3, множество равновесий может оказаться
достаточно «большим», что требует от центра введения дополни-
тельных гипотез о рациональном поведении АЭ.
Отметим, что (12) является не единственной оптимальной сис-
темой стимулирования – для оптимальности некоторой системы
стимулирования в рассматриваемой модели достаточно, чтобы
стимулирование при yi ? y* «убывало быстрее», чем затраты АЭ
i
(см. теорему 4.4.2 ниже).
Теорема 4.3.2 определяет параметрический класс оптимальных
систем стимулирования. Оптимальное значение параметра ищется,
как и ранее, как результат решения задачи оптимального согласо-
ванного планирования.
Пример 5. Рассмотрим АС с двумя АЭ, имеющими функции
затрат ci(yi) = yi2 / 2ri. Пусть центр использует систему стимулиро-
?Ci , y1 + y 2 ? x
вания ?i(y1, y2) = ? , i = 1, 2.
0, y1 + y 2 < x
?
1
В противном случае АЭ всегда имеет возможность выбрать нулевое
действие, требующее нулевых затрат.
2
Отметим, что (12) с учетом (10) является системой индивидуального
стимулирования, оптимальной в модели S1.
43



PDF created with FinePrint pdfFactory Pro trial version http://www.pdffactory
Содержательно, центр выплачивает каждому АЭ фиксирован-
ное вознаграждение при условии, что сумма их действий оказыва-
ется не меньше, чем некоторое плановое значение x. Обозначим
yi+ = 2ri Ci , i = 1, 2, Y = {(y1, y2) | yi ? yi+ , i = 1, 2, y1 + y2 ? x} –
множество индивидуально-рациональных действий АЭ. Рассмот-
рим четыре возможных комбинации переменных (см. рисунки 3а –
3г).
В первом случае (см. Рис.3 a)
y2
множество равновесий Нэша
+
составляет отрезок:
y2
EN(?) = [N1; N2]. Фиксируем
x N1
произвольное равновесие
y* = ( y1 , y 2 ) ? EN(?). Нали-
* *
*
y2
чие «большого» равновесия
Y
Нэша (отрезка, содержащего
y1
N2
континуум точек) имеет не-
+
*
0 y1 y1
x
сколько минусов с точки
зрения эффективности стиму-
Рис.3 a
лирования.
Так как все точки отрезка [N1 N2] эффективны по Парето с
точки зрения АЭ, то при определении эффективности системы
стимулирования центр вынужден либо использовать гарантиро-
ванный результат (вычислять минимум по этому отрезку), либо
доплачивать АЭ за выбор конкретных действий из этого отрезка.
Построим систему индивидуального стимулирования в соот-
ветствии с выражением (10):
˜ * (y1)=?(y1, y * )= ?C1 , y1 ? y1 , ? * (y2)=?( y * ,y2)= ?C 2 , y 2 ? y 2
* *
˜
?1 ? ? .
2 2 1
0, y1 < y1 ? 0, y 2 < y 2
* *
?
При использовании этой системы стимулирования точка y* =
* *
( y1 , y 2 ) оказывается единственным равновесием Нэша, то есть,
переходя в соответствии с выражением (10) от системы стимули-
рования каждого АЭ, зависящей от действий всех АЭ, к системе
стимулирования, зависящей только от его собственных действий,
центр «декомпозирует» игру элементов, реализуя при этом единст-
венное действие. При этом эффективность стимулирования, оче-
44



PDF created with FinePrint pdfFactory Pro trial version http://www.pdffactory
видно, не только не понижается, а может оказаться более высокой,
чем при использовании исходной системы стимулирования (см.
теорему 4.3.2).

y2
y2
+
y2
x N1
x
N1
+
y2 *
y2
*
y2 N2
N2 y1
y1
+ +
*
0
*
0 y1 x
y1 y1
y1 x

Рис.3 c
Рис.3 b
Во втором и третьем случаях (см. Рис.3 b и Рис.3 c) равновесием
Нэша являются отрезки [N1 N2], изображенные на соответствую-
щих рисунках выше.
И, наконец, в четвертом
y2
случае (см. Рис.3 d) множество
равновесий Нэша состоит из x
N1
точки (0; 0) и отрезка [N1 N2], то +
y2
есть EN(?) = (0;0) ? [N1 N2], *
y2
причем точки интервала (N1 N2)
являются недоминируемыми по N2
Парето другими равновесиями, y1
то есть: +
*
0 y1
y1 x
(N1; N2) = Par (EN(?), {fi}). •
Рис.3 d
Итак, мы доказали, что модель S3 эквивалентна гораздо более
простой с точки зрения анализа и хорошо изученной модели S1.
Частными, но широко распространенными на практике, слу-
чаями модели S3 являются ранговые системы стимулирования,
обозначенные выше S3R, в том числе нормативные и соревнова-
тельные. Эти системы стимулирования подробно рассматриваются
ниже в пятом разделе настоящей работы.
45



PDF created with FinePrint pdfFactory Pro trial version http://www.pdffactory
4.4. МОДЕЛЬ S4: СТИМУЛИРОВАНИЕ АЭ ЗАВИСИТ ОТ
ДЕЙСТВИЙ ВСЕХ АЭ, ЗАТРАТЫ НЕ СЕПАРАБЕЛЬНЫ

Запишем определение равновесия Нэша для рассматриваемой
модели:
EN(?) = {yN?A | ? i?I, ? yi?Ai ?i(yN)–ci(yN) ? ?i( y ?i , yi)–ci( y ?i , yi)}.
N N

По аналогии с теоремой 4.3.1 можно доказать, что для любой
системы коллективного стимулирования ?(?), реализующей вектор
действий y* ? A’ как равновесие Нэша, в модели S4 существует
˜
система индивидуального стимулирования ? (?), определяемая
следующим образом:
˜ (y*, yi) = ?? i ( y ), yi = yi ,
* *
(1а) ? i ?
yi ? yi*
? 0,
которая обладает не меньшей эффективностью, чем исходная.
Поэтому перейдем сразу к построению оптимальной системы
стимулирования.
Фиксируем y* ? A’ и рассмотрим следующий класс систем
стимулирования (с параметром y*):
?ci ( yi* , y ?i ) + ? i , yi = yi*
(1б) ? i (y , y) = ? , i ? I.
*

yi ? yi
*
?0,
Теорема 4.4.1. При использовании центром системы стимули-
рования (1б) с ?i ? 0 y* ? Ed(?). Если ?i > 0, i ? I, то y* - единствен-
ное РДС. Более того, система стимулирования (1б) ?-оптимальна.
Доказательство. Теорема 4.4.1 доказывается по аналогии с
теоремой 4.2.1а, поэтому ее доказательство приводится здесь, в
основном, в методических целях.
То, что y* ? EN(?) следует из приведенного выше определения
равновесия Нэша для модели S4 и (1б). Поэтому докажем более
сильное свойство, а именно, что y* - равновесие в доминантных
стратегиях (РДС).
Запишем определение равновесия yd ? A’ в доминантных стра-
тегиях для рассматриваемой модели: ? i ? I ? yi ? Ai ? y-i ? A-i
(2) ?i( yid , y-i) – ci( yid , y-i) ? ?i(yi, y-i) – ci(yi, y-i).

46



PDF created with FinePrint pdfFactory Pro trial version http://www.pdffactory
Подставим в (2) систему стимулирования (1б), а вместо стра-
тегии yid - стратегию yi* . В силу неотрицательности затрат АЭ
получаем, что y* - РДС.
Предположим, что ? y’ ? A’ y’ ? y*: y’ ? Ed(?). Тогда ? i ? I:
yi' ? yi* . Так как yi' - доминантная стратегия i-го АЭ, то ? y-i ? A-i,
? yi ? Ai ?i( yi' , y-i) - ci( yi' , y-i) ? ?i(yi, y-i) - ci(yi, y-i). Подставляя
систему стимулирования (1б) и yi = yi* , получим: ci( yi' , y-i) ? - ?i,
что противоречит предположению А.3.
Система стимулирования (1б) в рамках гипотезы благожела-
тельности при ?i = 0, i ? I, имеет не большие затраты на стимули-
рование по реализации действия y*, чем любая другая система
стимулирования, реализующая это же действие, следовательно она
оптимальна (по теореме о минимальных затратах на стимулирова-
ние [42]). Если ?i > 0, то система стимулирования (1б) гарантиро-
ванно ?-оптимальна (см. доказательство теоремы 4.2.2 и раздел
n
??i . •
4.1), где: ? =
i =1
Система индивидуального стимулирования (1а), соответст-
вующая системе коллективного стимулирования (1б), имеет вид:
˜ (y*, y ) = ?ci ( yi , y ?i ) + ? i , yi = yi , i ? I.
* * *
?i ?
i
yi ? yi*
?0,
Если в модели S4 центр использует систему индивидуального
˜
стимулирования ? i (y*, yi), то получаем модель S2, поэтому в соот-
ветствии с теоремой 4.2.1б, эта система стимулирования будет
реализовывать вектор действий y* ? A’ как равновесие Нэша. Для
реализации этого вектора действий как единственного равновесия
Нэша (РДС, единственного РДС, соответственно) нужно потребо-
вать выполнения дополнительных условий (см. условия (2) и (3) в
теореме 4.2.1б).
Алгоритм решения задач стимулирования первого и второго
рода для модели S4 совпадает с соответствующими алгоритмами
для модели S2 и не приводится.

47



PDF created with FinePrint pdfFactory Pro trial version http://www.pdffactory
Во всех рассмотренных до сих пор задачах стимулирования
(см. модели S1, S2, S3 и S4) оптимальными оказывались разрывные
(«квазикомпенсаторные» – см. [15, 16, 44]) функции стимулирова-
ния: активному элементу компенсировались затраты при выборе
им определенного действия (при тех или иных предположениях об
обстановке игры), в остальных случаях вознаграждение равнялось
нулю. Рассмотрим, насколько изменятся полученные результаты,
если потребовать, чтобы функции стимулирования были непре-
рывными. Интуитивно понятно, что если стимулирование будет в
окрестности реализуемого действия изменяться быстрее, чем за-
траты, то все результаты останутся в силе. Приведем формальный
результат для одного из возможных случаев.
Пусть в модели S4 функции затрат АЭ непрерывны по всем
переменным, а множества возможных действий АЭ компактны.
Рассмотрим непрерывные функции стимулирования следующего
вида
(3) ?i(y) = ci(y) qi(yi*, y),
где qi(yi*, y) – непрерывная функция своих переменных, удовлетво-
ряющая следующему условию:
(4) ? i ? I ? yi ? Ai ? y-i ? A-i qi(yi*, y) ? 1, qi(yi*, yi*, y-i) = 1.
Теорема 4.4.2. Если выполнена гипотеза благожелательности,
то при использовании в модели S4 центром системы стимулирова-
ния (3)-(4) y* ? Ed(?).
Доказательство. Выбирая действие yi*, независимо от обста-
новки игры, i-ый АЭ получает нулевой выигрыш. Выбирая любое
другое действие, он при любой обстановке (в силу условия (4)
выполнено: ? yi ? Ai ? y-i ? A-i (qi(yi*, y) – 1)c(y) ? 0) получает
неположительный выигрыш. •
Отметим, что функция-«индикатор» qi(?) может зависеть от
*2
(y ?y )
действий i-го АЭ, например – qi(yi*, yi) = e i i и т.д.
Содержательные интерпретации конструкций типа (3)-(4) оче-
видны. Аналогичным образом строятся непрерывные оптимальные
системы стимулирования и в других моделях.
Рассмотрим пример, иллюстрирующий результат теоремы
4.4.1.


48



PDF created with FinePrint pdfFactory Pro trial version http://www.pdffactory
Пример 6. Пусть в условиях примера 5, рассмотренном в раз-
деле 4.3, функции затрат АЭ несепарабельны и имеют вид:
( y i + ? y ?i ) 2
. Определим множество Y индивидуально-
ci(y)=
2ri
рациональных действий: Y = {(y1, y2) | ci(y) ? Ci, i =1, 2}. Для того,
чтобы не рассматривать все возможные комбинации значений
параметров {r1, r2, C1, C2, x} возьмем случай, представленный на
рисунке 4.
y2
2 r1C1 / ?
x

2 r2C2

N1
*
y2
N2
y1
0 *
2 r2C2 / ?
y1 2 r1C1 x

Рис. 4. Множество равновесий Нэша в примере 6.

В рассматриваемом случае множество равновесий Нэша вклю-
чает отрезок [N1 N2]. Система стимулирования
˜ * (y) = ?c1 ( y1 , y 2 ), y1 = y1 ? * (y) = ?c2 ( y1 , y 2 ), y 2 = y 2
* * * *
˜
?1 ? ?
2
y1 ? y1 y2 ? y2
* *
? ? 0,
0,
реализует действие y* ? [N1 N2] как единственное равновесие в
доминантных стратегиях.
˜
Система стимулирования ? * имеет эффективность не мень-
шую, чем исходная система стимулирования с теми же параметра-
ми C1 и C2 (см. пример 5). Она в точности компенсирует затраты
АЭ, а исходная «переплачивала» следующую величину: ?C = C1 –
c1(y*) + C2 – c2(y*), которая неотрицательна в силу индивидуальной
рациональности активных элементов. •
49



PDF created with FinePrint pdfFactory Pro trial version http://www.pdffactory
4.5. МОДЕЛЬ S5: СТИМУЛИРОВАНИЕ АЭ ЗАВИСИТ ОТ
РЕЗУЛЬТАТА ДЕЯТЕЛЬНОСТИ АС, ЗАТРАТЫ
СЕПАРАБЕЛЬНЫ

Пусть результат деятельности1 z ? A0 = A активной системы,
состоящей из n АЭ, является функцией их действий: z = Q(y).
Предположим, что стимулирование i-го АЭ есть ?i: A0 > ?1 , i ? I.
+
Равновесный по Нэшу вектор действий АЭ y определяется сле-
N

дующим образом:
? i ? I ? yi ? Ai ?i(Q(yN)) – ci( yiN ) ? ?i(Q(yi, y ?i )) – ci(yi).
N

В случае, когда индивидуальные действия АЭ наблюдаемы
для центра (или когда центр может однозначно восстановить их по
наблюдаемому результату деятельности), последний может ис-
пользовать систему стимулирования, зависящую непосредственно
˜
от действий АЭ: ? i ? I ? i (y) = ?i(Q(y)), то есть получаем модель
S3, для которой выше было доказано, что она эквивалентна модели
S1 (напомним, что переход от S3 к S1 осуществляется следующим
˜*
образом: ? i ? I ? i (yi) = ? i ( y ? i , yi)), методы исследования кото-
?
рой хорошо известны и описаны выше и в [15, 44]. Поэтому рас-
смотрим случай, когда центр наблюдает только результат деятель-
ности коллектива элементов, от которого зависит его доход, то есть
H: A0 > ?1, но не знает и не может восстановить их индивидуаль-
ных действий.
Отметим, что в рассмотренных выше моделях S1-S4 декомпо-
зиция игры активных элементов основывалась на возможности
центра поощрять АЭ за выбор определенного (и наблюдаемого
центром) действия. Если действия АЭ ненаблюдаемы, то непосред-
ственное применение идеи декомпозиции невозможно, поэтому
при решении задач стимулирования, в которых вознаграждение АЭ


1
Все результаты настоящего и следующего разделов останутся в силе,
если предположить, что Q: A’ > ? m – однозначное непрерывное ото-
бражение, где 1 ? m ? n (при m > n смысл агрегирования теряется – см.
также обобщения в разделе 4.7).
50



PDF created with FinePrint pdfFactory Pro trial version http://www.pdffactory
зависит от агрегированного1 результата деятельности АС, следует
использовать следующий подход – найти множество действий,
приводящих к заданному результату деятельности, выделить среди
них подмножество, характеризуемое минимальными суммарными
затратами АЭ (и, следовательно, минимальными затратами центра
на стимулирование при использовании компенсаторных функций
стимулирования), построить систему стимулирования, реализую-
щую это подмножество действий, а затем определить - реализация
какого из результатов деятельности наиболее выгодна для центра.
Функция дохода центра может зависеть как от действий АЭ,
так и от результата деятельности АС. Действия АЭ при этом могут
быть наблюдаемы или ненаблюдаемы. Таким образом, получаем
следующие четыре возможных варианта (комбинации).
Вариант 1. Действия АЭ наблюдаемы, функция дохода центра
зависит от действий АЭ. В этом случае получаем модель S1 или
модель S3, причем последняя (как было доказано в разделе 4.3)
«эквивалентна» модели S1.
Вариант 2. Действия АЭ наблюдаемы, функция дохода центра
зависит только от результата деятельности АС. В этом случае,
˜
обозначая H (y) = H(Q(y)), получаем модель S1 или модель S3 (в
зависимости от переменных, от которых зависит вознаграждение
˜
АЭ), где целевая функция центра равна ?(y) = H (y) - ?(y). Мето-
ды решения этого класса задач описаны выше в разделах 4.1 и 4.3.
Вариант 3. Действия активных элементов ненаблюдаемы, а
наблюдаем только результат деятельности активной системы в
целом, при этом функция дохода центра зависит2 от действий АЭ.
Подробно данный вариант рассматривается ниже в разделе 4.7.


1
В теории иерархических игр модели агрегирования исследовались в
работах [1, 2].
2
Следует признать, что данная модель представляется достаточно
экзотической с содержательной точки зрения, однако полностью исклю-
чать возможность косвенной зависимости дохода центра от действий
АЭ нельзя. Например, доход центра от действий АЭ может быть полу-
чен в следующем периоде, когда станут известными значения их дейст-
вий, а стимулирование должно выплачиваться в текущем периоде на
основании наблюдаемого агрегированного результата деятельности.
51



PDF created with FinePrint pdfFactory Pro trial version http://www.pdffactory
Вариант 4. Действия активных элементов ненаблюдаемы, а
наблюдаем только результат деятельности активной системы в
целом, при этом и функция дохода центра, и вознаграждения АЭ
зависят от результата деятельности АС.
Рассмотрим подробно четвертый вариант. Для решения соот-
ветствующей задачи стимулирования может быть использован
подход, предложенный в [18, 36] и развиваемый ниже.
Определим Y(z) = {y ? A’ | Q(y) = z} ? A’, z ? A0. Содержа-
тельно Y(z) – множество тех действий АЭ, выбор которых приво-
дит к реализации заданного результата их деятельности z ? A0. При
компенсации центром затрат активных элементов минимальные
затраты на стимулирование по реализации результата деятельности
n
?
z ? A0 равны: ?(z) = min ci(yi), а целевая функция центра
y?Y ( z ) i =1
равна: ?(z) = H(z) - ?(z).
На первом шаге решения задачи стимулирования определим
множество векторов действий АЭ, приводящих к заданному ре-
зультату деятельности и требующих минимальных затрат на сти-
n
?
мулирование по своей реализации: Y (z) = Arg min *
ci(yi).
y?Y ( z ) i =1
Фиксируем произвольный вектор y (x) ? Y (x) ? Y(x), x ? A0.
* *

Теорема 4.5.1. При использовании центром системы стимули-
рования
?ci ( yi* ( x )), z = x
? i* (x, , i ? I,
z) = ?
(1)
z?x
? 0,
где x ? A0 – параметр (план), множество равновесий Нэша есть
EN(?*) = Y*(x), причем система стимулирования (1) реализует ре-
зультат деятельности x ? A0 с минимальными суммарными затра-
тами центра на стимулирование.
Доказательство. Так как y*(x)?Y*(x), то y*(x) ? Par(Y(x),{-
ci(?)}). Фиксируем произвольный номер i ? I. При фиксированной
обстановке игры выбор действия yi ? Proji Y(x): yi > yi* невыгоден
для i-го АЭ, так как при этом его затраты не убывают, а стимули-

52



PDF created with FinePrint pdfFactory Pro trial version http://www.pdffactory
рование не изменяется. Выбор действия yi < yi* для него также
невыгоден, так как при этом его затраты убывают, но и стимулиро-
вание становится равным нулю (если бы существовало действие i-
го АЭ, приводящее к тому же результату деятельности и характе-
ризуемое строго меньшими его затратами, чем yi* , то оно было бы
включено центром во множество Y*(x)). Следовательно, y*(x) –
равновесие Нэша. •
Отметим, что при доказательстве теоремы 4.5.1 практически
не использовалась сепарабельность затрат активных элементов.
Недостатком системы стимулирования (1) является то, что при
ее использовании центром, помимо определяемого теоремой 4.5.1
множества равновесий Нэша, существует РДС – вектор нулевых
действий. Для того чтобы точки множества Y*(x) были единствен-
ными равновесными точками, центр должен за их выбор доплачи-
вать АЭ сколь угодно малую, но положительную, величину. По-
этому система стимулирования (1) в общем случае является ?-
оптимальной.
На втором шаге решения задачи стимулирования найдем наи-
более выгодный для центра результат деятельности коллектива АЭ
x* ? A0 как решение задачи оптимального согласованного планиро-
вания: x* = arg max [H(z) - ?(z)], то есть эффективность стимули-
z? A0
рования KS5 равна KS5 = ?(x*), где ?(z) = H(z) - ?(z).
Отметим, что при использовании предложенного подхода для
модели S5 существенно предположение о бескоалиционности игры
АЭ, так как для некоторой коалиции (но не максимальной коали-
ции!) могут существовать вектора действий, доминирующие по
Парето вычисленное выше равновесие Нэша, но, действуя некоо-
перативно, попасть в точку Парето АЭ не могут. Однако, несмотря
на то, что в рассматриваемой модели в общем случае существует
несколько равновесий Нэша (доплата за их выбор по сравнению с
нулевым действием не всегда выделяет, как это было в моделях S2-
S4, единственное равновесие), при определении эффективности
стимулирования центру не следует брать гарантированный резуль-
тат по Y*(x) множеству, так как все точки этого множества для него
эквивалентны – все они требуют для своей реализации одинаковых
53



PDF created with FinePrint pdfFactory Pro trial version http://www.pdffactory
затрат на стимулирование.
Рассмотрим теперь класс US5 унифицированных систем сти-
мулирования в АС с коллективным стимулированием и сепара-
бельными затратами. Если индивидуальные действия АЭ наблю-
даются или однозначно восстанавливаются центром, то, как
отмечалось выше, получаем модель US3, от которой можно перей-
ти к US1. Поэтому предположим, что индивидуальные действия
ненаблюдаемы для центра.
Обозначим c(y) = max {ci(yi)}, c: A’ > ?1 . Вычислим мини-
+
i?I
мальные затраты на стимулирование по реализации результата
деятельности z ? A0: ?U(z) = min c(y) (так как центр использует
y?Y ( z )
унифицированную систему стимулирования, то для того, чтобы
побудить АЭ выбрать некоторый вектор действий y ? Y(z), он
должен компенсировать затраты по выбору соответствующих
компонент этого вектора всем АЭ).
Множество векторов действий, на которых достигается мини-
мум затрат на стимулирование по реализации результата деятель-
ности z ? A0, определяется как: Y*(z) = Arg min c(y). Унифициро-
y?Y ( z )
ванная система стимулирования:
?c( y * ( x )), z = x
?i(x, z) = ? , i ? I,
z?x
? 0,
где y*(x) – произвольный элемент множества Y*(x), реализует ре-
зультат деятельности x ? A0 с минимальными затратами на стиму-
лирование1. Отметим, что при этом может оказаться, что EN(?) ?
Y*(x), то есть не всякий элемент y*(x) множества Y*(x) есть равнове-
сие Нэша (в отличие от персонифицированного стимулирования –
см. теорему 4.5.1). С точки зрения эффективности стимулирования

1
Для того чтобы исключить выбор АЭ нулевых действий при использо-
вании унифицированных систем стимулирования в модели S5 следует
доплачивать за выбор ненулевых действий строго положительную
величину не всем АЭ, а только активным элементам, принадлежащим
множеству Arg max {ci(yi)}.
i? I
54



PDF created with FinePrint pdfFactory Pro trial version http://www.pdffactory
этот факт не имеет значения, так как суммарные затраты центра на
стимулирование одинаковы на всем множестве Y*(x).
На втором шаге решения задачи синтеза оптимальной унифи-
цированной системы коллективного стимулирования найдем наи-
более выгодный для центра результат деятельности коллектива АЭ
*
xU как решение задачи оптимального согласованного планирова-
ния: xU = arg max [H(z) - ?U(z)], то есть KUS5 = ?( xU ).
* *
z?A0
Потери центра от использования унифицированного стимули-
рования по сравнению с персонифицированным стимулированием
в модели S5 зависят от минимальных затрат на стимулирование:
?(S5,US5) = KS5 – KUS5 = max [H(z) - ?(z)] - max [H(z) - ?U(z)].
z?A0 z?A0
Рассмотрим пример, иллюстрирующий использование пред-
ложенного подхода к решению задач стимулирования в моделях
типа S5.
n
? yi , H(z) = z, ci(yi) = yi2 /2ri, i ? I. При
Пример 7. Пусть z =
i =1
n
?
этом Y(z) = {y ? A’ | yi = z}. Решение задачи
i =1
n
? ci ( yi ) > min
y?A'
i =1
n n
ri
? yi ? ri , i ? I.
yi* (x)
при условии = x имеет вид: x, где W =
= W
i =1 i =1
Минимальные затраты на стимулирование по реализации результа-
та деятельности x ? A0 равны ?(x) = x2/2W. Вычисляя максимум
целевой функции центра: max [H(x) - ?(x)], находим оптимальный
x ?0
план: x = W и оптимальную систему стимулирования:
*


? x2
?
? i* (W, z) = ?ri 2W 2 , z = x , i ? I.
? 0, z?x
?
При этом эффективность стимулирования (значение целевой
функции центра) равна KS5 = W / 2.
55



PDF created with FinePrint pdfFactory Pro trial version http://www.pdffactory
Пусть теперь в рамках рассматриваемого примера центр дол-
жен использовать унифицированную систему стимулирования.
Определим c(y) = y 2 /2rj, где j = arg min {ri}. Тогда минимальные
j
i?I
затраты на стимулирование равны ?U(z) = z2 / 2nrj. Оптимальный
*
план xU = n rj дает значение эффективности KUS5 = n rj / 2. Видно,
что KUS5 ? KS5, причем равенство имеет место в случае одинаковых
активных элементов. •


4.6. МОДЕЛЬ S6: СТИМУЛИРОВАНИЕ АЭ ЗАВИСИТ ОТ
РЕЗУЛЬТАТА ДЕЯТЕЛЬНОСТИ АС,
ЗАТРАТЫ НЕ СЕПАРАБЕЛЬНЫ

Модель S6, в которой при несепарабельных затратах активных
элементов их индивидуальные вознаграждения зависят только от
результата их деятельности, чрезвычайно близка (с точки зрения
подходов и результатов решения задачи стимулирования) к модели
S5, отличающейся лишь сепарабельностью затрат.
Действительно, если действия активных элементов наблюда-
ются или могут быть однозначно восстановлены центром, то мо-
дель S6 переходит в модель S4, рассмотренную выше в разделе 4.4.
Если действия АЭ ненаблюдаемы, то используем подход, предло-
женный в разделе 4.5, то есть определим для каждого результата
деятельности множество действий, приводящих к его реализации,
вычислим минимальные затраты и т.д. Опишем эту последователь-
ность формально.
Равновесный по Нэшу вектор действий АЭ yN определяется
следующим образом:
? i ? I ? yi ? Ai ?i(Q(yN)) – ci(yN) ? ?i(Q(yi, y ?i )) – ci(yi, y ?i ).
N N

Определим Y(z) = {y ? A’ | Q(y) = z} ? A’, z ? A0. При компен-
сации центром затрат активных элементов минимальные затраты
на стимулирование по реализации результата деятельности z ? A0
n
?
равны: ?(z) = min ci(y).
y?Y ( z ) i =1


56



PDF created with FinePrint pdfFactory Pro trial version http://www.pdffactory
На первом шаге решения задачи стимулирования определим
множество векторов действий АЭ, приводящих к заданному ре-
зультату деятельности и требующих минимальных затрат на сти-
n
?
мулирование по своей реализации: Y (z) = Arg min *
ci(y).
y?Y ( z ) i =1
Фиксируем произвольный вектор y (z) ? Y (z) ? Y(z).
* *

Теорема 4.6.1. Если ?x?A0 ?yi?Proji Y(x) ?j?i ?y-i?Proj-i Y(x)
cj(yi, y-i) не возрастает по yi, то при использовании центром системы
стимулирования
? ci ( y * ( x )), z = x
? i* (x, , i ? I,
z) = ?
(2)
z?x
? 0,
где x ? A0 – параметр (план), результат деятельности x ? A0 реали-
зуется с минимальными затратами центра на стимулирование.
Доказательство теоремы 4.6.1 повторяет доказательство тео-
ремы 4.5.1 и не приводится.
На втором шаге решения задачи стимулирования найдем наи-
более выгодный для центра результат деятельности коллектива АЭ
x* ? A0 как решение задачи оптимального согласованного планиро-
вания: x* = arg max [H(z) - ?(z)].
z? A0
Рассмотрим теперь класс US6 унифицированных систем сти-
мулирования в АС с коллективным стимулированием и несепара-
бельными затратами. Если индивидуальные действия АЭ наблю-
даются или однозначно восстанавливаются центром, то, как
отмечалось выше, получаем модель US4, от которой можно перей-
ти к US1 (см. раздел 4.4). Поэтому предположим, что индивиду-
альные действия ненаблюдаемы для центра.
Обозначим c: A’ > ?1 +
(2) c(y) = max {ci(y)}.
i?I
Вычислим минимальные затраты на стимулирование по реали-
зации результата деятельности z ? A0: ?U(z) = n min c(y). Вектор
y?Y ( z )
действий, минимизирующий затраты на стимулирование по реали-
зации результата деятельности z ? A0, определяется следующим

57



PDF created with FinePrint pdfFactory Pro trial version http://www.pdffactory
выражением: Y*(z) = Arg min c(y). Унифицированная система
y?Y ( z )
стимулирования:
?c( y * ( x )), z = x
(3) ?i(x, z) = ? , i ? I,
z?x
?0,
где y*(x) – произвольный элемент множества Y*(x), реализует ре-
зультат деятельности x ? A0 с минимальными затратами на стиму-
лирование (как и в разделе 4.5, для того чтобы исключить выбор
АЭ нулевых действий при использовании унифицированных сис-
тем стимулирования центру следует доплачивать за выбор ненуле-
вых действий строго положительную величину АЭ из множества
Arg max {ci(y)}).
i?I
На втором шаге решения задачи синтеза оптимальной унифи-
цированной коллективной системы стимулирования найдем наибо-
лее выгодный для центра результат деятельности коллектива АЭ
*
xU как решение задачи оптимального согласованного планирова-
ния: xU = arg max [H(z) - ?U(z)].
*
z?A0
Теорема 4.6.2. В модели S6 эффективность унифицированного
стимулирования не выше, чем эффективность персонифицирован-
ного стимулирования.
Доказательство. Фиксируем произвольный результат деятель-
ности. Реализующая его унифицированная система стимулирова-
ния (3) в силу (2) характеризуется не меньшими суммарными
затратами на стимулирование со стороны центра, чем система
персонифицированная стимулирования (1). По теореме о мини-
мальных затратах на стимулирование получаем, что KS6 ? KUS6. •
Потери центра от использования унифицированного стимули-
рования по сравнению с персонифицированным стимулированием
в модели S6 зависят от минимальных затрат на стимулирование:
?(S6,US6) = KS6 – KUS6 = max [H(z) - ?(z)] - max [H(z) - ?U(z)].
z? A0 z? A0
Рассмотрим пример, иллюстрирующий использование пред-
ложенного подхода к решению задач стимулирования в моделях
типа S6.
58



PDF created with FinePrint pdfFactory Pro trial version http://www.pdffactory
Пример 8. Пусть в АС, состоящей из n = 2 АЭ функции затрат
( y i + ? y ?i ) 2
АЭ несепарабельны и имеют вид: ci(y) = , i = 1, 2.
2 ri
n
?
Если z = Q(y) = y1 + y2, то Y(z) = {y ? A’ | yi = z}. Решение
i =1
n n
? ?
ci(y) > min при условии
задачи yi = x имеет вид:
y?A'
i =1 i =1
( ri ? ? r?i )
yi* (x) = x,
(1?? )W
где W = r1 + r2. Минимальные затраты на стимулирование по реа-
лизации результата деятельности x ? A0 равны ?(x) = x2(1+?2)/2W.
Вычисляя максимум целевой функции центра: max [H(x) - ?(x)],
x ?0
находим оптимальный план: x = W / (1+? ) и оптимальную систе-
* 2

му стимулирования:
? x2
?
? i* (W, z) = ?ri 2W (1 + ?) , z = x , i = 1, 2.
2 *

?0, z ? x*
?
При этом эффективность стимулирования (значение целевой
функции центра) равна KS6 = W/2(1+?)2. •


4.7. МОДЕЛИ S7 И S8: СТИМУЛИРОВАНИЕ АЭ ЗАВИСИТ
ОТ ДЕЙСТВИЙ АЭ И РЕЗУЛЬТАТА ДЕЯТЕЛЬНОСТИ АС,
ЗАТРАТЫ СЕПАРАБЕЛЬНЫ ИЛИ НЕСЕПАРАБЕЛЬНЫ

Стимулирование конкретного активного элемента может ос-
новываться непосредственно на его действии и/или действиях
других АЭ только в том случае, если эти действия наблюдаются
центром. Если действия наблюдаемы, то, как показано в разделах
4.5 и 4.6, стимулирование на основании результата деятельности не
повышает эффективности управления1.

1
См. четыре варианта в разделе 4.5.
59



PDF created with FinePrint pdfFactory Pro trial version http://www.pdffactory
Если же действия ненаблюдаемы, но наблюдаем агрегирован-
ный результат деятельности, то стимулирование активного элемен-
та непосредственно на основании его индивидуальных действий
или действий остальных АЭ невозможно. Поэтому модели S7 и S8
в некотором смысле внутренне противоречивы. Если действия всех
АЭ наблюдаемы, то модель S7 переходит в модель S3 (а модель S8
- в модель S4). Если действия ненаблюдаемы, то модель S7 перехо-
дит в модель S5 (а модель S8 – в модель S6).
Здесь же (при обсуждении моделей S7 и S8) уместно сравнить
оценки эффективности индивидуального и коллективного стиму-
лирования. Представим себе следующую ситуацию. Пусть центр
должен стимулировать АЭ на основании скалярного (агрегирован-
ного) результата деятельности коллектива АЭ.
Если выбор процедуры агрегирования, то есть отображения
Q: A’ > A0, является прерогативой центра, то задача заключается в
определении оптимальной (в рамках имеющейся у центра инфор-
мации) процедуры агрегирования, то есть процедуры, при исполь-
зовании которой потери в эффективности были бы минимальны по
сравнению со случаем полностью наблюдаемых действий АЭ и
использования центром индивидуального стимулирования.
Рассмотрим следующую модель. Пусть выполнено предполо-
жение
А5. A’ и A0 ? ?m – компактные множества; Q: A’ > A0 – не-
прерывное однозначное отображение, такое что: ? z ? A0 ? y ? A’:
Q(y) = z и ? y ? A’ Q(y) ? A0.
Пусть функция дохода центра – H(z), то есть зависит от ре-
зультата деятельности АС. Рассмотрим два случая. Первый случай
- когда действия АЭ наблюдаемы, и центр может основывать сти-
мулирование как на действиях АЭ, так и на результате деятельно-
сти. Второй случай, когда действия АЭ ненаблюдаемы, и стимули-
рование может зависеть только от наблюдаемого результата
деятельности. Сравним эффективности стимулирования для этих
двух случаев.
В первом случае минимальные затраты на стимулирование
равны (в общем случае будем считать, что затраты несепарабельны



60



PDF created with FinePrint pdfFactory Pro trial version http://www.pdffactory
n
?
– ср. модели S2 и S4): ?1(y) = ci(y), а эффективность стимули-
i =1
рования равна: K1 = max {H(Q(y)) - ?1(y)}.
y?A?
Во втором случае минимальные затраты центра на стимулиро-
вание по реализации результата деятельности z ? A0 определяются
n
?
следующим образом: ?2(z) = ci(y), а эффективность
min
y?Y ( z ) i =1
стимулирования равна K2 = max {H(z) - ?2(z)}.
z? A0
Теорема 4.7.1. Если выполнено предположение А.5, то K2 = K1.
Доказательство. Пусть K1 < K2, тогда ? y ? A’ выполнено:
n n
? ?
ci(y) < H(x) - min
(1) H(Q(y)) - ci(y),
y?Y ( x ) i =1
i =1
где x = arg max {H(z) - ?2(z)}. Выбирая в левой части выражения
z? A0
n n
? ?
(1) y = y (x) ? Y (x), получим: ci(y) - про-
* * *
ci(y (x)) > min
y?Y ( x ) i =1
i =1
тиворечие в силу определений множеств Y(x) и Y*(x).
Пусть K1 > K2, тогда ? z ? A0 выполнено:
n n
? ?
* *
ci(y )} > H(z) - min
(2) {H(Q(y )) - ci(y),
y?Y ( z ) i =1
i =1
где y = arg max {H(Q(y)) - ?1(y)}. Выбирая в правой части выра-
*
y?A?
жения (2) результат деятельности z равным x = Q(y*), получим:
n n
? ? ci(y) - противоречие в силу того, что
*
ci(y ) < min
y?Y ( x ) i =1
i =1
y* ? Y(x). •
Теорема 4.7.1 (которую условно можно назвать «теоремой об
идеальном агрегировании в моделях S5 - S8»), помимо оценок
сравнительной эффективности имеет чрезвычайно важное методо-
логическое значение. Она утверждает, что в случае, когда функция
дохода центра зависит только от результата деятельности АС,
эффективности стимулирования одинаковы как при использовании
61



PDF created with FinePrint pdfFactory Pro trial version http://www.pdffactory
стимулирования АЭ за наблюдаемые действия, так и при стимули-
ровании за агрегированный результат деятельности, несущий в
силу предположения А.5 меньшую информацию, чем вектор дей-
ствий АЭ.
Другими словами, наличие агрегирования информации не
снижает эффективности функционирования системы. Это доста-
точно парадоксально, так как в [36] доказано, что наличие агреги-
рования в задачах стимулирования не повышает эффективности. В
рассматриваемой модели присутствует идеальное агрегирование
(см. определение и подробное обсуждение проблем агрегирования
в управлении активными системами в [36]), возможность осущест-
вления которого содержательно обусловлена тем, что центру не-
важно какие действия предпринимают АЭ, лишь бы эти действия
приводили с минимальными суммарными затратами к заданному
результату деятельности. Условия А.5 (которое трудно назвать
обременительным) оказывается достаточно для того, чтобы центр
мог переложить все «проблемы» по определению равновесия на
активные элементы. При этом уменьшается информационная
нагрузка на центр, а эффективность стимулирования остается
такой же.
Итак, качественный вывод из результата теоремы 4.7.1 сле-
дующий: если в условиях полной информированности доход цен-
тра зависит от агрегированных показателей деятельности активных
элементов, то целесообразно основывать стимулирование АЭ на
этих агрегированных показателях. Даже если индивидуальные
действия АЭ наблюдаются центром, то использование системы
стимулирования, основывающейся на действиях АЭ, не приведет к
увеличению эффективности управления, а лишь увеличит инфор-
мационную нагрузку на центр.
Сложнее дело обстоит, когда функция дохода центра зависит
от действий АЭ, которые не наблюдаемы – см. третий вариант в
разделе 4.5 (в противном случае мы получили бы модель S4).
Фиксируем вектор y*(x) ? Y*(x) и предположим, что центр ис-
пользует систему стимулирования
?ci ( y * ( x )), z = x
? i* (x, , i ? I.
z) = ?
(3)
z?x
? 0,
62



PDF created with FinePrint pdfFactory Pro trial version http://www.pdffactory
Эта система стимулирования реализует результат деятельно-
сти x ? A0. При этом, однако, может оказаться, что выбранные АЭ
действия, которые обязательно принадлежат множеству Y*(x), не
равны y*(x). Центр не вправе рассчитывать на выполнение «гипоте-
зы благожелательности1», в рамках которой выполнено:
n
? ci(y)}, а вынужден определять макси-
K3 = max max {H(y) -
z? A0 y?Y ( z ) i =1
мальную эффективность стимулирования как2:
(4) K4 = max { min H(y) - ?2(z)}.
y?Y * ( z )
z? A0

Напомним, что при классификации задач стимулирования в
многоэлементных активных системах мы ограничились случаем,
когда для всех АЭ используется система стимулирования одного
типа. В том числе это предположение означает, что, если действия
наблюдаемы, то они наблюдаемы центром у всех АЭ, а если нена-
блюдаемы, то, опять же, у всех АЭ.
На практике часто встречаются ситуации, когда, например, в
рамках модели S7 или S8 действия одних элементов наблюдаемы, а
других – нет3. В подобных случаях центру следует использовать
комбинацию моделей S1-S6: тех АЭ, действия которых наблюдае-
мы стимулировать на основании их действий, а остальных – на
основании агрегированного результата деятельности. Рассмотрим
формальную модель.


1
Напомним, что в теоремах 4.5.1 и 4.6.1 фигурировал произвольный
вектор y*(z) из множества Y*(z).
2
Отметим, что если функция дохода центра зависит только от агреги-
рованного результата деятельности, то K4 переходит в K2. Более того,
если функции затрат сепарабельны, то в (4) можно вместо min H(y)
y?Y * ( z )

использовать H(y*), где y* = arg max H(y).
y ?Y * ( z )
3
Такая ситуация может рассматриваться как частный случай стиму-
лирования, зависящего от результата деятельности АС в целом – опе-
ратор Q(?) может быть взаимно однозначен по наблюдаемым действиям
АЭ.
63



PDF created with FinePrint pdfFactory Pro trial version http://www.pdffactory
Пусть в активной системе, состоящей из n активных элемен-
тов, действия АЭ из множества J ? I наблюдаются центром, а
действия АЭ из множества I \ J ненаблюдаемы для центра. Обозна-
чим: AJ = ? Ai , yJ - вектор действий АЭ из множества J,
i?J

? Ai , yI\J - вектор действий АЭ из множества I \ J, y = (yJ,
AI\J=
i?I \ J
yI\J) ? A’. Предположим, что:
1) результат деятельности АС зависит от действий всех АЭ;
2) доход центра зависит от наблюдаемых действий АЭ и результа-
та деятельности АС, то есть H = H(yJ, z);
3) целевая функция центра равна: ?(yJ, z) = H(yJ, z) - ?(yJ, z), где
?(yJ, z) определяется ниже, y ? EN(?), ? ? M;
4) затраты несепарабельны, то есть затраты каждого АЭ зависят от
действий всех АЭ: ci = ci(y), i ? I;
5) стимулирование АЭ, действия которых наблюдаемы, зависит от
их действий, то есть ?i = ?i(yJ), i ? J (делать их стимулирование
зависящим от действий yI\J и/или результата деятельности АС
бессмысленно – см. результаты выше);
6) стимулирование АЭ, действия которых ненаблюдаемы, зависит
от результата деятельности АС, то есть ?i = ?i(z), i ? I\J.
Обозначим: A0(yJ) = {z ? A0 | z =Q(yJ, yI\J), yI\J ? AI\J} ? A0 –
множество результатов деятельности, которые могут быть получе-
ны при условии, что АЭ из множества J выбрали действия yJ ? AJ;
Y(z, yJ) = {yI\J ? AI\J | Q(yJ, yI\J) = z} ? AI\J, z ? A0(yJ), yJ ? AJ – мно-
жество тех действий АЭ из множества I\J, выбор которых при
условии, что остальные АЭ выбрали действия yJ, приводит к реали-
зации заданного результата деятельности z ? A0.
Пусть АЭ из множества J выбрали вектор действий yJ. При
компенсации центром затрат активных элементов его минималь-
ные затраты на стимулирование по реализации результата деятель-
? ci(yI\J, yJ).
ности z ? A0(yJ) равны: ?(yJ, z) = min
y I \ J ?Y ( z , yJ ) i?I
На первом шаге решения задачи стимулирования определим
множество векторов действий АЭ, приводящих к заданному ре-
зультату деятельности и требующих минимальных затрат на сти-
мулирование по своей реализации:
64



PDF created with FinePrint pdfFactory Pro trial version http://www.pdffactory
? ci(yI\J, yJ) ? Y(z, yJ).
Y*(z, yJ) = Arg min
y I \ J ?Y ( z , yJ ) i?I

Фиксируем произвольный вектор y *\J (z) ? Y*(z, yJ) ? Y(z, yJ).
I
Теорема 4.7.2. Система стимулирования1
?ci ( y * , y *\ J ( x )), z = x
? i* (x, , i ? I\J,
J I
z) = ?
(5)
z?x
? 0,
?ci ( yi* , y J \ {i} , y * \ J ( x )), yi = yi*
(6) ? i ( y J , yJ) = ? , i ? J,
* * I
yi ? yi*
? 0,

<<

стр. 2
(всего 6)

СОДЕРЖАНИЕ

>>