<<

стр. 3
(всего 5)

СОДЕРЖАНИЕ

>>

вания, соответствующих столбцу. Знак «?» означает, что соотно-
шение затрат на стимулирование зависит от конкретного случая –
параметров организационной системы, то есть свойств целевых
функций и допустимых множеств и т.д. – и требует дополнитель-
ного исследования в каждом из этих конкретных случаев.

Таблица 1
Сравнительная эффективность
базовых систем стимулирования
С K L D LL LL+C C+D
? ? ? ? ? ?
С =
? ? ? ? ? ?
=
K
? ? ? ? ?
? ?
L
? ? ? ?
? ? ?
D
? ? ? ? ?
? ?
LL
? ? ? ? ?
? ?
LL+C
? ? ? ?
? ? ?
C+D

Выше были выделены четыре основных, двенадцать суммар-
ных и пятнадцать составных (двойных), то есть всего 31 простая
базовая система стимулирования. Подробно исследованы некото-
рые (K, C, L, D, LL, L+С и др.) из базовых систем стимулирования,
отражающих наиболее часто используемые на практике системы
индивидуальной заработной платы.
Полное исследование сравнительной эффективности всех ба-
зовых систем стимулирование подразумевает, как минимум, по-
парное сравнение соответствующих минимальных затрат на сти-
мулирование, результатами которого могла бы стать таблица типа
таблицы 1, имеющая 31 ? 31 = 961 ячейку. Заполнение такой таб-
лицы является трудоемкой, но, в принципе, реализуемой задачей. В
то же время, такое детальное исследование всех возможных ком-
бинаций представляется нецелесообразным по следующим причи-
нам.
74
Во-первых, выше при описании результатов исследования
комбинаций, вошедших в таблицу 1, мы зачастую вводили те или
иные предположения как относительно свойств целевых функций,
так и относительно соотношений конкретных параметров, явно
оговаривая или неявно подразумевая (будучи обоснованно уверен-
ными [11]), что небольшие изменения этих параметров не повлия-
ют на сделанные выводы и, в частности – на оценки сравнительной
эффективности.
Во-вторых, из приведенных результатов видно, что «техника»
анализа различных комбинаций практически одинакова (что и
является одной из основ упомянутой выше уверенности): следует
вычислить действия, реализуемые используемой системой стиму-
лирования, определить минимальные затраты на стимулирование и
сравнить их с соответствующими показателями для других базо-
вых систем стимулирования.
Таким образом, с одной стороны, учет всего многообразия
возможных вариантов достаточно трудоемок, с другой стороны
единообразие, простота и алгоритмичность их анализа свидетель-
ствуют о наличии единых (методологических и методических)
подходов к их изучению. Поэтому, наверное, нецелесообразно
исследовать все комбинации моделей, а лучше предоставить ис-
следователю операций возможность самостоятельно реализовать в
каждом конкретном случае единый подход к изучению как суще-
ствующих на практике систем оплаты, так и их формальных моде-
лей.
Существенными для проведенного анализа являлись введен-
ные выше предположения о поведении агента – в частности: ис-
пользуемых им принципах рационального выбора, свойствах
функции затрат и т.д. Поэтому перспективным направлением
дальнейших исследований представляется ослабление этих пред-
положений, то есть расширение множества моделей и исследова-
ние возможности использования предложенного выше подхода
(анализ минимальных затрат на стимулирование) в этом более
широком их классе.
В заключение настоящего раздела рассмотрим интерпретации
базовых систем стимулирования в терминах экономики труда
(функции полезности), исходя из обоснованного выше предполо-

75
жения, что кривые безразличия функции полезности u(q, t) агента
убывающие и выпуклые1.
Системы стимулирования K-типа.
Напомним, что компенсаторной выше была названа система
стимулирования, которая компенсирует затраты агента, обеспечи-
вая ему некоторый уровень полезности (например, полезность
резервной заработной платы U ). Множество допустимых возна-
граждений агента при ограничении C механизма стимулирования
заштриховано на рисунке 25.
Если центр гарантирует агенту значение полезности, равное
полезности резервной заработной платы, то компенсаторная сис-
тема стимулирования ?K(?) может быть найдена из следующих
соотношений (см. определение множества реализуемых действий
выше):
˜
(16) ? t: (T – t) ? P(C) u( ? K (t), t) = U ,
˜
(17) ?K(?) = ? K (T – ?).


c(?)+U



Множество
C
реализуемых действий

U
?

?max = c -1(C-U )

Рис. 25. Множество допустимых вознаграждений



1
Подчеркнем, что для упрощения изложения считается, что задача выбора
агентом продолжительности рабочего времени имеет внутреннее решение, то
есть, исключим из рассмотрения «угловое решение», при котором оптимальная
для агента продолжительность свободного времени равна T (при этом стимули-
рование бессмысленно, так как агент отрабатывает нулевое число часов, как и в
случае полного отсутствия стимулирования).
76
˜
Из (16)-(17) следует, что график функции ? K (t) совпадает с
кривой безразличия функции полезности, определяемой условием:
? = U (см. рисунок 26). Так как кривая безразличия – убывающая
и выпуклая, следовательно компенсаторная система стимулирова-
ния является возрастающей и выпуклой (см. рисунок 26). Кривая
безразличия, соответствующая гарантированной полезности агента
U , на рисунке 26 выделена жирной линией.
На рисунке 26 также изображена (жирной штрих-пунктирной
линией) компенсаторная функция стимулирования ?K(?), соответ-
ствующая данной функции полезности агента (отметим, что при
? > ?max = T – tmin = c-1(C – U ) компенсаторное вознаграждение
превысит ограничение C).
Итак, компенсация затрат в модели индивидуальных предпоч-
тений означает, что агент «находится» на изокванте полезности и
безразличен между всеми продолжительностями рабочего време-
ни. Если выполнена гипотеза благожелательности, то он выберет
продолжительность рабочего времени, оговоренную в контракте.

q
?K(?)
C



?? U
?= U

?? U t, ?
0 ?max = T - tmin
T/2
tmin T

Рис. 26. Компенсаторная функция стимулирования

Приведем доказательство оптимальности систем стимулиро-
вания К-типа в терминах функции полезности. Пусть центр хочет
побудить агента отработать ?* часов. Свободное время при этом
равно t* = T – ?*. Наличие резервной заработной платы ограничи-

77
вает множество возможных значений вознаграждения полуинтер-
валом АВ (см. рисунок 27).

q
B
C
qC
A
qA
˜
? >?
?= U

t, ?

t* T

Рис. 27. Оптимальность функции стимулирования К-типа


Задача синтеза оптимальной функции стимулирования сво-
дится к поиску такого бюджетного ограничения, которое касалось
бы некоторой кривой безразличия на отрезке АВ, причем жела-
тельно, чтобы величина вознаграждения в точке касания была
минимальна, то есть чтобы точка касания находилась как можно
ближе к точке А, а в идеале – совпадала бы с ней. Кривая безраз-
личия, проходящая через точку А, соответствует ограничению
резервной заработной платы. Если рассматривать ее саму как
бюджетное ограничение, то получим, что последнему соответству-
ет именно компенсаторная система стимулирования. При ее ис-
пользовании затраты на стимулирование по реализации действия ?*
равны qA (см. рисунок 27).
Если попытаться найти оптимальную пропорциональную сис-
тему стимулирования, реализующую то же действие ?*, то полу-
чим, что соответствующим ей бюджетным ограничением является
˜
прямая, касающаяся кривой безразличия ? > ? = U в точке С (см.
рисунок 27). Через точку С проходит кривая безразличия, соответ-
ствующая строго большей полезности, чем полезность резервной

78
заработной платы. Поэтому, хотя пропорциональная система сти-
мулирования и реализует действие ?*, она реализует его с затрата-
ми на стимулирование qC, строго большими, чем минимально
необходимые. Разность qC – qA показывает насколько переплачива-
ет центр при использовании неотрицательных пропорциональных
систем стимулирования по сравнению с компенсаторными. Анало-
гичные рассуждения можно привести, иллюстрируя их графиками
(см. ниже), и относительно эффективности других базовых систем
стимулирования в сравнении с компенсаторными и друг с другом.
Из всех базовых систем стимулирования только компенсатор-
ные зависят непосредственно от затрат агента. Поэтому при рас-
смотрении остальных базовых систем стимулирования учет полез-
ности агента будет производиться не столь явным образом, как это
делалось выше для компенсаторных. Реализуемое действие будем
обозначать как и ранее t* (t* = T – ?*). Аналогия приводимых ниже
результатов с результатами анализа пропорциональных систем
˜
стимулирования следующая – функция поощрения ? (t ) является
бюджетным ограничением, которого в точке оптимума должна
«касаться» кривая безразличия агента.
Системы стимулирования С-типа.
Напомним, что при использовании скачкообразных систем
стимулирования ?C(?) агент поощряется на фиксированную вели-
чину только в том случае, если его действие (продолжительность
рабочего времени ?) не меньше, чем заданный норматив x. Соот-
˜
ветствующая функция ? C (t ) определяется следующим образом:
агент поощряется на фиксированную величину только в том слу-
чае, если продолжительность его свободного времени t не больше,
чем заданный норматив x.
На рисунке 28 представлены: скачкообразная система стиму-
˜
лирования ? C (t ) со скачком в точке x; кривая безразличия ? = U
полезности обозначена пунктиром, она совместно с ограничением
механизма стимулирования C определяет минимальную продол-
жительность свободного времени tmin, которую центр может побу-
дить выбрать агента; кривая безразличия функции полезности
(соответствующая максимальному при данной системе стимулиро-
вания значению полезности агента) обозначена непрерывной лини-

79
˜
ей, эта кривая безразличия характерна тем, что она касается1 ? C (t )
в точке А.


q
A
C ˜
? C (t )

?? U
?=U

t, ?
0 x=t*
tmin T

Рис. 28. Скачкообразная функция стимулирования


Значение времени досуга, равное tmin, соответствует макси-
мальной продолжительности рабочего времени, которое центр
может побудить отработать агента, используя скачкообразные
системы стимулирования, ограниченные сверху константой C
(доход агента, равный C, при t = tmin обеспечивает ему минималь-
ный уровень полезности, соответствующий резервной заработной
плате).
Системы стимулирования L-типа (то есть линейные – с посто-
янной ставкой оплаты) детально описаны выше.
Остановимся более подробно на взаимосвязи сдельной и по-
временной оплаты. Как отмечалось выше, если результат деятель-
ности агента, достигаемый за единицу времени (являющуюся
основой отсчета при повременной оплате – минута, час, день и
т.д.), постоянен и не зависит от количества уже отработанных
часов, то с точки зрения теоретического анализа сдельная и повре-
менная системы оплаты полностью эквивалентны – между ними

1
Оптимальная продолжительность рабочего времени (то есть продолжитель-
ность, максимизирующая полезность агента при данной зарплате) в рассматри-
ваемом случае определяется уже не «дифференциальными» условиями первого
порядка (условие касания), а общим видом условий реализуемости действия
(условий глобального максимума).
80
существует линейная связь (то есть результат деятельности y пря-
мо пропорционально рабочему времени ?). Если результат дея-
тельности агента, достигаемый за единицу времени, зависит от
количества уже отработанных часов, то между повременной и
сдельной оплатой существуют различия.
В работах зарубежных исследователей по экономике труда
[17] обычно принимается следующий вид зависимости между
результатами деятельности y и текущей продолжительностью
рабочего времени ? (см. рисунок 29). На рисунке 30 изображен
dy (? )
график производной кривой y(?) – кривая производительно-
d?
сти деятельности агента (результат деятельности, достигаемый в
единицу времени).
Содержательно, низкая производительность в начале рабочего
дня обусловлена эффектом «врабатывания» (или адаптации) –
агент переключается (промежуток времени [0; ?1]) на новый (по
сравнению, например, с отдыхом) вид деятельности – работу.
Постепенно производительность растет (промежуток времени
[?1; ?2], достигая максимума в момент времени ?2 (или в более
общем случае в некотором интервале времени). Затем, после мо-
мента времени ?2, начинает сказываться, например, усталость, и
производительность начинает убывать.

dy (? )
y
d?
y3


y2


y1 ? ?
?2 ?2
?1 ?1
?3 ?3
0 0
Рис. 29. Зависимость результата Рис. 30. Производительность
(кумулятивного) деятельности деятельности агента
агента от времени


81
В многочисленных исследованиях (проведенных в основном в
доперестроечный период) также встречаются кривые (зависимости
производительности труда от времени в течение рабочего дня1)
типа приведенных на рисунке 30. Эскиз графика характерной
зависимости производительности труда рабочих (с учетом переры-
ва на обед) от времени изображен на рисунке 31 (нулевой момент
времени соответствует началу рабочего дня; во время обеденного
перерыва – на интервале [?1; ?2] – производительность равна нулю;
момент времени ?3 соответствует окончанию рабочего дня). Со-
держательные интерпретации участков возрастания, постоянства и
убывания производительности труда очевидны.

dy
d?




?
?3
?2
?1
0

Рис. 31. Зависимость производительности труда
от времени в течение рабочего дня

Нелинейное изменение результата деятельности агента во
времени позволяет выделить два «типа» агентов, которых следует
оплачивать по-разному. Поясним последнее утверждение. Если
принять, что функция затрат агента имеет вид, изображенный на
рисунке 29, то при использовании центром компенсаторной систе-
мы стимулирования кривые безразличия агента могут касаться
кривой бюджетного ограничения в одной из двух характерных
точек – точке А, в которой кривая бюджетного ограничения вогну-
та (первый «тип»), или в точке В, в которой кривая бюджетного
1
Следует отметить, что и отечественными, и зарубежными учеными исследо-
вались зависимости производительности труда от времени не только в течение
рабочего дня, но и в течение рабочей недели, месяца, года и т.д.
82
ограничения выпукла (второй «тип» – см. рисунок 32). Выделен-
ным двум типам агентов соответствуют разные семейства кривых
безразличия: агенты первого типа по сравнению с агентами второ-
го типа выше ценят доход, а агенты второго типа – свободное
время.

q


A
A’


В’
В
t, ?
0 T
Рис. 32. Два «типа» агентов

Если цель центра заключается в том, чтобы при минимальном
вознаграждении агента побуждать его к увеличении продолжи-
тельности рабочего времени, то для агентов первого типа следует
использовать повременную систему (пропорциональную, в кото-
рой показателем является продолжительность рабочего дня) сти-
мулирования, а для агентов второго типа – сдельную (компенса-
торную, в которой показателем является результат деятельности) –
см. горизонтальные прямые и точки А, А’ и В, В’ на рисунке 32.
Системы стимулирования D-типа. Напомним, что в системах
стимулирования, основанных на перераспределении дохода, возна-
граждение агента пропорционально (с коэффициентом пропорцио-
нальности не зависящим от действия агента) доходу центра H(y),
который зависит от действия агента, то есть ?D(?) = ? H(?),
? ? [0; 1].
Если функция дохода центра вогнутая (что обычно предпола-
гается как в теоретико-игровых, так и в экономических моделях),
˜
то функции ?D(?) и ? D (t) также являются вогнутыми. На рисунке
˜
33 изображены функции стимулирования ?D(?) и ? D (t), а также
83
кривая безразличия, соответствующая максимальному значению
˜
полезности агента (эта кривая касается кривой ? D (t) в точке А).

q
?D(?)
˜
? D (t )
A

?? U
?= U

t, ?
0 *
T/2 t T
Рис. 33. Функция стимулирования D-типа


Вогнутые функции стимулирования.
Пусть функция стимулирования (бюджетное ограничение) во-
гнутая, а кривая безразличия агента – выпуклая (см. рисунок 34).
Тогда для данной системы стимулирования можно произвести
линеаризацию (см. выше), то есть найти неотрицательную систему
стимулирования L+C-типа, реализующую то же действие, что и
исходная система стимулирования. Величина qT называется нетру-
довым доходом (она равна доходу агента при нулевом рабочем
времени).
q
?? U
˜
? (t )
A
(t)

?
˜
? L+C (t * )
qT
(t)
t, ?

0 t* T

Рис. 34. Линеаризация вогнутой функции
стимулирования

84
Итак, рассмотрено описание основных базовых систем стиму-
лирования в терминах экономики труда. Используя полученные
результаты, легко получить аналогичные описания для остальных
базовых систем стимулирования. Проиллюстрируем возможность
переноса на примере составных и суммарных систем стимулирова-
ния.
Системы стимулирования LL-типа (составные). Напомним,
что составной системой стимулирования LL-типа называется такая
система стимулирования, в которой агент поощряется пропорцио-
нально действию, причем на различных участках множества воз-
можных действий A = [0; T] коэффициенты пропорциональности
?1 и ?2 различны. Так как выше было показано, что оптимальная
система стимулирования должна быть возрастающей и выпуклой,
то рассмотрим случай, когда 0 < ?1 ? ?2 (при ?1 = ?2 получим
подробно рассмотренную выше систему стимулирования L-типа).
Условием оптимальности является равенство ставки оплаты и
альтернативной стоимости одного часа досуга. Следовательно,
возможны три варианта – кривая безразличия полезности агента
касается бюджетной кривой, имеющей вид ломаной, либо на ли-
нейном участке с углом наклона ?1 (точка А – см. рисунок 35),
либо на линейном участке с углом наклона ?2 (точка В – см. рису-
нок 36), либо на обоих участках сразу (точки А и В – см. рисунок
37) – см. также описание систем стимулирования LL-типа.

q q q


В
В
?2 ?2 ?2

A A
?1 t ?1 t ?1 t
0 0
x T 0
x T x T
Рис. 35 Рис. 36 Рис. 37
Система стимулирования LL-типа

85
Системы стимулирования L+C-типа (суммарные). Напомним,
что суммарной системой стимулирования L+С-типа называется
такая система стимулирования, при использовании которой агент
поощряется пропорционально действию, причем, если его дейст-
вие (количество отработанных часов) превышает норматив x, то
ему доплачивается постоянная величина C. Как и ранее, возможны
три варианта – кривая безразличия полезности агента касается
бюджетной кривой, имеющей вид разрывной прямой, на линейном
участке с углом наклона ? либо правее точки x (точка А – см.
рисунок 38), либо левее этой точки (точка В – см. рисунок 39),
либо, что не исключено в силу выпуклости кривых безразличия,
одновременно в точке x и правее ее (точки А и В – см. рисунок 40).

q q q



В
? ? ? В

A A
? t ? ?
t t
0 0
x T 0
x T x T

Рис. 38 Рис. 39 Рис. 40
Система стимулирования L+С-типа


Итак, рассмотрена взаимосвязь между теоретико-игровыми
моделями стимулирования и экономическими моделями предло-
жения труда. Полученные результаты позволили не только провес-
ти содержательные аналогии, но и установить количественные
соотношения между параметрами этих двух классов моделей.
Для использования результатов моделирования на практике
требуется уметь идентифицировать модель стимулирования, в том
числе – определять предпочтения участников ОС. Так как пред-
86
почтения центра описываются его функцией дохода, а предпочте-
ния агента – функцией затрат, то необходимо привести конструк-
тивные алгоритмы определения этих функций. Рассмотрим сначала
проблему идентификации функции затрат агента.


ЧАСТЬ 3. КОЛЛЕКТИВНОЕ СТИМУЛИРОВАНИЕ

7. КОЛЛЕКТИВНОЕ СТИМУЛИРОВАНИЕ ЗА
ИНДИВИДУАЛЬНЫЕ РЕЗУЛЬТАТЫ

В предыдущих разделах рассматривались системы индивиду-
ального стимулирования. Дальнейшее изложение посвящено опи-
санию моделей коллективного стимулирования, то есть стимули-
рования коллектива агентов.
Простейшим обобщением базовой одноэлементной модели
является многоэлементная ОС с независимыми (невзаимодейст-
вующими) агентами. В этом случае задача стимулирования распа-
дается на набор одноэлементных задач.
Если ввести общие для всех или ряда агентов ограничения на
механизм стимулирования, то получается задача стимулирования в
ОС со слабо связанными агентами, представляющая собой набор
параметрических одноэлементных задач, для которого проблема
поиска оптимальных значений параметров решается стандартными
методами условной оптимизации.
Если агенты взаимосвязаны, то есть затраты или/и стимулиро-
вание агента зависят, помимо его собственных действий, от дейст-
вий других агентов, то получается «полноценная» многоэлемент-
ная модель стимулирования, описываемая ниже.
Последовательность решения многоэлементных и одноэле-
ментных задач имеет много общего. Сначала необходимо постро-
ить компенсаторную систему стимулирования, реализующую
некоторое (произвольное, или допустимое при заданных ограниче-
ниях) действие – первый этап – этап анализа согласованности
стимулирования. В одноэлементных ОС в рамках гипотезы благо-
желательности для этого достаточно проверить, что при этом
максимум целевой функции агента будет достигаться, в том числе
и на реализуемом действии. В многоэлементных ОС достаточно
87
показать, что выбор соответствующего действия является равно-
весной стратегией в игре агентов. Если равновесий несколько, то
необходимо проверить выполнение для рассматриваемого дейст-
вия дополнительной гипотезы о рациональном выборе агентов. В
большинстве случаев достаточным оказывается введение аксиомы
единогласия (агенты не будут выбирать равновесия, доминируе-
мые по Парето другими равновесиями), иногда центру приходится
вычислять гарантированный результат по множеству равновесных
стратегий агентов и т.д. Далее следует приравнять стимулирование
затратам и решить стандартную оптимизационную задачу – какое
из реализуемых действий следует реализовывать центру – второй
этап – этап согласованного планирования – см. также второй раз-
дел.
В большинстве рассматриваемых в теории управления моде-
лей стимулирования изучаются одноэлементные ОС, состоящие из
одного управляющего органа (центра) и одного управляемого
субъекта – агента. В настоящем разделе описывается предложен-
ный в [14] метод, заключающийся в выборе системы стимулирова-
ния, реализующей оптимальный с точки зрения центра вектор
действий агентов как равновесие в доминантных стратегиях1 (РДС)
[5], что позволяет декомпозировать игру агентов и получить ана-
литическое решение задачи стимулирования.
Стимулирование в ОС со слабо связанными агента-
ми. Описанные выше результаты решения задачи стимулирования
могут быть непосредственно обобщены на случай, когда имеются
n ? 2 агентов, функции затрат которых зависят только от их собст-
венных действий (так называемые сепарабельные затраты), сти-
мулирование каждого агента зависит только от его собственных
действий, но существуют ограничения на суммарное стимулирова-
ние агентов. Такая модель называется ОС со слабо связанными
агентами и является промежуточной между системами индивиду-
ального и коллективного стимулирования.


1
Напомним, что равновесием в доминантных стратегиях называется такой
вектор действий агентов, что каждому агенту выгодно выбирать соответст-
вующую компоненту этого равновесия независимо от того, какие действия
выбирают другие агенты – см. формальное определение ниже.
88
Пусть I = {1, 2, …, n} – множество агентов, yi ? Ai – действие
i-го агента, ci(yi) – затраты i-го агента, ?i(yi) – стимулирование его
со стороны центра, i ? I, y = (y1, y2, …, yn) – вектор действий аген-
?
тов, y ? A’ = Ai . Предположим, что центр получает доход H(y)
i?I
от деятельности агентов.
Пусть размеры индивидуальных вознаграждений агентов ог-
раничены величинами {Ci}i ? I, то есть ? yi ? Ai ?i(yi) ? Ci, i ? I.
Если фонд стимулирования (ФЗП) ограничен величиной R, то есть
? Сi ? R, то получаем (см. второй раздел), что максимальное
i?I
множество реализуемых действий для i-го агента зависит от соот-
ветствующего ограничения механизма стимулирования:
+
Pi (Ci ) = [0, yi (Ci )] , i ? I.
Тогда оптимальное решение задачи стимулирования в ОС со
слабо связанными агентами определяется следующим образом –
максимизировать выбором индивидуальных ограничений {Ci}i ? I,
?
Сi ? R, следую-
удовлетворяющих бюджетному ограничению
i?I
щее выражение:
?( R) = max H ( y1 , ..., yn ) ,
{ y i ?Pi ( C i )}i?I
что является стандартной задачей условной оптимизации.
Отметим, что когда ФЗП фиксирован, затраты центра на сти-
мулирование не вычитаются из его дохода. Если ФЗП является
переменной величиной, то его оптимальное значение R* может
быть найдено как решение следующей задачи:
R* = arg max [?(R) – R].
R?0

Пример 5. Пусть функции затрат агентов: ci(yi) = yi2 /2ri, i ? I,
?? y
а функция дохода центра – H ( y ) = , где {?i}i ? I – положи-
i i
i?I
тельные константы.
При заданных ограничениях {Ci}i ? I максимальное реализуе-
мое действие каждого агента: yi+ (Ci ) = 2riCi , i ? I. Задача све-

89
лась к определению оптимального набора ограничений { Ci? }i ? I,
удовлетворяющего бюджетному ограничению и максимизирующе-
го целевую функцию центра:
?? ? i 2riCi > max
? i?I {C i }
? .
?? Ci ? R
? i?I
Решение этой задачи имеет вид:
ri? i2
?
C= R, i?I .
?jrj? 2
i

j ?I

? r? / 2. •
2
Оптимальный размер ФЗП равен R* = i i
i?I
Стимулирование в ОС с сильно связанными агента-
ми. Обозначим y-i = (y1, y2, …, yi-1, yi+1, …, yn) ? A-i = ? A j –
j ?i
обстановка игры для i-го агента. Интересы и предпочтения участ-
ников ОС – центра и агентов – выражены их целевыми функциями.
Целевая функция центра ?(?, y) представляет собой разность
между его доходом H(y) и суммарным вознаграждением ?(y),
n

? ? ( y ) , где ? (y) – стимулирова-
выплачиваемым агентам: ?(y) = i
i
i =1
ние i-го агента, ?(y) = (?1(y), ?2(y), …, ?n(y)). Целевая функция i-го
агента fi(?i, y) представляет собой разность между стимулировани-
ем, получаемым от центра, и затратами ci(y), то есть:
n
?? i ( y) .
(1) ?(?, y) = H(y) –
i =1
(2) fi(?i, y) = ?i(y) – ci(y), i ? I.
Отметим, что и индивидуальное вознаграждение, и индивиду-
альные затраты i-го агента по выбору действия yi в общем случае
зависят от действий всех агентов (случай сильно связанных агентов
с несепарабельными затратами).
Примем следующий порядок функционирования ОС. Центру и
агентам на момент принятия решения о выбираемых стратегиях
90
(соответственно – функциях стимулирования и действиях) извест-
ны целевые функции и допустимые множества всех участников
ОС. Центр, обладая правом первого хода, выбирает функции сти-
мулирования и сообщает их агентам, после чего агенты при из-
вестных функциях стимулирования выбирают действия, максими-
зирующие их целевые функции.
Относительно параметров ОС введем следующие предполо-
жения:
- множество действий каждого агента совпадает со множест-
вом неотрицательных действительных чисел;
- функции затрат агентов непрерывны, неотрицательны и ? yi
? Ai ci(y) не убывает по yi, i? I; и ? y-i ? A-i ci(0, y-i) = 0.
- функция дохода центра непрерывна по всем переменным и
достигает максимума при ненулевых действиях агентов.
Второе предположение означает, что независимо от действий
других агентов любой агент может минимизировать свои затраты
выбором нулевого действия. Остальные предположения – такие
же, как и в одноэлементной модели (см. второй раздел).
Так как и затраты, и стимулирование каждого агента в рас-
сматриваемой модели зависят в общем случае от действий всех
агентов, то агенты оказываются вовлеченными в игру [5], в кото-
рой выигрыш каждого зависит от действий всех. Обозначим P(?) –
множество равновесных при системе стимулирования ? стратегий
агентов – множество решений игры (тип равновесия пока не огова-
ривается; единственно предположим, что агенты выбирают свои
стратегии одновременно и независимо друг от друга, не имея
возможности обмениваться дополнительной информацией и по-
лезностью).
Как и в одноэлементной ОС, рассмотренной во втором разде-
ле, гарантированной эффективностью (далее просто «эффективно-
стью») стимулирования является минимальное (или максимальное
– в рамках гипотезы благожелательности) значение целевой функ-
ции центра на соответствующем множестве решений игры:
(3) K(?) = min ?(?, y).
y?P (? )




91
Задача синтеза оптимальной функции стимулирования заклю-
чается в поиске допустимой системы стимулирования ?*, имеющей
максимальную эффективность:
(4) ?* = arg max K(?).
? ?M
Из результатов второго раздела следует, что в частном случае,
когда агенты независимы (вознаграждение и затраты каждого из
них зависят только от его собственных действий), то оптимальной
?
? i ) является квазикомпенса-
(точнее – ?-оптимальной, где ? =
i?I
торная система стимулирования:
? ci ( yi* ) + ? i , yi = yi*
(5) ? i K ( yi ) = ? , i ? I,
yi ? yi*
?0,
где {?i}i ? I – сколь угодно малые строго положительные константы
(мотивирующие надбавки), а оптимальное действие y*, реализуе-
мое системой стимулирования (5) как РДС, является решением
следующей задачи оптимального согласованного планирования:

? c ( y ) }.
y* = arg max {H(y) – i i
y? A ?
i?I
Если стимулирование каждого агента зависит от действий
всех агентов (рассматриваемый в настоящем разделе случай кол-
лективного стимулирования) и затраты не сепарабельны (то есть
затраты каждого агента зависят в общем случае от действий всех
агентов, что отражает взаимосвязь и взаимозависимость агентов),
то определения множества равновесий Нэша1 EN(?) ? A’и РДС yd ?
A’ имеют вид:
(6) EN(?) = {yN ? A | ? i ? I ? yi ? Ai
?i(yN) – ci( y N ) ? ?i(yi, y ? i ) – ci(yi, y ? i )},
N N


y id ? Ai – доминантная стратегия i-го агента, тогда и только тогда,
когда

1
Напомним, что равновесием Нэша называется такой вектор действий агентов,
что каждому агенту выгодно выбирать соответствующую компоненту этого
равновесия при условии, что все остальные агенты выбирают равновесные
действия.
92
? yi ? Ai, ? y-i ? A-i ?i( y id , y-i) – ci( y id , y-i) ? ?i(yi, y-i) – ci(yi, y-i).
Если при заданной системе стимулирования у всех агентов
имеется доминантная стратегия, то говорят, что данная система
стимулирования реализует соответствующий вектор действий как
РДС.
Фиксируем произвольный вектор действий агентов y* ? A’ и
рассмотрим следующую систему стимулирования:
?ci ( yi* , y ? i ) + ? i , yi = yi*
(7) ?i(y , y) = ? , ?i ? 0, i ? I.
*

yi ? yi
*
? 0,
В [14] доказано, что при использовании центром системы сти-
мулирования (7) y* – РДС. Более того, если ?i > 0, i ? I, то y* –
единственное РДС.
Содержательно, при использовании системы стимулирования
(7) центр использует следующий принцип декомпозиции: он
предлагает i-му агенту – «выбирай действие yi* , а я компенсирую
тебе затраты, независимо от того какие действия выбрали осталь-
ные агенты, если же ты выберешь любое другое действие, то воз-
награждение будет равно нулю». Используя такую стратегию,
центр декомпозирует игру агентов.
Если стимулирование каждого агента зависит только от его
собственного действия, то, фиксировав для каждого агента обста-
новку игры, перейдем от (7) к системе индивидуального стимули-
рования следующим образом: фиксируем произвольный вектор
действий агентов y* ? A’ и определим систему стимулирования:
?ci ( yi* , y ? i ) + ? i , yi = yi*
*
(8) ?i(y , yi) = ? , ?i ? 0, i ? I.
*

yi ? yi
*
? 0,
Содержательно, при использовании системы стимулирования
(8) центр предлагает i-му агенту – «выбирай действие yi* , а я
компенсирую тебе затраты, считая, что остальные агенты также
*
выбрали соответствующие компоненты – y ?i , если же ты выбе-
решь любое другое действие, то вознаграждение будет равно ну-
лю». Используя такую стратегию, центр также декомпозирует игру
агентов.
93
Отметим, что функция стимулирования (8) зависит только от
*
действия i-го агента, а величина y?i входит в нее как параметр.
Кроме того, при использовании центром системы стимулирования
(8), в отличие от (7), каждый из агентов имеет косвенную инфор-
мацию обо всех компонентах того вектора действий, который
хочет реализовать центр. Для того, чтобы система стимулирования
(8) реализовывала вектор y* как РДС, необходимо введение допол-
нительных (по сравнению со случаем использования (7)) предпо-
ложений относительно функций затрат агентов – см. [14].
Здесь же уместно качественно пояснить необходимость введе-
ния неотрицательных констант {?i}i ? I в выражениях (5), (7) и (8).
Если требуется реализовать некоторое действие как одно из равно-
весий Нэша, то эти константы могут быть выбраны равными нулю.
Если требуется, чтобы равновесие было единственным (в частно-
сти, чтобы агенты не выбирали нулевые действия – иначе при
вычислении гарантированного результата в (3) центр вынужден
рассчитывать на выбор агентами нулевых действий), то агентам
следует доплатить сколь угодно малую, но строго положительную
величину за выбор именно того действия, которое предлагается
центром. Более того, величины {?i}i ? I в выражениях (5), (7) и (8)
играют важную роль и с точки зрения устойчивости компенсатор-
ной системы стимулирования по параметрам модели. Например,
если функция затрат i-го агента известна с точностью до ?i ? ?i / 2,
то компенсаторная система стимулирования (7) все равно реализу-
ет действие y*.
Вектор оптимальных реализуемых действий агентов y*, фигу-
рирующий в качестве параметра в выражении (7) или (8), опреде-
ляется в результате решения следующей задачи оптимального
согласованного планирования:
(9) y* = arg max {H(t) – ?(t)},
t ? A?

? c (t ) , а эффективность системы стимулирования (7),
где v(t) = i
i?I
(9) равна следующей величине:
? c ( y ) – ?.
*
K* = H(y*) – i
i?I



94
В [14] доказано, что система стимулирования (7), (9) является
оптимальной, то есть, обладает максимальной эффективностью
среди всех систем стимулирования в многоэлементных ОС.
Примеры. Рассмотрим несколько примеров решения задач
синтеза оптимальных систем коллективного стимулирования в
многоэлементных ОС.
Пример 6. Решим задачу стимулирования в ОС с двумя аген-
( yi +? y3? i ) 2
тами, имеющими функции затрат: ci(y) = , i = 1, 2, где
2ri
? – некоторый параметр, отражающий степень взаимозависимости
агентов. Пусть функция дохода центра H(y) = y1 + y2, а фонд зара-
ботной платы ограничен величиной R. Если центр использует
систему стимулирования (7), то задача стимулирования сводится к
поиску оптимальных реализуемых действий:
? H ( y ) > max
? y?0 .
c1 ( y ) + c2 ( y ) ? R
?
Применяя метод множителей Лагранжа, получаем, что реше-
ние имеет вид:
2 R ? r2 + r1 2 R ? r1 + r2
* *
y1 = , y2 = .
r1 + r2 ? ? 1 r1 + r2 ? 2 ? 1
2


Подставляя равновесные действия агентов в целевую функ-
цию центра, получаем, что оптимальный размер ФЗП равен (см.
также пример 5)
r1 + r2
R* = arg max [ 2 R (r1 + r2 ) /(1 – ?) – R] = .•
2(? ? 1) 2
R?0

Пример 7 (совместное производство). Рассмотрим многоэле-
ментную двухуровневую ОС, состоящую из центра и n агентов.
Пусть целевая функция i-го агента fi(y, ri) представляет собой
разность между доходом hi(y) от совместной деятельности и затра-
тами ci(y, ri), где ri – параметр эффективности (тип) агента, то есть
fi(y, ri) = hi(y) – ci(y, ri), i ? N.
Выберем следующий вид функций дохода и затрат:


95
yi2
hi(y) = ?i ? Y, i ? N, ci(y, ri) = , i ? N,
2(ri ± ? i ? y j )
j ?i

? y , ?? = 1. Для случая, когда в знаменателе стоит
где Y = i i
i?I i?I

ri
?y <
знак «–», предполагается, что .
?i
j
j ?i
Содержательно набор агентов может интерпретироваться как
фирма, подразделения которой (агенты) производят однородную
продукцию, реализуемую на рынке по цене ?. Суммарный доход
? Y распределяется между агентами в соответствии с фиксирован-
ными долями {?i}i ? I. Затраты агента возрастают по его действиям,
а эффективность деятельности определяется типом агента ri.
Взаимодействие агентов моделируется зависимостью затрат
(эффективности деятельности) каждого из них от действий всех
(других) агентов. Знак «+» в знаменателе соответствует эффектив-
ному взаимодействию агентов (убыванию затрат на масштаб) – чем
большие действия выбирают другие агенты, тем меньше затраты
(выше эффективность деятельности) рассматриваемого агента, что
на практике может соответствовать снижению удельных постоян-
ных издержек, обмену опытом, технологиями и т.д. Знак «–» в
знаменателе соответствует неэффективному взаимодействию
агентов (возрастанию затрат на масштаб) – чем большие действия
выбирают другие агенты, тем больше затраты (ниже эффектив-
ность деятельности) рассматриваемого агента, что на практике
может соответствовать нехватке основных фондов, ограничениям
на побочные показатели (например, загрязнение окружающей
среды) и т.д. Коэффициенты {?i ? 0}i ? I отражают степень взаимо-
зависимости агентов.
Пусть рыночная цена ? известна всем участникам ОС. Тогда,
дифференцируя целевые функции агентов, приравнивая производ-
ные нулю и складывая получившиеся при этом выражения
yi = ?i ? (ri ± ?i ? y j ), i ? I,
j ?i
получим следующую зависимость суммарных действий Y+ от
параметра ?:
96
?i ? ri
? 1 ± ? ??
Y+(?) = i?I .i i
?i ? ? i
1m ?
i?I 1 ± ?i?? i

Стимулированию соответствует изменение параметров {?i}i ? I,
которые могут интерпретироваться как внутренние (внутрифир-
менные, трансфертные и т.д.) цены. •
Пример 8 (акккордная оплата труда). Рассмотрим ОС с двумя
агентами, имеющими функции затрат ci(yi) = yi2 / 2ri, где ri – тип i-
+
го агента, yi ? Ai = ?1 , i = 1, 2. Целевая функция i-го агента пред-
ставляет собой разность между стимулированием ?i(y1, y2), полу-
чаемым от центра, и затратами, то есть: fi(y) = ?i(y) – ci(yi), i = 1, 2.
Пусть центр использует систему стимулирования
?Ci , y1 + y2 ? x
(10) ?i(y1, y2) = ? , i = 1, 2.
0, y1 + y2 < x
?
Содержательно, центр выплачивает каждому агенту фиксиро-
ванное вознаграждение при условии, что сумма их действий ока-
зывается не меньше, чем некоторое плановое значение x > 0. Обо-
значим yi+ = 2riCi , i = 1, 2, Y = {(y1, y2) | yi ? yi+ , i = 1, 2,
y1 + y2 ? x} – множество индивидуально-рациональных действий
агентов, то есть действий, при которых они не перерабатывают
(обеспечивать сумму действий, большую плана x, им не имеет
смысла) и каждый имеет неотрицательное значение целевой функ-
ции. Рассмотрим четыре возможных комбинации переменных (см.
рисунки 41–44).




97
В первом случае (см. рисунок
y2
множество равновесий
41)
+
Нэша составляет отрезок:
y2
Фиксируем
EN(?) = [N1; N2].
x N1
произвольное равновесие
y* = ( y1 , y 2 ) ? EN(?). Наличие
* *
*
y2 «большого» равновесия Нэша
y1 (отрезка, содержащего конти-
Y
N2
нуум точек) имеет несколько
+
*
0 y1 y1 минусов с точки зрения эффек-
x
тивности стимулирования.
Рис. 41
Поясним это утверждение
Так как все точки отрезка [N1; N2] эффективны по Парето с
точки зрения агентов, то при определении эффективности системы
стимулирования центр вынужден (в зависимости от своей функции
полезности) либо использовать гарантированный результат (вы-
числять минимум по этому отрезку), либо доплачивать агентам за
выбор конкретных действий из этого отрезка малую, но строго
положительную, величину.
Построим систему индивидуального стимулирования в соот-
ветствии с результатами, приведенными выше (см. (8) и (9)):
˜* (y ) = ? (y , y * ) = ?C1 , y1 ? y1 ,
*
(11) ? 1 1 ?
11 2
? 0, y1 < y1
*


˜* (y ) = ? ( y * , y ) = ?C2 , y 2 ? y 2 .
*
?2 2 ?
2 2
1
? 0, y 2 < y 2
*

При использовании этой системы стимулирования точка
* *
y = ( y1 , y 2 ) оказывается единственным равновесием Нэша, то
*

есть, переходя от системы стимулирования (10) каждого агента,
зависящей от действий всех агентов, к системе стимулирования
(11), зависящей только от действий данного агента, центр «деком-
позирует» игру агентов, реализуя при этом единственное действие.
При этом эффективность стимулирования, очевидно, не только не
понижается, а может оказаться более высокой, чем при использо-
вании исходной системы стимулирования.

98
y2
y2
+
y2
x N1
x
N1
+
y2 *
y2
*
y2 N2
N2 y1
y1
+ +
*
0
*
0 y1 x
y1 y1
y1 x
Рис. 43
Рис. 42
Во втором и третьем случаях равновесием Нэша являются от-
резки [N1; N2], изображенные на рисунках 42 и 43 соответственно.
И, наконец, в четвертом y2
случае (см. рисунок 44) x
множество равновесий N1
+
y2
Нэша состоит из точки
(0; 0) и отрезка [N1; N2], то *
y2
есть
N2
EN(?) = (0; 0) ? [N1; N2],
причем точки интервала y1
+
(N1 N2) недоминируемы по *
0 y1
y1 x
Парето другими равнове- Рис. 44
сиями.
Пусть в условиях рассматриваемого примера функции затрат
( yi +? y3? i ) 2
агентов не сепарабельны и имеют вид: ci(y) = . Опре-
2ri
делим множество Y индивидуально-рациональных действий аген-
тов: Y = {(y1, y2) | ci(y) ? Ci, i = 1, 2}. Для того чтобы не рассматри-
вать все возможные комбинации значений параметров
{r1, r2, C1, C2, x} возьмем случай, представленный на рисунке 45.




99
y2
2r1C1 / ?
x

2r2C2

N1
*
y2
N2
y1
0
2r2C2 / ?
*
y1 2r1C1 x

Рис. 45. Множество равновесий Нэша [N1; N2]
в случае несепарабельных затрат

В рассматриваемом случае множество равновесий Нэша
включает отрезок [N1; N2]. Система стимулирования
˜* (y) = ?c1 ( y1 , y 2 ), y1 = y1 ? * (y) = ?c2 ( y1 , y 2 ), y 2 = y 2
?
* * * *
˜
(12) ? 1 ? ?
2
? 0,
y1 ? y1 y2 ? y2
* *
? 0, ?
реализует действие y* ? [N1; N2] как равновесие в доминантных
стратегиях. •
Завершив рассмотрение моделей систем коллективного сти-
мулирования за индивидуальные результаты деятельности агентов,
перейдем к описанию моделей систем коллективного стимулиро-
вания за результаты совместной деятельности.


8. СТИМУЛИРОВАНИЕ ЗА РЕЗУЛЬТАТЫ
КОЛЛЕКТИВНОЙ ДЕЯТЕЛЬНОСТИ

В большинстве известных моделей стимулирования рассмат-
риваются либо ОС, в которых управляющий орган – центр – на-
блюдает результат деятельности каждого из управляемых субъек-
тов – агентов, находящийся в известном взаимно однозначном
соответствии с выбранной последним стратегией (действием), либо
ОС с неопределенностью [11, 14], в которых наблюдаемый резуль-
тат деятельности агентов зависит не только от его собственных
100
действий, но и от неопределенных и/или случайных факторов (см.,
например, модель теории контрактов в третьем разделе).
Настоящий раздел содержит формулировку и решение задачи
коллективного стимулирования в многоэлементной детерминиро-
ванной ОС, в которой центр имеет агрегированную информацию о
результатах деятельности агентов.
Пусть в рамках модели, рассмотренной в предыдущем разде-
ле, результат деятельности z ? A0 = Q(A’) ОС, состоящей из n
агентов, является функцией (называемой функцией агрегирования)
их действий: z = Q(y). Интересы и предпочтения участников ОС –
центра и агентов – выражены их целевыми функциями. Целевая
функция центра представляет собой разность между его доходом
H(z) и суммарным вознаграждением ?(z), выплачиваемым агентам:

? ? ( z) ,
?(z) = ?i(z)
где стимулирование агента,
– i-го
i
i?I
?(z) = (?1(z), ?2(z), …, ?n(z)), то есть

? ? ( z) .
(1) ?(?(?), z) = H(z) – i
i?I
Целевая функция i-го агента представляет собой разность ме-
жду стимулированием, получаемым им от центра, и затратами ci(y),
то есть:
(2) fi(?i(?), y) = ?i(z) – ci(y), i ? I.
Примем следующий порядок функционирования ОС. Центру и
агентам на момент принятия решений о выбираемых стратегиях
(соответственно – функциях стимулирования и действиях) извест-
ны целевые функции и допустимые множества всех участников
ОС, а также функция агрегирования. Центр, обладая правом перво-
го хода, выбирает функции стимулирования и сообщает их аген-
там, после чего агенты при известных функциях стимулирования
выбирают действия, максимизирующие их целевые функции.
В случае, когда индивидуальные действия агентов наблюдае-
мы для центра (или когда центр может однозначно восстановить их
по наблюдаемому результату деятельности), последний может
использовать систему стимулирования, зависящую непосредствен-
˜
но от действий агентов: ? i ? I ? i (y) = ?i(Q(y)). Методы решения

101
задачи стимулирования для этого случая описаны в предыдущем
разделе. Поэтому рассмотрим случай, когда центр наблюдает
только результат деятельности ОС, от которого зависит его доход,
но не знает и не может восстановить индивидуальных действий
агентов, то есть, имеет место агрегирование информации – центр
имеет не всю информацию о векторе y ? A действий агентов, а ему
известен лишь некоторый их агрегат z ? A0 – параметр, характери-
зующий результаты совместных действий агентов.
Будем считать, что относительно параметров ОС выполнены
предположения, введенные в предыдущем разделе, и, кроме того,
предположим, что функция агрегирования однозначна и непре-
рывна.
Как и выше, эффективностью стимулирования является мини-
мальное (или максимальное – в рамках гипотезы благожелательно-
сти) значение целевой функции центра на соответствующем мно-
жестве решений игры:
(3) K(?(?)) = min ?(?(?), Q(y)).
y?P (? (?))
Задача синтеза оптимальной функции стимулирования заклю-
чается в поиске допустимой системы стимулирования ?*, имеющей
максимальную эффективность:
(4) ?* = arg max K(?(?)).
? (?)
Отметим, что в рассмотренных в предыдущих разделах зада-
чах стимулирования декомпозиция игры агентов основывалась на
возможности центра поощрять агентов за выбор определенного (и
наблюдаемого центром) действия. Если действия агентов не на-
блюдаемы, то непосредственное применение идеи декомпозиции
невозможно, поэтому при решении задач стимулирования, в кото-
рых вознаграждение агентов зависит от агрегированного результа-
та деятельности ОС, следует использовать следующий подход –
найти множество действий, приводящих к заданному результату
деятельности, выделить среди них подмножество, характеризуемое
минимальными суммарными затратами агентов (и, следовательно,
минимальными затратами центра на стимулирование при исполь-
зовании компенсаторных функций стимулирования, которые оп-
тимальны), построить систему стимулирования, реализующую это

102
подмножество действий, а затем определить – реализация какого
из результатов деятельности наиболее выгодна для центра.
Перейдем к формальному описанию решения задачи стимули-
рования в ОС с агрегированием информации.
Определим множество векторов действий агентов, приводя-
щих к заданному результату деятельности ОС:
Y(z) = {y ? A’ | Q(y) = z} ? A’, z ? A0.
Выше показано, что в случае наблюдаемых действий агентов
минимальные затраты центра на стимулирование по реализации
вектора действий y ? A’ равны суммарным затратам агентов
? ci ( y ) . По аналогии вычислим минимальные суммарные затра-
i?I
ты агентов по достижению результата деятельности z ? A0
˜
?
? ( z ) = min а также множество действий
ci ( y ) ,
y?Y ( z ) i?I

? c ( y) , на котором этот минимум достигается.
*
Y (z) = Arg min i
y?Y ( z ) i?I
Фиксируем произвольный результат деятельности x ? A0 и
произвольный вектор y*(x) ? Y*(x) ? Y(x).
В [14] (при следующем дополнительном предположении «тех-
нического» характера: ? x ? A0, ? y’ ? Y(x), ? i ? I, ? yi ? Proji Y(x)
cj(yi, y’-i) не убывает по yi, j ? I) доказано, что:
1) при использовании центром системы стимулирования
?ci ( y * ( x)) + ? i , z = x
? ix (z) , i ? I,
*
=?
(5)
z?x
? 0,
вектор действий агентов y*(x) реализуется как единственное равно-
весие с минимальными затратами центра на стимулирование рав-
˜
?
ными ? ( x) – ?, где ? = ?i ;
i?I
2) система стимулирования (5) является ?-оптимальной.
Итак, первый шаг решения задачи стимулирования (4) заклю-
чается в поиске минимальной системы стимулирования (5), харак-
˜
теризуемой затратами центра на стимулирование ? ( x ) и реали-
зующей вектор действий агентов, приводящий к заданному
результату деятельности x ? A0. Поэтому на втором шаге решения
103
задачи стимулирования найдем наиболее выгодный для центра
результат деятельности ОС x* ? A0 как решение задачи оптималь-
ного согласованного планирования:
˜
(6) x* = arg max [H(x) – ? ( x) ].
x? A0

Таким образом, выражения (5)-(6) дают решение задачи синте-
за оптимальной системы стимулирования результатов совместной
деятельности.
Исследуем, как незнание (невозможность наблюдения) цен-
тром индивидуальных действий агентов влияет на эффективность
стимулирования. Пусть, как и выше, функция дохода центра зави-
сит от результата деятельности ОС. Рассмотрим два случая. Пер-
вый – когда действия агентов наблюдаемы, и центр может основы-
вать стимулирование как на действиях агентов, так и на результате
деятельности ОС. Второй случай, когда действия агентов не на-
блюдаемы, и стимулирование может зависеть только от наблюдае-
мого результата деятельности ОС. Сравним эффективности стиму-
лирования для этих двух случаев.
При наблюдаемых действиях агентов затраты центра на сти-
мулирование ?1(y) по реализации вектора y ? A' действий агентов
?
равны ?1(y) = ci ( y ) , а эффективность стимулирования K1 рав-
i?I

на: K1 = max {H(Q(y)) – ?1(y)} – см. предыдущий раздел.
y?A?
При ненаблюдаемых действиях агентов минимальные затраты
центра на стимулирование ?2(z) по реализации результата деятель-
ности z ? A0 определяются следующим образом (см. (5) и (6)):
?
?2(z) = min ci ( y ) , а эффективность стимулирования K2 равна:
y?Y ( z ) i?I

K2 = max {H(z) – ?2(z)}.
z? A0

В [14] доказано, что эффективности K1 и K2 равны. Данный
факт, который условно можно назвать «теоремой об идеальном
агрегировании в моделях стимулирования», помимо оценок срав-
нительной эффективности имеет чрезвычайно важное методологи-
ческое значение. Оказывается, что в случае, когда функция дохода
центра зависит только от результата совместной деятельности

104
агентов, эффективности стимулирования одинаковы как при ис-
пользовании стимулирования агентов за наблюдаемые действия,
так и при стимулировании за агрегированный результат деятельно-
сти, несущий меньшую информацию (отметим, что центр при этом
должен знать функции затрат агентов), чем вектор действий аген-
тов.
Другими словами, наличие агрегирования информации не
снижает эффективности функционирования системы. Это доста-
точно парадоксально, так как в [9] доказано, что наличие неопре-
деленности и агрегирования в задачах стимулирования не повыша-
ет эффективности. В рассматриваемой модели присутствует
идеальное агрегирование (см. определение и подробное обсужде-
ние проблем агрегирования в управлении ОС в [9]), возможность
осуществления которого содержательно обусловлена тем, что
центру не важно, какие действия выбирают агенты, лишь бы эти
действия приводили с минимальными суммарными затратами к
заданному результату деятельности. При этом уменьшается ин-
формационная нагрузка на центр, а эффективность стимулирова-
ния остается такой же.
Итак, качественный вывод из проведенного анализа следую-
щий: если доход центра зависит от агрегированных показателей
деятельности агентов, то целесообразно основывать стимулирова-
ние агентов на этих агрегированных показателях. Даже если инди-
видуальные действия агентов наблюдаются центром, то использо-
вание системы стимулирования, основывающейся на действиях
агентов, не приведет к увеличению эффективности управления, а
лишь увеличит информационную нагрузку на центр.
Напомним, что во втором разделе был сформулирован прин-
цип компенсации затрат. На модели с агрегированием информации
этот принцип обобщается следующим образом: минимальные
затраты центра на стимулирование по реализации заданного ре-
зультата деятельности ОС определяются как минимум компенси-
руемых центром суммарных затрат агентов, при условии, что
последние выбирают вектор действий, приводящий к заданному
результату деятельности. Рассмотрим иллюстративный пример.



105
? y , H(z) = z, c (y ) = yi2 /2ri, i ? I (см.
Пример 9. Пусть z = i i
i
i?I
также примеры 5 и 6). Вычисляем

?y
Y(z) = {y ? A’ | = z}.
i
i?I
Решение задачи

? c ( y ) > min ?y
при условии =x
i i i
y? A '
i?I i?I

ri
? r , i ? I. Минимальные затра-
имеет вид: yi* (x) = x, где W =
W i
i?I
ты на стимулирование по реализации результата деятельности x ?
A0 равны ?(x) = x2 / 2 W. Вычисляя максимум целевой функции
центра: max [H(x) – ?(x)], находим оптимальный план: x* = W и
x?0
оптимальную систему стимулирования:
?x
2

?
? i* (W, z) = ?ri 2W 2 , z = x , i ? I.
? 0, z?x
?
При этом эффективность стимулирования (значение целевой
функции центра) равна K = W / 2. •
Выше рассматривались системы коллективного стимулирова-
ния, в которых зависимость вознаграждения у каждого агента была
индивидуальной. На практике во многих ситуациях центр вынуж-
ден использовать одинаковую для всех агентов зависимость возна-
граждения от действия или результата совместной деятельности.
Рассмотрим соответствующие модели.


9. УНИФИЦИРОВАННЫЕ СИСТЕМЫ СТИМУЛИРОВАНИЯ

До сих пор рассматривались персонифицированные системы
индивидуального и коллективного стимулирования, в которых
центр устанавливал для каждого агента свою зависимость возна-
граждения от его действий (раздел 2), или действий других агентов
106
(раздел 7), или результатов их совместной деятельности (раздел 8).
Кроме персонифицированных, существуют унифицированные
системы стимулирования, в которых зависимость вознаграждения
от тех или иных параметров одинакова для всех агентов. Необхо-
димость использования унифицированного стимулирования может
быть следствием институциональных ограничений, а может возни-
кать в результате стремления центра к «демократическому» управ-
лению, созданию для агентов равных возможностей и т.д.
Так как унифицированное управление является частным слу-
чаем персонифицированного, то эффективность первого не пре-
вышает эффективности второго. Следовательно, возникает вопрос,
к каким потерям в эффективности приводит использование унифи-
цированного стимулирования, и в каких случаях потери отсутст-
вуют?
Рассмотрим две модели коллективного унифицированного
стимулирования (используемая техника анализа может быть при-
менена к любой из описанных в настоящей работе систем стимули-
рования) – унифицированные пропорциональные системы стиму-
лирования и унифицированные системы коллективного
стимулирования за результаты совместной деятельности. В первой
модели унификация не приводит к потерям эффективности (оказы-
вается, что именно унифицированные системы стимулирования
оказываются оптимальными в классе пропорциональных), а во
второй снижение эффективности значительно.
Унифицированные пропорциональные системы стимули-
рования. Введем следующее предположение относительно функ-
ций затрат агентов (ниже это предположение будет ослаблено):
(1) ci(yi, ri) = ri ? (yi /ri), i ? I,
где ?(?) – гладкая монотонно возрастающая выпуклая функция,
?(0) = 0, (например, для функций типа Кобба-Дугласа ?(t) = t? / ?,

<<

стр. 3
(всего 5)

СОДЕРЖАНИЕ

>>