<<

стр. 4
(всего 5)

СОДЕРЖАНИЕ

>>

? ? 1), ri > 0 – параметр эффективности агента.
Если центр использует пропорциональные (L-типа) индивиду-
альные системы стимулирования: ?i(yi) = ?i yi, то целевая функция
агента имеет вид: fi(yi) = ?i yi – ci(yi). Вычислим действие, выбирае-
мое агентом при использовании центром некоторой фиксированной
системы стимулирования:
(2) yi* (?i) = ri ? ' -1(?i),
107
где ? ' -1(?) – функция, обратная производной функции ?(?). Мини-
мальные суммарные затраты центра на стимулирование равны:
n

?? ri ? '?1 (? i ) ,
(3) ?L(?) = i
i =1
где ? = (?1, ?2, ..., ?n). Суммарные затраты агентов равны:
n

? r ? (? ' ?1
(? i )) .
(4) c(?) = i
i =1
В рамках приведенной выше общей формулировки модели
пропорционального стимулирования возможны различные поста-
новки частных задач. Рассмотрим некоторые из них, интерпрети-
руя действия агентов как объемы выпускаемой ими продукции.
Задача 1. Пусть центр заинтересован в выполнении агентами
плана R по суммарному выпуску с минимальными суммарными
затратами агентов (еще раз подчеркнем необходимость различения
суммарных затрат агентов и суммарных затрат центра на стимули-
рование). Тогда его цель заключается в выборе ставок оплаты
{?i}i ? I в результате решения следующей задачи:
? c(? ) > min
? ?
(5) ? n * ,
?? yi (? i ) = R
? i =1
решение которой имеет вид:
(6) ? i* = ? '(R/W); yi* = ri (R/W); i ? I,
c* = W ? (R / W); ? L = R ?'(R / W).
*

n
? ri . Так как оптимальные ставки оплаты одинаковы для
где W =
i =1
всех агентов, то оптимальна именно унифицированная (!) система
стимулирования.
Задача 2. Содержательно двойственной к задаче 1 является за-
дача максимизации суммарного выпуска при ограничении на
суммарные затраты агентов:



108
?n *
(7) ?? i i
? y (? ) > max
.
?
i =1
? c(? ) ? R
?
Решение задачи (7) имеет вид:
(8) ? i* = ? '(? -1(R / W)); yi* = ri ? -1(R / W); i ? I,
c* = R; ? L = ? – 1(R / W) W ?'(? -1(R / W)),
*

то есть в двойственной задаче (естественно) оптимальным решени-
ем также является использование унифицированных пропорцио-
нальных систем стимулирования.
Замена в задачах 1 и 2 суммарных затрат агентов на суммарные
затраты на стимулирование порождает еще одну пару содержатель-
но двойственных задач.
Задача 3. Если центр заинтересован в выполнении агентами
плана R по суммарному выпуску с минимальными суммарными
затратами на стимулирование, то ставки оплаты определяются в
результате решения следующей задачи:
?? L (? ) > min
?N ?
(9) ? ,
?? yi* (? i ) = R
? i =1
решение которой совпадает с (6), что представляется достаточно
интересным фактом, так как суммарные затраты агентов отражают
интересы управляемых субъектов, а суммарные затраты на стиму-
лирование – интересы управляющего органа. Естественно, отме-
ченное совпадение является следствием сделанных предположений.
Задача 4 заключается в максимизации суммарного выпуска при
ограничении на суммарные затраты на стимулирование:
?N *
(10) ?? i i
? y (? ) > max
.
?
i =1
? ? L (? ) ? R
?
Из метода множителей Лагранжа получаем условие оптималь-
ности (? – множитель Лагранжа): ? ?' -1(?i) ?''(?i) + ?i = 1, i ? I, из
которого следует, что все ставки оплаты должны быть одинаковы и
удовлетворять уравнению ? ?' -1(?) = R / W.
109
Таким образом, мы доказали следующий результат: в органи-
зационных системах со слабо связанными агентами, функции
затрат которых имеют вид (1), унифицированные системы стиму-
лирования оптимальны на множестве пропорциональных систем
стимулирования.
Отметим, что выше установлено, что унифицированные про-
порциональные системы стимулирования оптимальны на множест-
ве пропорциональных систем стимулирования в ОС со слабо свя-
занными агентами, имеющими функции затрат вида (1). Поэтому
исследуем их сравнительную эффективность на множестве всевоз-
можных (не только пропорциональных) систем стимулирования.
Как было показано выше (в разделах 2 и 7) для этого достаточно
сравнить минимальные затраты на стимулирование, например, в
задаче 2, с затратами на стимулирование в случае использования
центром оптимальных квазикомпенсаторных систем стимулирова-
n

? r ? ( y / r ) ).
ния (которые равны ?QK(y ) = *
i i i
i =1
Решая задачу выбора вектора y* ? A', минимизирующего
n

?y = R, получаем, что ?QK = W ?(R / W).
?QK(y ) при условии *
*
*
i
i =1

Подставляя из выражения (6) ?UL = R ?'(R / W), вычислим отно-
*

шение минимальных затрат на стимулирование:
(11) ?UL / ?QK = R / W ?'(R / W) / ?(R / W).
* *


Из выпуклости функции ?(?) следует, что ?UL / ?QK ? 1. Более
* *


того, можно показать, что при R / W > 0 и строго выпуклых функ-
циях затрат отношение (11) строго больше единицы. Так как сум-
марные затраты на стимулирование при использовании унифици-
рованных пропорциональных систем стимулирования выше, чем
при использовании «абсолютно оптимальных» компенсаторных
систем стимулирования, следовательно, первые не оптимальны в
классе всевозможных систем стимулирования. Полученный для
многоэлементных организационных систем результат вполне
согласован со сделанным выше выводом, что в одноэлементных


110
системах эффективность пропорционального стимулирования не
выше, чем компенсаторного.
Унифицированные системы стимулирования результатов
совместной деятельности. В восьмом разделе исследовались
персонифицированные системы стимулирования агентов за ре-
зультаты их совместной деятельности. Рассмотрим, что произой-
дет, если в этой модели потребовать, чтобы система стимулирова-
ния была унифицированной.
Рассмотрим класс унифицированных систем стимулирования
за результаты совместной деятельности (см. также восьмой раз-
дел), то есть систем стимулирования, в которых центр использует
для всех агентов одну и ту же зависимость индивидуального воз-
награждения от результата деятельности z ? A0. Введем следую-
щую функцию:
(12) c(y) = max {ci(y)}.
i?I
На первом шаге вычислим минимальные затраты центра на
стимулирование ?U(z) по реализации результата деятельности
z ? A0 ?
унифицированной системой стимулирования:
U(z) = min c(y). Множество векторов действий, минимизирующих
y?Y ( z )

затраты на стимулирование по реализации результата деятельности
z ? A0, имеет вид:
Y*(z) = Arg min c(y).
y?Y ( z )

По аналогии с тем, как это делалось в восьмом разделе, можно
показать, что унифицированная система стимулирования (ср. с
(5)):
?c( y* ( x)) + ? / n, z = x
(13) ?ix(z) = ? , i ? I,
z?x
?0,
где y*(x) – произвольный элемент множества Y*(x), реализует ре-
зультат деятельности x ? A0 с минимальными в классе унифициро-
ванных систем стимулирования затратами на стимулирование.
На втором шаге решения задачи синтеза оптимальной унифи-
цированной системы стимулирования найдем наиболее выгодный
*
для центра результат деятельности ОС xU как решение задачи
оптимального согласованного планирования:
111
(14) xU = arg max [H(z) – n ?U(z)].
*
z? A0
Выражения (13)-(14) дают решение задачи синтеза оптималь-
ной унифицированной системы стимулирования агентов за резуль-
таты их совместной деятельности. Легко видеть, что эффектив-
ность унифицированного стимулирования (13)-(14) не выше, чем
эффективность персонифицированного стимулирования (5)-(6).
Пример 10. Пусть в условиях примера 6 центр должен исполь-
зовать унифицированную систему стимулирования. Определим
c(y) = y 2 /2 rj, где j = arg min {ri}. Тогда минимальные затраты на
j i?I

стимулирование равны ?U(z) = z2/ 2 n rj. Оптимальный план
*
xU = n rj дает значение эффективности n rj / 2, которая меньше
?r / 2
эффективности персонифицированного стимулирования
i
i?I
(см. пример 6), а равенство имеет место в случае одинаковых
агентов. •


10. «БРИГАДНЫЕ» ФОРМЫ ОПЛАТЫ ТРУДА

Настоящий раздел посвящен описанию моделей коллективно-
го стимулирования, а именно – «бригадных» форм оплаты труда1, в
рамках которых вознаграждение агента – члена бригады – опреде-
ляется коэффициентом его трудового участия (КТУ) и зависит от
его действия в сравнении с действиями других агентов (в частном
случае – при фиксированном премиальном фонде, в общем случае
– когда премиальный фонд определяется агрегированным резуль-
татом деятельности всей бригады в целом).
Процедура определения КТУ может быть различной [16], а
именно, возможно:

1
Термин «бригадные формы оплаты труда» является устойчивым словосочета-
нием, возникшим еще в бывшем СССР. Тем не менее, системы оплаты труда,
основывающиеся на оценке индивидуального вклада в результат деятельности
коллектива (с этой точки зрения бригадные формы оплаты труда близки к
механизмам стимулирования за результаты коллективной деятельности, рас-
смотренным выше), широко используются до сих пор.
112
- формирование КТУ пропорционально тарифному разряду
(квалификации) работника;
- формирование КТУ пропорционально коэффициенту трудо-
вого вклада (КТВ) работника;
При формировании КТУ пропорционально тарифным разря-
дам имеется в виду следующее. Считается, что тарифный разряд
характеризует деятельность каждого работника – агента. При этом
полагается, что, чем больше тарифный разряд, тем выше квалифи-
кация агента. Поэтому тарифный разряд, отражая эффективность
работы каждого агента, может быть использован для оценки его
деятельности.
При формировании КТВ учитывается фактический вклад каж-
дого агента в зависимости от индивидуальной производительности
труда и качества работы в общую работу всего трудового коллек-
тива.
Итак, в трудовом коллективе руководство имеет свои цели и
формирует условия функционирования, чтобы достичь этих целей.
Соответственно, агенты тоже имеют свои цели и, выбирая соответ-
ствующие действия, стремятся их достичь.
Предполагается, что по результатам своей деятельности кол-
лектив получает премиальный фонд R, который распределяется
между агентами полностью в зависимости от выбранной системы
стимулирования.
Будем считать, что i-ый агент характеризуется показателем ri,
отражающим его квалификацию (эффективность деятельности), то
есть индивидуальные затраты i-го агента ci = ci(yi, ri) монотонно
убывают с ростом квалификации ri, i ? I. Коллектив, в котором
квалификация всех агентов одинаковая, будем называть однород-
ным, в противном случае – неоднородным. Эффективность систе-
мы стимулирования будем оценивать суммой действий агентов:
?
?(y) = yi .
i?I
Процедуры, основанные на КТУ. Рассмотрим сначала слу-
чай использования КТУ. Фонд R распределяется между агентами

?? =1.
на основе коэффициентов трудового участия {?i}i ? I, j
j?I


113
Таким образом, премия i-го элемента определяется выражением
?i = ?i R.
Целевые функции агентов имеют вид:
(1) fi(yi) = ?i – ci(yi, ri), i ? I.
Достаточно распространенная из-за своей простоты процедура
определения КТУ основывается только на учете показателя квали-
ri
фикации i-го агента, то есть ? i = . Подставляя в (1), получим,
? rj
j?I

что использование КТУ, основанных на квалификации агентов
и не зависящих от их реальных действий, не оказывает ника-
кого воздействия на агентов, то есть не побуждает их выбирать,
например, большие действия. Поэтому перейдем к рассмотрению
КТВ.
Процедуры, основанные на КТВ. Естественный и простей-
ший способ определения КТВ агента – пропорционально действию
последнего, то есть
yi
(2) ? i = , i ? I.
? yj
j ?I

Пусть функции затрат агентов линейны: ci(yi, ri) = yi / ri. Тогда
из (1) и (2) получаем следующее выражение для целевой функции
i-го агента, зависящей уже от действий всех агентов:
yi
– yi / ri, i ? I.
(3) fi(y) = R
? yj
j?I

Следовательно, исследуемую ситуацию можно рассматривать
как игру n лиц с функциями выигрыша вида (3).
Однородный коллектив. Рассмотрим сначала случай однород-
ного коллектива. Равновесные по Нэшу действия агентов имеют
вид:
Rr (n ? 1)
(4) yi* = , i ? I,
n2
что приводит к следующему значению эффективности:


114
Rr (n ? 1)
(5) K1(R, r, n) = .
n
Из (4) видно, что чем больше премиальный фонд, тем большие
действия выбирают агенты. Из (5) следует, что эффективность
линейно растет при увеличении как премиального фонда (то есть,
не существует оптимального размера премиального фонда, макси-
мизирующего эффект K1 / R его использования), так и квалифика-
ции агентов. Если действия агентов ограничены сверху, то сущест-
вует оптимальный размер премиального фонда, который при
известном ограничении может быть вычислен из выражения (4).
Кроме того, легко показать (см. подробности в [16]), что разбиение
однородного коллектива на более мелкие коллективы и соответст-
вующее дробление премиального фонда не приводит к росту эф-
фективности его использования. Также можно показать, что при
постоянном размере фонда сокращение однородного коллектива
приводит к уменьшению эффективности и увеличению действий,
выбираемых агентами.
Рассмотрим следующую задачу: возможно ли повысить сум-
марный показатель эффективности однородного коллектива, не
увеличивая фонд премирования R, но по-другому формируя КТВ
агентов?
Для этого рассмотрим следующую процедуру формирования
КТВ, которая более чувствительна к различию агентов, чем (2):
yi? n
(6) ? i = , i ? I, 1 ? ? ? .
? yj ?
n ?1
j ?I

Тогда равновесные по Нэшу действия агентов имеют вид:
Rr (n ? 1)
(7) yi* = ? , i ? I,
n2
что превышает (4)
n
Ограничение 1 ? ? ? позволяет констатировать, что ис-
n ?1
пользование процедуры (6) формирования КТВ позволяет увели-
чить эффективность по сравнению с процедурой (2) на 1 / (n – 1)
процентов. Например, если коллектив состоит из 11 человек, пока-
затель эффективности можно увеличить максимум на 10%.
115
Неоднородный коллектив. Из (2) и (3) следует, что в неодно-
родном коллективе ситуации равновесия Нэша соответствуют
следующие действия агентов и эффективность1:

?1 / r ? (n ? 1) / ri
j
j ?I
(8) yi* = R(n ? 1) , i ? I,
( ? 1 / rj ) 2

j? I

R(n ? 1)
r
? y*j =
(9) K2(R, r , n) = .
? 1 / rj
j? I
j ?I

Предположим, что коллектив состоит агентов двух типов – m
агентов-лидеров, имеющих эффективность r+, и (n – m) «рядовых»
агентов, элементов, имеющих эффективность r-, причем r+ > r-.
?
Тогда 1 / ri = m / r+ + (n – m) / r-.
i?I
Используя выражение (8), найдем действия, выбираемые в
равновесии лидерами:
R(n ? 1) (n ? 1)
1
(10) y+ = [1 – + ],
m / r + + ( n ? m) / r ? r m / r + + ( n ? m) / r ?
и рядовыми агентами:
R(n ? 1) (n ? 1)
1
(11) y- = [1 – ? ].
+ ? + ?
m / r + ( n ? m) / r r m / r + ( n ? m) / r
Используя выражение (9), найдем значение эффективности
R(n ? 1)
(12) K2(R, m, n) = .
m / r + + ( n ? m) / r ?
Из выражений (8), (10), (11) видно, что появление в коллекти-
ве лидеров (более квалифицированных агентов) вынуждает рядо-
вых (менее квалифицированных) выбирать меньшие действия.
Понятно, что это влечет за собой уменьшение значений их целевых
функций.



1
Отметим, что в случае однородных агентов (8) переходит в (4), а (9) – в (5).
116
Из (11) получаем, что, если количество лидеров в коллективе
1/ r ?
таково, что m ? , то рядовым агентам вообще не вы-
1/ r ? ? 1/ r +
годно увеличивать выбираемые ими действия. Однако при m = 1,
то есть, если в коллективе есть только один лидер, то рядовым
агентам всегда выгодно увеличивать действия. В то же время легко
показать [16], что появление в коллективе лидеров приводит к
повышению эффективности всего коллектива, несмотря на выбор
меньших действий рядовыми элементами.
Исследуем, возможно ли дальнейшее увеличение показателей
эффективности работ в коллективе в рамках того же премиального
фонда R. Для этого разобьем неоднородный коллектив на два
однородных подколлектива. Пусть первый состоит из m лидеров, а
второй состоит из (n – m) рядовых агентов. Соответственно разо-
бьем премиальный фонд R всего коллектива, именно: R = R+ + R-.
Тогда в равновесии Нэша эффективность первого подколлектива
R + r + (m ? 1) R ? r ? (n ? m ? 1)
равна , а второго – .
n?m
m
Соответственно, общий показатель эффективности всего кол-
лектива из n агентов равен
R + r + (m ? 1) R ? r ? (n ? m ? 1)
(13) K3(R, m, n) = + .
n?m
m
Выше отмечалось, что разбиение однородного коллектива на
несколько подколлективов не приводит к увеличению суммарного
показателя эффективности. Для неоднородного коллектива это не
всегда так. Например, из сравнения (12) и (13) следует, что, если в
коллективе имеется половина лидеров, эффективность деятельно-
сти которых в два раза выше эффективности рядовых агентов, то
выделение лидеров в отдельный подколлектив повысит суммар-
ную эффективность только если в исходном коллективе было не
более шести агентов. В противном случае возможно снижение
суммарной эффективности в результате разбиения неоднородного
коллектива на два однородных подколлектива, даже при опти-
мальном распределении премиального фонда между подколлекти-
вами.

117
Индивидуальное и коллективное стимулирование. В за-
ключение настоящего раздела сравним эффективности индивиду-
ального и коллективного стимулирования для ряда практически
важных частных случаев (см. также [16]).
Пусть функции затрат агентов линейны: ci(yi, ri) = yi / ri, i ? I, и
пусть существует одинаковое для всех агентов ограничение ymax на
максимальную величину выбираемого действия: Ai = [0; ymax], i ? I.
Перенумеруем агентов в порядке убывания эффективностей
деятельности:
(14) r1 ? r2 ? … ? rn.
*
Предположим, что ограничение ymax таково, что действие y1 ,
определяемое (8) при i = 1, является допустимым. Тогда допусти-
мыми являются и действия всех остальных агентов при использо-
вании системы коллективного стимулирования (2), основанной на
r
КТВ. Эффективность коллективного стимулирования K2(R, r , n)
при этом определяется выражением (9).
Вычислим эффективность индивидуального стимулирования,
при котором центр может стимулировать агентов независимо за
индивидуальные результаты деятельности при условии, что сумма
вознаграждений не превышает фонд R. Для этого воспользуемся
принципом компенсации затрат (см. второй раздел) и результатами
решения задачи стимулирования слабо связанных агентов (см.
седьмой раздел).
Получим, что при использовании центром квазикомпенсатор-
ных систем стимулирования оптимальной является компенсация
затрат первым в упорядочении (14) k агентам (или (k + 1) агенту –
в зависимости от соотношения параметров), где
j +1
j

?1 / r ?1 / r
(15) k = min {j ? I | y ? R, y
max max
> R}.
i i
i =1 i =1
Содержательно выражение (15) означает, что центру следует в
первую очередь задействовать агентов, эффективность деятельно-
сти которых максимальна. Другими словами, отличное от нуля
стимулирование получат первые k или (k + 1) агентов, а остальным
следует назначить нулевое вознаграждение (их использование
нецелесообразно). Таким образом, эффективность индивидуально-
го стимулирования равна
118
r k
(16) K4(R, r , n) = k y + r (R – y ? 1 / ri ).
max k+1 max

i =1
Выражения (9) и (16) позволяют проводить сравнительный
анализ эффективностей коллективного и индивидуального стиму-
лирования.
Как правило, индивидуальное стимулирование оказывается
более эффективным (см. также разделы 8 и 9). Например, в случае
однородных коллективов справедлива следующая оценка:
K4(R, r, n) / K1(R, r, n) ? n / (n – 1) ? 1.
Близкими к бригадным формам оплаты труда являются так на-
зываемые ранговые системы стимулирования, в которых для кол-
лективного стимулирования используются процедуры соревнова-
ния, установления системы нормативов и т.д. Этот класс
коллективных систем стимулирования рассматривается в разделе
12, а в следующем разделе анализируются системы стимулирова-
ния, учитывающие динамику процесса деятельности агентов.


11. ШКАЛЫ ОПЛАТЫ ТРУДА

В настоящем разделе рассматриваются модели оплаты труда,
отражающие временной аспект взаимодействия центра и агентов,
то есть учитывающие динамику процесса выполнения работ аген-
том [2, 13].
При расчетах центра с агентами – работодателя с работника-
ми, заказчика – с исполнителями работ по договору, а также во
многих других реальных ситуациях, размер оплаты, получаемой
агентом, зависит от процента завершения работ. В качестве «про-
цента завершения», в частности, могут выступать показатели
освоенного объема [6].
Предположим, что сумма договора, или стоимость работы или
пакета работ согласована центром и агентом и равна C ( напомним,
что в скачкообразных системах стимулирования, которые могут
интерпретироваться как аккордная форма оплаты труда, величина
C являлась ФЗП). Шкалой оплаты труда называется кумулятив-
ная зависимость размера вознаграждения (доли от стоимости
договора), выплаченного центром агенту, от процента завершения.
119
Обозначим через ? ? [0; 1] процент завершения, через
? ? [0; 1] – процент от суммы C, выплаченный агенту. Тогда шка-
лой оплаты труда будет зависимость ?(?). Эта зависимость облада-
ет следующими свойствами (содержательные интерпретации кото-
рых очевидны):
- функция ?(?) – неубывающая и непрерывная справа;
- ?(0) = 0;
- ?(1) = 1.
Если ввести зависимость ?(?) размера вознаграждения, полу-
чаемого агентом (а не уже полученного за весь выполненный
текущий объем работ) от процента завершения, то, очевидно, что
этот размер вознаграждения с точностью до мультипликативной
константы (стоимости договора C) совпадает со скоростью изме-
нения уже полученных агентом сумм, то есть, если ?(?) – кусочно-
дифференцируемая1 функция, то2
d? ( ? )
(1) ?(?) = C , ? ? [0; 1].
d?
Верно и обратное соотношение:
?
1
? ? ( w)dw .
(2) ?(?) =
C 0
Из выражений (1) и (2) следует, что на участках возрастания
?(?) функция ?(?) является «выпуклой», на участках убывания ?(?)
функция ?(?) является «вогнутой», а в точке максимума ?(?) функ-
ция ?(?) имеет «перегиб». Кроме того, очевидно, выполняется
«условие нормировки»:
1

?
(3) ? ( w)dw = C.
0
Перечислим некоторые типовые шкалы оплаты труда.


Условимся считать, что значение производной в точке скачка равна ?-функции
1

Дирака, умноженной на амплитуду скачка.
Интуитивно можно интерпретировать ?(?) как интегральную функцию
2

некоторого вероятностного распределения, а ?(?) – как соответствующую ей
плотность распределения (если последняя существует).
120
Во-первых, это – равномерная оплата, при которой вознагра-
ждение агента за каждую единицу процента завершения одинаково
(см. рисунок 46). Отметим, что именно равномерной оплате соот-
ветствуют все статические модели стимулирования.
Во-вторых, это – аккордная оплата, при которой вся сумма
договора C выплачивается только в момент полного завершения
работ (см. рисунок 47).
В-третьих, это ?-процентная предоплата (? ? [0; 1]), при ко-
торой сумма ? C выплачивается в момент начала работ, а сумма
(1 – ?) C – в момент полного завершения работ (см. рисунок 48).
Возможны и другие варианты – любой определенной на от-
резке [0; 1] измеримой функции соответствует некоторая шкала
оплаты труда. Например, на рисунке 49 приведена так называемая
квартильная оплата, при которой за четверть объема работ выпла-
чивается четверть стоимости договора. На рисунках 50-52 приве-
дены, соответственно, варианты выпуклых шкал, вогнутых шкал и
шкал с перегибом.

?(?) ?(?)

1




? ?
1 1
0 0

Рис. 46. Равномерная шкала




121
?(?) ?(?)

1

?(?-1)С




? ?
1 1
0 0

Рис. 47. Аккордная оплата

?(?) ?(?)

1
?(?-1)(1-?)С
?(?)?С
?
? ?
1 1
0 0

Рис. 48. ?-процентная предоплата




122
? (?) ?(?)
1

3/4
?(?-i/4)С/4, i= 1,4
1/2

1/4
? ?
1
1/2 1/2 1
3/4 3/4
1/4 1/4
0 0

Рис. 49. Квартильная оплата

?(?) ?(?)

1




? ?
1 1
0 0

Рис. 50. Выпуклая шкала




123
?(?) ?(?)

1




? ?
1 1
0 0

Рис. 51. Вогнутая шкала

?(?) ?(?)

1




?
?
1 1
0 0

Рис. 52. Шкала с перегибом

Введем действие y(t) агента в момент времени t ? 0, характе-
ризующее объем работ, выполняемый им в единицу времени в
момент времени t ? 0. Функцию y(?) назовем траекторией. Очевид-
но, что время T = T(y(?)) завершения работы можно определить как
минимальное время, такое, что
T ( y ( ?))

? y(? )d?
(4) = 1.
0
При заданной траектории y(?) можно определить зависимость
процента завершения от времени:

124
t

? y(? )d? .
(5) ?(t, y(?)) =
0
Из (5) следует, что ?(0) = 0, ?(T(y(?)) = 1.
Имея шкалу ?(?) и зная зависимость (5) процента завершения
от времени, можно найти зависимость от траектории и времени
величины процента завершения:
(6) ?(t, y(?)) = ?(?(t, y(?)))
и зависимость от траектории и времени размера вознаграждения,
получаемого агентом:
d? ( ? (t , y (?))
(7) ?(t, y(?)) = C .
d?
Отметим, что в каждый «момент» ? агент чувствует себя тем
уверенней, чем большая доля вознаграждения ему уже выплачена.
При этом невыплаченная часть вознаграждения может рассматри-
ваться как характеристика риска с точки зрения агента.
Введем функции дохода центра H(t, ?) и затрат агента c(t, y), а
также показатели дисконтирования ?0 и ?, отражающие степень
учета будущего, соответственно, центром и агентом.
Теперь имеется все необходимое для того, чтобы сформули-
ровать теоретико-игровую задачу управления.
Стратегией центра является выбор стоимости работ C ? 0 и
шкалы оплаты труда ?(?) из множества функций, удовлетворяю-
щих введенным выше требованиям. Он выбирает ее и сообщает
агенту, стратегией которого является выбор траектории y(?), при-
надлежащей множеству положительнозначных кусочно-
непрерывных функций. Агент выбирает траекторию, которая в
соответствии с выражениями (4)-(7) определяет продолжитель-
ность работ, динамику процента завершения и выплат. Целью
центра является максимизация дисконтированной разности между
доходом и выплатами агенту:
T ( y ( ?))

? [ H (? , ? (? , y(?))) ? ? (? , y(?))] e
?? 0?
d? > max ,
(8)
? ( ? ), C
0
при условии, что агент (при известных ему стоимости работ и
шкале) выбирает траекторию, максимизирующую дисконтирован-
125
ную разность между вознаграждением, получаемым от центра, и
своими затратами:
T ( y ( ? ))

? [? (? , y(?)) ? c(? , y(?))] e
???
d? > max ,
(9)
y (? )
0
Задачу (8)-(9) назовем задачей выбора шкалы оплаты труда.
Приведем решение этой задачи для различных частных случаев (на
сегодняшний день общих методов решения задачи (8)-(9) не из-
вестно).
Начнем с простейшего случая, соответствующего, статиче-
ской задаче стимулирования, то есть будем считать, что объем
работ y ? 0, выполняемый агентом в единицу времени, постоянен,
функции дохода H(y) и затрат c(y) не зависят от времени, дискон-
тирование отсутствует. Соответствующую задачу назовем квази-
динамической.
Если центр использует шкалу ?(?), то из (1)-(7) следует, что:
T(y) = 1 / y, ?(t, y) = y t, ?(t, y) = ?(y t), ?(t, y) = C ?’(y t). Следова-
тельно, задача (8)-(9) выбора шкалы оплаты труда в рассматривае-
мом (квазидинамическом) случае примет вид:
? H ( y ) / y ? C > max
? C ?0
(10) ? ,
C ? c( y ) / y > max
?
? y?0

при ограничениях участия, которое отражают выгодность взаимо-
действия центра и агента (не вступая во взаимодействие друг с
другом, и центр, и агент могут получить нулевую полезность):
?H ( y) / y ? C ? 0
(11) ? .
C ? c( y ) / y ? 0
?
Обратим внимание на то, что выражения (10) и (11) не зависят
от шкалы ?(?). Поэтому решение задачи (10)-(11) тривиально. Обо-
значим
(12) ymin = arg min c(y) / y.
y ?0
Тогда, если
(13) H(ymin) ? c(ymin),
то
(14) C* = c(ymin) / ymin,
126
иначе центру и агенту взаимодействовать невыгодно1.
В [2] доказано, что в квазидинамической задаче поиска шкалы
оплаты труда при выполнении условия участия (13) оптимальное
решение (12), (14) не зависит от шкалы и функции дохода центра.
Содержательно это утверждение означает, что в квазидинамиче-
ском случае все шкалы оплаты труда эквивалентны, поэтому рас-
смотрим более общий случай.
Введем «техническое» предположение (которое имеет про-
зрачные содержательные интерпретации). А именно, предполо-
жим, что функция затрат непрерывна и lim c(x) / x = ?.
x>?
В [2] доказано, что если функции дохода и затрат не зависят
от времени и дисконтирование отсутствует, то для любой траекто-
рии y(?) агента найдется постоянное его действие xy(?), обеспечи-
вающее ему ту же полезность.
Действительно, в рассматриваемых условиях целевая функция
агента примет вид:
T ( y ( ? )) t

? [С? ' ( ? y(? )d? ) ? c( y (t ))]dt ,
0 0
следовательно, в силу непрерывности функции затрат, найдется
xy(?) ? 0, такой что:
T ( y ( ?))

? c( y (t ))dt .
(15) c(xy(?)) / xy(?) =
0
Условие (15) позволяет вычислить постоянное действие аген-
та xy(?), обеспечивающее ему (при произвольной шкале!) ту же
полезность, что и траектория y(?).
Из приведенных рассуждений следует, что при любой фикси-
рованной сумме договора и выполнении условия участия (13)
агент выберет действие (12). Значит, следствием является тот факт,
что в рамках введенных предположений при решении задачи вы-
бора шкалы оплаты труда можно ограничиться классом постоян-
ных траекторий (то есть классом квазидинамических задач).

В рамках введенных предположений для существования ymin ? 0, удовлетворяю-
1

щего (13), достаточно, чтобы функция затрат была выпуклой и имела в нуле
строго положительную производную.
127
Таким образом, если функции дохода и затрат не зависят от
времени и дисконтирование отсутствует, то все шкалы оплаты
труда эквивалентны.
Очевидно, различие эффективностей шкал проявится, если
ввести дисконтирование и зависимость от времени доходов и
затрат. Исследование подобных моделей (то есть общей постанов-
ки задачи (8)-(9)), в том числе, с учетом риска, представляется
перспективным направлением дальнейших исследований.


12. РАНГОВЫЕ СИСТЕМЫ СТИМУЛИРОВАНИЯ

Во многих моделях стимулирования вознаграждение агентов
зависит от абсолютных значений их действий и/или результата
деятельности (см. выше). В то же время, на практике достаточно
распространены ранговые системы стимулирования (РСС), в
которых величина вознаграждения агента определяется либо при-
надлежностью показателя его деятельности некоторому наперед
заданному множеству – так называемые нормативные РСС, либо
местом, занимаемым агентом в упорядочении показателей дея-
тельности всех агентов – так называемые соревновательные РСС
[8, 14].
Преимуществом ранговых систем стимулирования является в
основном то, что при их использовании центру иногда не обяза-
тельно знать достоверно значения всех действий, выбранных аген-
тами, а достаточна информация о диапазонах, которым они при-
надлежат, или об упорядочении действий. Однако возникает
вопрос: так как РСС являются подклассом систем стимулирования,
то в каких случаях использование РСС не приводит к потерям
эффективности управления (стимулирования), а если приводит, то
какова величина этих потерь? Приведем основные результаты,
следуя [14].
Нормативные РСС (НРСС) характеризуются наличием проце-
дур присвоения рангов агентам в зависимости от показателей их
деятельности (выбираемых действий и т.д.). Введем следующие
предположения, которые будем считать выполненными на протя-
жении настоящего раздела.

128
Во-первых, будем считать, что множества возможных дейст-
вий агентов одинаковы и составляют множество A неотрицатель-
ных действительных чисел. Во-вторых, предположим, что функции
затрат агентов монотонны и затраты от выбора нулевого действия
равны нулю.
Пусть ? = {1, 2, ... m} – множество возможных рангов, где m –
размерность НРСС, {qj}, j = 1, m – совокупность m неотрицатель-
ных чисел, соответствующих вознаграждениям за «попадание» в
различные ранги; ?i: Ai > ?, i = 1, n – процедуры классификации.
Тогда НРСС называется кортеж {m, ?, {?i}, {qj}}.
Известно, что для любой системы стимулирования существует
НРСС не меньшей эффективности. Основная идея обоснования
этого утверждения заключается в том, что для любой системы
стимулирования и для любого агента всегда можно подобрать
индивидуальную процедуру классификации его действий так,
чтобы он при использовании НРСС выбирал то же действие, что и
при использовании исходной системы стимулирования. Однако на
практике использование для каждого агента собственной процеду-
ры классификации нецелесообразно, а зачастую и невозможно.
Поэтому рассмотрим случай, когда процедура классификации
одинакова для всех агентов – так называемая унифицированная
НРСС (УНРСС) – см. также обсуждение проблем унификации
систем стимулирования в девятом разделе.
Унифицированные нормативные ранговые системы сти-
мулирования. При использовании УНРСС агенты, выбравшие
одинаковые действия, получают одинаковые вознаграждения.
Введем вектор такой, что
Y = (Y1, Y2, ..., Ym),
0 ? Y1 ? Y2 ? ... ? Ym < +?, который определяет некоторое разбиение
множества A. Унифицированная НРСС задается кортежем
{m, {Yj}, {qj}}, причем вознаграждение i-го агента ?i определяется
m

?
следующим образом: ?i(yi) = qj I(yi ? [Yj, Yj+1)), где I(.) – функ-
j =0
ция-индикатор, Y0 = 0, q0 = 0. Унифицированная НРСС называется
прогрессивной, если вознаграждения возрастают с ростом дейст-


129
вий: q0 ? q1 ? q2 ? ... ? qm. Эскиз графика прогрессивной УНРСС
приведен на рисунке 53.

?
qm




q2

q1
y
Y1 Y2 Y3 Ym
0

Рис. 53. Пример прогрессивной УНРСС

Так как УНРСС кусочно-постоянна, то в силу монотонности
функций затрат очевидно, что агенты будут выбирать действия с
минимальными затратами на соответствующих отрезках. Иначе
говоря, условно можно считать, что при фиксированной системе
стимулирования множество допустимых действий равно
Y = {Y1, Y2, ..., Ym}, причем, так как ci(0) = 0, то q0 = 0. Действие yi* ,
выбираемое i-ым агентом, определяется парой векторов (Y, q), то
есть имеет место yi* (Y, q) = Y k i , где
(1) ki = arg max {qk – ci(Yk)}, i ? I.
k = 0, m
* * *
Обозначим y*(Y, q) = ( y1 (Y, q), y 2 (Y, q), ..., y n (Y, q)). Задача
синтеза оптимальной УНРСС заключается в выборе размерности
УНРСС m и векторов q и Y, удовлетворяющих заданным ограниче-
ниям, которые максимизировали бы целевую функцию центра:
(2) ?(y*(Y, q)) > max .
Y ,q

Фиксируем некоторый вектор действий y* ? A' = An, который мы
хотели бы реализовать с помощью УНРСС.
Из того, что при использовании УНРСС агенты выбирают
действия только из множества Y, следует, что минимальная раз-
мерность системы стимулирования должна быть равна числу
130
попарно различных компонент вектора действий, который требу-
ется реализовать. Следовательно, использование УНРСС размер-
ности, большей, чем n, нецелесообразно. Поэтому ограничимся
системами стимулирования, размерность которых в точности равна
числу агентов, то есть положим m = n.
Для фиксированного вектора действий y* ? A' положим
Yi = yi* , i ? I, и обозначим cij = ci(Yj), i, j ? I. Из определения реали-
зуемого действия (см. (1)) следует, что для того, чтобы УНРСС
реализовывала вектор y* ? A' (то есть, побуждала агентов выбирать
соответствующие действия) необходимо и достаточно выполнения
следующей системы неравенств:
(3) qi – cii ? qj – cij, i ? I, j = 0, n .
Обозначим суммарные затраты на стимулирование по реали-
зации действия y* УНРСС
n

?q (y ) ,
(4) ?УНРСС(y ) = *
*
i
i =1
где q(y ) удовлетворяет (3). Задача синтеза оптимальной (мини-
*

мальной) УНРСС заключается в минимизации (4) при условии (3).
Предположим, что агентов можно упорядочить в порядке
убывания затрат и предельных затрат (? y ? A c1 (y) ? c2 (y) ? ... ?
' '


cn (y)), и фиксируем некоторый вектор y* ? A', удовлетворяющий
'

следующему условию:
(5) y1 ? y 2 ? ... ? y n ,
* * *


то есть чем выше затраты агента, тем меньшие действия он выби-
рает.
Введенным предположениям удовлетворяют, например, такие
распространенные в экономико-математическом моделировании
функции затрат агентов, как: ci(yi) = ki c(yi), ci(yi) = ki c(yi/ki), где c(?)
– монотонная дифференцируемая функция, а коэффициенты (от-
ражающие эффективность деятельности агентов) упорядочены:
k1 ? k2 ? ... ? kn (частными случаями являются линейные функции
затрат, функции затрат типа Кобба-Дугласа и др.).
В [14] доказано, что:

131
1) унифицированными нормативными ранговыми системами
стимулирования реализуемы такие и только такие дейст-
вия, которые удовлетворяют (5);
2) оптимальная УНРСС является прогрессивной;
3) для определения оптимальных размеров вознаграждений
может быть использована следующая рекуррентная проце-
дура: q1 = c11, qi = cii + max {qj – cij}, i = 2, n ;
j<i
4) индивидуальные вознаграждения в УНРСС, реализующей
вектор y* ? A', удовлетворяют:
i

? (cj( y * ) – cj( y *?1 )).
(6) qi = j j
j =1
Выражение (6) позволяет исследовать свойства УНРСС – вы-
числять оптимальные размеры вознаграждений, строить оптималь-
ные процедуры классификаций, сравнивать эффективность УНРСС
с эффективностью компенсаторных систем стимулирования и т.д.
– см. свойства ранговых систем стимулирования ниже.
УНРСС единичной размерности. Отметим, что выше иссле-
довались УНРСС размерности n. Частым случаем УНРСС являются
унифицированные системы стимулирования С-типа (УНРСС еди-
ничной размерности)]. Поэтому рассмотрим задачу синтеза унифи-
цированной системы стимулирования, в которой центр назначает
общий для всех агентов план и использует унифицированную
систему стимулирования С-типа с одним «скачком»:
?C , yi ? x
(7) ?(x, yi) = ? ,
0, yi < x
?
где С – некоторая неотрицательная величина (размер «премии»), x –
общий для всех агентов план.
Обозначим P(x, С) – множество тех агентов, у которых затраты
в точке x не превышают С, то есть таких агентов, которым выгодно
выполнение плана x: P(x, С) = {i ? I | ci(x) ? С}.
Из введенных предположений следует, что
P(x, С) = {k(x, C), ..., n}, где k(x, C) = min {i ? I | ci(x) ? C}.
Агенты из множества Q(x, C) = {1, 2, ..., k(x, C) – 1} выполне-
ние плана x при вознаграждении С невыгодно, и они выберут

132
действия, минимизирующие затраты, то есть действия, равные
нулю.
Тогда действия { yi* }i ? I, реализуемые системой стимулирова-
ния (7), удовлетворяют:
? x, i ? k ( x, C )
(8) yi* (x,С) = ? .
0, i < k ( x, C )
?
Суммарные затраты центра на стимулирование при использо-
вании центром системы стимулирования (7), в силу (8), равны
(9) ?(x,С) = С (N – k(x, C) + 1).
Как показано в [9, 14], зависимость yi* (x, С) не является непре-
рывной. Поэтому для каждого x ? A существует конечное число
минимальных затрат центра на стимулирование, при которых
изменяется число агентов, выполняющих план x:
{c1(x), c2(x), ..., cn(x)}. Аналогично, для фиксированного ограниче-
ния C при непрерывных и строго монотонных функциях затрат
агентов существует конечное число планов { ci?1 (C)}i ? I (где «-1»
обозначает обратную функцию), при которых изменяется число
агентов, которые их выполняют.
Сравним минимальные затраты на стимулирование при ис-
пользовании центром компенсаторной системы индивидуального
стимулирования и УНРСС единичной размерности. Фиксируем
произвольный план x ? A. Для того чтобы все агенты выбрали
действия, совпадающие с планом, необходимо, чтобы k(x, C) = 1, то
есть C = c1(x). Тогда из (8)-(9) получаем, что минимальные затраты
на стимулирование равны (напомним, что индекс «U» соответству-
ет унифицированным системами стимулирования) ?UQK(x) = n c1(x).
Следовательно, потери в эффективности (по сравнению с система-
ми стимулирования QK-типа) составляют:
n

?
(10) ?(x) = (n – 1) c1(x) – ci(x).
i=2
Соревновательные системы стимулирования. Рассмотрим
кратко известные свойства соревновательных ранговых систем
стимулирования (СРСС), в которых центр задает число классов и
число мест в каждом из классов, а также величины поощрений
133
агентов, попавших в тот или иной класс. То есть в СРСС индиви-
дуальное поощрение агента не зависит непосредственно от абсо-
лютной величины выбранного им действия, а определяется тем
местом, которое он занял в упорядочении показателей деятельно-
сти всех агентов.
В [14] доказано, что:
1) необходимым и достаточным условием реализуемости
вектора действий агентов y* ? A в классе СРСС является
выполнение (5);
2) данный вектор реализуем следующей системой стимули-
рования, обеспечивающей минимальность затрат центра
на стимулирование:
i
? {cj-1( y * ) – cj-1( y *?1 )}, i = 1,n .
*
(11) qi(y ) = j j
j =2
Выражение (11) позволяет исследовать свойства СРСС – вы-
числять оптимальные размеры вознаграждений, строить оптималь-
ные процедуры классификаций, сравнивать эффективность СРСС с
эффективностью компенсаторных систем стимулирования и с
эффективностью УНРСС и т.д.
Свойства ранговых систем стимулирования. Одним из ти-
повых решений [2] является использование ранговых систем сти-
мулирования, в которых либо множество возможных результатов
деятельности разбивается на равные отрезки («расстояния» между
нормативами одинаковы), либо на равные отрезки разбивается
множество вознаграждений («расстояния» между размерами воз-
награждений за выполнение нормативов одинаковы). Поэтому
исследуем последовательно эти два случая для нормативных и
соревновательных РСС. Кроме того, зачастую на практике предпо-
лагается, что существуют нормативы затрат, не зависящие от
объемов работ, что в рамках рассматриваемой модели стимулиро-
вания приводит к предположению о линейности функций затрат
агентов.
Пусть множество A = [0; A+] ? ?1 разбито на n равных отрез-
ков [Yi, Yi+1], i = 0, n ? 1 , Y0 = 0, Yn = A+, то есть Yi = i A+ / n, i ? I.
Тогда из выражения (6) получаем, что размеры вознаграждений
должны удовлетворять следующему соотношению [2]:
134
(12) q1 = с1(A+/n), qi = qi-1 + [ci(i A+/n) – ci((i – 1) A+/n)], i = 2, n .
В частности, для линейных функций затрат ci(yi) = ki yi, i ? I,
получаем:
(13) q1 = k1 A+/n, ?i = qi – qi-1 = ki A+ / n, i = 2, n .
Таким образом, справедлив следующий вывод: если использу-
ется равномерное разбиение множества A, то при линейных функ-
циях затрат агентов УНРСС является прогрессивной и вогнутой
функцией (см. также свойства шкал оплаты труда в разделе 11).
Возникает предположение – может быть всегда УНРСС явля-
ются монотонными и вогнутыми (или монотонными и вогнутыми).
На самом деле, оптимальные УНРСС всегда являются монотон-
ными, однако никаких однозначных суждений относительно вы-
пуклости/вогнутости сделать нельзя – в зависимости от функций
затрат и соотношения типов агентов УНРСС может быть вогнутой,
линейной, выпуклой или ни вогнутой, ни выпуклой. Приведем
иллюстративный пример.
Пример 11. Пусть агенты имеют квадратичные функции за-
трат типа Кобба-Дугласа. Тогда из (12) следует, что
?i = (A+)2(2 i – 1) / 2 n2 ri, i ? I.
Получаем, что «вторая производная» равна
( A + ) 2 (2i ? 1)ri ?1 ? (2i ? 3)ri
?i – ?i-1 = , i = 2, n .
2n 2 ri ?1ri
Учитывая, что ri > ri-1, i = 2, n , имеем, что при ri-
2i ? 1
ri-1, i = 2, n , УНРСС является прогрессивной и вы-
1 < ri <
2i ? 3
2i ? 1
ri-1, i = 2, n – вогнутой, а при ri = 2i ? 1 ri-1,
пуклой, при ri >
2i ? 3
2i ? 3
i = 2, n – линейной.
Следовательно, имея распределение агентов по типам, можно
для каждого класса функций их затрат предсказывать, какими
свойствами должна обладать оптимальная УНРСС. Например,
если последовательность типов агентов с квадратичными функ-
циями затрат типа Кобба-Дугласа является монотонно возрастаю-
щей и лежит в области I на рисунке 54, то соответствующая опти-

135
мальная УНРСС является выпуклой, если – в области II, то вогну-
той, на границе этих областей – линейной, а если пересекает гра-
ницу, то ни выпуклой, ни вогнутой. •

ri

II

3r1 I


r1
i

2
1
Рис. 54. Выпуклость, линейность и вогнутость
оптимальных УНРСС

Перейдем к исследованию УНРСС, в которых равномерны
вознаграждения, то есть qi = i q1, i ? I. Из выражения (6) получаем,
что
(14) Y1 = c1?1 (q1), Yi = ci?1 (q1 + ci(Yi-1)), i = 2, n ,
где c-1(?) – функция, обратная к функции затрат.
i

?1 / k
Для линейных функций затрат агентов имеем: Yi = q1 ,
j
j =1
n

?1 / k
i ? I. Из условия Yn = A окончательно получаем: q1 = A /
+ +
,
j
j =1
i n

?1 / k ?1 / k , i ? I.
+
(15) Yi = [A ]/
j j
j =1 j =1
Введем в рассмотрение показатель «равномерности» нормати-
вов:
?1 / k
(16) ?i = Yi – Yi-1 = q1 / ki = A+ / [ki ], i = 2, n .
j
j?I
Можно показать [2], что в УНРСС при линейных функциях
затрат агентов и равномерных вознаграждениях (прямо пропор-
136
циональных номеру норматива) оптимальные приросты нормати-
вов увеличиваются с ростом эффективности деятельности агента.
Аналогично тому, как это делалось для УНРСС, исследуем
СРСС с равномерными нормативами.
Пусть множество A = [0; A+] ? ?1 разбито на (n – 1) равный
отрезок [Yi, Yi+1], i = 1, n ? 1 , Y1 = 0, Yn = A+, то есть Yi = (i –
1) A+ / (n – 1), i ? I. Тогда из выражения (11) получаем, что
размеры вознаграждений должны удовлетворять следующему
соотношению:
(17) q1 = 0, qi = qi-1 + [ci-1((i – 1) A+/ (n – 1)) –
– ci-1((i – 2) A+/ (n – 1))], i = 2, n .
В частности, для линейных функций затрат ci(yi) = ki yi, i ? I,
получаем:
(18) q1 = 0, ?i = qi – qi-1 = ki-1 A+ / (n–1), i = 2, n .
Можно показать [2], что, если используется равномерное раз-
биение множества A, то при линейных функциях затрат агентов
СРСС является прогрессивной и вогнутой функцией.
Пример 12. Пусть агенты имеют квадратичные функции за-
трат типа Кобба-Дугласа. Тогда из (17) следует, что
?i = (A+)2(2 i – 3) / 2 (n–1)2 ri-1, i = 2, n .
Получаем, что «вторая производная» равна
?i+1 – ?i = ( A ) 2 (2i ? 1)ri ?1 ? ( 2i ? 3) ri , i = 1, n ? 1 .
+2


2(n ? 1) ri ?1ri
В рассматриваемом примере можно по аналогии с тем, как это
делалось в примере 11, построить области возрастающих последо-
вательностей типов агентов, при которых УНРСС является выпук-
лой, вогнутой, линейной или ни выпуклой, ни вогнутой. •
Перейдем к исследованию СРСС, в которых равномерны воз-
награждения, то есть qi = (i – 1) q2, i = 2, n . Из выражения (11)
получаем, что
(19) Y1 = 0, Yi = ci?1 (q2 + ci-1(Yi-1)), i = 2, n .
?1
Для линейных функций затрат агентов имеем:
i

?1 / k , i = 2, n . Из условия Yn = A+ окончательно полу-
Yi = q2 j ?1
j =2
137
n

?1 / k
чаем: q2 = A / (отметим, что в СРСС основные показате-
+
j ?1
j =2
ли не зависят от эффективности деятельности победителя конкур-
са – агента, имеющего минимальные затраты),
i n

?1 / k ?1 / k , i ? I.
+
(20) Yi = [A ]/
j j
j =1
j =1
Введем в рассмотрение показатель «равномерности» нормати-
вов
n

?1 / k
(21) ?i = Yi – Yi-1 = q2 / ki-1 = A / [ki-1 +
], i = 2, n .
j
j =1
Из выражения (21) следует справедливость следующего ут-
верждения: в СРСС при линейных функциях затрат агентов и
равномерных вознаграждениях (прямо пропорциональных номеру
норматива) оптимальные приросты нормативов увеличиваются с
ростом эффективности деятельности агента.
Применение используемой в настоящем разделе техники ана-
лиза ранговых систем стимулирования дает возможность изучать
свойства оптимальных УНРСС и СРСС для различных (конкрет-
ных) функций затрат и распределений типов агентов.


13. МЕХАНИЗМЫ СТИМУЛИРОВАНИЯ В МАТРИЧНЫХ
СТРУКТУРАХ

Во многих реальных системах один и тот же агент оказывается
подчинен одновременно нескольким центрам, находящимся либо
на одном, либо на различных уровнях иерархии. Первый случай
называется распределенным контролем, второй – межуровневым
взаимодействием.
Межуровневое взаимодействие. Анализ моделей межуров-
невого взаимодействия [9] свидетельствует, что двойное подчине-
ние агента управляющим органам, находящимся на различных
уровнях иерархии, оказывается неэффективным. Косвенным под-
тверждение этой неэффективности является известный управлен-
ческий принцип «вассал моего вассала – не мой вассал». Поэтому с
138
нормативной точки зрения каждый агент должен быть подчинен
только своему непосредственному «начальнику» – управляющему
органу, находящемуся на следующем (и только на следующем)
более высоком уровне иерархии.
Возникает закономерный вопрос: почему в реальных органи-
зационных системах наблюдаются эффекты межуровневого взаи-
модействия? Дескриптивное (без учета нормативной структуры
взаимодействия участников и институциональных ограничений)
объяснение таково. Обычно предполагается, что потери эффектив-
ности могут возникать только из-за факторов агрегирования, де-
композиции задач управления и недостаточной информированно-
сти центра об агентах [9]. Если же присутствуют, в частности,
информационные ограничения на промежуточном уровне – напри-
мер, количество информации, которое должен переработать управ-
ляющий орган некоторой подсистемы, превосходит его возможно-
сти – то часть функций управления (быть может, в агрегированном
виде) вынужденно передается на более высокий уровень. Проще
говоря, основной причиной наблюдаемого на практике межуров-
невого взаимодействия, как правило, является некомпетентность (в
объективном смысле этого слова) промежуточного центра. Поэто-
му, с одной стороны, при решении задач синтеза организационной,
функциональной, информационной и других структур ОС априори
следует допускать возможность межуровневого взаимодействия,
стремясь, тем не менее, избежать его, насколько это возможно. С
другой стороны, наличие межуровневого взаимодействия в реаль-
ной ОС косвенно свидетельствует о неоптимальности ее функцио-
нирования и должно послужить руководителю сигналом о необхо-
димости пересмотра структуры, а иногда и состава, системы.
В то же время, двойное подчинение агентов центрам одного и
того же уровня зачастую неизбежно. Примером являются матрич-
ные структуры управления [4, 9, 10, 15], для которых распределен-
ный контроль является характерной чертой.
Распределенный контроль. Специфической чертой матрич-
ных структур управления (МСУ), характерных для проектно-
ориентированных организаций, является подчиненность одного и
того же агента одновременно нескольким центрам одного уровня
иерархии, функции которых могут быть различными (координи-
рующая, обеспечивающая, контролирующая и т.д.). Например, на
139
иерархическую организационную структуру накладывается «гори-
зонтальная» структура проектов (см. рисунок 55).


Высшее руководство

Проекты Функциональная структура


Инженерное Руководство
управление НИОКР

Менеджер
Менеджер
проекта
проекта
Сотрудники Сотрудники


Рис. 55. Пример матричной структуры управления

В МСУ центры, осуществляющие управление агентом, оказы-
ваются вовлеченными в «игру», равновесие в которой имеет доста-
точно сложную структуру. В частности можно выделить два ус-
тойчивых режима взаимодействия центров режим

сотрудничества и режим конкуренции.
В режиме сотрудничества центры действуют совместно, что
позволяет добиваться требуемых результатов деятельности управ-
ляемого агента с использованием минимального количества ресур-
сов.
В режиме конкуренции, который возникает, если цели центров
различаются достаточно сильно, ресурсы расходуются неэффек-
тивно.
Приведем простейшую модель матричной структуры управле-
ния (достаточно полное представление о современном состоянии
исследований этого класса задач управления можно получить из
[4, 15]).


140
Пусть ОС состоит из одного агента и k центров. Стратегией
агента является выбор действия y ? A, что требует от него затрат
c(y). Каждый центр получает от деятельности агента доход, описы-
ваемый функцией Hi(y), и выплачивает агенту стимулирование
?i(y), i ? K = {1, 2, …, k} – множеству центров. Таким образом,
целевая функция i-го центра имеет вид
(1) ?i(?i(?), y) = Hi(y) – ?i(y), i ? K,
а целевая функция агента:
(2) f({?i(?)}, y) = ? ? i ( y) – c(y).
i?I
Порядок функционирования следующий: центры одновремен-
но и независимо (кооперативные модели взаимодействия центров в
системах с распределенным контролем рассматриваются в [4])
выбирают функции стимулирования и сообщают их агенту, кото-
рый затем выбирает свое действие. Ограничимся рассмотрением
множества Парето-эффективных равновесий Нэша игры центров, в
которых, как показано в [15], их стратегии имеют вид
??i , y = x
(3) ?i(x, y) = ? , i ? K.
0, y ? x
?
Содержательно, центры договариваются о том, что будут по-
буждать агента выбирать действие x ? A – план – и осуществлять
совместное стимулирование. Такой режим взаимодействия центров
называется режимом сотрудничества.
Из условий оптимальности по Парето следует, что сумма воз-
награждений, получаемых агентом от центров в случае выполне-
ния плана, равна его затратам (обобщение принципа компенсации
затрат на системы с распределенным контролем), то есть:
(4) ? ?i = c(x).
i?K
Условие выгодности сотрудничества для каждого из центров
можно сформулировать следующим образом: в режиме сотрудни-
чества каждый центр должен получить полезность не меньшую,
чем он мог бы получить, осуществляя стимулирование агента в
одиночку (компенсируя последнему затраты по выбору наиболее
выгодного для данного центра действия). Полезность i-го центра
от «самостоятельного» взаимодействия с агентом в силу результа-
тов второго раздела равна
141
(5) Wi = max [Hi(y) – c(y)], i ? K.
y? A

Обозначим ? = (?1, ?2, …, ?k),
? ?i
(6) S = {x ? A | ? ? ? ?k : Hi(x) – ?i ? Wi, i ? K, = c(x)}
+
i?K
– множество таких действий агента, для реализации которых со-
трудничество выгодно для центров.
Множество пар x ? S и соответствующих векторов ? называ-
ется областью компромисса:

<<

стр. 4
(всего 5)

СОДЕРЖАНИЕ

>>