<<

стр. 2
(всего 5)

СОДЕРЖАНИЕ

>>

таться выполненными в ходе всего последующего изложения мате-
риала настоящей работы. Все предположения, дополнительно
вводимые ниже, нумеруются независимо, так как отражают специ-
фику соответствующих моделей [65, 100, 103, 104, 106, 134] и
распространяются на тот раздел, в котором они введены.
Обозначим M - множество систем стимулирования, удовлетво-
ряющих предположению А.3, P(?) – множество равновесных при
системе стимулирования ? стратегий АЭ – множество решений

1
В настоящей работе принята независимая внутри разделов нумерация
формул.
37
игры (тип равновесия пока не оговаривается; единственно предпо-
ложим, что АЭ выбирают свои стратегии одновременно и незави-
симо друг от друга, не имея возможности обмениваться дополни-
тельной информацией и полезностью [41, 94, 109]).
Как и в одноэлементной АС [27, 99, 100], гарантированной эф-
фективностью (далее просто "эффективностью") стимулирования
является минимальное значение целевой функции центра на соот-
ветствующем множестве решений игры:
(3) K(?) = min ?(?, y).
y?P (? )
Задача синтеза оптимальной функции стимулирования заклю-
чается в поиске допустимой системы стимулирования ?*, имеющей
максимальную эффективность:
(4) ?* = arg max K(?).
? ?M
В [27, 48, 49, 99, 100] доказано, что в частном случае, когда АЭ неза-
висимы (вознаграждение каждого из них и затраты каждого из них сепара-
бельны, то есть зависят только от его собственных действий), то опти-
n
? ? i ) является
?-оптимальной, ?=
мальной где
(точнее –
i =1
квазикомпенсаторная система стимулирования:
?ci ( y i* ) + ? i , y i = y i*
(5) ? i K ( y i ) = ? , i ? I,
y i ? y i*
? 0,
где ?i - сколь угодно малые строго положительные константы, а оптималь-
*
ное действие y , реализуемое системой стимулирования (5) как РДС,
является решением следующей задачи оптимального согласованного
n
?
*
планирования: y = arg max {H(y) – c i ( y i ) }.
y?A? i =1
Решение задачи стимулирования в многоэлементной АС.
Если стимулирование каждого АЭ зависит от действий всех АЭ (слу-
чай коллективного стимулирования [96, 103]) и затраты несепарабельны,
то определения множества равновесий Нэша EN(?) и РДС yd ? A имеют
вид:
?A | ? i?I ? yi ? Ai ?i(yN) – ci( y N ) ? ?i(yi, y ? i ) – ci(yi, y ? i )},
N N
N
(6) EN(?) = {y



38
? Ai - доминантная стратегия i-го АЭ, тогда и только тогда, когда
y id
? yi ? Ai, ? y-i ? A-i ?i( , y-i) ? ?i(yi, y-i) – ci(yi, y-i).
y id y id
, y-i) – ci(

Если при заданной системе стимулирования у всех АЭ имеется
доминантная стратегия, то говорят, что данная система стимулиро-
вания реализует соответствующий вектор действий как РДС.
Если стимулирование каждого АЭ зависит только от его собственных
действий (случай индивидуального стимулирования [104]), то определения
множества равновесий Нэша EN(?) и РДС yd ? A имеют вид:
?A | ? i ? I ? yi ? Ai ?i( yiN ) – ci( y N ) ? ?i(yi) – ci(yi, y ? i )},
N
N
(7) EN(?) = {y

? Ai - доминантная стратегия i-го АЭ, тогда и только тогда, когда
y id
? yi ? Ai, ? y-i ? A-i ?i( , y-i) ? ?i(yi) – ci(yi, y-i).
y id y id
) – ci(

Фиксируем произвольный вектор действий АЭ y* ? A’ и рас-
смотрим следующую систему стимулирования:
?ci ( yi* , y ?i ) + ? i , yi = yi*
(8) ?i(y , y) = ? , ?i ? 0, i ? I.
*

yi ? yi
*
? 0,
Теорема 2.1.1. [101, 103]. При использовании центром системы
стимулирования (8) y* – РДС. Более того, если ?i > 0, i ? I, то y* –
единственное РДС.
Содержательно, при использовании системы стимулирования
(8) центр использует следующий принцип декомпозиции: он
предлагает i-му АЭ – "выбирай действие yi* , а я компенсирую тебе
затраты, независимо от того какие действия выбрали остальные
АЭ, если же ты выберешь любое другое действие, то вознагражде-
ние будет равно нулю". Используя такую стратегию, центр деком-
позирует игру АЭ.
Если стимулирование каждого АЭ зависит только от его собст-
венного действия, то, фиксировав для каждого АЭ обстановку
игры, перейдем от (8) к системе индивидуального стимулирования
следующим образом: фиксируем произвольный вектор действий
АЭ y* ? A’ и определим систему стимулирования:
?ci ( yi* , y ?i ) + ? i , yi = yi*
*
(9) ?i(y , yi) = ? , ?i ? 0, i ? I.
*

yi ? yi
*
? 0,
39
Отметим, что функция стимулирования (9) зависит только от
*
действия i-го АЭ, а величина y ?i входит в нее как параметр. Кроме
того, при использовании центром системы стимулирования (9), в
отличие от (8), каждый из АЭ имеет косвенную информацию обо
всех компонентах того вектора действий, который хочет реализо-
вать центр. Для того, чтобы система стимулирования (9) реализо-
вывала вектор y* как РДС необходимо введение дополнительных
(по сравнению со случаем использования (8)) предположений
относительно функций затрат АЭ.
Теорема 2.1.2. [101, 103]. При использовании центром системы
стимулирования (9) y* ? EN(?). Более того:
а) если выполнено условие:
(10) ? y1? y2 ? A’ ? i ? I: yi1 ? yi2 и ci(y1) + ci(y2) > ci( yi1 , y ?i ) - ?i,
2

то y* - единственное равновесие Нэша;
б) если выполнено условие:
(11) ? i? I, ? y1 ? y2 ? A’ ci(y1) + ci(y2) ? ci( yi1 , y ?i ) - ?i,
2

то вектор действий y* является РДС;
в) если выполнено условие (11) и ?i > 0, i ? I, то вектор дейст-
вий y* является единственным РДС.
При ?i ? 0, i ? I, условие (11) выполнено, в частности, для любых се-
парабельных затрат активных элементов; а условие (10) – для сепара-
бельных строго монотонных функций затрат при ?i > 0, i ? I, при этом
стратегия (9) переходит в стратегию (5) (отметим, что в условии (10) можно
использовать нестрогое неравенство, одновременно требуя строгой поло-
жительности ?i; точно так же в пункте в) можно ослабить требование стро-
гой положительности ?i, но рассматривать (11) как строгое неравенство).
Кроме того, в работе [103] для частного случая сепарабельных затрат
(когда затраты каждого АЭ зависят только от его собственных действий)
доказано, что в рассматриваемой модели для любой системы коллективно-
го стимулирования найдется система индивидуального стимулирования не
меньшей эффективности.
Содержательно, при использовании системы стимулирования
(9) центр предлагает i-му АЭ – "выбирай действие yi* , а я компен-
сирую тебе затраты, считая, что остальные АЭ также выбрали
*
соответствующие компоненты - y ?i , если же ты выберешь любое

40
другое действие, то вознаграждение будет равно нулю". Используя
такую стратегию центр декомпозирует игру АЭ.
Идея декомпозиции игры АЭ за счет использования соответ-
ствующих компенсаторных функций стимулирования типа (8) и (9)
является ключевой для всех моделей стимулирования в многоэле-
ментных АС (см. также [96, 101, 102, 103, 104]).
Здесь же уместно качественно пояснить необходимость введения не-
отрицательных констант {?i} в выражениях (5), (8) и (9). Если требуется
реализовать некоторое действие как одно из равновесий Нэша, то (как
видно из формулировок и доказательств теорем) эти константы могут быть
выбраны равными нулю. Если требуется, чтобы равновесие было единст-
венным (в частности, чтобы АЭ не выбирали нулевые действия - иначе при
вычислении гарантированного результата в (3) центр вынужден рассчиты-
вать на выбор АЭ нулевых действий - см. предположение А.4), то элемен-
там следует доплатить сколь угодно малую, но строго положительную
величину за выбор именно того действия, которое предлагается центром.
Более того, величины {?i} в выражениях (5), (8) и (9) играют важную роль и
с точки зрения устойчивости [107] компенсаторной системы стимулирова-
ния по параметрам модели. Например, если функция затрат i-го АЭ из-
вестна с точностью до ?i ? ?i / 2, то компенсаторная система стимулирова-
*
ния все равно реализует действие y (см. доказательства и подробное
обсуждение в [48, 91, 98]).
Вектор оптимальных реализуемых действий АЭ y*, фигури-
рующий в качестве параметра в выражении (9), определяется в
результате решения следующей задачи оптимального согласован-
ного планирования: y* = arg max {H(t) – ?(t)}, а эффективность
t?A?
системы стимулирования равна следующей величине:
(9)
n
? ci ( y * ) - ?.
* *
K = H(y ) -
i =1
Теорема 2.1.3. [101, 103]. Класс (с параметром y*) систем сти-
мулирования (8), (9) является ?-оптимальным.
В рассмотренных задачах стимулирования оптимальными яв-
ляются, в частности, разрывные квазикомпенсаторные функции
стимулирования: АЭ компенсировались затраты при выборе ими
определенных действий (при тех или иных предположениях об
обстановке игры), в остальных случаях вознаграждение равнялось
нулю. Рассмотрим насколько изменятся полученные результаты,
41
если потребовать, чтобы функции стимулирования были непрерыв-
ными. Интуитивно понятно, что, если стимулирование будет в
окрестности реализуемого действия изменяться быстрее, чем затра-
ты, то все результаты останутся в силе. Приведем формальный
результат.
Пусть в рассмотренной выше модели функции затрат АЭ непрерывны
по всем переменным, а множества возможных действий АЭ компактны.
Определим непрерывные функции стимулирования следующего вида
(12) ?i(y) = ci(y) qi(yi , y),
*
*
где qi(yi , y) – непрерывная функция своих переменных, удовлетворяющая
следующему условию:
(13) ? i ? I ? yi ? Ai ? y-i ? A-i qi(yi , y) ? 1, qi(yi , yi , y-i) = 1.
* * *

Теорема 2.1.4. [101, 103]. Если выполнена гипотеза благожелательно-
*
сти, то при использовании центром системы стимулирования (12)-(13) y –
РДС.
Таким образом, при исследовании моделей стимулирования в
АС с сильно связанными элементами ключевую роль играют два
принципа – принцип декомпозиции игры АЭ и принцип компенсации
затрат. Принцип компенсации затрат, заключающийся в том, что
минимальная система стимулирования, реализующая любое дейст-
вие АЭ, должна в точности компенсировать его затраты, справед-
лив и для многоэлементных, и для одноэлементных АС. Принцип
декомпозиции игры (см. теоремы 2.1.1 и 2.1.2) АЭ специфичен для
многоэлементных АС и заключается побуждении АЭ выбирать
наиболее выгодные для центра действия как РДС, за счет использо-
вания соответствующих систем стимулирования (см. выражения (8)
и (9)), которые являются оптимальными (теорема 2.1.3).


2.2. Агрегирование информации

Как отмечалось в первой главе, определение проекта как целе-
направленного изменения некоторой системы подразумевает суще-
ствование критерия его завершения в виде факта достижения опре-
деленного результата. Этот результат достигается за счет
совместной деятельности множества участников проекта (исполни-
телей), причем проект-менеджер, особенно высшего звена, зачас-
тую не имеет возможности (а иногда и необходимости или жела-
ния) осуществлять оперативный мониторинг и контроль действий
42
каждого исполнителя, так как его интересует в первую очередь
конечный результат деятельности. Поэтому в настоящем разделе
решается задача синтеза оптимальной системы стимулирования
исполнителей для системы, в которой имеет место агрегирование
информации относительно индивидуальных действий участников
проекта.
В большинстве известных моделей стимулирования рассмат-
риваются либо детерминированные активные системы (АС), в
которых управляющий орган - центр - наблюдает результат дея-
тельности каждого из управляемых субъектов - активных элемен-
тов (АЭ), находящийся в известном взаимно однозначном соответ-
ствии с выбранной последним стратегией (действием), либо АС с
неопределенностью, в которых наблюдаемый результат деятельно-
сти АЭ зависит не только от его собственных действий, но и от
неопределенных и/или случайных факторов.
Модели детерминированных многоэлементных АС, в которых
центру известен только агрегированный результат деятельности
АС, зависящий от действий всех АЭ, на сегодняшний день практи-
чески не исследованы (исключение составляют работы [5, 6], в
которых рассматриваются проблемы точного агрегирования в
иерархических играх, и [96], в которой производится в основном
качественное обсуждение задач агрегирования в моделях АС).
Ниже формулируется и решается задача стимулирования в
многоэлементной детерминированной АС, в которой центр имеет
агрегированную информацию о результатах деятельности АЭ.
Методологическую основу исследования составляют результаты
изучения проблем агрегирования в теоретико-игровых моделях
[5, 6] и принцип декомпозиции игры АЭ (см. раздел 2.1), позво-
ляющий эффективно решать задачи управления многоэлементными
АС.
Постановка задачи стимулирования в АС с агрегировани-
ем информации. Рассмотрим многоэлементную детерминирован-
ную двухуровневую АС, состоящую из центра и n АЭ. Стратегией
АЭ является выбор действий, стратегией центра – выбор функции
стимулирования, то есть зависимости вознаграждения каждого АЭ
от его действий и, быть может, действий других АЭ или других
агрегированных показателей их совместной деятельности.


43
Пусть результат деятельности z ? A0 = Q(A’) АС, состоящей из
n АЭ, является функцией (называемой функцией агрегирования) их
действий: z = Q(y). Интересы и предпочтения участников АС –
центра и АЭ – выражены их целевыми функциями. Целевая функ-
ция центра является функционалом ?(?, z) и представляет собой
разность между его доходом H(z) и суммарным вознаграждением
n
? ? i ( z ) , где ?i(z) - стимулирова-
?(z), выплачиваемым АЭ: ?(z) =
i =1
ние i-го АЭ, ?(z) = (?1(z), ?2(z), …, ?n(z)), то есть
n
? ? i ( z) .
(1) ?(?(?), z) = H(z) -
i =1
Целевая функция i-го АЭ является функционалом fi(?i, y) и
представляет собой разность между стимулированием, получаемым
им от центра, и затратами ci(y), то есть:
(2) fi(?i(?), y) = ?i(z) - ci(y), i ? I.
Примем следующий порядок функционирования АС. Центру и
АЭ на момент принятия решения о выбираемых стратегиях (соот-
ветственно - функциях стимулирования и действиях) известны
целевые функции и допустимые множества всех участников АС, а
также функция агрегирования. Центр, обладая правом первого
хода, выбирает функции стимулирования и сообщает их АЭ, после
чего АЭ при известных функциях стимулирования выбирают дей-
ствия, максимизирующие их целевые функции.
В случае, когда индивидуальные действия АЭ наблюдаемы для
центра (или когда центр может однозначно восстановить их по
наблюдаемому результату деятельности), последний может исполь-
зовать систему стимулирования, зависящую непосредственно от
˜
действий АЭ: ? i ? I ? i (y) = ?i(Q(y)). Методы решения задачи
стимулирования для этого случая описаны выше. Поэтому рас-
смотрим случай, когда центр наблюдает только результат деятель-
ности АС, от которого зависит его доход, но не знает и не может
восстановить индивидуальных действий АЭ, то есть имеет место
агрегирование информации - центр имеет не всю информацию о
действиях АЭ, а ему известен лишь некоторый их агрегат.


44
Относительно параметров АС введем следующие предположения, ко-
торые, если не оговорено особо, будем считать выполненными в ходе
всего последующего изложения материала настоящего раздела:
?1
А.1. ? i ? I Ai - отрезок с левым концом в нуле.
+
А.2. ? i ? I 1) функция ci(?) непрерывна по всем переменным; 2) ? yi ?
Ai ci(y) не убывает по yi, i? I; 3) ? y ? A’, ci(y) ? 0; 4) ? y-i ? A-i, ci(0, y-i) = 0.
А.3. Функции стимулирования кусочно-непрерывны и принимают не-
отрицательные значения.
А.4. Функция дохода центра непрерывна и достигает максимума при
ненулевом результате деятельности АС.
А.5. Q: A’ > A0 ? ? – однозначное непрерывное отображение, где
m

1 ? m < n (при m ? n смысл агрегирования теряется).
Обозначим P(?) – множество равновесных по Нэшу при системе сти-
мулирования ? действий АЭ – множество реализуемых действий (то есть
будем считать, что АЭ выбирают свои стратегии одновременно и незави-
симо друг от друга, не имея возможности обмениваться дополнительной
информацией и полезностью). Минимальными затратами центра на стиму-
лирование по реализации действий АЭ y’ ? A’ будем называть минималь-
ное значение суммарных выплат элементам, при которых данный вектор
действий является равновесием Нэша в игре АЭ, то есть решение сле-
? ? i ( Q( y' )) > ? ( ?min y' ) , где ?(y’) = {?(?) | y’ ? P(?)}.
дующей задачи:
)??(
i?I
Как и в одноэлементной АС [27, 99, 100], гарантированной эф-
фективностью (далее просто "эффективностью") стимулирования
является минимальное значение целевой функции центра на соот-
ветствующем множестве решений игры:
(3) K(?(?)) = min ?(?(?), Q(y)).
y?P (? (?))
Задача синтеза оптимальной функции стимулирования заклю-
чается в поиске допустимой системы стимулирования ?*, имеющей
максимальную эффективность:
(4) ?* = arg max K(?(?)).
? ( ?)
В разделе 2.1 показано, что в частном случае, когда действия
АЭ наблюдаются центром, оптимальной (точнее – ?-оптимальной,




45
n
?? i )
где ? = является квазикомпенсаторная система стимулиро-
i =1
^
вания ? , зависящая от наблюдаемых действий АЭ:
K
?c i ( y i* , y ?i ) + ? i , y i = y i*
^
(5) ? i K =? , i ? I,
y i ? y i*
? 0,
где ?i - сколь угодно малые строго положительные константы, а
оптимальное действие y*, реализуемое системой стимулирования
(5) как единственное равновесие в доминантных стратегиях
[99, 103], является решением следующей задачи оптимального
n
^
? ci ( y i ) },
согласованного планирования: y = arg max { H (y) – *

y?A? i =1
^
где H (?) – функция дохода центра, зависящая от наблюдаемых
^
действий АЭ. Взаимосвязь между функциями H(?) и H (?), а также
^
?(?) и ? (?) исследовалась в [5]. В ходе дальнейшего изложения мы
будем считать что функция дохода центра H(?) и функция стимули-
рования ?(?) зависят от агрегированного результата деятельности z
? A0.
Отметим, что в рассмотренных в [101, 103] задачах стимулиро-
вания декомпозиция игры АЭ, то есть переход к набору одноэле-
ментных АС, основывалась на возможности центра поощрять АЭ за
выбор определенного (и наблюдаемого центром) действия. Если
действия АЭ ненаблюдаемы, то непосредственное применение идеи
декомпозиции (то есть оптимальной системы стимулирования (5))
невозможно, поэтому при решении задач стимулирования, в кото-
рых вознаграждение АЭ зависит от агрегированного результата
деятельности АС, следует использовать следующий подход (прин-
цип агрегирования) – найти множество действий, приводящих к
заданному агрегированному результату деятельности, выделить
среди них подмножество, характеризуемое минимальными сум-
марными затратами АЭ (и, следовательно, минимальными затрата-
ми центра на стимулирование при использовании компенсаторных
функций стимулирования, которые оптимальны), построить систе-
46
му стимулирования, реализующую это подмножество действий, а
затем определить - реализация какого из результатов деятельности
наиболее выгодна для центра.
Перейдем к формальному описанию решения задачи стимули-
рования в АС с агрегированием информации.
Решение задачи стимулирования в АС с агрегированием
информации. Определим множество векторов действий АЭ, при-
водящих к заданному результату деятельности АС:
Y(z) = {y ? A’ | Q(y) = z} ? A’, z ? A0.
В [27, 48, 100] доказано, что в случае наблюдаемых действий
АЭ минимальные затраты центра на стимулирование по реализации
вектора действий y ? A’ равны суммарным затратам АЭ ? c i ( y ) .
i?I
По аналогии вычислим минимальные суммарные затраты АЭ по
˜
? ( z) =
достижению результата деятельности z ? A0 min
y?Y ( z )
n n
? ?
ci(y), а также множество действий Y (z) = Arg min
*
ci(y),
y?Y ( z ) i =1
i =1
на котором этот минимум достигается.
Введем следующее предположение.
А.6. ? x ? A0, ? y’ ? Y(x), ? i ? I, ? yi ? Proji Y(x) cj(yi, y’-i) не убывает по
yi, j ? I.
В частности, предположение А.6 выполнено в случае, когда затраты
каждого АЭ зависят только от его собственных действий.
Фиксируем произвольный результат деятельности x ? A0 и
произвольный вектор y*(x) ? Y*(x) ? Y(x).
Теорема 2.2.1. [102, 103]. При использовании центром системы
стимулирования
?ci ( y * ( x )), z = x
? ix (z) , i ? I,
*
=?
(6)
z?x
? 0,
вектор действий АЭ y*(x) реализуется с минимальными затратами
˜
центра на стимулирование равными ? ( x ) .
Недостатком системы стимулирования (6) является то, что при ее ис-
пользовании центром, помимо определяемого теоремой 1 множества
равновесий Нэша, существует равновесие в доминантных стратегиях, в
том числе – вектор нулевых действий. Из доказательства теоремы 2.2.1
47
*
(см. [102, 103]) следует, что для того чтобы точки множества Y (x) были
единственными равновесными точками, центр должен за их выбор допла-
чивать АЭ сколь угодно малую, но положительную, величину, то есть
использовать следующую систему стимулирования (см. для сравнения (5)):
?c i ( y * ( x )) + ? i , z = x
? ix (z) = , i ? I,
*
?
z?x
? 0,
которая является ?-оптимальной.
Итак, первый шаг решения задачи стимулирования (3)-(4) за-
ключается в поиске минимальной системы стимулирования (харак-
теризуемой в силу теоремы 2.2.1 затратами центра на стимулирова-
˜
ние, равными ? ( x ) ), реализующей вектор действий АЭ,
приводящий к заданному результату деятельности x ? A0. Поэтому
на втором шаге решения задачи стимулирования найдем наиболее
выгодный для центра результат деятельности АС x* ? A0 как реше-
ние задачи оптимального согласованного планирования:
˜
x* = arg max [H(x) - ? ( x ) ].
x?A0
Эффективность унифицированных систем стимулирования, то
есть систем стимулирования, в которых центр использует для всех
АЭ одну и ту же зависимость индивидуального вознаграждения от
результата деятельности АС (системы стимулирования, в которых
зависимости вознаграждений АЭ от результатов их деятельности
различны, называются персонифицированными [96]) исследовалась
в [104] и оказалась не выше эффективности персонифицированного
стимулирования.
Исследуем как незнание (невозможность наблюдения) центром
индивидуальных действий АЭ влияет на эффективность стимули-
рования.
Пусть как и выше функция дохода центра зависит от результа-
та деятельности АС. Рассмотрим два случая. Первый случай - когда
действия АЭ наблюдаемы, и центр может основывать стимулиро-
вание как на действиях АЭ, так и на результате деятельности АС.
Второй случай, когда действия АЭ ненаблюдаемы, и стимулирова-
ние может зависеть только от наблюдаемого результата деятельно-
сти АС. Сравним эффективности стимулирования для этих двух
случаев.

48
В первом случае минимальные затраты на стимулирование ?1(y) по
n
?
реализации вектора y ? A' действий АЭ равны: ?1(y) = ci(y), а эффек-
i =1
max {H(Q(y)) - ?1(y)}.
тивность стимулирования K1 равна: K1 = Во втором
y?A?
случае минимальные затраты центра на стимулирование ?2(z) по реализа-
ции результата деятельности z ? A0 определяются следующим образом
n
?
(см. теорему 2.2.1): ?2(z) = min ci(y), а эффективность стимулиро-
y?Y ( z ) i =1

{H(z) - ?2(z)}.
max
вания K2 равна: K2 =
z? A0
Теорема 2.2.2. [102, 103]. K2 = K1.
Теорема 2.2.2 (которую условно можно назвать "теоремой об
идеальном агрегировании в моделях стимулирования"), помимо
оценок сравнительной эффективности имеет чрезвычайно важное
методологическое значение. Она утверждает, что в случае, когда
функция дохода центра зависит только от результата деятельности
АС, эффективности стимулирования одинаковы как при использо-
вании стимулирования АЭ за наблюдаемые действия, так и при
стимулировании за агрегированный результат деятельности, несу-
щий в силу предположений А.5 и А.6 меньшую информацию (от-
метим, что центр при этом должен знать функции затрат агентов),
чем вектор действий АЭ.
Другими словами, наличие агрегирования информации не
снижает эффективности функционирования системы. Это доста-
точно парадоксально, так как в [96] доказано, что наличие неопре-
деленности и агрегирования в задачах стимулирования не повыша-
ет эффективности. В рассматриваемой модели присутствует
идеальное агрегирование (см. определение и подробное обсужде-
ние проблем агрегирования в управлении активными системами в
[96, 103]), возможность осуществления которого содержательно
обусловлена тем, что центру неважно какие действия выбирают
АЭ, лишь бы эти действия приводили с минимальными суммарны-
ми затратами к заданному результату деятельности. Условия А.5 и
А.6 оказывается достаточными для того, чтобы центр мог перело-
жить все «проблемы» по определению равновесия на АЭ. При этом

49
уменьшается информационная нагрузка на центр, а эффективность
стимулирования остается такой же.
Итак, качественный вывод из результата теоремы 2.2.2 сле-
дующий: если доход центра зависит от агрегированных показателей
деятельности АЭ, то целесообразно основывать стимулирование
АЭ на этих агрегированных показателях. Даже если индивидуаль-
ные действия АЭ наблюдаются центром, то использование системы
стимулирования, основывающейся на действиях АЭ, не приведет к
увеличению эффективности управления, а лишь увеличит инфор-
мационную нагрузку на центр.
Напомним, что при описании модели АС выше мы ограничи-
лись случаем, когда для всех АЭ используется система стимулиро-
вания одного типа. В том числе это предположение означает, что,
если действия наблюдаемы, то они наблюдаемы центром у всех АЭ,
а если ненаблюдаемы, то, опять же, у всех АЭ. На практике часто
встречаются ситуации, когда действия одних элементов наблюдае-
мы, а других – нет. В подобных случаях центру следует использо-
вать комбинацию моделей результатов, приведенных в настоящем
разделе выше, и теоремы 2.2.1: тех АЭ, действия которых наблю-
даемы, стимулировать на основании их действий, а остальных – на
основании агрегированного результата их деятельности.
Итак, в настоящем разделе приведены результаты изучения
теоретико-игровых моделей механизмов стимулирования в АС с
агрегированием информации. При исследовании этого класса мо-
делей ключевую роль играет обобщение принципа компенсации
затрат. Принцип компенсации затрат [76, 99, 100] заключается в
том, что оптимальная система стимулирования должна в точности
компенсировать затраты АЭ. На модели с агрегированием инфор-
мации принцип компенсации затрат обобщается следующим обра-
зом: минимальные затраты центра на стимулирование по реализа-
ции заданного результата деятельности АС определяются как
минимум компенсируемых центром суммарных затрат АЭ, при
условии, что последние выбирают вектор действий, приводящий к
заданному результату деятельности.




50
2.3. Унифицированные и коллективные
формы стимулирования

Как отмечалось в первой главе, в управлении проектами рас-
пространены унифицированные (то есть одинаковые для всех
участников системы или для некоторых их групп) системы стиму-
лирования и системы коллективного стимулирования (когда возна-
граждение агента зависит не только от абсолютной величины его
собственных действий, но и от результатов деятельности коллекти-
ва и/или от сравнительной эффективности действий различных
агентов). Поэтому в настоящем разделе рассматриваются задачи
синтеза унифицированных и коллективных систем стимулирования
– ранговых, пропорциональных, скачкообразных и др., а также
оценивается их сравнительная эффективность.
Нормативные ранговые системы стимулирования (НРСС)
характеризуются наличием процедур присвоения рангов АЭ в
зависимости от показателей их деятельности (выбираемых дейст-
вий и т.д.). Введем следующие предположения, которые будем
считать выполненными на протяжении настоящего раздела.
?1 , i?I.
А.1. Множества возможных действий АЭ одинаковы: Ai = A = +
А.2. Функции затрат АЭ монотонны.
А.3. Затраты от выбора нулевого действия равны нулю.
Пусть ?={1,2,...m} - множество возможных рангов, где m - размерность
НРСС, {qj}, j= 1, m - совокупность m неотрицательных чисел, соответст-
вующих вознаграждениям за "попадание" в различные ранги; ?i: Ai>?,
1, n - процедуры классификации. Нормативной ранговой системой
i=
стимулирования (НРСС) называется кортеж {m, ?, {?i}, {qj}}.
В работе [147] доказано, что для любой системы стимулирова-
ния существует НРСС не меньшей эффективности. То, что в ней
центр использует различные процедуры присвоения рангов, может
показаться не "справедливым" с точки зрения АЭ. Действительно,
например, выбирая одинаковые действия, два АЭ могут иметь
различные ранги и, следовательно, получать различные вознаграж-
дения. Более "справедливой" представляется НРСС, в которой
процедура классификации одинакова для всех АЭ, то есть так
называемая универсальная НРСС, при использовании которой

51
элементы, выбравшие одинаковые действия, получают одинаковые
вознаграждения.
Введем вектор Y = (Y1, Y2, ..., Ym), такой, что 0 ? Y1 ? Y2 ? ... ? Ym < +?,
который определяет некоторое разбиение множества A. Универсальная
НРСС задается кортежем {m, {Yj}, {qj}}, причем вознаграждение i-го актив-
m
?
ного элемента ?i определяется следующим образом: ?i(yi) = qj
j =0
I(yi?[Yj,Yj+!)), где I( ) - функция-индикатор, Y0 = 0, q0 = 0. Универсальная
.

НРСС называется прогрессивной, если q0 ? q1 ? q2 ? ... ? qm. Универсальная
нормативная ранговая система стимулирования (УНРСС) принадлежит к
классу унифицированных кусочно-постоянных систем стимулирования (см.
классификацию выше). Исследуем ее эффективность.
Так как УНРСС кусочно-постоянна, то в силу монотонности функций
затрат очевидно, что АЭ будут выбирать действия с минимальными затра-
тами на соответствующих отрезках. Иначе говоря, условно можно считать,
что при фиксированной системе стимулирования множество допустимых
действий равно Y = {Y1, Y2, ..., Ym}, причем, так как ci(0) = 0, то следует
положить q0 = 0. Действие, выбираемое i-ым АЭ, определяется парой
yi* (Y,q) = Y k i , где
(Y, q), то есть имеет место

{qk - ci(Yk)}, i ? I.
max
(1) ki = arg
k = 0, m
*
* *
*
Обозначим y (Y,q) = ( y1 (Y,q), y 2 (Y,q), ..., y n (Y,q)). Задача синтеза
оптимальной УНРСС заключается в выборе размерности УНРСС m и
векторов q и Y, удовлетворяющих заданным ограничениям, которые мак-
симизировали бы целевую функцию центра:
(2) ?(y (Y,q)) >
*
max .
Y ,q
Фиксируем некоторый вектор действий y ? A', который мы хотели бы
*

реализовать универсальной нормативной системой стимулирования.
Известно, что минимально возможные (среди всех систем стимулирования)
затраты на стимулирование по реализации этого вектора соответствуют
использованию квазикомпенсаторной системы стимулирования (см. выше и
[99, 100, 103]) и равны:
n
? ci ( yi* ) .
(3) ?QK(y ) =
*

i =1
Из того, что при использовании УНРСС АЭ выбирают действия только
из множества Y, следует, что минимальная размерность системы стимули-
52
рования должна быть равна числу попарно различных компонент вектора
действий, который требуется реализовать. Следовательно, использование
УНРСС размерности, большей, чем n, нецелесообразно. Поэтому ограни-
чимся системами стимулирования, размерность которых в точности равна
числу АЭ, то есть положим m = n.
yi* ,
Для фиксированного y ? A' положим Yi = i ? I, и обозначим
*


cij=ci(Yj), i, j ? I. Из определения реализуемого действия (см. (1)) следует,
что для того, чтобы УНРСС реализовывала вектор y ? A' необходимо и
*

достаточно выполнения следующей системы неравенств:
(4) qi - cii ? qj - cij, i ? I, j = 0, n .
Запишем (4) в виде
(5) qj - qi ? ?ij, i ? I, j = 0, n ,
где ?ij = cij - cii. Обозначим суммарные затраты на стимулирование по
*
реализации действия y УНРСС
n
? qi ( y * ) ,
(6) ?УНРСС(y ) =
*

i =1
*
где q(y ) удовлетворяет (4).
Задача синтеза оптимальной (минимальной) УНРСС заключается в
минимизации (6) при условии (5).
Из того, что qi ? cii, i ? I, немедленно следует, что ? y ? A' выполнено:
*

?УНРСС(y ) ? ?QK(y ), то есть минимальные затраты на стимулирование по
* *

реализации любого вектора действий АЭ при использовании универсаль-
ных нормативных систем стимулирования не ниже, чем при использовании
квазикомпенсаторных систем стимулирования. Следовательно, для эф-
фективностей стимулирования справедлива следующая достаточно "гру-
бая" оценка: KУНРСС ? KQK. Потери от использования УНРСС по сравнению
с оптимальной компенсаторной системой стимулирования обозначим
?(УНРСС, QK) = ?УНРСС(y ) - ?QK(y ) ? 0.
* *

Таким образом, исследование УНРСС свелось к необходимо-
сти ответа на следующие вопросы - какие векторы действий АЭ
могут быть реализованы в этом классе систем стимулирования
(иначе говоря, для каких действий система неравенств (5) имеет
решение) и в каких случаях УНРСС являются оптимальными во
всем классе допустимых систем стимулирования (иначе говоря, при
каких условиях ?(УНРСС, QK) = 0), где индекс QK обозначает
квазикомпенсаторную систему стимулирования.


53
*
Введем в рассмотрение n-вершинный граф G?(y ), веса дуг в котором
*
определяются ||?ij(y )||.
Задача минимизации (6) при условии (5) является задачей о мини-
мальных неотрицательных потенциалах вершин графа G? , для существо-
вания решения которой необходимо и достаточно отсутствия контуров
отрицательной длины.
Лемма 2.3.1. [19, 103]. Для того чтобы вектор y ? A' был реализуем в
*
*
классе УНРСС, необходимо и достаточно, чтобы граф G?(y ) не имел
контуров отрицательной длины.
Рассмотрим следующую задачу о назначении:
n
? c ij x ij > min
(7)
{ xij}
i , j =1
n
n
? x ij ? x ij
(8) xij ? {0;1} , i, j, ? I; = 1, j ? I; = 1, i ? I.
i =1 j =1
Лемма 2.3.2. [19, 103]. Для того чтобы xii = 1, i ? I, xij = 0, j ? i, необхо-
*
димо и достаточно, чтобы граф G?(y ) не имел контуров отрицательной
длины.
Теорема 2.3.3. [19, 103]. Для того чтобы вектор y ? A' был реализуем
*

в классе УНРСС, необходимо и достаточно, чтобы он являлся решением
задачи о назначении (7)-(8).
Из теории графов известно [18], что в оптимальном решении задачи
(5)-(6) минимальна не только сумма потенциалов вершин графа G? (сум-
марные затраты на стимулирование), но и минимальны все потенциалы
вершин (индивидуальные вознаграждения). То есть решение задачи о
назначении (7)-(8) и двойственной к ней задачи (5)-(6) минимизирует не
только суммарные выплаты АЭ со стороны центра, но обеспечивает мини-
мальные значения всем индивидуальным вознаграждениям.
Приведенные выше результаты характеризуют множество дей-
ствий, реализуемых УНРСС. Исследуем теперь эффективность
этого класса систем стимулирования. Имея результат теоремы
2.3.3, мы имеем возможность предложить алгоритм вычисления
минимальных потенциалов, и, следовательно, количественно оце-
нить потери в эффективности.
Рассмотрим задачу (7)-(8). Перенумеруем АЭ таким образом, чтобы
оптимальным было диагональное назначение
(9) ? j ? I ij = j (xii = 1).



54
Поставим в соответствие ограничению (7) двойственную переменную uj,
j ? I, а ограничению (8) - двойственную переменную vi, i ? I. Ограничения
двойственной к (7)-(8) задачи имеют вид:
(10) uj - vi ? ?ij, i, j, ? I.
Заметим, что так как xii = 1, i ? I, то ui - ?i = ?ii = 0, а значит ui - ?i = qi.
Используя этот факт, определим следующий алгоритм:
Шаг 0. uj = cjj, j ? I.
{uj - ?ij}, i ? I.
max
Шаг 1. vi:=
j?I
{vi + ?ij}, j ? I.
min
Шаг 2. uj:=
i?I
Последовательное повторение шагов 1 и 2 алгоритма конечное число
(очевидно, не превышающее n) раз даст оптимальное решение задачи (5)-
(6):
(11) qi = ui = vi, i ? I.
Обозначим
dci ( y i )
ci' (yi) = , i ? I.
(12)
dy i
и введем следующее предположение:
А.4. Существует упорядочение АЭ элементов, такое, что
'
' '
(13) ? y ? A c1 (y) ? c2 (y) ? ... ? cn (y).
Фиксируем некоторый вектор y ? A', удовлетворяющий следующему
*

условию:
*
* *
? ? ... ? yn .
y1 y2
(14)
Предположениям А.2-А.4 удовлетворяют, например, такие
распространенные в экономико-математическом моделировании
функции затрат АЭ, как: ci(yi) = ki c(yi), ci(yi) = ki c(yi/ki) где c(?) -
монотонная дифференцируемая функция, а коэффициенты упоря-
дочены: k1 ? k2 ? ... ? kn (частными случаями являются линейные
функции затрат, функции затрат типа Кобба-Дугласа и др.).
Лемма 2.3.4. [19, 103]. Если выполнены предположения А.1,
А.2 и А.4, то в задаче (7)-(8) оптимально диагональное назначение.
Следствие 2.3.5. Если выполнены предположения А.1, А.2 и
А.4, то универсальными ранговыми системами стимулирования
реализуемы такие и только такие действия, которые удовлетворяют
(14).

55
В активных системах, удовлетворяющих предположениям А.1-А.4
(включая А.3!), для определения оптимальных потенциалов может быть
использована следующая рекуррентная процедура, являющаяся частным
случаем (соответствующим А.3-А.4) общего приведенного выше алгоритма:
max 2, n .
q1 = c11, qi = cii + {qj - cij}, i =
j<i
Лемма 2.3.6. [19, 103]. Если выполнены предположения А.1-А.4, то
имеет место: ? i = 2, n max {qj - cij} = qi-1 - cii-1.
j<i
Следствием леммы 2.3.6 является следующее простое выражение
для индивидуальных вознаграждений в УНРСС, реализующей вектор y ?
*

A' в активной системе, удовлетворяющей А.3-А.4:
i
? y * ) - cj( y *?1 )).
(15) qi = (cj( j j
j =1
Подставляя (15) в (6), получаем, что потери от использования
универсальных нормативных ранговых систем стимулирования (по
сравнению с квазикомпенсаторными) равны:
i
n
? { ? (cj( y * ) - cj( y *?1 ))} - ci( yi*?1 )}.
(16) ? = j j
i =1 j =1
Теорема 2.3.7. [19, 103]. Если выполнены предположения А.1 - А.4, то:
а) в классе универсальных нормативных ранговых систем стимулиро-
вания реализуемы такие и только такие действия, которые удовлетворяют
условию (14);
б) оптимальное решение задачи стимулирования при этом определя-
ется выражением (15);
в) превышение затратами на стимулирование минимально необходи-
мых определяется выражением (16);
г) оптимальная УНРСС является прогрессивной.
Отметим, что выше исследовались УНРСС размерности n. Час-
тым случаем УНРСС являются унифицированные системы стиму-
лирования С-типа (УНРСС размерности 1), подробно исследуемые
в [19, 96, 103].
Соревновательные ранговые системы стимулирования. В
нормативных РСС центр фиксировал процедуру классификации,
определяя множества действий или результатов деятельности, при
попадании в которые АЭ получал заданное вознаграждение. В
отличие от НРСС, в соревновательных ранговых системах стиму-

56
лирования (СРСС) центр фиксирует процедуру сравнительной
оценки деятельности АЭ, задает число классов и число мест в
каждом из классов, а также величины поощрений АЭ, попавших в
тот или иной класс. Таким образом, в СРСС индивидуальное поощ-
рение АЭ не зависит непосредственно от абсолютной величины
выбранного им действия, а определяется тем местом, которое он
занял в упорядочении показателей деятельности всех АЭ.
Соревновательные системы стимулирования исследовались
как в теории активных систем (см. обзор [97], а также монографии
[103, 147]), так и в теории контрактов [164, 176, 182], но сравни-
тельная эффективность СРСС и других систем стимулирования
практически не изучалась.
Предположим, что в активной системе, состоящей из n АЭ,
выполнены предположения А.1-А.3 и А.5, а центр использует
следующую систему стимулирования: действия, выбранные АЭ,
упорядочиваются в порядке возрастания, после чего каждый из АЭ
получает вознаграждение qi, соответствующее его номеру i в упо-
рядочении действий. Перенумеруем АЭ в порядке убывания затрат.
Теорема 2.3.8 [19, 103]. Если выполнены предположения А.1-
А.4, то:
а) необходимым и достаточным условием реализуемости век-
тора действий АЭ y* ? A’ в классе СРСС является выполнение
y1* = 0 ? y2* ? y3* ? ... ? yn*;
б) этот вектор реализуем следующей системой стимулирова-
i
?
ния: qi(y ) =
*
{cj-1(yj*) - cj-1(yj-1*)}, i = 1,n ;
j =2
в) оптимальная СРСС является прогрессивной.
Оценки сравнительной эффективности СРСС приведены в
[19, 103].
Унифицированные пропорциональные системы стимули-
рования. Как было показано выше и в [19, 96, 103, 104], в некото-
рых АС использование унифицированных систем стимулирования
может приводить к снижению эффективности управления. В то же
время, в некоторых АС, в том числе - в рассматриваемых ниже,
оптимальными являются именно унифицированные системы сти-
мулирования.

57
Введем следующее предположение относительно функций затрат АЭ:
(17) ci(yi,ri) = ri ? (yi /ri), i ? I,
где ?(?) - гладкая монотонно возрастающая выпуклая функция, ?(0) = 0,
(например, для функций типа Кобба-Дугласа ?(t) = 1/? t?, ??1), ri > 0 -
некоторый параметр.
Если центр использует пропорциональные (L-типа) индивиду-
альные системы стимулирования: ?i(yi) = ?i yi, то целевая функция
АЭ имеет вид: fi(yi) = ?i yi - ci(yi). Вычислим действие, выбираемое
АЭ при использовании центром некоторой фиксированной системы
стимулирования:
(18) yi* (?i) = ri ? ' -1(?i),
где ? ' -1(?) - функция, обратная производной функции ?(?). Мини-
мальные суммарные затраты на стимулирование равны:
n
?
(19) ?L(?) = ?i ri ? ' -1(?i),
i =1
где ? = (?1, ?2, ..., ?n). Суммарные затраты элементов равны:
n
? ri ?(? ' -1(?i)).
(20) c(?) =
i =1
В рамках приведенной выше общей формулировки модели
пропорционального стимулирования возможны различные поста-
новки частных задач. Рассмотрим некоторые из них.
Задача 1. Пусть центр заинтересован в выполнении элементами
плана R по суммарному выпуску с минимальными суммарными
затратами АЭ (еще раз подчеркнем необходимость различения
суммарных затрат элементов и суммарных затрат (центра) на сти-
мулирование). Тогда его цель заключается в выборе ставок оплаты
{?i} в результате решения следующей задачи:
? c(? ) > min
? ?
(21) ? n * .
?? yi (? i ) = R
?i =1
Решение задачи (21) имеет вид:
? i* =? '(R/W); yi* = ri(R/W); i?I, c* = W?(R/W); ? L
*
= R ?'(R/W).
(22)




58
n
? ri . Так как оптимальные ставки оплаты одинаковы для всех АЭ,
где W =
i =1
то оптимальна именно унифицированная система стимулирования.
Задача 2. Содержательно двойственной к задаче 1 является за-
дача максимизации суммарного выпуска при ограничении на сум-
марные затраты АЭ:
?n *
(23) ?? i i
? y (? ) > max
.
?
i =1
? c(? ) ? R
?
Решение задачи 2 имеет вид:
? i* yi* = ri ? -1(R/W); i ? I, c* = R;
= ? (? (R/W));
' -1
(24)

?L
*
=?
-1 -1
(R/W)W?'(? (R/W)),
то есть в двойственной задаче (естественно) оптимальным решением также
является использование унифицированных пропорциональных систем
стимулирования.
Замена в задачах 1 и 2 суммарных затрат элементов на суммар-
ные затраты на стимулирование порождает еще одну пару двойст-
венных задач.
Задача 3. Если центр заинтересован в выполнении АЭ плана R
по суммарному выпуску с минимальными суммарными затратами
на стимулирование, то ставки оплаты определяются в результате
решения следующей задачи:
?? L (? ) > min
? ?
(25) ? N * ,
? ? yi (? i ) = R
? i =1
решение которой совпадает с (22)!
Задача 4 заключается в максимизации суммарного выпуска при
ограничении на суммарные затраты на стимулирование:
?N *
(26) ?? i i
? y (? ) > max
.
?
i =1
? ? L (? ) ? R
?
Из метода множителей Лагранжа получаем условие оптимальности (? -
множитель Лагранжа): ? ?' (?i) ?''(?i) + ?i = 1, i ? I, из которого следует, что
-1



59
все ставки оплаты должны быть одинаковы и удовлетворять уравнению ?
?' (?) = R/W.
-1

Следует подчеркнуть, что во всех четырех задачах оптимальными ока-
зались именно унифицированные системы стимулирования, причем реше-
ния задач 1 и 2 совпали, что представляется достаточно уникальным
фактом, так как суммарные затраты АЭ отражают интересы управляемых
субъектов, а суммарные затраты на стимулирование - интересы управляю-
щего органа. Кроме того, возможность использования общих для всех АЭ
управляющих параметров оказывается важной в механизмах планирования
(см. [11, 27, 103]).
Теорема 2.3.9. [103]. В организационных системах со слабо свя-
занными АЭ, функции затрат которых имеют вид (17), унифициро-
ванные системы стимулирования оптимальны на множестве про-
порциональных систем стимулирования.
Обобщения теоремы 2.3.9 на более широкий класс функций за-
трат агентов приведены в [103].


2.4. Роль неопределенности

В первой главе настоящей работы подчеркивалось, что, в част-
ности, уникальность проекта накладывает требования учета при
разработке системы управления персоналом факторов неопреде-
ленности (неполной информированности). Современное состояние
исследований механизмов стимулирования в АС с неопределенно-
стью достаточно полно отражено в монографии [100]. Поэтому в
настоящем разделе мы, имея результаты исследования задач сти-
мулирования в детерминированных многоэлементных АС, ограни-
чимся в основном качественным обсуждением специфики неопре-
деленности в проектно-ориентированной деятельности и методам
ее учета в теоретико-игровых моделях механизмов стимулирова-
ния.
Внутренняя неопределенность. Под внутренней неопреде-
ленностью понимают неполную информированность части участ-
ников АС о параметрах самой АС. Рассмотрим случай асимметрич-
ной информированности без сообщения информации. Так как
исследователь операций стоит на позициях оперирующей стороны
– центра, то обычно предполагается, что он менее информирован,
чем активные элементы.
60
Пусть внутренними параметрами, неизвестными центру, явля-
ются параметры {ri} функций затрат АЭ: ci(y, ri), i ? I. То есть
будем считать, что на момент принятия решений (выбора действия
при известной функции стимулирования) i-ый АЭ знает истинное
значение параметра ri, а центр как на момент принятия решений (то
есть на момент выбора функции стимулирования), так и в даль-
нейшем, не знает его, а имеет некоторую информацию. В зависимо-
сти от этой информации, различают интервальную неопределен-
ность (когда центру известно множество [di; Di] возможных
значений параметра ri, i ? I), вероятностную неопределенность
(когда центру дополнительно известно вероятностное распределе-
ние pi(ri), i? I) и нечеткую неопределенность (когда центр имеет
нечеткую информацию – знает функцию принадлежности парамет-
˜
ра: Pi : [di; Di] > [0; 1], i ? I).
Пусть в n-элементной АС (типа рассмотренной в разделе 2.1) функции
затрат АЭ имеют вид: ci(y, ri), i ? I, а относительно параметров ri центру
известны множества ?i = [di; Di] их допустимых значений. Равновесие Нэша
EN(?, r), где r = (r1, r2 , …, rn) зависит от истинных значений параметров
функций затрат и используемой центром системы стимулирования.
? ?i .
Обозначим ? = Определим эффективность системы стиму-
i?I
лирования ? ? M. Если при использовании центром системы стимулирова-
ния ? и при векторе r параметров функций затрат АЭ множество равнове-
сий Нэша есть EN(?, r), то в рамках гипотезы благожелательности
эффективность стимулирования K(?) равна максимальному (по множеству
равновесий Нэша) значению целевой функции центра. Это значение зави-
сит от неопределенного параметра r ? ?. Используя для устранения этой
неопределенности МГР, получаем:
? ci ( y, ri ) }.
min max
K(?) = {H(y) -
r?? y?E N (? ,r ) i?I
*
Теорема 2.4.1 [103]. Система стимулирования (с параметром y ):
?max ci ( yi* , y ?i , ri ) + ? i , yi = yi*
? r ??
?i , i ? I,
?i i
*
(1) (y , y) =
? 0, yi ? yi*
?
y* *
где оптимальное значение параметра y является решением задачи:
Г
y* {H(y) - ?Г(y)}, где
max
(2) = arg
Г
y?A

61
? max ci ( y, ri ) ,
(3) ?Г(y) =
r ??
i?I i i
?-оптимальна.
Качественно, в условиях интервальной неопределенности от-
носительно функций затрат агентов совместное применение прин-
ципов максимального гарантированного результата (МГР) и деком-
позиции игры агентов приводит к тому, что центр вынужден
компенсировать каждому из агентов затраты независимо, рассчи-
тывая на реализацию наихудших с его точки зрения значений неоп-
ределенных параметров. При этом с ростом неопределенности
гарантированная эффективность стимулирования не возрастает. С
уменьшением неопределенности гарантированная эффективность
стимулирования возрастает и стремится к гарантированной эффек-
тивности стимулирования в соответствующей детерминированной
модели [27, 99, 100].
Пусть в n-элементной АС с сильно связанными элементами функции
затрат АЭ имеют вид: ci(y, ri), i ? I, а относительно параметров ri центру
известны множества ?i = [di; Di] их допустимых значений и распределения
вероятностей pi(ri), с носителем ?i. Обозначим p(r), r ? ?, – распределение
вектора параметров функций затрат АЭ, и для определенности предполо-
жим, что ? y ? A’ функции ci(y, ri) непрерывны и убывают по ri, i ? I.
Предположим, что центр определяет эффективность системы стиму-
лирования следующим образом. Обозначим Fi(ri) – соответствующую
плотности pi(ri) интегральную функцию распределения, i ? I. Пусть центр
использует следующую «компенсаторную» систему стимулирования:
?ci ( yi* , y ?i , ti ) + ? i , yi = yi*
?i , i ? I.
?
*
(y , y, t) =
yi ? yi*
? 0,
Тогда, в рамках введенного выше предположения о монотонном убы-
вании функций затрат с ростом значения неопределенного параметра, i-ый
yi*
АЭ с вероятностью (1 – Fi(ti)) выбирает действие, совпадающее с (так
*
как в этом случае его затраты не больше, чем ci(y , ti)), и с вероятностью
Fi(ti) – нулевое действие. Следовательно, для фиксированного вектора
действий y ? A’ можно определить оптимальное (с точки зрения эффек-
*


ti* , i ? I, а затем уже решать задачу выбора
тивности и риска) значение
оптимального вектора действий АЭ.
Описанная выше и в [100] схема принятия решений (центром)
в условиях внутренней вероятностной неопределенности не кажет-
62
ся естественной, поэтому можно рекомендовать использовать для
устранения неопределенности принцип МГР (фактически, отказы-
ваясь от части информации, то есть заменять вероятностную неоп-
ределенность интервальной) или использовать механизмы с сооб-
щением информации.
Пусть в n-элементной АС типа S4 функции затрат АЭ имеют вид:
ci(y, ri), i ? I, а относительно параметров ri центру известны множества
˜ (r ) ,
?i = [di; Di] их допустимых значений и функции принадлежности pi i с
˜ : ?i > [0; 1],
носителем ?i, i ? I. Имея информацию о четкой функции
pi
затрат АЭ ci(y, ri) (с точностью до значения параметра ri), можно, в соответ-
ствии с принципом обобщения [15, 75, 108], определить нечеткую функцию
˜ ˜
ci ( y , u ) , ci : A’ ? ?1 > [0; 1], i ? I.
затрат АЭ:
Введем следующее определение (по аналогии с тем как это делалось
˜
ci ( y , u )
в [100] для нечеткой функции дохода): нечеткая функция затрат
согласована с четкой функцией затрат ci(y), если ? y ? A’, i ? I выполнено:
˜
ci ( y , c( y ))
1) = 1;
˜ ˜
? u1, u2: u1 ? u2 ? c(y) ?
ci ( y , u1 ) ci ( y , u 2 ) ;
2)
˜ ˜
? u1, u2: c(y) ? u1 ? u2 ?
ci ( y , u1 ) ci ( y , u 2 ) .
3)
Предположим, что всем АЭ известны четкие функции затрат {ci(y)}, а
˜
центру известны нечеткие функции затрат АЭ { ci ( y , u ) }, согласованные с
соответствующими четкими функциями затрат. Если нечеткие функции
˜ ˜
i ? I, таковы, что ? y ? A’ равенство
ci ( y , u ) , ci ( y , u ) = 1 выпол-
затрат
˜
нено тогда и только тогда, когда u = c(y) и функции { ci ( y , u ) } согласованы
с соответствующими четкими функциями затрат, то, очевидно, получается
четкая (детерминированная) задача, для которой могут быть использованы
результаты раздела 2.1.
Введем рассмотрение следующие четкие «функции затрат»:
˜
cimax ( y ) = max {u ? ? | = 1}, i ? I,
1
ci ( y , u )
? cimax ( y ) .
и обозначим ?Г(y) =
i?I
*
Теорема 2.4.2. [103]. Система стимулирования (с параметром y ):
?cimax ( yi* , y ?i ) + ? i , yi = yi*
?i , i ? I,
?
*
(y , y) =
yi ? yi*
?0,
63
y* *
где оптимальное значение параметра y является решением задачи:
Г
y* {H(y) - ?Г(y)},
max
(4) = arg
Г
y?A
?-оптимальна.
Качественно, центр компенсирует АЭ затраты независимо (в
соответствии с принципом декомпозиции их игры), рассчитывая на
наихудшие (с учетом имеющейся нечеткой информации) реализа-
ции неопределенных параметров. При этом с ростом неопределен-
ности гарантированная эффективность стимулирования не возрас-
тает. С уменьшением неопределенности гарантированная
эффективность стимулирования возрастает и стремится к гаранти-
рованной эффективности стимулирования в соответствующей
детерминированной модели.
Внешняя неопределенность. Под внешней неопределенно-
стью понимают неполную информированность части участников
АС о параметрах окружающей среды (состоянии природы), то есть
параметрах, внешних по отношению к рассматриваемой АС. Рас-
смотрим случай симметричной информированности участников АС
относительно неопределенных факторов, при которой и центр, и
АЭ имеют одинаковую информацию о состоянии природы, но,
быть может, асимметрично информированы относительно других
показателей функционирования АС.
Пусть затраты АЭ ci(y), i ? I, несепарабельны, зависят от дей-
ствий АЭ и достоверно известны центру.
Неопределенность (неполная информированность) участников
АС относительно состояния природы учитывается в модели сле-
дующим образом – результат деятельности АЭ определяется как их
(его) действиями (действием), так и состоянием природы.
Будем считать, что действия АЭ y = (y1, y2, …, yn) ? A’ совместно с со-
стоянием природы ? = (?1, ?2, …, ?n) ? ? приводят к тому, что реализуется
некоторый результат деятельности АС z = (z1, z2 ,…, zn) ? A0, причем
? A0i
каждая компонента результата деятельности zi ? i ? I, A0 =
A0i , ,
i?I
зависит от действий всех АЭ и соответствующей компоненты состояния
природы, то есть имеет место: zi = zi(y, ?i), i ? I, где функции {zi(?,?)}, наряду
? ? i , известны центру и всем
с допустимыми множествами ?i ? ?i, ? =
i?I
АЭ.
64
Относительно целевых функций и допустимых множеств, дополни-
тельно к уже введенным предположениям, примем следующее предполо-
жение, которое будем считать выполненным на протяжении настоящего
раздела:
А.1. ? i ? I = Ai; зависимости zi(y, ?i) непрерывны по всем пере-
A0i
менным, строго монотонны и однозначны.
Порядок функционирования и информированность участников
АС следующие: центр сообщает АЭ систему стимулирования
{?i(z)}, то есть совокупность зависимостей индивидуальных возна-
граждений АЭ от результата деятельности АС, после чего АЭ
выбирают свои действия, ненаблюдаемые для центра1.
Опишем целевые функции участников АС. Целевая функция
центра представляет собой разность между доходом, зависящим от
действий АЭ, и суммарными затратами на стимулирование:
?(z, y) = H(y) - ? ? i ( z) . Целевая функция АЭ есть разность между
i?I
его вознаграждением и затратами, зависящими в силу несепара-
бельности от действий всех АЭ: fi(z, y) = ?i(z) – ci(y), i ? I.
Общих подходов к аналитическому решению многоэлементной
задачи стимулирования в условиях неопределенности, описанной
выше, на сегодняшний день, к сожалению, не существует. Поэтому
введем предположение о том, что результат деятельности каждого
АЭ зависит только от его собственного действия и соответствую-
щей компоненты состояния природы, то есть будем считать2, что
zi = zi(yi, ?i), i ? I.
В этом случае возможно комбинированное применение идеи
декомпозиции игры АЭ и результатов исследования моделей сти-
мулирования в одноэлементных АС, функционирующих в условиях
неопределенности. Проиллюстрирует это утверждение, рассмотрев
ряд моделей многоэлементных АС с интервальной, вероятностной
1
Модели, в которых и центр, и агенты наблюдают на момент принятия
решений состояние природы рассмотрены в [100, 185].
2
Данное предположение частично декомпозирует игру АЭ – результат
деятельности каждого из них зависит уже только от его собственных
действий и состояния природы (но не зависит от действий других АЭ), в
то время как другие переменные – стимулирование и затраты – по-
прежнему зависят, соответственно, от результатов деятельности и
действий всех АЭ.
65
и нечеткой внешней неопределенностью при симметричной ин-
формированности участников.
Предположим, что всем участникам АС на момент принятия
решений известны множества {?i} возможных значений неопреде-
ленного параметра, а также «технологические» зависимости
{zi(?,?)}. Пусть: затраты АЭ несепарабельны и зависят от действий
АЭ, а центр использует стимулирование каждого АЭ, зависящее от
результатов деятельности всех АЭ. Тогда целевые функции центра
и АЭ имеют, соответственно, вид: ?(z, y) = H(y) - ? ? i ( z) ,
i?I
f(z, y) = ?i(z) – ci(y).
Обозначим Zi(yi, ?i) = {zi ? A0i | zi = zi(yi, ?i), ?i ? ?i} – множе-
ство тех результатов деятельности i-го АЭ, которые могут реализо-
ваться при выборе им действия yi ? Ai и всевозможных состояниях
природы, и предположим, что и центр, и АЭ используют принцип
МГР.
Теорема 2.4.3. [103]. Система стимулирования
?ci ( yi* , y ?i ), zi ? Z i ( yi* , ? i )
*
?i(y , zi) = ? , i ? I,
*

zi ? Z i ( yi* , ? i )
? 0,
реализует (как равновесие Нэша) вектор действий y* ? A’, который
оптимален при условии y* ? Arg max {H(y) - ? ci ( y ) }.
y?A' i?I
Последнее выражение означает, что центр побуждает АЭ вы-
брать наиболее выгодное для себя (то есть максимизирующее
разность между доходом и затратами на стимулирование) гаранти-
рованно реализуемое действие.
Пусть затраты всех АЭ несепарабельны и зависят от результа-
тов деятельности, то есть ci = ci(z), i ? I. Предположим, что на
момент принятия решений участники АС обладают одинаковой
информацией о распределениях вероятностей {pi(zi, yi)} результатов
деятельности АЭ в зависимости от его действия, и «технологиче-
ских» зависимостях {zi(?,?)}.
К сожалению, на сегодняшний день даже для одноэлементных
АС, функционирующих в условиях внешней вероятностной неоп-
ределенности, не получены общие аналитические решения задач
стимулирования второго рода. Поэтому в настоящем разделе мы
66
рассмотрим модель простого АЭ [17, 100], для которой решения
одноэлементных задач известны, проиллюстрировав эффектив-
ность использования идеи декомпозиции игры АЭ в многоэлемент-
ной вероятностной АС.
Теорема 2.4.4. [103]. В рамках ГБ система стимулирования
?ci ( zi , z ?i ), zi ? yi*
*
?i(y , zi) = ? , i ? I,
*

zi > yi
*
? 0,
реализует (как равновесие Нэша) вектор действий y* ? A’, который
оптимален при условии1 y* ? Arg max {H(y) - E ? ci ( z ) }.
y?A' i?I
Приведенная теорема является результатом применения прин-
ципа декомпозиции игры агентов к модели АС с внешней вероят-
ностной неопределенностью и качественно означает, что опти-
мальной в рассматриваемом случае является компенсация центром
индивидуальных затрат каждого из агентов в предположении, что
все остальные агенты выбрали рекомендуемые центром действия.
Рассмотрим следующую модель многоэлементной АС с нечет-
кой внешней неопределенностью и симметричной информирован-
ностью участников, в которой и центр, и АЭ имеют нечеткую
информацию о состоянии природы и «технологических» зависимо-
стях {zi(?,?)}. В соответствии с принципом обобщения [15, 108]
этого достаточно, чтобы определить нечеткую информационную
˜ ˜
функцию P (z, y), P : A0 ? A’ > [0; 1], ставящей в соответствие
вектору действий АЭ нечеткое подмножество множества результа-
тов деятельности.
˜ ˜
Обозначим Q(z) = {y?A’| P (z,y)=1}, Z(y) = {z?A0| P (z,y)=1}.
Введем следующие предположения, которые будем считать выпол-
ненными в настоящем разделе.
˜
P (z, y)
А.2. Нечеткие функции 1-нормальны [99, 100, 103], то есть
˜ ˜
? y ? A’ ? z ? A0:
P (z, y) = 1 и ? z ? A0 ? y ? A’: P (z, y) = 1.
Если выполнено предположение А.2, то ? y ? A’ ? z ? A0 Q(z) ? ?,
Z(y) ? ?.
Более сильным, чем А.2 является следующее предположение:


1
Напомним, что “E” обозначает оператор вычисления математическо-
го ожидания.
67
U Q( z) U Z ( y)
А.3. А.2 и = A’, = A 0.
z?A0 y ? A'
А.4. Целевые функции АЭ и нечеткая информационная функция
˜
P (z, y) полунепрерывны сверху1.
z
Обозначим: E N (? ) - множество равновесных по Нэшу результатов
деятельности АЭ, EN(?) – множество равновесных по Нэшу при использо-
вании центром системы стимулирования ? векторов действий АЭ.
Лемма 2.4.5. [100, 103]. Если выполнены предположения А.2–А.4, то
U Q( z) .
EN(?) =
z
z?E N (? )
Теорема 2.4.6. [100, 103]. Если выполнены предположения А.2–А.4, то
? ci ( zi* , z ?i ) + ? i , zi = zi*
система стимулирования ?i(z , zi) = ? , i ? I,
*
где
z i ? zi
*
?0,
z = arg max { min H(y) - ? ci ( z ) }, гарантированно ?-оптимальна.
*

z? A0 y?Q ( z ) i?I
Качественно, результат теоремы 2.4.6 означает, что оптималь-
на независимая (в соответствии с принципом декомпозиции игры
агентов) компенсация затрат агентов, нацеленная на побуждение
последних к выбору действий, гарантированно максимизирующих
целевую функцию центра по результатам деятельности, достижи-
мым при соответствующих действиях в рамках имеющейся нечет-
кой информации. При этом гарантированная эффективность стиму-
лирования в АС с нечеткой внешней неопределенностью не выше,
чем соответствующих детерминированных АС.
В заключение настоящего раздела отметим, что перспектив-
ными представляются следующие направления исследований мно-
гоэлементных АС с неопределенностью. Во-первых, это класс АС,
в которых результат деятельности каждого АЭ зависит от действий
всех АЭ. Во-вторых, исследование условий на информированность
игроков (например, свойства плотности совместного распределения
состояний природы), при которых можно без потери эффективно-
сти использовать индивидуальные системы стимулирования и т.д.

1

<<

стр. 2
(всего 5)

СОДЕРЖАНИЕ

>>