ジャクソンネットワークの積形式解の存在(2)

ジャクソンネットワークの積形式解の存在(1)」の続きです。
ジャクソンネットワークの積形式解の存在(1)」で登場した局所平衡方程式(6)

  • p(\vec~k(+j))\frac{min(k_j+1,m_j)}{t_{ej}}=p(\vec~k)\lambda_j+\Bigsum_{i=1}^Np(\vec~k(+i))\frac{min(k_i+1,m_i)}{t_{ei}}r_{ij}・・・・・・(6)

が大域平衡方程式を満足することを確認します。

まず、上の図のように考えれば、大域平衡方程式を作るのに考慮すべき遷移は以下のようなものです。
まず状態\vec~kに入る遷移から

ただし、状態状態\vec~k(-j)ステーションjジョブ数だけを−1した状態を表すものとします。また、上記の遷移はijについて合計をとるものとします。さらに、k_j=0の場合は、状態\vec~k(-j)や状態\vec~k(+i,-j)は存在しないので、それらからの遷移はないものと考えます。
次に状態\vec~kから出る遷移は

これについても上記の遷移はjについて合計をとるものとします。さらに、k_j=0の場合は、状態\vec~k(-j)や状態\vec~k(+i,-j)は存在しないので、それらからの遷移はないものと考えます。
すると大域平衡方程式は(出て行くほうを左辺に入ってくるほうを右辺に書くと)以下のようになります。

  • \Bigsum_{j=1}^Np(\vec~k)\lambda_j+\Bigsum_{j=1}^Np(\vec~k)\frac{min(k_j,m_j)}{t_{ej}}
    • =\Bigsum_{j=1}^Np(\vec~k(-j))\lambda_j+\Bigsum_{j=1}^N\Bigsum_{i=1}^Np(\vec~k(+i,-j))\frac{min(k_i+1,m_i)}{t_{ei}}r_{ij}
    • +\Bigsum_{j=1}^Np(\vec~k(+j))\frac{min(k_j+1,m_j)}{t_{ej}}r_{j0}・・・・・・(7)

ただしr_{j0}ジョブステーションjでの処理終了後、ネットワークの外に出て行く確率を表します。この定義から

  • r_{j0}=1-\Bigsum_{i=1}^Nr_{ji}・・・・・・(8)

であることが分かります。また式(7)においてk_j=0の時のp(\vec~k(-j))p(\vec~k(+i,-j))はゼロであると考えます。


では、局所平衡方程式(6)が大域平衡方程式(7)を満たすことを確認します。
式(6)から、もしk_j>0ならば

  • p(\vec~k)\frac{min(k_j,m_j)}{t_{ej}}=p(\vec~k(-j))\lambda_j+\Bigsum_{i=1}^Np(\vec~k(+i,-j))\frac{min(k_i+1,m_i)}{t_{ei}}r_{ij}・・・・・・(9)

k_j=0の時は、式(9)の左辺は0になります。そこでk_j=0の時はp(\vec~k(-j))=0p(\vec~k(+i,-j))=0であると考えれば、k_j{\ge}0の時に式(9)が成り立つと言う事が出来ます。
また、(6)から

  • p(\vec~k)\lambda_j=p(\vec~k(+j))\frac{min(k_j+1,m_j)}{t_{ej}}-\Bigsum_{i=1}^Np(\vec~k(+i))\frac{min(k_i+1,m_i)}{t_{ei}}r_{ij}・・・・・・(10)

(9)と(10)を足すと

  • p(\vec~k)\lambda_j+p(\vec~k)\frac{min(k_j,m_j)}{t_{ej}}=p(\vec~k(-j))\lambda_j
    • +\Bigsum_{i=1}^Np(\vec~k(+i,-j))\frac{min(k_i+1,m_i)}{t_{ei}}r_{ij}
    • +p(\vec~k(+j))\frac{min(k_j+1,m_j)}{t_{ej}}-\Bigsum_{i=1}^Np(\vec~k(+i))\frac{min(k_i+1,m_i)}{t_{ei}}r_{ij}

この両辺をjについて合計すると

  • \Bigsum_{j=1}^Np(\vec~k)\lambda_j+\Bigsum_{j=1}^Np(\vec~k)\frac{min(k_j,m_j)}{t_{ej}}=\Bigsum_{j=1}^Np(\vec~k(-j))\lambda_j
    • +\Bigsum_{j=1}^N\Bigsum_{i=1}^Np(\vec~k(+i,-j))\frac{min(k_i+1,m_i)}{t_{ei}}r_{ij}
    • +\Bigsum_{j=1}^Np(\vec~k(+j))\frac{min(k_j+1,m_j)}{t_{ej}}-\Bigsum_{j=1}^N\Bigsum_{i=1}^Np(\vec~k(+i))\frac{min(k_i+1,m_i)}{t_{ei}}r_{ij}・・・・・・(11)

(11)の左辺は

  • \Bigsum_{j=1}^Np(\vec~k(-j))\lambda_j+\Bigsum_{j=1}^N\Bigsum_{i=1}^Np(\vec~k(+i,-j))\frac{min(k_i+1,m_i)}{t_{ei}}r_{ij}
    • +\Bigsum_{j=1}^Np(\vec~k(+j))\frac{min(k_j+1,m_j)}{t_{ej}}-\Bigsum_{j=1}^N\Bigsum_{i=1}^Np(\vec~k(+i))\frac{min(k_i+1,m_i)}{t_{ei}}r_{ij}
  • =\Bigsum_{j=1}^Np(\vec~k(-j))\lambda_j+\Bigsum_{j=1}^N\Bigsum_{i=1}^Np(\vec~k(+i,-j))\frac{min(k_i+1,m_i)}{t_{ei}}r_{ij}
    • +\Bigsum_{j=1}^Np(\vec~k(+j))\frac{min(k_j+1,m_j)}{t_{ej}}-\Bigsum_{i=1}^N\Bigsum_{j=1}^Np(\vec~k(+j))\frac{min(k_j+1,m_i)}{t_{ei}}r_{ji}
  • =\Bigsum_{j=1}^Np(\vec~k(-j))\lambda_j+\Bigsum_{j=1}^N\Bigsum_{i=1}^Np(\vec~k(+i,-j))\frac{min(k_i+1,m_i)}{t_{ei}}r_{ij}
    • +\Bigsum_{j=1}^Np(\vec~k(+j))\frac{min(k_j+1,m_j)}{t_{ej}}\left[1-\Bigsum_{i=1}^Nr_{ji}\right]

ここで最後の項について式(8)を適用すれば

  • \Bigsum_{j=1}^Np(\vec~k(-j))\lambda_j+\Bigsum_{j=1}^N\Bigsum_{i=1}^Np(\vec~k(+i,-j))\frac{min(k_i+1,m_i)}{t_{ei}}r_{ij}
    • +\Bigsum_{j=1}^Np(\vec~k(+j))\frac{min(k_j+1,m_j)}{t_{ej}}\left[1-\Bigsum_{i=1}^Nr_{ji}\right]
  • =\Bigsum_{j=1}^Np(\vec~k(-j))\lambda_j+\Bigsum_{j=1}^N\Bigsum_{i=1}^Np(\vec~k(+i,-j))\frac{min(k_i+1,m_i)}{t_{ei}}r_{ij}
    • +\Bigsum_{j=1}^Np(\vec~k(+j))\frac{min(k_j+1,m_j)}{t_{ej}}r_{j0}

よって式(11)は

  • \Bigsum_{j=1}^Np(\vec~k)\lambda_j+\Bigsum_{j=1}^Np(\vec~k)\frac{min(k_j,m_j)}{t_{ej}}
    • =\Bigsum_{j=1}^Np(\vec~k(-j))\lambda_j+\Bigsum_{j=1}^N\Bigsum_{i=1}^Np(\vec~k(+i,-j))\frac{min(k_i+1,m_i)}{t_{ei}}r_{ij}
    • +\Bigsum_{j=1}^Np(\vec~k(+j))\frac{min(k_j+1,m_j)}{t_{ej}}r_{j0}

となり、これは大域平衡方程式(7)に一致します。よって局所平衡方程式(6)が大域方程式(7)を満たすことを示すことが出来ました。


ジャクソンネットワークの積形式解の存在(3)」に続きます。