В статье предлагается формальное правило, основанное на минимизации информационной метрики Кульбака–Лейблера, для определения априорного распределения при наличии информации, полученной из предыдущих наблюдений. В отличие от обычных предположений в эмпирическом байесовском анализе, в данной работе не требуется независимость параметров, рассматриваемых как случайные величины, соответствующие различным наблюдениям. Показано, что в случае, когда наблюдения, зависящие от параметра, и сам параметр распределены по нормальному закону, предлагаемое правило приводит к ML–II априорному распределению. Однако в случае регрессионного уравнения коэффициенты регрессии, полученные методом минимизации метрики Кульбака–Лейблера, отличаются от оценок, полученных при ML–II подходе. Также показано, что для нормальных распределений метрика Кульбака–Лейблера достигает асимптотически единственного минимума на истинном априорном распределении.