книги Компьютеры и Интернет Программные пакеты, игры Офис

Kullback–Leibler Divergence

Код 1297722

Нет в продаже

Аннотация к книге "Kullback–Leibler Divergence"

High Quality Content by WIKIPEDIA articles! In probability theory and information theory, the Kullback–Leibler divergenc (also information divergence, information gain, relative entropy, or KLIC) is a non-symmetric measure of the difference between two probability distributions P and Q. KL measures the expected number of extra bits required to code samples from P when using a code based on Q, rather than using a code based on P. Typically P represents the "true" distribution of data,...

Оставить комментарий

Оцените книгу:

Издательство: Книга по требованию
Дата выхода: июль 2011
ISBN: 978-6-1338-9768-7
Объём: 84 страниц
Масса: 147 г
Размеры(высота, ширина, толщина), см: 23 x 16 x 1

Книга находится в категориях

MS Project

Вместе с этой книгой покупают