Подтвердить что ты не робот

В чем разница между цепями марков и скрытой марковской моделью?

В чем разница между цепными моделями марков и скрытой марковской моделью? Я читал в Википедии, но не мог понять различия.

4b9b3361

Ответ 1

Чтобы объяснить на примере, я буду использовать пример из обработки естественного языка. Представьте, что вы хотите знать вероятность этого предложения:

Я наслаждаюсь кофе

В марковской модели вы можете оценить ее вероятность, рассчитав:

P(WORD = I) x P(WORD = enjoy | PREVIOUS_WORD = I) x P(word = coffee| PREVIOUS_WORD = enjoy)

Теперь представьте, что мы хотим знать теги частей речи этого предложения, то есть, если слово является глаголом прошедшего времени, существительным и т.д.

В этом предложении мы не наблюдали тегов частей речи, но мы предполагаем, что они есть. Таким образом, мы вычисляем, какова вероятность последовательности тегов частей речи. В нашем случае фактическая последовательность:

ПРП-ВБП-НН

(где PRP = "Персональное местоимение", VBP = "Глагол, не принадлежащее третьему лицу настоящее", NN = "Существительное, единственное или массовое". См. https://cs.nyu.edu/grishman/jet/guide/PennPOS.html для полной записи тегов POS Penn)

Но ждать! Это последовательность, к которой мы можем применить марковскую модель. Но мы называем это скрытым, поскольку последовательность частей речи никогда не наблюдается напрямую. Конечно, на практике мы будем вычислять много таких последовательностей и хотели бы найти скрытую последовательность, которая лучше всего объясняет наше наблюдение (например, мы с большей вероятностью увидим такие слова, как "the", "this", сгенерированные из определителя ( DET) тег)

Лучшее объяснение, с которым я когда-либо сталкивался, - это статья Лоуренса Р. Рабинера, написанная в 1989 году: http://www.cs.ubc.ca/~murphyk/Bayes/rabiner.pdf.

Ответ 2

Марковская модель - это машина состояний с изменениями состояния, являющимися вероятностями. В скрытой марковской модели вы не знаете вероятностей, но знаете результаты.

Например, когда вы переворачиваете монету, вы можете получить вероятности, но если вы не можете увидеть флипсы, и кто-то переместит один из пяти пальцев с каждым переводом монетки, вы можете совершить движение пальцев и использовать скрытый Марков, чтобы получить лучшее предположение о перевоплощении монет.

Ответ 3

Насколько я понимаю, вопрос заключается в следующем: в чем разница между марковским процессом и скрытым марковским процессом?

Марковский процесс (МП) - это случайный процесс с:

  1. Конечное число состояний
  2. Вероятностные переходы между этими состояниями
  3. Следующее состояние определяется только текущим состоянием (свойство Маркова)

Скрытый марковский процесс (HMM) также является стохастическим процессом с:

  1. Конечное число состояний
  2. Вероятностные переходы между этими состояниями
  3. Следующее состояние определяется только текущим состоянием (свойство Маркова) И
  4. Не были уверены, в каком состоянии они находились: текущее состояние вызывает наблюдение.

Пример - (HMM) Фондовый рынок:
На фондовом рынке люди торгуют со стоимостью фирмы. Предположим, что реальная стоимость акции составляет 100 долларов (это ненаблюдаемо, и на самом деле вы никогда не знаете об этом). То, что вы действительно видите, - это то, с какой ценой он торгуется: допустим, в этом случае $ 90 (это можно наблюдать).

Для людей, интересующихся Марковым: Интересная часть - это когда вы начинаете принимать меры на этих моделях (в предыдущем примере, чтобы заработать деньги). Это относится к марковским процессам принятия решений (MDP) и частично наблюдаемым марковским процессам принятия решений (POMDP). Чтобы оценить общую классификацию этих моделей, я суммировал на следующем рисунке основные характеристики каждой модели Маркова.

Classification of different Markov Models

Ответ 4

Поскольку Мэтт использовал теги части речи, как пример HMM, я мог бы добавить еще один пример: Распознавание речи. Почти все системы непрерывного распознавания речи на основе словаря (LVCSR) основаны на HMM.

Пример "Мэтт": Мне нравится кофе

В марковской модели вы можете оценить ее вероятность, вычислив:

P(WORD = I) x P(WORD = enjoy | PREVIOUS_WORD = I) x P(word = coffee| PREVIOUS_WORD = enjoy)

В скрытой марковской модели

Скажем, 30 разных людей читают предложение "Мне нравится обниматься" , и мы должны его распознать. Каждый человек произносит это предложение по-разному. Поэтому мы НЕ знаем, означал ли человек "обнимать" или "забивать". Мы будем иметь вероятностное распределение фактического слова.

Короче говоря, скрытая марковская модель представляет собой статистическую марковскую модель, в которой модель, моделируемая, считается марковским процессом с ненаблюдаемыми (скрытыми) состояниями.

Ответ 5

Скрытые марковские модели представляют собой двойной встроенный стохастический процесс с двумя уровнями.

Верхний уровень - это марковский процесс, и состояния ненаблюдаемы.

Действительно, наблюдение является вероятностной функцией марковских состояний верхнего уровня.

Различные марковские состояния будут иметь различные вероятностные функции наблюдения.