вероятностные графовые модели принципы и приложения

Вероятностные графовые модели. Принципы и приложения

вероятностные графовые модели принципы и приложения. 978 5 97060 874 6. вероятностные графовые модели принципы и приложения фото. вероятностные графовые модели принципы и приложения-978 5 97060 874 6. картинка вероятностные графовые модели принципы и приложения. картинка 978 5 97060 874 6.вероятностные графовые модели принципы и приложения. 978 5 97060 874 6 270 369 jpg 100. вероятностные графовые модели принципы и приложения фото. вероятностные графовые модели принципы и приложения-978 5 97060 874 6 270 369 jpg 100. картинка вероятностные графовые модели принципы и приложения. картинка 978 5 97060 874 6 270 369 jpg 100.

Автор: Л. Э. Сукар
Дата выхода: сентябрь 2020 года
Формат: 165 * 235 мм
Бумага: офсетная
Обложка: Твердый переплет
Объем, стр.: 338
ISBN: 978-5-97060-874-6
Вес: 900

Аннотация

В этой книге представлено общее введение в вероятностные графовые модели (ВГМ) с инженерной точки зрения. В книге подробно рассматриваются теоретические основы для каждого из основных классов ВГМ, включая принципы и методы представления, логического вывода и обучения, а также обзоры реальных практических приложений для каждого типа модели. Примеры приложений взяты из самых разнообразных предметных областей и наглядно демонстрируют множество вариантов применения байесовских классификаторов, скрытых марковских моделей, байесовских сетей, динамических и временных байесовских сетей, марковских случайных полей, диаграмм влияния и марковских процессов принятия решений.

Оплата

Наш интернет-магазин работает только по предоплате!
Мы принимаем следующие виды оплаты:

Вы так же можете выбрать оплату по платежной квитанции и оплатить по ней покупку в отделении любого банка.
Юридические лица могут выбрать счёт на оплату.
Возврат денежных средств возможен в случаях:

Возврат не проводится в случаях:

Для оформления возврата обращайтесь по электронной почте dmkpress.help@gmail.com.

Доставка:

Курьерская доставка по Москве в течение 7 дней после оплаты заказа.
Стоимость доставки:

Самовывоз возможен в течение суток после оплаты.
Адрес для самовывоза:
115487, г. Москва, проспект Андропова, 38
Доставка почтой России: от 7 до 28 дней с момента оплаты заказа.
Стоимость доставки:

Источник

Русские Блоги

Быстро понять модели вероятностного графа

Вероятностная графическая модель является основным направлением исследований в области искусственного интеллекта. Недавно команда Statsbot пригласила Прасуна Гояла, исследователя данных, опубликовать базовое введение в вероятностную графическую модель в своем блоге из двух частей. Статья начинается с основных понятий и добавляет основные примеры применения, чтобы помочь новичкам понять практическую ценность модели графа вероятности. Сердце машины компилируется и вводится в эту статью.

Часть 1: Основная терминология и постановка вопросов

Многие общие проблемы в области машинного обучения включают классификацию отдельных точек данных, которые не зависят друг от друга. Например: предсказать, содержит ли данное изображение автомобиль или собаку, или определить, какой из рукописных символов на изображении составляет от 0 до 9.

Не существует очевидного способа использования стандартных моделей классификации для решения этих проблем. Вероятностная графическая модель (PGM / вероятностная графическая модель) является мощной основой для изучения этих моделей с зависимостями. Эта статья является учебным пособием, которое команда Statsbot пригласила исследователя данных Прасуна Гояла написать для этой среды.

Прежде чем обсуждать, как использовать вероятностные графические модели для задач машинного обучения, мы должны понять структуру PGM. Вероятностная модель графа (или модель графа для краткости) состоит из структуры графа в форме. Каждый узел графа связан со случайной величиной, а ребра графа используются для кодирования взаимосвязи между этими случайными переменными.

В зависимости от того, является ли график направленным или ненаправленным, мы можем разделить шаблон графика на две категории: байесовская сеть (байесовская сеть) и марковская сеть (марковские сети).

Байесовская сеть: модель ориентированного графа

Типичным случаем байесовской сети является так называемая «студенческая сеть», которая выглядит следующим образом:

вероятностные графовые модели принципы и приложения. 192b353894f0df6dd5b34f50c28f1445. вероятностные графовые модели принципы и приложения фото. вероятностные графовые модели принципы и приложения-192b353894f0df6dd5b34f50c28f1445. картинка вероятностные графовые модели принципы и приложения. картинка 192b353894f0df6dd5b34f50c28f1445.

Эта диаграмма описывает настройку студента, регистрирующегося на университетский курс. На этом рисунке 5 случайных величин:

Сложность курса (Сложность): можно взять два значения, 0 означает низкую сложность, 1 означает высокую сложность

Уровень интеллекта ученика (интеллект): два значения могут быть приняты, 0 означает не умный, 1 означает умный

SAT балл студента (SAT): может принимать два значения, 0 означает низкий балл, 1 означает высокий балл

Качество рекомендательного письма (Letter), которое студенты получают от профессора после прохождения курса: два значения возможны, 0 означает, что рекомендательное письмо не хорошее, 1 означает, что рекомендательное письмо очень хорошее

Ребра на рисунке кодируют зависимости между этими переменными.

Оценка студента зависит от сложности курса и интеллекта студента;

А класс в свою очередь определяет, могут ли студенты получить хорошее письмо от профессора;

Кроме того, интеллект учащихся будет влиять не только на их оценку, но и на результаты SAT.

Обратите внимание, что направление стрелок указывает на причинно-следственную связь: интеллект влияет на оценки SAT, но SAT не влияет на интеллект.

Условное распределение вероятностей

CPD сложности и интеллекта очень прост, потому что эти переменные не зависят от каких-либо других переменных. По сути, эти две таблицы кодируют вероятности того, что эти две переменные принимают значения 0 и 1. Возможно, вы заметили, что сумма значений в каждой таблице должна быть 1.

Далее посмотрите на CPD SAT. Каждая строка соответствует значению, которое может принимать его родительский узел (интеллект), а каждый столбец соответствует значению, которое может принимать SAT. Каждая ячейка имеет условную вероятность p (SAT = s | Intelligence = i), что означает, что если значение Intelligence равно i, это вероятность того, что значение SAT равно s.

Например, мы можем видеть, что p (SAT = s¹ | Intelligence = i¹) равно 0,8. Другими словами, если уровень интеллекта учащегося высок, вероятность того, что его оценка SAT также высока, составляет 0,8. И p (SAT = s⁰ | Intelligence = i¹) означает, что если уровень интеллекта учащегося высок, вероятность того, что оценка SAT будет очень низкой, равна 0,2.

Обратите внимание, что сумма значений в каждой строке равна 1. Это, конечно, потому что когда интеллект = i¹, SAT может быть только одним из s⁰ и s¹, поэтому сумма двух вероятностей должна быть 1. Аналогично, CPD Буквы кодирует условную вероятность p (Letter = l | Grade = g). Поскольку оценка может принимать 3 значения, эта таблица имеет 3 строки.

Основным требованием байесовских сетей является то, что граф должен быть направленным ациклическим графом (DAG / направленный ациклический граф).

Марковская сеть: модель ненаправленного графа

Простой пример марковской сети:

вероятностные графовые модели принципы и приложения. bf7f6f271bea67f7eef4625f6a4b8979. вероятностные графовые модели принципы и приложения фото. вероятностные графовые модели принципы и приложения-bf7f6f271bea67f7eef4625f6a4b8979. картинка вероятностные графовые модели принципы и приложения. картинка bf7f6f271bea67f7eef4625f6a4b8979.

1. Возможное использование

Так же, как байесовские сети имеют CPD, марковские сети также имеют таблицы, которые используются для интеграции отношений между узлами. Однако между этими таблицами и CPD есть два ключевых различия.

Во-первых, эти значения не нужно добавлять до 1, что означает, что эта таблица не определяет распределение вероятностей. Это просто говорит нам, что конфигурация с более высоким значением имеет более высокую вероятность. Во-вторых, нет никаких условных отношений. Он пропорционален совместному распределению всех задействованных переменных, которое отличается от условного распределения в CPD.

вероятностные графовые модели принципы и приложения. 703592cb17b20d47a82caaf77375fe4d. вероятностные графовые модели принципы и приложения фото. вероятностные графовые модели принципы и приложения-703592cb17b20d47a82caaf77375fe4d. картинка вероятностные графовые модели принципы и приложения. картинка 703592cb17b20d47a82caaf77375fe4d.

В общем, вы хотите определить потенциальную функцию для каждой максимальной клики в графе.

Структура графика и таблица могут кратко представлять совместное распределение вероятностей по этим случайным переменным.

Для других проблем, таких как изображения, вам может потребоваться представить каждый пиксель как узел. Мы знаем, что смежные пиксели влияют друг на друга, но между пикселями нет причинно-следственной связи, взаимодействие между ними симметрично. Поэтому мы используем модель ненаправленного графа в таких случаях.

Постановка проблемы

Мы уже обсуждали графики, случайные величины и таблицы. Вы можете подумать, что все это значит? Что именно мы хотим сделать? Есть ли машинное обучение? Где данные, обучение и прогноз? Этот раздел даст вам ответ.

Теперь для новой точки данных вы можете увидеть некоторые из этих переменных, но не все из них. Например, на приведенном ниже графике вы можете узнать сложность курса и балл SAT учащегося, и вы хотите оценить вероятность того, что студент получит хороший рейтинг. (Теперь вы получили значения в таблице на этапе обучения.)

вероятностные графовые модели принципы и приложения. 04da2a877eae5206bc3312795ee4ceb7. вероятностные графовые модели принципы и приложения фото. вероятностные графовые модели принципы и приложения-04da2a877eae5206bc3312795ee4ceb7. картинка вероятностные графовые модели принципы и приложения. картинка 04da2a877eae5206bc3312795ee4ceb7.

Хотя у нас нет CPD, который может предоставить нам информацию напрямую, мы видим, что студенты с высокими баллами SAT указывают, что уровень интеллекта студента также, вероятно, будет выше, поэтому, если сложность курса очень низкая, тогда студент получает хорошее Вероятность рейтинга также будет выше, как показано красной стрелкой на рисунке выше. Мы можем также захотеть оценить вероятность нескольких переменных одновременно, например, вероятность того, что учащийся получит хороший рейтинг и хорошее рекомендательное письмо одновременно?

Такая переменная с известным значением называется наблюдаемой переменной, а переменная, значение которой не наблюдается, называется скрытой переменной (скрытой переменной или скрытой переменной). Как правило, явные переменные представлены серыми узлами, а скрытые переменные представлены белыми узлами, как показано на рисунке выше. Мы можем захотеть найти значения некоторых или всех явных переменных.

Ответы на эти вопросы аналогичны другим областям моделей графов машинного обучения, этот процесс называется «логическим выводом».

Хотя мы использовали байесовские сети для описания вышеупомянутых терминов, это также относится к марковским сетям. Прежде чем мы углубимся в алгоритмы, используемые для обучения и логического вывода, давайте формализуем идею, которую мы только что видели, с учетом определенных значений узлов, о каких других узлах мы можем получить информацию?

Условная независимость

Структура графа, которую мы только что обсудили, на самом деле несет важную информацию об этих переменных. В частности, они определяют набор условной независимости между этими переменными, что является формой утверждения: «Если A соблюдается, то B не зависит от C.» Давайте рассмотрим несколько примеров.

Предположим, что в сети студентов вы видите студента с высоким показателем SAT. Что вы думаете о ее рейтинге? Как мы уже видели, высокий балл SAT указывает на высокий уровень интеллекта учащегося, поэтому вы можете рассчитывать на хороший рейтинг. Что делать, если оценка SAT студента низкая? В этом случае можно ожидать, что рейтинг будет не очень хорошим.

Теперь давайте предположим, что вы не только знаете, что у этого ученика более высокий балл по SAT, но и что у него более высокий уровень интеллекта. Если оценка SAT высока, то вы можете предсказать ее оценку как отличную. Но что, если оценка SAT низкая? Вы все еще можете ожидать, что оценка будет отличной, потому что у этого ученика высокий уровень интеллекта, и вы можете предположить, что она не очень хорошо выполнила экзамен SAT. Следовательно, знание этого балла SAT не дает нам никакой информации об уровне интеллекта этого ученика. Чтобы заявить об этом условно независимым образом, вы можете сказать: «Если наблюдался интеллект, то SAT и Grade независимы».

Мы получили эту условно независимую информацию, основанную на том, как эти узлы связаны в графе. Если эти узлы связаны по-разному, то мы также получим независимую информацию с разными условиями.

Давайте посмотрим на другой пример.

Предположим, вы знаете, что у этого ученика высокий уровень интеллекта. Что вы знаете о сложности этого курса? Ничего не знаешь, верно? А что если я скажу вам, что этот студент получил плохую оценку по этому курсу? Это показывает, что этот курс труден, потому что мы знаем, что умный студент получает плохой. Таким образом, мы можем написать наше заявление об условной независимости, например: «Если оценка не соблюдается, то интеллект и сложность не зависят друг от друга».

Для краткости мы не будем здесь охватывать все возможные ситуации, но эти ситуации очень просты и их можно увидеть интуитивно.

Мы рассмотрим детали оценки и вывода параметров во второй части этого блога. Теперь давайте посмотрим на применение байесовских сетей, в которых мы можем использовать идеи условной независимости, которые мы только что изучили.

Применение: трехдверная задача

Наверное, вы видели версию этой проблемы в телешоу:

вероятностные графовые модели принципы и приложения. 3587a78b028b4c5f056eaac5842c3cce. вероятностные графовые модели принципы и приложения фото. вероятностные графовые модели принципы и приложения-3587a78b028b4c5f056eaac5842c3cce. картинка вероятностные графовые модели принципы и приложения. картинка 3587a78b028b4c5f056eaac5842c3cce.

Интуитивно понятно, что хост не раскрывает никакой информации. Факты доказали, что эта интуиция не совсем верна. Давайте используем наш новый инструмент «модель графа», чтобы понять эту проблему.

Сначала мы определим некоторые переменные:

D: дверь за машиной

F: Ваш первый выбор

H: Дверь открыта хозяином

D, F и H могут принимать значение 1, 2 или 3, я могу принимать значение 0 или 1. D и я не наблюдаются, а F наблюдается. Прежде чем хозяин открыл одну из дверей, Н не был замечен. Поэтому мы используем байесовскую сеть для решения нашей проблемы:

вероятностные графовые модели принципы и приложения. 12c5f34bbefb07ca1582a5d9698ee1a8. вероятностные графовые модели принципы и приложения фото. вероятностные графовые модели принципы и приложения-12c5f34bbefb07ca1582a5d9698ee1a8. картинка вероятностные графовые модели принципы и приложения. картинка 12c5f34bbefb07ca1582a5d9698ee1a8.

Теперь хозяин выбирает дверь H и открывает ее. Так что теперь H наблюдается.

вероятностные графовые модели принципы и приложения. 122cb18b5e9301167ebb107bab1a15bf. вероятностные графовые модели принципы и приложения фото. вероятностные графовые модели принципы и приложения-122cb18b5e9301167ebb107bab1a15bf. картинка вероятностные графовые модели принципы и приложения. картинка 122cb18b5e9301167ebb107bab1a15bf.

Наблюдение H не может предоставить нам никакой информации о I, то есть мы не можем указать, выбрали ли мы правильную дверь. Наша интуиция так думает. Но это дало нам некоторую информацию о D! (Точно так же, сравнивая студенческую сеть, если вы знаете, что интеллект студента высок, а рейтинг плох, вы можете узнать некоторую информацию о сложности курса.)

Давайте использовать цифры, чтобы увидеть. Таблица CPD для этих переменных показана ниже (это когда переменные не наблюдаются):

вероятностные графовые модели принципы и приложения. b535b757267ac4f33ec6196bbe961886. вероятностные графовые модели принципы и приложения фото. вероятностные графовые модели принципы и приложения-b535b757267ac4f33ec6196bbe961886. картинка вероятностные графовые модели принципы и приложения. картинка b535b757267ac4f33ec6196bbe961886.

Таблица D и F очень проста: дверь за автомобилем может быть любой из этих дверей, и вероятность равна. Вероятность того, что мы выберем одну из них, одинакова. Таблица I говорит, что когда D и F одинаковы, I = 1, когда D и F различны, I = 0. Таблица H говорит, что если D и F одинаковы, то у хоста одинаковая вероятность выбора одной из двух других дверей, а если D и F разные, то хост выбирает третью дверь.

Теперь давайте предположим, что мы выбрали дверь. Другими словами, теперь наблюдается F, предполагая, что F = 1. Так, какова условная вероятность I и D, данного F?

вероятностные графовые модели принципы и приложения. b2ae861f8df90e7ae7911e546bbe259b. вероятностные графовые модели принципы и приложения фото. вероятностные графовые модели принципы и приложения-b2ae861f8df90e7ae7911e546bbe259b. картинка вероятностные графовые модели принципы и приложения. картинка b2ae861f8df90e7ae7911e546bbe259b.

вероятностные графовые модели принципы и приложения. 98ee357da65727090b4e372bea08d249. вероятностные графовые модели принципы и приложения фото. вероятностные графовые модели принципы и приложения-98ee357da65727090b4e372bea08d249. картинка вероятностные графовые модели принципы и приложения. картинка 98ee357da65727090b4e372bea08d249.

Используя эти уравнения, мы можем получить следующие вероятности:

вероятностные графовые модели принципы и приложения. 7149c3da879b1c50d51d0c3e457e3fe3. вероятностные графовые модели принципы и приложения фото. вероятностные графовые модели принципы и приложения-7149c3da879b1c50d51d0c3e457e3fe3. картинка вероятностные графовые модели принципы и приложения. картинка 7149c3da879b1c50d51d0c3e457e3fe3.

Теперь хозяин открыл еще одну дверь, кроме F, и мы увидели H. Предположим, H = 2. Затем вычислим условные вероятности I и D с учетом F и H.

вероятностные графовые модели принципы и приложения. 132b789147082222aec9b869ef10a5d1. вероятностные графовые модели принципы и приложения фото. вероятностные графовые модели принципы и приложения-132b789147082222aec9b869ef10a5d1. картинка вероятностные графовые модели принципы и приложения. картинка 132b789147082222aec9b869ef10a5d1.

вероятностные графовые модели принципы и приложения. 7ded620af018f8d4b1dcdcc49602d436. вероятностные графовые модели принципы и приложения фото. вероятностные графовые модели принципы и приложения-7ded620af018f8d4b1dcdcc49602d436. картинка вероятностные графовые модели принципы и приложения. картинка 7ded620af018f8d4b1dcdcc49602d436.

Используя эти уравнения, мы можем получить следующие вероятности:

вероятностные графовые модели принципы и приложения. bf8424d9d0aa14c563d3cb3419ae0aff. вероятностные графовые модели принципы и приложения фото. вероятностные графовые модели принципы и приложения-bf8424d9d0aa14c563d3cb3419ae0aff. картинка вероятностные графовые модели принципы и приложения. картинка bf8424d9d0aa14c563d3cb3419ae0aff.

Поэтому, если мы изменим выбор, то вероятность того, что мы получим автомобиль, составляет две трети, а если мы не изменим, вероятность того, что мы получим автомобиль, составляет одну треть.

Мы можем получить тот же ответ без использования графовой модели, но графовая модель предоставляет нам структуру, которая позволяет нам расширяться до более крупных проблем.

вывод

В этом руководстве по вероятностной графической модели мы изучили некоторые основные термины в области графических моделей, включая байесовские сети, сети Маркова, условные распределения вероятностей, потенциальные функции и условную независимость. Мы также обсудили применение графовой модели к трем задачам.

Во второй части этого блога мы представим некоторые алгоритмы оценки и вывода параметров и другое приложение.

Часть 2: Оценка параметров и алгоритмы вывода

В первой части этого руководства по вероятностной графической модели команда Statsbot представила два типа графических моделей, а именно байесовские сети и сети Маркова. Кроме того, здесь также обсуждаются постановка задачи, условная независимость и применение трехмодельной задачи в графовой модели. В этом разделе будет представлена ​​оценка параметров и обоснование, а также будет рассмотрено другое приложение.

Оценка параметров

1. Байесовская сеть

Оценить значения в таблице CPD байесовской сети очень просто: она рассчитывает количество событий в обучающих данных. Другими словами, если мы хотим оценить p (SAT = s1 | Intelligence = i1), нам нужно только вычислить долю точек данных с SAT = s1 и Intelligence = i1 в общем количестве точек данных с Intelligence = i1. Хотя этот метод, кажется, является специфическим для этой проблемы, оказывается, что параметры, полученные таким образом, могут максимизировать вероятность наблюдаемых данных.

Наконец, у нас есть параметры нашей модели, и мы хотим использовать их для новых данных, то есть для выполнения вывода!

аргументация

Литература, связанная с логически выведенными вероятностными графическими моделями, может быть описана как полная пота по двум причинам:

2. Рассуждение сложно в вычислительном отношении! В некоторых конкретных типах графов мы можем выполнять рассуждения довольно эффективно, но в общем случае вычисления в графах трудны. Поэтому нам нужно использовать алгоритм приближения для компромисса между точностью и эффективностью.

Мы можем использовать логический вывод, чтобы ответить на несколько вопросов:

Предельный вывод (предельный вывод): найдите распределение вероятностей конкретной переменной. Например, для графика с переменными A, B, C и D, где A принимает значения 1, 2 и 3, найдите p (A = 1), p (A = 2) и p (A = 3).

Задний вывод: учитывая некоторые явные переменные v_E (E представляет доказательство), его значение равно e, и найти апостериорное распределение p (v_H | v_E = e) некоторых скрытых переменных v_H.

Максимальный апостериорный логический вывод (максимальный апостериорный логический вывод): Учитывая некоторые явные переменные v_E, его значение равно e, и мы стремимся создать конфигурацию других переменных v_H с наибольшей вероятностью.

Ответ на эти вопросы может быть полезен сам по себе или может быть использован как часть более масштабной задачи.

Далее мы представим некоторые популярные алгоритмы для ответов на эти вопросы, включая как точные, так и приблизительные алгоритмы. Все эти алгоритмы могут использоваться как в байесовских, так и в марковских сетях.

Переменное исключение

Используя определение условной вероятности, мы можем написать апостериорное распределение:

вероятностные графовые модели принципы и приложения. 44006a2923af1ffc8c8904d92210ed90. вероятностные графовые модели принципы и приложения фото. вероятностные графовые модели принципы и приложения-44006a2923af1ffc8c8904d92210ed90. картинка вероятностные графовые модели принципы и приложения. картинка 44006a2923af1ffc8c8904d92210ed90.

Как мы можем вычислить числитель и знаменатель в приведенной выше формуле? Давайте проиллюстрируем это простым примером. Рассмотрим сеть с тремя переменными, совместное распределение которых определяется следующим образом:

вероятностные графовые модели принципы и приложения. ef9da79d9b2e4511c5671c5aba754140. вероятностные графовые модели принципы и приложения фото. вероятностные графовые модели принципы и приложения-ef9da79d9b2e4511c5671c5aba754140. картинка вероятностные графовые модели принципы и приложения. картинка ef9da79d9b2e4511c5671c5aba754140.

Предположим, мы хотим вычислить p (A | B = 1). Обратите внимание, что это означает, что мы хотим вычислить p (A = 0 | B = 1) и p (A = 1 | B = 1), и сумма этих двух значений должна быть 1. Используя приведенное выше уравнение, мы можем написать:

вероятностные графовые модели принципы и приложения. 37f21c8315d15c43e893c1ef75f6e2b6. вероятностные графовые модели принципы и приложения фото. вероятностные графовые модели принципы и приложения-37f21c8315d15c43e893c1ef75f6e2b6. картинка вероятностные графовые модели принципы и приложения. картинка 37f21c8315d15c43e893c1ef75f6e2b6.

Таким образом, мы добавляем строки 3 и 4, чтобы получить p (A = 0, B = 1) = 0,15. Аналогично, добавление строк 7 и 8 дает p (A = 1, B = 1) = 0,40. Кроме того, мы можем вычислить знаменатель, суммируя все строки, которые содержат B = 1, то есть строки 3, 4, 7 и 8, таким образом получая p (B = 1) = 0,55. Таким образом мы можем получить:

p(A=0|B=1) = 0.15 / 0.55 = 0.27

p(A=1|B=1) = 0.40 / 0.55 = 0.73

Если вы внимательнее посмотрите на вышеприведенные вычисления, то увидите, что мы выполнили несколько повторных вычислений, добавив строки 3 и 4 и строки 7 и 8 дважды. Более эффективный способ вычисления p (B = 1) состоит в том, чтобы непосредственно добавить значения p (A = 0, B = 1) и p (A = 1, B = 1). Это основная идея исключения переменных.

Вообще говоря, когда имеется много переменных, вы можете не только использовать значение числителя для вычисления знаменателя, но и сам числитель может также содержать повторные вычисления. Вы можете использовать динамическое программирование для эффективного использования ранее вычисленных значений.

Поскольку мы можем суммировать одну переменную за раз, чтобы исключить эту переменную, процесс суммирования нескольких переменных эквивалентен устранению этих переменных одна за другой. Поэтому мы называем этот процесс «исключение переменных».

Мы также можем использовать описанный выше процесс для простого и непосредственного решения предельных рассуждений или проблем рассуждений MAP. Точно так же вышеупомянутые идеи также могут быть легко распространены на сети Маркова.

Временная сложность исключения переменных зависит от структуры графа и порядка, в котором вы исключаете эти переменные. В худшем случае сложность времени возрастет в геометрической прогрессии.

Распространение убеждений

Алгоритм исключения переменных, который мы только что видели, получит только окончательное распределение. Предположим, мы хотим найти предельное распределение всех переменных. В дополнение к многократному запуску исключения переменных у нас есть более умные методы.

Затем каждая пара соседних узлов отправляет «сообщения» друг другу, и эти сообщения содержат их локальное распределение. Теперь каждый узел проверяет полученные сообщения и затем агрегирует их, чтобы обновить распределение вероятностей переменных.

вероятностные графовые модели принципы и приложения. ebad30545c3f5dad1225401c48ecd6a8. вероятностные графовые модели принципы и приложения фото. вероятностные графовые модели принципы и приложения-ebad30545c3f5dad1225401c48ecd6a8. картинка вероятностные графовые модели принципы и приложения. картинка ebad30545c3f5dad1225401c48ecd6a8.

На рисунке выше C собирает информацию от соседних узлов A и B, а затем отправляет сообщение D. Затем D объединяет это сообщение с информацией от E и F.

Приблизительная аргументация

Для больших графовых моделей точное рассуждение может быть очень трудоемким, поэтому было разработано много приближенных алгоритмов рассуждения для графовых моделей, и большинство из них подразделяются на следующие две категории:

1. Приблизительные рассуждения на основе выборки

Это алгоритм на основе выборки для оценки вероятности столкновения лицом вверх. Для более сложных алгоритмов в области вероятностных графических моделей вы также можете использовать аналогичный процесс. Алгоритмы на основе выборки могут быть далее разделены на две категории. Образцы в одной категории не зависят друг от друга, как, например, пример броска монеты выше. Эти алгоритмы называются методами Монте-Карло.

Для проблем со многими переменными трудно генерировать высококачественные независимые выборки, поэтому мы генерируем выборки с зависимостями, то есть каждая новая выборка является случайной, но близка к предыдущей выборке. Этот алгоритм называется методом Марковской цепочки Монте-Карло (MCMC), поскольку эти выборки образуют цепочку Маркова. Получив образец, мы сможем использовать его для ответа на различные вопросы.

2. Вариационный метод приближенных рассуждений

Вариационное приблизительное рассуждение не использует выборку, но пытается приблизить желаемое распределение посредством анализа. Предположим, вы пишете выражение, которое вычисляет релевантное распределение независимо от того, является ли это распределение предельным распределением вероятностей или последующим распределением вероятностей.

Обычно в этих выражениях присутствуют суммы или интегралы, а точная оценка чрезвычайно затратна в вычислительном отношении. Чтобы приблизить эти выражения, хорошим способом будет найти альтернативное выражение и каким-то образом сделать альтернативное выражение близким к исходному выражению. Это основная идея вариационного метода.

Когда мы пытаемся оценить комплексное распределение вероятностей p_complex, мы определяем другой набор более простых в использовании распределений вероятности P_simple, а затем на основе P_simple получаем распределение вероятностей p_approx, которое ближе всего к p_complex.

Применение: шумоподавление изображения

Давайте теперь применим некоторые из только что обсужденных идей к реальным проблемам. Предположим, у вас есть следующее изображение:

вероятностные графовые модели принципы и приложения. 4cc4d2324795f97e8ea8d725e17144fd. вероятностные графовые модели принципы и приложения фото. вероятностные графовые модели принципы и приложения-4cc4d2324795f97e8ea8d725e17144fd. картинка вероятностные графовые модели принципы и приложения. картинка 4cc4d2324795f97e8ea8d725e17144fd.

Теперь предположим, что это изображение загрязнено случайным шумом и становится шумным изображением:

вероятностные графовые модели принципы и приложения. 88c3d3f3786225127616ad864ef8a5a6. вероятностные графовые модели принципы и приложения фото. вероятностные графовые модели принципы и приложения-88c3d3f3786225127616ad864ef8a5a6. картинка вероятностные графовые модели принципы и приложения. картинка 88c3d3f3786225127616ad864ef8a5a6.

Теперь давайте использовать некоторые знания предметной области для построения структуры графа. Очевидно, что переменные, наблюдаемые в положении (i, j) на зашумленном изображении, зависят от переменных, не наблюдаемых в положении (i, j) на контрольном изображении. Причина в том, что большую часть времени они равны.

Отсюда получаем структуру графа:

вероятностные графовые модели принципы и приложения. 167f816ee4c8fd2cf3441c1a6cc0a8d7. вероятностные графовые модели принципы и приложения фото. вероятностные графовые модели принципы и приложения-167f816ee4c8fd2cf3441c1a6cc0a8d7. картинка вероятностные графовые модели принципы и приложения. картинка 167f816ee4c8fd2cf3441c1a6cc0a8d7.

Среди них белый узел представляет ненаблюдаемую переменную Y_ij, а серый узел представляет наблюдаемую переменную X_ij. Каждый X_ij связан с соответствующим Y_ij, а каждый Y_ij связан с соседним узлом.

Обратите внимание, что это марковская сеть, потому что между пикселями изображения нет причинно-следственной связи, поэтому в байесовской сети нецелесообразно использовать стрелки направления.

Наша задача вывода MAP математически может быть записана следующим образом:

вероятностные графовые модели принципы и приложения. 7a04b383ede0c1c20f7d7274f7fbc7e8. вероятностные графовые модели принципы и приложения фото. вероятностные графовые модели принципы и приложения-7a04b383ede0c1c20f7d7274f7fbc7e8. картинка вероятностные графовые модели принципы и приложения. картинка 7a04b383ede0c1c20f7d7274f7fbc7e8.

Здесь мы используем некоторые общепринятые стандартные методы упрощения при расчете максимальной логарифмической вероятности. Мы будем использовать X и Y (без индексов), чтобы обозначить множество всех значений X_ij и всех значений Y_ij, соответственно.

Теперь нам нужно определить наше совместное распределение P (X, Y) в соответствии с нашей структурой графа. Предположим, что P (X, Y) состоит из двух типов факторов-ϕ (X_ij, Y_ij) и ϕ (Y_ij, Y_kl), соответствующих двум типам ребер в графе. Далее мы определяем эти факторы следующим образом:

ϕ (Y_ij, Y_kl) = exp (w_s Y_ij Y_kl), где w_s также является параметром, большим 0. Когда значения Y_ij и Y_kl равны, этот коэффициент больше.

Поэтому наше совместное распространение может быть дано:

вероятностные графовые модели принципы и приложения. f8761a8849ede180d86eb86533cb8c87. вероятностные графовые модели принципы и приложения фото. вероятностные графовые модели принципы и приложения-f8761a8849ede180d86eb86533cb8c87. картинка вероятностные графовые модели принципы и приложения. картинка f8761a8849ede180d86eb86533cb8c87.

Среди них (i, j) и (k, l) во второй квадратуре являются смежными пикселями, а Z является константой нормализации.

Вставьте его в нашу формулу вывода MAP, мы можем получить:

вероятностные графовые модели принципы и приложения. ae0e1e968c8c8183a3d93080e84bc2fe. вероятностные графовые модели принципы и приложения фото. вероятностные графовые модели принципы и приложения-ae0e1e968c8c8183a3d93080e84bc2fe. картинка вероятностные графовые модели принципы и приложения. картинка ae0e1e968c8c8183a3d93080e84bc2fe.

Обратите внимание, что мы отбросили термин, содержащий Z, потому что он не влияет на полученное решение.

И w_s w_e значение основано на опорном изображении и пар шумов изображения, полученных с помощью методов оценки параметров. Этот процесс включает в себя немало математики (хотя в конечном итоге он выполняет только градиентный спуск по сложным функциям), поэтому мы не будем здесь углубляться. Предположим, что мы получили значения этих двух параметров, а именно w_e = 8 и w_s = 10.

Этот пример фокусируется на рассуждениях. С этими параметрами нам нужно решить вышеупомянутую проблему вывода MAP. Мы можем использовать вариант распространения достоверности, но на самом деле существует гораздо более простой алгоритм для этой конкретной структуры графа, а именно итеративный условный режим (ICM / итеративный условный режим).

Вы можете использовать код Python здесь: https://github.com/prasoongoyal/image-denoising-mrf.

Изображение с шумом, возвращаемое алгоритмом, выглядит следующим образом:

вероятностные графовые модели принципы и приложения. 185141fd2c453f4b448410b8c6838a9f. вероятностные графовые модели принципы и приложения фото. вероятностные графовые модели принципы и приложения-185141fd2c453f4b448410b8c6838a9f. картинка вероятностные графовые модели принципы и приложения. картинка 185141fd2c453f4b448410b8c6838a9f.

С количественной точки зрения, 10% пикселей в зашумленном изображении отличаются от исходного изображения, в то время как изображение, снимаемое нашим алгоритмом, только на 0,6% отличается от исходного изображения.

обзор

Здесь мы кратко рассмотрим основные концепции, о которых мы говорили в этой статье из двух частей:

Модель графа: Модель графа состоит из структуры графа, в которой узлы представляют случайные величины, а ребра представляют зависимости между переменными.

Байесовская сеть: модель ориентированного графа, с каждым узлом связано условное распределение вероятностей.

Марковская сеть: это модель неориентированного графа, и каждая клика имеет связанную потенциальную функцию.

Условная независимость: в соответствии со связью узлов в графе, мы можем записать такую ​​форму выражения условной независимости: «Даны Z, X и Y не зависят друг от друга».

Оценка параметров: заполните таблицу CPD или рассчитайте потенциальную функцию в соответствии с данными и структурой графика.

Обоснование: Учитывая графовую модель, мы хотим ответить на вопросы о ненаблюдаемых переменных, которые обычно относятся к следующим проблемным областям: предельные рассуждения, апостериорные рассуждения и рассуждения MAP.

резюме

В этих двух частях руководства мы интерпретировали некоторые основные идеи вероятностной графической модели. Теперь вы должны понимать: графовая модель предоставляет интерпретируемый метод моделирования для многих реальных задач с зависимостями. Графовая модель предоставляет нам метод для решения этих задач принципиальным образом.

Прежде чем закончить, мы должны отметить, что это руководство не является полным, чтобы содержание было простым и интуитивно понятным, многие детали были пропущены. Имейте в виду, что стандартные учебники по моделям графов вероятности могут превышать тысячи страниц! Целью данного руководства является предоставление отправной точки, чтобы помочь новичкам развить интерес к этой области и использовать эти углубленные ресурсы для дальнейшего углубленного изучения. Вот некоторые ресурсы, которые могут помочь вам узнать больше об этой области:

Graphical Models in a Nutshell:https://ai.stanford.edu/

Учебник графической модели: «Вероятностные графические модели: принципы и методы»

Статья Heart of Machine: Хотите узнать о моделях вероятностного графа? Вы должны сначала понять основное определение и форму теории графов

Кроме того, в стандартных учебниках по машинному обучению должно быть несколько глав о графовых моделях.

Источник

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *