SlideShare una empresa de Scribd logo
1 de 27
Дискретные структуры
МФТИ, осень 2013
Александр Дайняк
www.dainiak.com
Гиперграфы
Гипеграф — это пара 𝑉, 𝐸 , где
• 𝑉 — конечное множество вершин,
• 𝐸 — набор непустых подмножеств 𝑉 — (гипер-)рёбра.
Т.е. гиперграф в общем случае — это просто
набор/семейство/совокупность непустых подмножеств конечного
множества.
Гиперграфы
Гиперграф ℎ-однородный, если ∀𝑒 ∈ 𝐸 𝑒 = ℎ.
Так что граф — это 2-однородный гиперграф.
Пример 3-однородного гиперграфа:
Аналоги
теоретико-графовых понятий
Полный гиперграф — тот, в котором есть все возможные (в данном
контексте) рёбра.
Например, полный ℎ-однородный гиперграф — тот, в котором
𝐸 = 𝑉′
⊆ 𝑉 ∣ 𝑉′
= ℎ
Независимое множество — это такое 𝐴 ⊆ 𝑉, что ∄𝑒 ∈ 𝐸: 𝑒 ⊆ 𝐴.
Правильная вершинная раскраска — такая, при которой
совокупности вершин одного цвета образуют независимые
множества.
Аналоги теоретико-графовых понятий
Цепь в гиперграфе 𝑉, 𝐸 — это последовательность вершин и
рёбер
𝑣1 𝑒1 𝑣2 𝑒2 … 𝑒𝑠 𝑣 𝑠+1
такая, что
• ∀𝑖 𝑣𝑖, 𝑣𝑖+1 ∈ 𝑒𝑖 ,
• все 𝑣𝑖 различны,
• все 𝑒𝑖 различны (не как множества, а как элементы 𝐸).
Цикл определяется аналогично, с той разницей, что 𝑣1 и 𝑣 𝑠+1
совпадают.
Аналоги теоретико-графовых понятий
Подгиперграф гиперграфа 𝑉, 𝐸 , порождённый множеством
вершин 𝑉′ — это пара 𝑉′, 𝐸′ , где
𝐸′
≔ 𝑒 ∩ 𝑉′
∣ 𝑒 ∈ 𝐸 и 𝑒 ∩ 𝑉′
≠ ∅
1
2
3
4
5
1
2
4
3
4
Аналоги теоретико-графовых понятий
Область связности гиперграфа 𝑉, 𝐸 — это такое множество
𝑉′
⊆ 𝑉, что
• ∀𝑢, 𝑣 ∈ 𝑉′
найдётся цепь из 𝑢 в 𝑣,
• к 𝑉′
нельзя добавить ни одной вершины, так, чтобы предыдущее
свойство сохранилось.
Компонента связности — это подгиперграф, порождённый
областью связности.
Матрица инцидентности
Матрица инцидентности гиперграфа 𝑉, 𝐸 — это матрица
𝑎 𝑣,𝑒 𝑣∈𝑉,𝑒∈𝐸
∈ 0,1 𝑉 × 𝐸 , где
𝑎 𝑣,𝑒 ≔
1, если 𝑣 и 𝑒 инцидентны
0, иначе
Пример:
1 0 1 0
0 1 1 0
1 1 0 1
1 1 0 1
0 0 1 1
1
2
3
4
5
Покрытия
Если вершина 𝑣 гиперграфа входит в ребро 𝑒, то говорим, что 𝑣 покрывает 𝑒 или
протыкает 𝑒.
Вершинное покрытие гиперграфа — это такое множество вершин
𝐴 ⊆ 𝑉, что
∀𝑒 ∈ 𝐸 𝑒 ∩ 𝐴 ≠ ∅
Вершинное покрытие называется ещё
• протыкающим множеством,
• трансверсалью,
• системой общих представителей (с.о.п.)
для семейства множеств 𝐸.
Покрытия в терминах матриц
На языке матриц инцидентности, строка покрывает/протыкает
столбец, если у них на пересечении стоит 1.
Покрытие матрицы — это такое подмножество строк, что каждый
столбец покрывается одной из этих строк.
Пример:
1 0 1 0
0 1 1 0
1 1 0 1
1 1 0 1
0 0 1 1
1
2
3
4
5
Покрытия в терминах матриц
Число трансверсальности гиперграфа — это минимальный
размер покрытия.
Формально, если 𝐻 = 𝑉, 𝐸 , то
𝜏 𝐻 ≔ min 𝐴 ∣ ∀𝑒 ∈ 𝐸 𝐴 ∩ 𝑒 ≠ ∅
Будем также писать 𝜏 𝐸 .
Аналогично, для любой булевой матрицы 𝑀 без нулевых столбцов
через 𝜏 𝑀 будем обозначать мощность минимального покрытия
(называемую также глубиной матрицы).
Системы общих представителей
Пример прикладной задачи.
Есть набор экспертов 𝑉 ≔ 𝑣1, … , 𝑣 𝑛 . Каждый эксперт, может
быть, разбирается не только в одной области.
Пусть 𝑒1, … , 𝑒 𝑚 ⊆ 𝑉 — множества экспертов, разбирающихся в
1-й, …, 𝑚-й области знания.
Как набрать команду экспертов для решения задачи, требующей
владения всеми указанными областями знания?
Жадный алгоритм построения с.о.п.
Для гиперграфа 𝐻 ≔ 𝑉, 𝐸 рассмотрим алгоритм:
1. 𝑆 ≔ ∅
2. 𝐸notCovered ≔ 𝑒 ∈ 𝐸 ∣ 𝑒 ∩ 𝑆 = ∅
3. if 𝐸notCovered > 0:
4. 𝑣∗
≔ argmax
𝑣∈𝑉
# 𝑒 ∈ 𝐸notCovered ∣ 𝑒 ∋ 𝑣
5. 𝑆 ≔ 𝑆 ∪ 𝑣∗
6. goto 2.
7. 𝑆 — искомая с.о.п.
То есть на каждом шаге добавляем в 𝑆 любую из вершин, покрывающих наибольшее
число из ещё не покрытых рёбер.
Жадный алгоритм построения
покрытия матрицы
Для матрицы 𝑀 рассмотрим алгоритм:
1. 𝑆 ≔ ∅
2. 𝐶 ≔ столбцы, непокрытые строками из 𝑆
3. if 𝐶 > 0:
4. 𝑟∗ ≔ argmax
𝑟 — строка 𝑀
# столбцы из 𝐶, покрываемые 𝑟
5. 𝑆 ≔ 𝑆 ∪ 𝑟∗
6. goto 2.
7. 𝑆 — искомое покрытие матрицы
То есть на каждом шаге добавляем в 𝑆 любую из строк, покрывающих наибольшее
число из ещё не покрытых столбцов.
Теорема о мощности жадного покрытия
Теорема.
Пусть в каждом столбце матрицы 𝑀 ∈ 0,1 𝑛×𝑚
не менее ℎ
единиц, и при этом 𝑚ℎ > 𝑛.
Тогда мощность покрытия, построенного ж.а.,
≤ 1 +
𝑛
ℎ
+
𝑛
ℎ
ln
𝑚ℎ
𝑛
Следствие.
Для таких матриц 𝜏 𝑀 ≤ 1 +
𝑛
ℎ
+
𝑛
ℎ
ln
𝑚ℎ
𝑛
.
Доказательство теоремы
о мощности жадного покрытия
Пусть уже сделано 𝑘 шагов алгоритма, в результате чего 𝑆 = 𝑘 и
остаются непокрытыми 𝑐 𝑘 𝑚 столбцов, где 0 < 𝑐 𝑘 ≤ 1.
Рассмотрим матрицу 𝑀 𝑘, образованную строками из 𝑆
и непокрытыми столбцами.
Имеем 𝑀 𝑘 ∈ 0,1 𝑛−𝑘 × 𝑐 𝑘 𝑚 .
В каждом столбце 𝑀 𝑘 не менее ℎ единиц, а значит,
всего в 𝑀 𝑘 не менее 𝑐 𝑘 𝑚ℎ единиц.
Значит, в 𝑀 𝑘 есть строка, в которой ≥ 𝑐 𝑘 𝑚ℎ
𝑛−𝑘
единиц.
Доказательство теоремы
о мощности жадного покрытия
Пусть уже сделано 𝑘 шагов алгоритма, в результате чего 𝑆 = 𝑘 и
остаются непокрытыми 𝑐 𝑘 𝑚 столбцов, где 0 < 𝑐 𝑘 ≤ 1.
Есть строка, в которой ≥ 𝑐 𝑘 𝑚ℎ
𝑛−𝑘
единиц.
Следовательно, ж.а. выберет строку, покрывающую не менее 𝑐 𝑘 𝑚ℎ
𝑛−𝑘
новых столбцов.
После 𝑘 + 1 -го шага непокрытыми останутся
≤ 𝑐 𝑘 𝑚 − 𝑐 𝑘 𝑚ℎ
𝑛−𝑘
= 𝑐 𝑘 1 − ℎ
𝑛−𝑘
⋅ 𝑚
столбцов, то есть
𝑐 𝑘+1 ≤ 𝑐 𝑘 1 − ℎ
𝑛−𝑘 ≤ 𝑐 𝑘 1 − ℎ
𝑛
Доказательство теоремы
о мощности жадного покрытия
Пусть после 𝑘 шагов алгоритма остаются непокрытыми 𝑐 𝑘 𝑚
столбцов.
Имеем 𝑐 𝑘+1 ≤ 𝑐 𝑘 1 − ℎ
𝑛
и 𝑐0 = 1.
Отсюда 𝑐 𝑘 ≤ 1 − ℎ
𝑛
𝑘
.
Пусть ж.а. выполнил 𝑘′
≔ 𝑛
ℎ
ln 𝑚ℎ
𝑛
шагов.
Имеем
𝑐 𝑘′ ≤ 1 − ℎ
𝑛
𝑛
ℎ
ln
𝑚ℎ
𝑛 = 𝑒
𝑛
ℎ⋅ln
𝑚ℎ
𝑛 ⋅ln 1−
ℎ
𝑛
Доказательство теоремы
о мощности жадного покрытия
После 𝑘′ ≔ 𝑛
ℎ
ln 𝑚ℎ
𝑛
шагов,
с учётом неравенства ln 1 − 𝑥 < −𝑥, имеем
𝑐 𝑘′ ≤ 𝑒
𝑛
ℎ⋅ln
𝑚ℎ
𝑛 ⋅ln 1−
ℎ
𝑛 < 𝑒− ln
𝑚ℎ
𝑛 = 𝑛
𝑚ℎ
После 𝑘′-го шага остаются непокрытыми
𝑐 𝑘′ ⋅ 𝑚 < 𝑛
ℎ
столбцов. Даже если на покрытие каждого из них потребуется по
одному шагу, общее число шагов алгоритма будет
≤ 𝑘′
+ 𝑛
ℎ ≤ 1 + 𝑛
ℎ + 𝑛
ℎ ln 𝑚ℎ
𝑛
Труднопокрываемые матрицы
Теорема о мощности «жадного» покрытия.
Пусть в каждом столбце матрицы 𝑀 ∈ 0,1 𝑛×𝑚
не менее ℎ
единиц, и при этом 𝑚ℎ > 𝑛. Тогда у 𝑀 мощность «жадного»
покрытия ≤ 1 + 𝑛
ℎ
+ 𝑛
ℎ
ln 𝑚ℎ
𝑛
.
Теорема о существовании «труднопокрываемых» матриц
(явная конструкция).
Пусть 𝑚, 𝑛, ℎ ∈ ℕ таковы, что 2 ≤ ln 𝑚ℎ
𝑛
≤ ℎ ≤ 𝑛
8
.
Тогда найдётся матрица 𝑀 ∈ 0,1 𝑛×𝑚, каждый столбец которой
содержит ≥ ℎ единиц, и мощность минимального покрытия
которой ≥ 1
16
⋅ 𝑛
ℎ
ln 𝑚ℎ
𝑛
.
Построение труднопокрываемой матрицы
Рассмотрим матрицу 𝑀′
∈ 0,1 2𝑎× 2𝑎
𝑎 , состоящую из всех
столбцов высоты 2𝑎, в каждом из которых ровно 𝑎 единиц.
Имеем 𝜏 𝑀′ = 𝑎 + 1.
Положим
𝑀′′
≔
𝑀′
⋮
𝑀′
∈ 0,1 2𝑎𝑏× 2𝑎
𝑎
Получаем 𝜏 𝑀′′ = 𝜏 𝑀′ = 𝑎 + 1 , в каждом столбце 𝑀′′
ровно 𝑎𝑏 единиц.
Построение труднопокрываемой матрицы
Для матрицы 𝑀′′
∈ 0,1 2𝑎𝑏× 2𝑎
𝑎 имеем
𝜏 𝑀′′
= 𝑎 + 1
Рассмотрим матрицу
𝑀′′′
≔
𝑀′′ 0 … 0
0 𝑀′′ … 0
⋮ ⋱
0 … 0 𝑀′′
∈ 0,1 2𝑎𝑏𝑐× 2𝑎
𝑎 𝑐
Имеем 𝜏 𝑀′′′ = 𝑐 ⋅ 𝜏 𝑀′′ = 𝑎 + 1 𝑐,
и в каждом столбце 𝑀′′′ ровно 𝑎𝑏 единиц.
Построение труднопокрываемой матрицы
Итак, для любых 𝑎, 𝑏, 𝑐 ∈ ℕ существует матрица 𝑀′′′ ∈ 0,1 2𝑎𝑏𝑐× 2𝑎
𝑎 𝑐
,
в каждом столбце которой 𝑎𝑏 единиц, и для которой 𝜏 𝑀′′′ = 𝑎 + 1 𝑐.
По условию, 2 ≤ ln 𝑚ℎ
𝑛
≤ ℎ ≤ 𝑛
8
.
Пусть 𝑎 ≔ 1
2
ln 𝑚ℎ
𝑛
, 𝑏 ≔ 2ℎ
𝑎
и 𝑐 ≔ 𝑛
2𝑎𝑏
. Тогда в 𝑀′′′
• #строк = 2𝑎𝑏 ⋅ 𝑛
2𝑎𝑏
≤ 𝑛
• #столбцов < 4 𝑎
⋅ 𝑐 ≤ 2ln
𝑚ℎ
𝑛 ⋅ 𝑛
2𝑎⋅ 2ℎ 𝑎
< 𝑚ℎ
𝑛
⋅ 𝑛
2𝑎⋅ℎ 𝑎
< 𝑚
• #"1" в столбце = 𝑎 ⋅ 2ℎ
𝑎
≥ 𝑎 ⋅ ℎ
𝑎
≥ ℎ
• 𝜏 𝑀′′′ ≥ 1
2
ln 𝑚ℎ
𝑛
⋅ 𝑛
2𝑎𝑏
≥ 1
2
ln 𝑚ℎ
𝑛
⋅ 𝑛
4ℎ
≥ 1
16
⋅ 𝑛
ℎ
ln 𝑚ℎ
𝑛
Построение труднопокрываемой матрицы
Итак, при 2 ≤ ln 𝑚ℎ
𝑛
≤ ℎ ≤ 𝑛
8
найдётся матрица 𝑀′′′, такая, что
• #строк ≤ 𝑛, #столбцов ≤ 𝑚
• #"1" в столбце ≥ ℎ
• 𝜏 𝑀′′′ ≥ 1
16
⋅ 𝑛
ℎ
ln 𝑚ℎ
𝑛
Дополним 𝑀′′′
нулевыми строками, а затем единичными
столбцами, до матрицы размера 𝑛 × 𝑚.
В каждом столбце полученной матрицы 𝑀 не менее ℎ единиц,
и 𝜏 𝑀 = 𝜏 𝑀′′′ ≥ 1
16
⋅ 𝑛
ℎ
ln 𝑚ℎ
𝑛
, что и требовалось.
Соотношение мощностей
жадного и оптимального покрытий
Теорема (без д-ва).
Пусть 𝑀 — произвольная матрица, в каждой строке которой не
более 𝑘 единиц. Тогда покрытие, построенное ж.а., имеет размер
не более 1 + ln 𝑘 ⋅ 𝜏 𝑀 .
Теорема (без д-ва).
Для любого 𝑘 ≥ 2 существует матрица 𝑀, в каждой строке которой
не более 𝑘 единиц, а покрытие, построенное для 𝑀 с помощью
ж.а., имеет размер не менее log2 𝑘 −1
2
⋅ 𝜏 𝑀 .
Перманент
Перманент матрицы 𝐴 = 𝑎𝑖,𝑗 ∈ ℝ 𝑛×𝑛 — это функционал,
определяемый так:
per 𝐴 ≔
𝜋 — перестановка
𝑎1,𝜋 1 ⋅ 𝑎2,𝜋 2 ⋅ … ⋅ 𝑎 𝑛,𝜋 𝑛
Отличие от det 𝐴 только в отсутствии знака перед слагаемыми.
Значение per 𝐴 не меняется при перестановке строк и/или
столбцов в 𝐴.
Разложение по строке/столбцу
Пусть 𝐴𝑖,𝑗 ∈ ℝ 𝑛−1 × 𝑛−1
— матрица, получаемая из 𝐴 удалением
элементов 𝑖-й строки и 𝑗-го столбца.
Тогда для любых 𝑠, 𝑡 ∈ 1, … , 𝑛 выполнено
per 𝐴 =
𝑖=1
𝑛
𝑎𝑖,𝑡 ⋅ per 𝐴𝑖,𝑡
per 𝐴 =
𝑗=1
𝑛
𝑎 𝑠,𝑗 ⋅ per 𝐴 𝑠,𝑗

Más contenido relacionado

La actualidad más candente

Теорема Алона о нулях и её применения
Теорема Алона о нулях и её примененияТеорема Алона о нулях и её применения
Теорема Алона о нулях и её применения
Alex Dainiak
 

La actualidad más candente (20)

Matanal 31oct
Matanal 31octMatanal 31oct
Matanal 31oct
 
Основы теории графов 06: триангуляции и трёхсвязные планарные графы
Основы теории графов 06: триангуляции и трёхсвязные планарные графыОсновы теории графов 06: триангуляции и трёхсвязные планарные графы
Основы теории графов 06: триангуляции и трёхсвязные планарные графы
 
Основы теории графов 05: критерии планарности графов
Основы теории графов 05: критерии планарности графовОсновы теории графов 05: критерии планарности графов
Основы теории графов 05: критерии планарности графов
 
Основы теории графов 08: раскраски и списочные раскраски
Основы теории графов 08: раскраски и списочные раскраскиОсновы теории графов 08: раскраски и списочные раскраски
Основы теории графов 08: раскраски и списочные раскраски
 
Основы комбинаторики - II
Основы комбинаторики - IIОсновы комбинаторики - II
Основы комбинаторики - II
 
Линейная алгебра - II
Линейная алгебра - IIЛинейная алгебра - II
Линейная алгебра - II
 
минимизация булевых функций
минимизация булевых функцийминимизация булевых функций
минимизация булевых функций
 
Коды Адамара. Каскадные коды Форни.
Коды Адамара. Каскадные коды Форни.Коды Адамара. Каскадные коды Форни.
Коды Адамара. Каскадные коды Форни.
 
Основы комбинаторики - I
Основы комбинаторики - IОсновы комбинаторики - I
Основы комбинаторики - I
 
Приложения теории кодирования
Приложения теории кодированияПриложения теории кодирования
Приложения теории кодирования
 
Математическая индукция
Математическая индукцияМатематическая индукция
Математическая индукция
 
Основы комбинаторики II. Разбор задач
Основы комбинаторики II. Разбор задачОсновы комбинаторики II. Разбор задач
Основы комбинаторики II. Разбор задач
 
теория множеств
теория множествтеория множеств
теория множеств
 
Теорема Алона о нулях и её применения
Теорема Алона о нулях и её примененияТеорема Алона о нулях и её применения
Теорема Алона о нулях и её применения
 
Квадратичная математика
Квадратичная математикаКвадратичная математика
Квадратичная математика
 
Zadachi na jekstremum
Zadachi na jekstremumZadachi na jekstremum
Zadachi na jekstremum
 
Границы Плоткина и Элайеса—Бассалыго
Границы Плоткина и Элайеса—БассалыгоГраницы Плоткина и Элайеса—Бассалыго
Границы Плоткина и Элайеса—Бассалыго
 
Линейная алгебра - I
Линейная алгебра - IЛинейная алгебра - I
Линейная алгебра - I
 
10474
1047410474
10474
 
Скорость роста функций
Скорость роста функцийСкорость роста функций
Скорость роста функций
 

Destacado

Свойства биномиальных коэффициентов, формула включений-исключений, неравенств...
Свойства биномиальных коэффициентов, формула включений-исключений, неравенств...Свойства биномиальных коэффициентов, формула включений-исключений, неравенств...
Свойства биномиальных коэффициентов, формула включений-исключений, неравенств...
Alex Dainiak
 
Основные определения теории графов. Деревья.
Основные определения теории графов. Деревья.Основные определения теории графов. Деревья.
Основные определения теории графов. Деревья.
Alex Dainiak
 
Эйлеровы и гамильтоновы циклы. Теорема Турана.
Эйлеровы и гамильтоновы циклы. Теорема Турана.Эйлеровы и гамильтоновы циклы. Теорема Турана.
Эйлеровы и гамильтоновы циклы. Теорема Турана.
Alex Dainiak
 
Группы. Теоремы Кэли, Лагранжа, Силова.
Группы. Теоремы Кэли, Лагранжа, Силова.Группы. Теоремы Кэли, Лагранжа, Силова.
Группы. Теоремы Кэли, Лагранжа, Силова.
Alex Dainiak
 
Обращение Мёбиуса. Разбиения чисел на слагаемые.
Обращение Мёбиуса. Разбиения чисел на слагаемые.Обращение Мёбиуса. Разбиения чисел на слагаемые.
Обращение Мёбиуса. Разбиения чисел на слагаемые.
Alex Dainiak
 
Асимптотики комбинаторных чисел
Асимптотики комбинаторных чиселАсимптотики комбинаторных чисел
Асимптотики комбинаторных чисел
Alex Dainiak
 
Раскраски и укладки графов
Раскраски и укладки графовРаскраски и укладки графов
Раскраски и укладки графов
Alex Dainiak
 
Теорема о 5 красках. Теорема Холла.
Теорема о 5 красках. Теорема Холла.Теорема о 5 красках. Теорема Холла.
Теорема о 5 красках. Теорема Холла.
Alex Dainiak
 
Автоморфизмы графов. Перечисление графов.
Автоморфизмы графов. Перечисление графов.Автоморфизмы графов. Перечисление графов.
Автоморфизмы графов. Перечисление графов.
Alex Dainiak
 

Destacado (9)

Свойства биномиальных коэффициентов, формула включений-исключений, неравенств...
Свойства биномиальных коэффициентов, формула включений-исключений, неравенств...Свойства биномиальных коэффициентов, формула включений-исключений, неравенств...
Свойства биномиальных коэффициентов, формула включений-исключений, неравенств...
 
Основные определения теории графов. Деревья.
Основные определения теории графов. Деревья.Основные определения теории графов. Деревья.
Основные определения теории графов. Деревья.
 
Эйлеровы и гамильтоновы циклы. Теорема Турана.
Эйлеровы и гамильтоновы циклы. Теорема Турана.Эйлеровы и гамильтоновы циклы. Теорема Турана.
Эйлеровы и гамильтоновы циклы. Теорема Турана.
 
Группы. Теоремы Кэли, Лагранжа, Силова.
Группы. Теоремы Кэли, Лагранжа, Силова.Группы. Теоремы Кэли, Лагранжа, Силова.
Группы. Теоремы Кэли, Лагранжа, Силова.
 
Обращение Мёбиуса. Разбиения чисел на слагаемые.
Обращение Мёбиуса. Разбиения чисел на слагаемые.Обращение Мёбиуса. Разбиения чисел на слагаемые.
Обращение Мёбиуса. Разбиения чисел на слагаемые.
 
Асимптотики комбинаторных чисел
Асимптотики комбинаторных чиселАсимптотики комбинаторных чисел
Асимптотики комбинаторных чисел
 
Раскраски и укладки графов
Раскраски и укладки графовРаскраски и укладки графов
Раскраски и укладки графов
 
Теорема о 5 красках. Теорема Холла.
Теорема о 5 красках. Теорема Холла.Теорема о 5 красках. Теорема Холла.
Теорема о 5 красках. Теорема Холла.
 
Автоморфизмы графов. Перечисление графов.
Автоморфизмы графов. Перечисление графов.Автоморфизмы графов. Перечисление графов.
Автоморфизмы графов. Перечисление графов.
 

Similar a Гиперграфы. Покрытия. Жадный алгоритм.

Теорема Рамсея, оценки чисел Рамсея
Теорема Рамсея, оценки чисел РамсеяТеорема Рамсея, оценки чисел Рамсея
Теорема Рамсея, оценки чисел Рамсея
Alex Dainiak
 
Обращение Мёбиуса на ч.у.м.
Обращение Мёбиуса на ч.у.м.Обращение Мёбиуса на ч.у.м.
Обращение Мёбиуса на ч.у.м.
Alex Dainiak
 
Производящие функции
Производящие функцииПроизводящие функции
Производящие функции
Alex Dainiak
 
Алгоритмы и структуры данных осень 2013 лекция 7
Алгоритмы и структуры данных осень 2013 лекция 7Алгоритмы и структуры данных осень 2013 лекция 7
Алгоритмы и структуры данных осень 2013 лекция 7
Technopark
 
Лекция №16. Поиск подстрок. Предмет "Структуры и алгоритмы обработки данных"
Лекция №16. Поиск подстрок. Предмет "Структуры и алгоритмы обработки данных"Лекция №16. Поиск подстрок. Предмет "Структуры и алгоритмы обработки данных"
Лекция №16. Поиск подстрок. Предмет "Структуры и алгоритмы обработки данных"
Nikolay Grebenshikov
 
Алгоритмы и структуры данных осень 2013 лекция 1
Алгоритмы и структуры данных осень 2013 лекция 1Алгоритмы и структуры данных осень 2013 лекция 1
Алгоритмы и структуры данных осень 2013 лекция 1
Technopark
 
элементы языка и типы данных
элементы языка и типы данныхэлементы языка и типы данных
элементы языка и типы данных
Елена Ключева
 

Similar a Гиперграфы. Покрытия. Жадный алгоритм. (20)

Графовая модель канала связи. Шенноновская ёмкость
Графовая модель канала связи. Шенноновская ёмкостьГрафовая модель канала связи. Шенноновская ёмкость
Графовая модель канала связи. Шенноновская ёмкость
 
Задача о ближайшем кодовом слове. Коды Галлагера—Сипсера—Шпильмана
Задача о ближайшем кодовом слове. Коды Галлагера—Сипсера—ШпильманаЗадача о ближайшем кодовом слове. Коды Галлагера—Сипсера—Шпильмана
Задача о ближайшем кодовом слове. Коды Галлагера—Сипсера—Шпильмана
 
Линейные коды
Линейные кодыЛинейные коды
Линейные коды
 
Теорема Рамсея, оценки чисел Рамсея
Теорема Рамсея, оценки чисел РамсеяТеорема Рамсея, оценки чисел Рамсея
Теорема Рамсея, оценки чисел Рамсея
 
Обращение Мёбиуса на ч.у.м.
Обращение Мёбиуса на ч.у.м.Обращение Мёбиуса на ч.у.м.
Обращение Мёбиуса на ч.у.м.
 
Циклические коды. Граница БЧХ
Циклические коды. Граница БЧХЦиклические коды. Граница БЧХ
Циклические коды. Граница БЧХ
 
Семплирование на основе марковских цепей
Семплирование на основе марковских цепейСемплирование на основе марковских цепей
Семплирование на основе марковских цепей
 
Коды, исправляющие ошибки. Простейшие границы. Коды Варшамова—Тененгольца.
Коды, исправляющие ошибки. Простейшие границы. Коды Варшамова—Тененгольца.Коды, исправляющие ошибки. Простейшие границы. Коды Варшамова—Тененгольца.
Коды, исправляющие ошибки. Простейшие границы. Коды Варшамова—Тененгольца.
 
Производящие функции
Производящие функцииПроизводящие функции
Производящие функции
 
Алгоритмы и структуры данных осень 2013 лекция 7
Алгоритмы и структуры данных осень 2013 лекция 7Алгоритмы и структуры данных осень 2013 лекция 7
Алгоритмы и структуры данных осень 2013 лекция 7
 
алгоритм
алгоритмалгоритм
алгоритм
 
Циклические коды БЧХ, Хемминга. Восстановление синхронизации
Циклические коды БЧХ, Хемминга. Восстановление синхронизацииЦиклические коды БЧХ, Хемминга. Восстановление синхронизации
Циклические коды БЧХ, Хемминга. Восстановление синхронизации
 
Лекция 11 Приближенные алгоритмы
Лекция 11 Приближенные алгоритмыЛекция 11 Приближенные алгоритмы
Лекция 11 Приближенные алгоритмы
 
!Predictive analytics part_2
!Predictive analytics part_2!Predictive analytics part_2
!Predictive analytics part_2
 
Use of eliptic curves for generating digital signature
Use of eliptic curves for generating digital signatureUse of eliptic curves for generating digital signature
Use of eliptic curves for generating digital signature
 
Opredelennyj integral
Opredelennyj integralOpredelennyj integral
Opredelennyj integral
 
Лекция №16. Поиск подстрок. Предмет "Структуры и алгоритмы обработки данных"
Лекция №16. Поиск подстрок. Предмет "Структуры и алгоритмы обработки данных"Лекция №16. Поиск подстрок. Предмет "Структуры и алгоритмы обработки данных"
Лекция №16. Поиск подстрок. Предмет "Структуры и алгоритмы обработки данных"
 
ТФРВС - весна 2014 - лекция 4
ТФРВС - весна 2014 - лекция 4ТФРВС - весна 2014 - лекция 4
ТФРВС - весна 2014 - лекция 4
 
Алгоритмы и структуры данных осень 2013 лекция 1
Алгоритмы и структуры данных осень 2013 лекция 1Алгоритмы и структуры данных осень 2013 лекция 1
Алгоритмы и структуры данных осень 2013 лекция 1
 
элементы языка и типы данных
элементы языка и типы данныхэлементы языка и типы данных
элементы языка и типы данных
 

Más de Alex Dainiak

Визуализация графов: left-right алгоритм распознавания планарности
Визуализация графов: left-right алгоритм распознавания планарностиВизуализация графов: left-right алгоритм распознавания планарности
Визуализация графов: left-right алгоритм распознавания планарности
Alex Dainiak
 
Визуализация графов: укладки деревьев
Визуализация графов: укладки деревьевВизуализация графов: укладки деревьев
Визуализация графов: укладки деревьев
Alex Dainiak
 
Визуализация графов: теорема Татта о барицентрической укладке
Визуализация графов: теорема Татта о барицентрической укладкеВизуализация графов: теорема Татта о барицентрической укладке
Визуализация графов: теорема Татта о барицентрической укладке
Alex Dainiak
 
Визуализация графов: история
Визуализация графов: историяВизуализация графов: история
Визуализация графов: история
Alex Dainiak
 
Визуализация графов: нижние оценки и NP-трудность
Визуализация графов: нижние оценки и NP-трудностьВизуализация графов: нижние оценки и NP-трудность
Визуализация графов: нижние оценки и NP-трудность
Alex Dainiak
 
Размерность Вапника—Червоненкиса
Размерность Вапника—ЧервоненкисаРазмерность Вапника—Червоненкиса
Размерность Вапника—Червоненкиса
Alex Dainiak
 

Más de Alex Dainiak (9)

Конспект лекций по теории кодирования
Конспект лекций по теории кодированияКонспект лекций по теории кодирования
Конспект лекций по теории кодирования
 
Коды на основе многочленов и алгоритмы их декодирования
Коды на основе многочленов и алгоритмы их декодированияКоды на основе многочленов и алгоритмы их декодирования
Коды на основе многочленов и алгоритмы их декодирования
 
Алфавитное кодирование. Коды с минимальной избыточностью. Теорема Макмиллана.
Алфавитное кодирование. Коды с минимальной избыточностью. Теорема Макмиллана.Алфавитное кодирование. Коды с минимальной избыточностью. Теорема Макмиллана.
Алфавитное кодирование. Коды с минимальной избыточностью. Теорема Макмиллана.
 
Визуализация графов: left-right алгоритм распознавания планарности
Визуализация графов: left-right алгоритм распознавания планарностиВизуализация графов: left-right алгоритм распознавания планарности
Визуализация графов: left-right алгоритм распознавания планарности
 
Визуализация графов: укладки деревьев
Визуализация графов: укладки деревьевВизуализация графов: укладки деревьев
Визуализация графов: укладки деревьев
 
Визуализация графов: теорема Татта о барицентрической укладке
Визуализация графов: теорема Татта о барицентрической укладкеВизуализация графов: теорема Татта о барицентрической укладке
Визуализация графов: теорема Татта о барицентрической укладке
 
Визуализация графов: история
Визуализация графов: историяВизуализация графов: история
Визуализация графов: история
 
Визуализация графов: нижние оценки и NP-трудность
Визуализация графов: нижние оценки и NP-трудностьВизуализация графов: нижние оценки и NP-трудность
Визуализация графов: нижние оценки и NP-трудность
 
Размерность Вапника—Червоненкиса
Размерность Вапника—ЧервоненкисаРазмерность Вапника—Червоненкиса
Размерность Вапника—Червоненкиса
 

Гиперграфы. Покрытия. Жадный алгоритм.

  • 1. Дискретные структуры МФТИ, осень 2013 Александр Дайняк www.dainiak.com
  • 2. Гиперграфы Гипеграф — это пара 𝑉, 𝐸 , где • 𝑉 — конечное множество вершин, • 𝐸 — набор непустых подмножеств 𝑉 — (гипер-)рёбра. Т.е. гиперграф в общем случае — это просто набор/семейство/совокупность непустых подмножеств конечного множества.
  • 3. Гиперграфы Гиперграф ℎ-однородный, если ∀𝑒 ∈ 𝐸 𝑒 = ℎ. Так что граф — это 2-однородный гиперграф. Пример 3-однородного гиперграфа:
  • 4. Аналоги теоретико-графовых понятий Полный гиперграф — тот, в котором есть все возможные (в данном контексте) рёбра. Например, полный ℎ-однородный гиперграф — тот, в котором 𝐸 = 𝑉′ ⊆ 𝑉 ∣ 𝑉′ = ℎ Независимое множество — это такое 𝐴 ⊆ 𝑉, что ∄𝑒 ∈ 𝐸: 𝑒 ⊆ 𝐴. Правильная вершинная раскраска — такая, при которой совокупности вершин одного цвета образуют независимые множества.
  • 5. Аналоги теоретико-графовых понятий Цепь в гиперграфе 𝑉, 𝐸 — это последовательность вершин и рёбер 𝑣1 𝑒1 𝑣2 𝑒2 … 𝑒𝑠 𝑣 𝑠+1 такая, что • ∀𝑖 𝑣𝑖, 𝑣𝑖+1 ∈ 𝑒𝑖 , • все 𝑣𝑖 различны, • все 𝑒𝑖 различны (не как множества, а как элементы 𝐸). Цикл определяется аналогично, с той разницей, что 𝑣1 и 𝑣 𝑠+1 совпадают.
  • 6. Аналоги теоретико-графовых понятий Подгиперграф гиперграфа 𝑉, 𝐸 , порождённый множеством вершин 𝑉′ — это пара 𝑉′, 𝐸′ , где 𝐸′ ≔ 𝑒 ∩ 𝑉′ ∣ 𝑒 ∈ 𝐸 и 𝑒 ∩ 𝑉′ ≠ ∅ 1 2 3 4 5 1 2 4 3 4
  • 7. Аналоги теоретико-графовых понятий Область связности гиперграфа 𝑉, 𝐸 — это такое множество 𝑉′ ⊆ 𝑉, что • ∀𝑢, 𝑣 ∈ 𝑉′ найдётся цепь из 𝑢 в 𝑣, • к 𝑉′ нельзя добавить ни одной вершины, так, чтобы предыдущее свойство сохранилось. Компонента связности — это подгиперграф, порождённый областью связности.
  • 8. Матрица инцидентности Матрица инцидентности гиперграфа 𝑉, 𝐸 — это матрица 𝑎 𝑣,𝑒 𝑣∈𝑉,𝑒∈𝐸 ∈ 0,1 𝑉 × 𝐸 , где 𝑎 𝑣,𝑒 ≔ 1, если 𝑣 и 𝑒 инцидентны 0, иначе Пример: 1 0 1 0 0 1 1 0 1 1 0 1 1 1 0 1 0 0 1 1 1 2 3 4 5
  • 9. Покрытия Если вершина 𝑣 гиперграфа входит в ребро 𝑒, то говорим, что 𝑣 покрывает 𝑒 или протыкает 𝑒. Вершинное покрытие гиперграфа — это такое множество вершин 𝐴 ⊆ 𝑉, что ∀𝑒 ∈ 𝐸 𝑒 ∩ 𝐴 ≠ ∅ Вершинное покрытие называется ещё • протыкающим множеством, • трансверсалью, • системой общих представителей (с.о.п.) для семейства множеств 𝐸.
  • 10. Покрытия в терминах матриц На языке матриц инцидентности, строка покрывает/протыкает столбец, если у них на пересечении стоит 1. Покрытие матрицы — это такое подмножество строк, что каждый столбец покрывается одной из этих строк. Пример: 1 0 1 0 0 1 1 0 1 1 0 1 1 1 0 1 0 0 1 1 1 2 3 4 5
  • 11. Покрытия в терминах матриц Число трансверсальности гиперграфа — это минимальный размер покрытия. Формально, если 𝐻 = 𝑉, 𝐸 , то 𝜏 𝐻 ≔ min 𝐴 ∣ ∀𝑒 ∈ 𝐸 𝐴 ∩ 𝑒 ≠ ∅ Будем также писать 𝜏 𝐸 . Аналогично, для любой булевой матрицы 𝑀 без нулевых столбцов через 𝜏 𝑀 будем обозначать мощность минимального покрытия (называемую также глубиной матрицы).
  • 12. Системы общих представителей Пример прикладной задачи. Есть набор экспертов 𝑉 ≔ 𝑣1, … , 𝑣 𝑛 . Каждый эксперт, может быть, разбирается не только в одной области. Пусть 𝑒1, … , 𝑒 𝑚 ⊆ 𝑉 — множества экспертов, разбирающихся в 1-й, …, 𝑚-й области знания. Как набрать команду экспертов для решения задачи, требующей владения всеми указанными областями знания?
  • 13. Жадный алгоритм построения с.о.п. Для гиперграфа 𝐻 ≔ 𝑉, 𝐸 рассмотрим алгоритм: 1. 𝑆 ≔ ∅ 2. 𝐸notCovered ≔ 𝑒 ∈ 𝐸 ∣ 𝑒 ∩ 𝑆 = ∅ 3. if 𝐸notCovered > 0: 4. 𝑣∗ ≔ argmax 𝑣∈𝑉 # 𝑒 ∈ 𝐸notCovered ∣ 𝑒 ∋ 𝑣 5. 𝑆 ≔ 𝑆 ∪ 𝑣∗ 6. goto 2. 7. 𝑆 — искомая с.о.п. То есть на каждом шаге добавляем в 𝑆 любую из вершин, покрывающих наибольшее число из ещё не покрытых рёбер.
  • 14. Жадный алгоритм построения покрытия матрицы Для матрицы 𝑀 рассмотрим алгоритм: 1. 𝑆 ≔ ∅ 2. 𝐶 ≔ столбцы, непокрытые строками из 𝑆 3. if 𝐶 > 0: 4. 𝑟∗ ≔ argmax 𝑟 — строка 𝑀 # столбцы из 𝐶, покрываемые 𝑟 5. 𝑆 ≔ 𝑆 ∪ 𝑟∗ 6. goto 2. 7. 𝑆 — искомое покрытие матрицы То есть на каждом шаге добавляем в 𝑆 любую из строк, покрывающих наибольшее число из ещё не покрытых столбцов.
  • 15. Теорема о мощности жадного покрытия Теорема. Пусть в каждом столбце матрицы 𝑀 ∈ 0,1 𝑛×𝑚 не менее ℎ единиц, и при этом 𝑚ℎ > 𝑛. Тогда мощность покрытия, построенного ж.а., ≤ 1 + 𝑛 ℎ + 𝑛 ℎ ln 𝑚ℎ 𝑛 Следствие. Для таких матриц 𝜏 𝑀 ≤ 1 + 𝑛 ℎ + 𝑛 ℎ ln 𝑚ℎ 𝑛 .
  • 16. Доказательство теоремы о мощности жадного покрытия Пусть уже сделано 𝑘 шагов алгоритма, в результате чего 𝑆 = 𝑘 и остаются непокрытыми 𝑐 𝑘 𝑚 столбцов, где 0 < 𝑐 𝑘 ≤ 1. Рассмотрим матрицу 𝑀 𝑘, образованную строками из 𝑆 и непокрытыми столбцами. Имеем 𝑀 𝑘 ∈ 0,1 𝑛−𝑘 × 𝑐 𝑘 𝑚 . В каждом столбце 𝑀 𝑘 не менее ℎ единиц, а значит, всего в 𝑀 𝑘 не менее 𝑐 𝑘 𝑚ℎ единиц. Значит, в 𝑀 𝑘 есть строка, в которой ≥ 𝑐 𝑘 𝑚ℎ 𝑛−𝑘 единиц.
  • 17. Доказательство теоремы о мощности жадного покрытия Пусть уже сделано 𝑘 шагов алгоритма, в результате чего 𝑆 = 𝑘 и остаются непокрытыми 𝑐 𝑘 𝑚 столбцов, где 0 < 𝑐 𝑘 ≤ 1. Есть строка, в которой ≥ 𝑐 𝑘 𝑚ℎ 𝑛−𝑘 единиц. Следовательно, ж.а. выберет строку, покрывающую не менее 𝑐 𝑘 𝑚ℎ 𝑛−𝑘 новых столбцов. После 𝑘 + 1 -го шага непокрытыми останутся ≤ 𝑐 𝑘 𝑚 − 𝑐 𝑘 𝑚ℎ 𝑛−𝑘 = 𝑐 𝑘 1 − ℎ 𝑛−𝑘 ⋅ 𝑚 столбцов, то есть 𝑐 𝑘+1 ≤ 𝑐 𝑘 1 − ℎ 𝑛−𝑘 ≤ 𝑐 𝑘 1 − ℎ 𝑛
  • 18. Доказательство теоремы о мощности жадного покрытия Пусть после 𝑘 шагов алгоритма остаются непокрытыми 𝑐 𝑘 𝑚 столбцов. Имеем 𝑐 𝑘+1 ≤ 𝑐 𝑘 1 − ℎ 𝑛 и 𝑐0 = 1. Отсюда 𝑐 𝑘 ≤ 1 − ℎ 𝑛 𝑘 . Пусть ж.а. выполнил 𝑘′ ≔ 𝑛 ℎ ln 𝑚ℎ 𝑛 шагов. Имеем 𝑐 𝑘′ ≤ 1 − ℎ 𝑛 𝑛 ℎ ln 𝑚ℎ 𝑛 = 𝑒 𝑛 ℎ⋅ln 𝑚ℎ 𝑛 ⋅ln 1− ℎ 𝑛
  • 19. Доказательство теоремы о мощности жадного покрытия После 𝑘′ ≔ 𝑛 ℎ ln 𝑚ℎ 𝑛 шагов, с учётом неравенства ln 1 − 𝑥 < −𝑥, имеем 𝑐 𝑘′ ≤ 𝑒 𝑛 ℎ⋅ln 𝑚ℎ 𝑛 ⋅ln 1− ℎ 𝑛 < 𝑒− ln 𝑚ℎ 𝑛 = 𝑛 𝑚ℎ После 𝑘′-го шага остаются непокрытыми 𝑐 𝑘′ ⋅ 𝑚 < 𝑛 ℎ столбцов. Даже если на покрытие каждого из них потребуется по одному шагу, общее число шагов алгоритма будет ≤ 𝑘′ + 𝑛 ℎ ≤ 1 + 𝑛 ℎ + 𝑛 ℎ ln 𝑚ℎ 𝑛
  • 20. Труднопокрываемые матрицы Теорема о мощности «жадного» покрытия. Пусть в каждом столбце матрицы 𝑀 ∈ 0,1 𝑛×𝑚 не менее ℎ единиц, и при этом 𝑚ℎ > 𝑛. Тогда у 𝑀 мощность «жадного» покрытия ≤ 1 + 𝑛 ℎ + 𝑛 ℎ ln 𝑚ℎ 𝑛 . Теорема о существовании «труднопокрываемых» матриц (явная конструкция). Пусть 𝑚, 𝑛, ℎ ∈ ℕ таковы, что 2 ≤ ln 𝑚ℎ 𝑛 ≤ ℎ ≤ 𝑛 8 . Тогда найдётся матрица 𝑀 ∈ 0,1 𝑛×𝑚, каждый столбец которой содержит ≥ ℎ единиц, и мощность минимального покрытия которой ≥ 1 16 ⋅ 𝑛 ℎ ln 𝑚ℎ 𝑛 .
  • 21. Построение труднопокрываемой матрицы Рассмотрим матрицу 𝑀′ ∈ 0,1 2𝑎× 2𝑎 𝑎 , состоящую из всех столбцов высоты 2𝑎, в каждом из которых ровно 𝑎 единиц. Имеем 𝜏 𝑀′ = 𝑎 + 1. Положим 𝑀′′ ≔ 𝑀′ ⋮ 𝑀′ ∈ 0,1 2𝑎𝑏× 2𝑎 𝑎 Получаем 𝜏 𝑀′′ = 𝜏 𝑀′ = 𝑎 + 1 , в каждом столбце 𝑀′′ ровно 𝑎𝑏 единиц.
  • 22. Построение труднопокрываемой матрицы Для матрицы 𝑀′′ ∈ 0,1 2𝑎𝑏× 2𝑎 𝑎 имеем 𝜏 𝑀′′ = 𝑎 + 1 Рассмотрим матрицу 𝑀′′′ ≔ 𝑀′′ 0 … 0 0 𝑀′′ … 0 ⋮ ⋱ 0 … 0 𝑀′′ ∈ 0,1 2𝑎𝑏𝑐× 2𝑎 𝑎 𝑐 Имеем 𝜏 𝑀′′′ = 𝑐 ⋅ 𝜏 𝑀′′ = 𝑎 + 1 𝑐, и в каждом столбце 𝑀′′′ ровно 𝑎𝑏 единиц.
  • 23. Построение труднопокрываемой матрицы Итак, для любых 𝑎, 𝑏, 𝑐 ∈ ℕ существует матрица 𝑀′′′ ∈ 0,1 2𝑎𝑏𝑐× 2𝑎 𝑎 𝑐 , в каждом столбце которой 𝑎𝑏 единиц, и для которой 𝜏 𝑀′′′ = 𝑎 + 1 𝑐. По условию, 2 ≤ ln 𝑚ℎ 𝑛 ≤ ℎ ≤ 𝑛 8 . Пусть 𝑎 ≔ 1 2 ln 𝑚ℎ 𝑛 , 𝑏 ≔ 2ℎ 𝑎 и 𝑐 ≔ 𝑛 2𝑎𝑏 . Тогда в 𝑀′′′ • #строк = 2𝑎𝑏 ⋅ 𝑛 2𝑎𝑏 ≤ 𝑛 • #столбцов < 4 𝑎 ⋅ 𝑐 ≤ 2ln 𝑚ℎ 𝑛 ⋅ 𝑛 2𝑎⋅ 2ℎ 𝑎 < 𝑚ℎ 𝑛 ⋅ 𝑛 2𝑎⋅ℎ 𝑎 < 𝑚 • #"1" в столбце = 𝑎 ⋅ 2ℎ 𝑎 ≥ 𝑎 ⋅ ℎ 𝑎 ≥ ℎ • 𝜏 𝑀′′′ ≥ 1 2 ln 𝑚ℎ 𝑛 ⋅ 𝑛 2𝑎𝑏 ≥ 1 2 ln 𝑚ℎ 𝑛 ⋅ 𝑛 4ℎ ≥ 1 16 ⋅ 𝑛 ℎ ln 𝑚ℎ 𝑛
  • 24. Построение труднопокрываемой матрицы Итак, при 2 ≤ ln 𝑚ℎ 𝑛 ≤ ℎ ≤ 𝑛 8 найдётся матрица 𝑀′′′, такая, что • #строк ≤ 𝑛, #столбцов ≤ 𝑚 • #"1" в столбце ≥ ℎ • 𝜏 𝑀′′′ ≥ 1 16 ⋅ 𝑛 ℎ ln 𝑚ℎ 𝑛 Дополним 𝑀′′′ нулевыми строками, а затем единичными столбцами, до матрицы размера 𝑛 × 𝑚. В каждом столбце полученной матрицы 𝑀 не менее ℎ единиц, и 𝜏 𝑀 = 𝜏 𝑀′′′ ≥ 1 16 ⋅ 𝑛 ℎ ln 𝑚ℎ 𝑛 , что и требовалось.
  • 25. Соотношение мощностей жадного и оптимального покрытий Теорема (без д-ва). Пусть 𝑀 — произвольная матрица, в каждой строке которой не более 𝑘 единиц. Тогда покрытие, построенное ж.а., имеет размер не более 1 + ln 𝑘 ⋅ 𝜏 𝑀 . Теорема (без д-ва). Для любого 𝑘 ≥ 2 существует матрица 𝑀, в каждой строке которой не более 𝑘 единиц, а покрытие, построенное для 𝑀 с помощью ж.а., имеет размер не менее log2 𝑘 −1 2 ⋅ 𝜏 𝑀 .
  • 26. Перманент Перманент матрицы 𝐴 = 𝑎𝑖,𝑗 ∈ ℝ 𝑛×𝑛 — это функционал, определяемый так: per 𝐴 ≔ 𝜋 — перестановка 𝑎1,𝜋 1 ⋅ 𝑎2,𝜋 2 ⋅ … ⋅ 𝑎 𝑛,𝜋 𝑛 Отличие от det 𝐴 только в отсутствии знака перед слагаемыми. Значение per 𝐴 не меняется при перестановке строк и/или столбцов в 𝐴.
  • 27. Разложение по строке/столбцу Пусть 𝐴𝑖,𝑗 ∈ ℝ 𝑛−1 × 𝑛−1 — матрица, получаемая из 𝐴 удалением элементов 𝑖-й строки и 𝑗-го столбца. Тогда для любых 𝑠, 𝑡 ∈ 1, … , 𝑛 выполнено per 𝐴 = 𝑖=1 𝑛 𝑎𝑖,𝑡 ⋅ per 𝐴𝑖,𝑡 per 𝐴 = 𝑗=1 𝑛 𝑎 𝑠,𝑗 ⋅ per 𝐴 𝑠,𝑗