Рейтинг:2

Пример плохого базиса для решеток (наихудший случай для LLL)

флаг es

Резюме. Учитывая некоторое измерение $n$ (сказать $n=50$), можно ли явно описать решетку $L$ и основа $В$ из $L$ такой, что $$ \фрак{ \| ЛЛЛ(Б)_1 \| }{\lambda_1(L)} > 1,02^n $$ куда $LLL(B)_1$ является первым вектором LLL-редуцированного базиса $В$ (за $\дельта=1$ сказать)? Константа 1,02 указана Нгуеном Стелье в «LLL в среднем». Или, по крайней мере, как я могу создать (детерминистически) такую ​​основу $В$?


Я пытаюсь понять, как создать (детерминированно) решетку $L \подмножество \mathbb R^n$ и "плохая основа" для $L$, в любом заданном измерении, скажем $n=50$. По «плохой базе» $(b_1, ..., b_n)$, я имею в виду, что когда мы применяем к нему LLL-алгоритм (скажем, для $\дельта = 1$), то получаем основу $(v_1, ..., v_n)$ такой, что $\|Â v_1 \|$ "насколько это возможно" от $\лямбда_1(L)$. Верхняя граница $\| v_1 \| \leq (\delta - 1/4)^{-(n-1)/2} \lambda_1(L)$ обычно не резкий, у нас обычно $\| v_1 \| \leq 1.02^n \lambda_1(L)$.

Я заинтересован в явный примеры, где можно описать $b_i$легко (или явно определить унимодулярную матрицу $U$ это дало бы плохую основу $В$ на "хорошей основе" $G$, который можно использовать для вычисления $\лямбда_1(L)$). Я видел, что иногда можно использовать $B = ГНФ(G)$, но не всегда может получиться плохая основа, и поэтому она не является явной (и не очень ясной для меня...).

Watson avatar
флаг es
В Нгуен, Стеле - LLL в среднем, они говорят: «Легко доказать, что эти границы точны в худшем случае: и то, и другое достигается для некоторого редуцированного базиса некоторых конкретных решеток». В основном мой вопрос заключается в том, что я хотел бы точно знать (точно, явно), что это за конкретные решетки.
Рейтинг:3
флаг es

Наконец-то я нашел ответ! Это объясняется в диссертации Н. Гамы (стр. 36), доступной здесь. Копирую матрицу, строки которой составляют основу $В$ решетки, для которой верхняя граница $$\| ЛЛЛ(Б)_1 \| \leq (4/3)^{(n-2)/2} \lambda_1(L)$$ на самом деле жесткий (резкий) для всех $n$. (Обратите внимание на показатель $n-2$ и нет $n-1$).

основа

куда $\gamma_2 = \sqrt{4/3}$ - постоянная Эрмита в размерности 2. Обратите внимание, что треугольная матрица справа - это матрица коэффициентов Грама-Шмидта, все недиагональные элементы $1/2$ что является максимально допустимым в определении редуцированного базиса LLL.

Рейтинг:2
флаг ng

Я видел, что иногда можно использовать $B=HNF(G)$, но не всегда может получиться плохая основа, и поэтому она не является явной (и не очень ясной для меня...).

Позволять $\mu : \mathbb{R}^{n\times n}\to \mathbb{R}_{\geq 0}$ быть мерой качества основы. Например, можно было бы $\mu(B) = \lVert LLL(B)_1\rVert$ – норма первой координаты LLL-редукции $В$ (как вы предлагаете), но есть много других возможных мер качества.

Смысл использования ГНФ не в том, что он приводит к абстрактно «худшему» базису (для большинства показателей качества умножение на случайную унимодулярную матрицу с высокой операторной нормой, вероятно, приведет к очень низкокачественному базису), а что это худшее что любой противник будет правдоподобно использовать. Это происходит из-за следующего простого результата.

Позволять $\му$ быть эффективно вычислимым. Позволять $А$ быть эффективным противником, который на входе $В$, вычисляет некоторые $U$ такой, что $\mu(BU)\leq f(B)$ для некоторой ограничивающей функции $f$. Тогда существует эффективный противник $А'$ который вычисляет $U$ такой, что $\mu(BU) \leq \min(f(B), f(HNF(B))$.

Примечательно, $ХНФ(Б)$ является инвариантом решетка, а не конкретное используемое основание. Таким образом, приведенный выше результат говорит о том, что наихудший базис качества, который может найти противник, не более чем $f(HNF(B))$, поэтому предоставление противнику базы, отличной от HNF, может привести только к тому, что он вычислит лучше качественную основу, чем они могли бы иметь с основой HNF.

Противник $А'$ легко описать. Он просто работает $А$ на $В$ и $ХНФ(Б)$и возвращает базис, который (из этих двух) минимизирует меру качества. Это требует, чтобы мера качества была эффективно вычисляемой, но в большинстве случаев это верно.


Редактировать: В ответ на ваше уточнение в комментариях укажу вам на частичный ответ, который "в принципе да, но у меня нет под рукой явной матрицы". Нижеследующее из главы 3 Диссертация Сынки Кима.

Теорема 3.4 Позволять $n$ быть достаточно большим, $p\in (0,100)$, и предположим $k < \frac{n}{6(\log n + K(p))}$ является положительным целым числом, где $К(р)$ является константой, зависящей только от $р$. Тогда по крайней мере $р\%$ из $n$-размерный $(1, 1/2)$-LLL базы имеют

$$\forall 1\leq i \leq n-1 : \frac{k-1}{k}\frac{1}{2}\leq |\mu_{i+1,i}|\leq \frac{ 1}{2}.$$

Здесь «большинство» требует технической осторожности, чтобы все получилось правильно (подробности см. в тезисе Кима). Ким продолжает обсуждать, что этот результат противоречит здравому смыслу в том смысле, что он подразумевает, что для «большинства баз LLL $В$", $\lVert LLL(B)_1\rVert \приблизительно (4/3)^{n/4}\приблизительно (1,0745)^n$, оценка наихудшего случая для LLL. Но это также известно, что для большинства распределений по основаниям решетки $В$, $\lVert LLL(B)_1\rVert \приблизительно 1,02^n$ --- что дает?

Претензия в том, что $LLL$ как-то пристрастный, в том смысле, что это делает нет перевести упомянутые выше распределения по основаниям решетки в равномерное распределение по основаниям LLL.

Следовательно, чтобы найти плохие базы LLL, имеет смысл (непосредственно) выбирать матрицы, которые удовлетворяют условию LLL (вместо того, чтобы пытаться использовать LLL для экспериментального вычисления баз). Я не думал, что естественный способ сделать это (по одному вектору за раз, равномерно случайным образом из подходящего набора, при условии сохранения условия LLL) даст желаемый результат. Возможно, существует более разумный способ равномерной выборки базы LLL (которая, согласно результату Кима, вероятно, является плохой базой). Но, в свете тезиса Кима, попытаться сделать это разумно.

Стоит отметить, что результат Кима является (как минимум) результатом существования. Вероятно, причина того, что LLL в среднем ведет себя хорошо, заключается в том, что граница для наихудшего случая является слабой. Однако работа Ким показывает, что это не так.

Watson avatar
флаг es
Благодарим вас за вклад. Но я хотел бы что-то более явное, и моя мера качества была бы скорее $$ \mu(B) := \frac{ \| ЛЛЛ(Б)_1 \| }{ \lambda_1(L) } . $$ Можно ли явно найти базис $B$ (скажем, в ранге $n=50$) такой, что $\mu(B) > 1,02^n$ ?
Mark avatar
флаг ng
@Watson, я обновил ответ. В принципе да, выборкой равномерно случайных баз LLL, но я не знаю, как это сделать навскидку.
Watson avatar
флаг es
Спасибо за обновления; Я не знал о диссертации Кима. Я действительно нашел ответ; это неочевидно (хотя во многих источниках утверждается, что верхняя граница LLL является точной... без объяснений!).

Ответить или комментировать

Большинство людей не понимают, что склонность к познанию нового открывает путь к обучению и улучшает межличностные связи. В исследованиях Элисон, например, хотя люди могли точно вспомнить, сколько вопросов было задано в их разговорах, они не чувствовали интуитивно связи между вопросами и симпатиями. В четырех исследованиях, в которых участники сами участвовали в разговорах или читали стенограммы чужих разговоров, люди, как правило, не осознавали, что задаваемый вопрос повлияет — или повлиял — на уровень дружбы между собеседниками.