Да, это все еще сложно с помощью простого гибридного аргумента.
По существу, для $i\in[k]$ определить «смешанное распределение»
$$H_i = (A, A\vec s_1 + \vec e_1,\dots, A\vec s_i + \vec e_i, \vec u_{i+1},\dots, \vec u_k).$$
Тогда проблема различения $H_i$ и $H_{i+1}$ можно свести к проблеме LWE.
При использовании этого для конкретного анализа вещей это позволяет ограничить преимущество различения между $H_0$ и $H_k$ к $к$ раз превосходит различитель LWE.
Этот аргумент (и, в более общем смысле, техника повторного использования $А$) датируется как минимум Функции лазейки с потерями и их приложения Пайкерт и Уотерс в 2008 году.
Он имеет некоторые умеренные правдоподобные преимущества, а именно:
- в принципе можно стандартизировать единую матрицу $А$ которые используют все пользователи (подобно тому, как были стандартизированы группы DDH), или даже
- можно "повторно использовать" сингл $А$ за относительно короткий, но все же нетривиальный период времени, скажем, 1 час.
Хотя, как правило, это уже не очень нравится.
Это по двум основным причинам
- можно получить сопоставимые сокращения размера $А$ путем обращения к структурированным версиям LWE (при одновременном повышении эффективности соответствующих операций) и
- на практике не часто посылают $A\in\mathbb{Z}_q^{n\times m}$ по цене $nm\log_2q$ бит (который велик, что приводит к поиску аргументов амортизации, подобных тому, который вы предлагаете). Вместо этого вы можете просто отправить «seed» $\{0,1\}^\лямбда$, которая разлагается в случайную матрицу $А$ используя расширяемую функцию вывода в пункте назначения. Большинство кандидатов NIST PQC используют этот подход.
Также стоит упомянуть, что приведенная выше идея «стандартизированного экземпляра LWE» имеет несколько практических причин, по которым она, возможно, не подходит для больших временных масштабов, а именно:
он делает вас уязвимыми для атак с предварительным вычислением (аналогично другим стандартизациям группы DDH, скажем, атаке LogJam) и, что более важно,
можно построить «экземпляры LWE с бэкдором» — примерно распределение случайных матриц $А$ которые вычислительно неотличимы от случайных, но имеют «лазейку», которая позволяет взломать LWE.
Экземпляр LWE с бэкдором относительно прост (не помню, к сожалению, кому его приписать).
Напомним, что предположение NTRU генерирует ключи открытым ключом $ч$, и секретный ключ $f$, такой, что $hf = g$ маленький".
Используя соответствующую «матричную» форму вещей, мы получаем матрицы $Ч, Ф$ так что:
- $HF = G$ маленький, и
- $Ч$ вычислительно неотличима от равномерно случайной.
Тогда, если мы используем $H^t$ как случайная матрица экземпляра LWE, например. получить образец $(H^t, H^ts + E)$, мы можем легко разрушить предположение LWE, используя эту случайную матрицу, поскольку $F^t H^t s + F^t E = Gs + F^t E$ это "маленький" (я полагаю). Это все с матрицей $Ч$ быть вычислительно неотличимым от случайного в соответствии с NTRU, например. этот черный ход $Ч$ трудно обнаружить.