Рейтинг:2

Хэш-функции, биективность и энтропия

флаг cn

Для тех, кто не знает, биективная функция — это функция, для которой каждый вход дает один и только один выход. Блочный шифр, например, гарантированно будет биективным, иначе вы не сможете его расшифровать.

Когда хэш-функция, такая как SHA256 или SHA3, используется с вводом той же длины, что и его вывод, AFAIK, это не является или, по крайней мере, не должно быть биективным. (Это верно?)

Если хэш не является биективным, означает ли это, что повторное хеширование теряет энтропию?

Допустим, у вас есть 256 бит энтропии, и вы передаете ее через SHA256. У вас все еще есть 256 бит энтропии? Допустим, вы SHA256 хэшируете его миллион раз. Что тогда?

Мне кажется, что ответ должен быть отрицательным, но опять же, не создаст ли это проблему для криптографии на основе хэшей?

Просто случайный вопрос, который пришел мне в голову.

флаг pe
Это похоже на дубликат https://crypto.stackexchange.com/a/15084.
fgrieu avatar
флаг ng
[Связано] (https://crypto.stackexchange.com/a/24672/555), но не дубликат: для хэша в одном и том же наборе ожидаемая потеря энтропии при хэшировании равномерно случайного значения быстро сходится к 0,827245389153— ¦ бит для первого хэша по мере увеличения размера набора. Это единственная слегка релевантная и малоизвестная константа, которую я когда-либо вывел.
Рейтинг:3
флаг pe

На это уже ответили здесь за 1 итерацию и здесь для многих итераций, но поскольку последний ответ представляет собой эвристический аргумент, я оставлю здесь лемму 4 из Функциональные графы и их применение в универсальных атаках на повторяющиеся хеш-конструкции что дает хорошее приближение, основанное на теореме 2 Статистика случайного сопоставления, и (3.10) из На высоте деревьев:

Лемма 4. Позволять $f$ быть случайным отображением в $\mathcal{F}_N$. Обозначать $N = 2^n$. За $k \le 2^{n/2}$, математическое ожидание числа узлов k-го итерации изображения в функциональном графе $f$ является $$ (1 - \tau_k)\cdot N \приблизительно \left(\frac{2}{k} - \frac{2}{3}\frac{\log k}{k^2} - \frac{c}{ k^2} - \dots \right) \cdot N\,. $$ Это предполагает, что $\lim_{k \to \infty} k\cdot (1 - \tau_k) = 2$. Таким образом, $$ \lim_{N \to \infty, k \to \infty, k \le \sqrt{N}}(1 - \tau_k)\cdot N \ приблизительно 2^{n - \log_2 k + 1}\,, $$ куда $\тау_к$ удовлетворяет повторению $\tau_0 = 0, \tau_{k+1} = e^{-1+\tau_k}$, и $с$ есть некая константа.

Таким образом, хотя да, есть некоторая потеря энтропии из-за повторяющихся итераций случайной функции, эти потери растут только логарифмически по количеству итераций. Потерять, скажем, $32$ бит энтропии, вам нужно перебрать хэш вокруг $2^{32}$ раз. Для больших выходных длин, таких как $256$ бит, этот вид потерь пренебрежимо мал почти для всех практических целей.

Ответить или комментировать

Большинство людей не понимают, что склонность к познанию нового открывает путь к обучению и улучшает межличностные связи. В исследованиях Элисон, например, хотя люди могли точно вспомнить, сколько вопросов было задано в их разговорах, они не чувствовали интуитивно связи между вопросами и симпатиями. В четырех исследованиях, в которых участники сами участвовали в разговорах или читали стенограммы чужих разговоров, люди, как правило, не осознавали, что задаваемый вопрос повлияет — или повлиял — на уровень дружбы между собеседниками.