Рейтинг:2

Энтропия PIN-кода SIM-карты

флаг at

Каждая мобильная SIM-карта имеет четырехзначный номер ($b_1$,$b_2$,$b_3$,$b_4$) называется PIN-кодом. Каждая цифра $0 \le b_i \le 9$ (для i = 1, 2, 3, 4) генерируется с использованием случайной 16-битной последовательности следующим образом: $b_i=(r_{4i-3} + r_{4i-2} .2 + r_{4i-1}.2^2 + r_{4i}.2^3)\pmod {10} $. Как мы можем рассчитать антропию ПИН-кода? Я знаю соотношение энтропии, но у меня нет точки зрения.

kelalaka avatar
флаг in
Ясно HW, Что вы пробовали?
Рейтинг:1
флаг cn

я звоню сюда $B_1, B_2, B_3, B_4$ четыре случайные величины, представляющие четыре цифры (мне не нравится называть переменную $р$). Кажется хорошей идеей вычислить энтропию только $1$ цифр, а затем, поскольку четыре цифры выбираются независимо друг от друга, мы могли бы умножить это число на $4$. Позволять $q_i= \mathbb{P}(B_1 = i)$ для любой $i \in\{0, \dots, 9\}$. $$H(B_1)= -\sum_{i=0}^9 q_i\log(q_i)$$.

Вы можете заметить для $0\leq j \leq 5$, $q_j =\frac{2}{16}$, и для $6\leq j\leq9$, $q_j= \фракция{1}{16}$. Тогда, потому что $\log_2(\frac{2}{16})= (1-4)$, и $\log_2(\frac{1}{16})= (-4)$. \начать{выравнивать} H(B_1)&= -\left(6\cdot \frac{2}{16}(1-4) + 4\cdot \frac{1}{16}(-4)\right) \ &=\frac{9+4}{4}= \frac{13}{4} = 3,25 \end{выравнивание}

После умножения на $4$, потому что это $4$ цифр (как я уже говорил), получаем $13$ биты энтропии.

Paul Uszak avatar
флаг cn
Просто глядя на это. Вы уверены, что $p_i$ гладкое и непрерывное? Зазоров нет? И они IID; они берутся из формулы...
Ievgeni avatar
флаг cn
Я удалил одно предложение, оно имеет для вас больше смысла?
Paul Uszak avatar
флаг cn
О, я не критикую. Я с подозрением отношусь к формулировке $p_i$. Я из всех конструкций, которые имеют отношение к службам безопасности. Четыре действительно случайных цифры имеют H = 13,3 бита ($\log_2(10) \times 4$). Начальное значение $r$ составляет 16 бит. 16 > 13.3, так почему бы не использовать напрямую $r$ и отбраковку? Он дует.
kelalaka avatar
флаг in
Никто не генерирует такие вероятностные случайные пины. ХВ.
fgrieu avatar
флаг ng
Поскольку это домашнее задание, я позволю ОП исправить небольшую ошибку.
Ievgeni avatar
флаг cn
Я исправил ошибку...
kelalaka avatar
флаг in
Тем не менее, есть ошибка из первого класса рациональных чисел.
Mohammadsadeq Borjiyan avatar
флаг at
Уважаемый Пол Ушак, спасибо за внимание. Да, эта схема по сравнению с четырехзначным случайным числом какая-то неразумная, но целью было сравнение энтропии двух планов.
Mohammadsadeq Borjiyan avatar
флаг at
Дорогой levgeni, я был очень благодарен, что вы рассматриваете мою проблему.
fgrieu avatar
флаг ng
Для сравнения: равномерно случайный 10-значный PIN-код имеет 13,2877 бит энтропии, а генерация PIN-кода путем уменьшения 16-битного значения по модулю 10000 дает 13,2835 бит энтропии.
Paul Uszak avatar
флаг cn
Повторяю: эти значения распределяются независимо? В противном случае энтропия будет (намного) ниже. Требуется некоторый Python.
Рейтинг:0
флаг at

За $0 \le b_i \le 5$, $p_i=\frac{2}{16}$ и для $6 \le b_i \le 9$, $p_i=\frac{1}{16}$. Затем вычисляем значения логарифмов, которые соответственно равны $\log_2(\frac{2}{16})=(1-4)$ и $\log_2(\frac{1}{16})=(-4)$. Теперь, согласно соотношению энтропии, \начать{выравнивать} \ H(b_1) &= -\ \sum_{i=0}^{9} p_i \log_2(p_i ), \end{выравнивание} у нас будет:

\начать{выравнивать} \ H(b_1) &= \ -(6 \cdot \frac{2}{16}(1-4) + 4 \cdot \frac{1}{16}(-4))=3,25, \end{выравнивание} что является энтопией одной цифры. Поскольку независимых цифр четыре, умножаем значение на 4 и получаем 13 бит энтропии.

fgrieu avatar
флаг ng
Следите за знаком и исключением индексов $j$ с нулевой вероятностью. Это $H(b_1)=\displaystyle\sum_{j=0\ldots9\text{ и }p_j>0}p_j \log_2(1/p_j)$ или эквивалентно $H(b_1)=-\displaystyle\sum_{j =0\ldots9\text{ и }p_j>0}p_j \log_2(1/p_j)$.
kelalaka avatar
флаг in
@fgrieu справа, вы имеете в виду $\log_2(p_j)$? Этот комментарий кричит: удалите меня, если я прав.

Ответить или комментировать

Большинство людей не понимают, что склонность к познанию нового открывает путь к обучению и улучшает межличностные связи. В исследованиях Элисон, например, хотя люди могли точно вспомнить, сколько вопросов было задано в их разговорах, они не чувствовали интуитивно связи между вопросами и симпатиями. В четырех исследованиях, в которых участники сами участвовали в разговорах или читали стенограммы чужих разговоров, люди, как правило, не осознавали, что задаваемый вопрос повлияет — или повлиял — на уровень дружбы между собеседниками.