Могут быть различные меры битовой зависимости. Классическим показателем может быть то, насколько процесс близок к достижению того, что Клод Шеннон назвал распространение, который иногда называют строгий лавинный критерий. В этом случае мы измеряем долю пар вход/выход, для которых изменение выбранного входного бита изменяет выбранный выходной бит. Если пропорция равна 0, это будет независимость, если пропорция близка к 1/2, это будет диффузия/SAC, если пропорция близка к 0, это будет называться слабой зависимостью, если пропорция близка к 1/2, это будет можно назвать сильной зависимостью.
Например, рассмотрим четырехбитную логическую функцию с преобразованием в один бит.
$$y=x_1x_2+x_0x_1x_2x_3$$
легко убедительно проверить, что переворачивание $x_0$ или же $x_3$ входы изменяет значение $у$ для 2 возможных входных значений из 16. Это зависимость, но довольно слабая.
Напротив, для функции
$$z=x_0x_1+x_1x_2+x_2x_3+x_3x_0$$
легко проверить, что переворачивание любого бита меняет значение $z$ для 8 возможных входных значений из 16. Это сильная зависимость.
Возникает вопрос, как назвать случаи, когда пропорция, изменяющаяся при переворачивании, близка к 1.