ASCII — это кодировка, а не метод шифрования. ASCII преобразует определенные символы (английский алфавит, некоторые символы и некоторые непечатаемые управляющие символы, такие как «табуляция» или «перевод строки») в 7-битные двоичные значения. Обычно это делается путем кодирования каждого символа ASCII в один 8-битный байт и установки старшего бита этого байта в 0.
Некоторые древние компьютерные системы (в основном найденные только в музеях или в коллекциях энтузиастов ретрокомпьютеров) не поддерживали ASCII или 8-битные байты и вместо этого кодировали данные по-другому. Например, мейнфрейм IBM 1401 1959 года кодировал данные, используя 6-битные символы в специальной двоично-десятичной схеме. На самом деле это представляет только исторический интерес.
Современные компьютерные системы в основном не используют ASCII, а вместо этого используют Unicode, часто в кодировке UTF-8. Здесь также используются 8-битные байты, но старший бит не обязательно должен быть равен 0.
Любой метод шифрования, работающий с байтами, может работать и с данными ASCII, поскольку данные ASCII состоят из байтов.
Любой метод шифрования, который работает только с подмножеством байтов, разрешенных ASCII, может работать с произвольными байтами, сначала кодируя эти произвольные байты с помощью схемы, которая отображает байты в подмножество байтов ASCII, например Base64.
Таким образом, все, что может быть зашифровано другими (современными, безопасными) методами шифрования, также может быть зашифровано методом, который принимает только символы ASCII.