Буду признателен за любую помощь в этом проекте. У меня есть паркетные файлы со схемами json, и я решил проверить их целостность при транспортировке файлов с использованием md5sum, генерации хэша.
Я застрял в попытке найти способ автоматизировать процесс группировки файлов в соответствии с сгенерированным хешем. Следовательно, файлы с одинаковым значением хеш-функции автоматически группируются в одном сегменте. В настоящее время я использую приведенный ниже код для создания своего хэша, проверяю наличие изменений и вручную, какие из них относятся к одному и тому же хэшу, группируются один за другим после использования приведенного ниже кода.
Было бы полезно, если бы у них был какой-то код, который может автоматически группировать одинаковые хеш-файлы в одном месте, без использования приведенного ниже вывода кода для ручной группировки хэшей один за другим.
$ md5sum образец1.csv образец3.txt образец2.csv
Пример $ md5sum* > myhashfile.md5
[хеш-значения][1]
$ кошка myhashfile.md5
[результат кошки][2]
$ md5sum --проверить myhashfile.md5
[проверить результат][3]
$ md5sum --quiet --check myhashfile.md5
[результат тихой проверки][4]
$ sed -i '3s/.*/a&/' myhashfile.md5
$ md5sum --warn --check myhashfile.md5
[Окончательный результат][5]
[Изображение рабочего процесса][6]