这几天楼上还在野兽装修(全恼🤔所以我只能抽出晚上的时间来做截图处理🤔貌似上次处理时最后有一个大压缩包,旧的10TB硬盘居然没有空间解压但它的8GB包已经上传到了度盘并且完成了转双盘,被我删了(半恼🤔所以这次我需要先将这些8GB包下载到本地,然后才能解压到新硬盘上,然后才能再去处理接下来的压缩包(确信🤔
这下刚好可以测试下guilded drive的可靠性🤔出于某种申必原因,我下片子时guilded drive随便下,但下这些8GB包时,它就动不动只能生成一个只有7GB甚至6GB的文件,而且时间戳也不对,很明显没有完成解压(恼🤔说不定我impact cuties的系统里那个解压脚本的版本也是极其落后的,缺乏tar数据流的校验功能🤔而且如果直连的话,貌似它有几个文件最后几个线程会卡到几KB/s,基本上可以认为没法用(全恼🤔
稍微修改了下脚本,走梯子🤔事实上走梯子也不够稳定,我最后换了三回啊三回梯子才做到几十个文件里只有两个没下载完,50分钟下完160GB文件,就这样🤔重新下载那两个文件后,所有rar文件checksum通过,解压大包也没报错(它有一个内置的checksum,每次解压文件时会自动计算,但我认为那玩意基本上只能图一乐,它没法解决写入过程中可能出现的介质错误,所以我这边通常都是重启之后再验checksum🤔
如果是discord drive呢?它也许存在几个小文件没下完,但它的多线程checksum脚本可以迅速找出损坏或者没下的小文件并光速补完,再去尝试合并(确信🤔这两种drive方式,流式和文件分片,只能说是各有优劣(确信🤔但无论如何,这算是我那些各种drive备份第一次被我用来在线恢复我的数据,而且它真的通过了后续的checksum验证🤔现在好了,也许某一天我可以完全抛弃本地副本力(大嘘🤔