在钻研sexart的过程中,我突然发现它的两天试用活动入口居然在它的任意一个站域名/upgrade里面,而非join now🤔而且其实它也没有限制某个账号只能撸一次或者某个特定的站只能撸一次,换句话说它既支持某个站撸两天试用的同时再撸几个站,也支持那个站试用过期了接着撸🤔
那么主站过期后还能接着撸两天试用吗?我估计很快就知道了(确信🤔
反正无论如何,我只花了半小时就改写完了它的拖站脚本,反正它那些站的api基本上完全一样,我基本上只需要将站点域名设置成变量,然后换个变量和cookies就vans了(确信🤔
既然如此,赶紧布置完github actions任务,然后去impact cuties(确信🤔
thonkeqing
当然,我也做了其他改进,比如由于之前缺失currentprogress或者缺失文件链接完全是因为我往discord频道里发消息太频繁了,我干脆改了discord drive,在所有往discord发送消息的curl(包括那个eulaAAAAAAAA bot)下面都写了+1s(确信🤔以前是只有上传线程才+1s,我现在把它们去了(🤔
这么折腾一番后,我估计以后丢文件的情况搞不好会直接消失(确信🤔
thonkeqing
我还写了一个kemono的github actions脚本,由于我现在实在是懒得改workflow文件,所以我干脆用那些拖片脚本的逻辑实现了它,那就是将需要拖的画师啥的每一个写进一行,保存到某个文件里面,运行时加载这个文件🤔而相应的,“正常”的逻辑是像以前那个pixiv脚本一样,每次输参数进去,一次只拖一个🤔
这倒也不是什么坏事,我大可直接找出所有要拖的画师一次性搞了,只不过如果我只想拖一个画师的话总感觉有点蛋疼🤔当然我也可以用这个逻辑重写pixiv脚本,这样我便可以非常方便地将pixiv需要的cookies塞进脚本文件,而非像旧脚本那样每次执行都要复制一次了(确信🤔
下一步当然就是识别出里面的其他网站资源,比如google drive啊,mega啊,还有mediafire之类的,把它们也下下来(确信🤔但这个就留给以后再做了🤔
luminethonk
我现在可能还需要实现另外一样东西,在pixiv或者kemono重新打包大压缩包的时候一边打包一边删东西🤔这样的话假设github actions最多只有54GB空间,我以前只能使用这个空间的一半,不然就完不成打包了,现在我几乎可以完全使用这个空间(应该是这个空间减去里面最大文件的体积🤔
我之前写了一个无限循环的读取rarlog删除已打包文件的玩意,但现在我需要:
我接下来需要解决这些问题🤔
JAJAJAJAJA
写完测试了下,基本上一切顺利,rarlog和外面的log都能记录下来,读rarlog2(记录了rar压缩过程中的stderr)也能看出在rar -df删文件的时候那些文件早就被删了🤔这样,我的github actions脚本就可以处理那些40GB乃至50GB的画师,比如canan这种(确信🤔
除了某些东西极少的画师,rar -df会在删除脚本开始删除东西之前完成打包并提前删除文件,导致脚本看起来压根就没有跑(🤔但这些东西既然那么少,跑没跑删除脚本其实真的没什么关系(确信🤔
那么如果某个画师的东西突破了50GB,此时该怎么办?🤔我估计得搞一个分批次处理了,比如在每次搞完小压缩包之后开始判断,如果那个文件夹的总体积开始大于45GB或者某个设置好的值了,直接开始rar -df外加跑删除脚本(或者不加删除脚本),然后直接discord drive,接下来将文件名便乘part2,然后接着下小压缩包,换句话说将原先执行完for循环才执行的打包和上传挪到for循环里面🤔
os hdd
草,我取上了前几天买的os硬盘,插上去看了眼,发现这玩意连smart都没有,实在是太申必了🤔所以现在我连这狗逼玩意通电多少小时还能接着用多少小时都不清楚🤔hdtune测速显示最高速度只有230MB/s,可以说是远远低于12TB氦气硬盘应该能达到的速度了,甚至低于hc330🤔我保存了旧硬盘的所有测速数据,可以查到x12和hc330能跑到254,12TB的x14也能跑到247🤔
但既然我为了贪便宜不去买10TB硬盘买这狗逼玩意,也许这就是我需要付出的代价罢(全恼🤔接下来我按照惯例跑一遍dg,按理来说应该不会有什么问题,目前我最多就嫌它慢(确信🤔
我猜测这玩意速度慢于预期的原因是,它是某块x16甚至x18阉割容量到12TB之后的产物,由于盘片良品率实在是8行而阉割了那么多部分,它的存储密度其实是不如x12或者x14的,这也会体现在速度上(确信🤔
那这么说的话,那块4TB的x14我估计速度将非常难看了🤔但本来4TB氦气盘真的就是个乐子,而且考虑到我电脑上没有那么多盘位,比如为了插这块12TB垃圾盘我就下线了一块3TB垃圾盘,这个乐子我就不找了(半恼🤔