defloration antics.20.05.12

defloration.com拖站行动终于开始了(迫真)!我终于搞了一个月的defloration.com会员,而且我发现它的一大堆片子都放在cloudfront上,这意味着我只需解析出下载链接就可以随便暴力下载了,但我不清楚它的cloudfront链接有多少有效期(我解开了它的base64参数,三个小时半

我觉得defloration.com最难搞的是图片和旧视频,它们每个帖子都好几百个,而且我在一次dump里还搞砸了参数(一个referer头该加双引号结果还是单引号,然后就往服务器里输出了个$)导致账号被封将近两个小时可还行🤔

就和brcc一样,defloration.com里也有萌妹,而且比brcc多🤔而且我再也不会像搞brcc那样等到月末才拖,我打算现在就干,毕竟等我回成都之后我的时间真的不剩多少了🤔

另外discord drive现在已经有点不稳定了,比如我vps上传的125GB文件里有几个到十几个没上传上去的分卷,但我懒得再上传一次,我打算用以前本地上传discord时的方法修复它,具体来说就是用checksum信息来挪走已经上传的文件,重新上传有问题的文件,利用这些文件的信息修复metadata,然后重新上传metadata🤔

discord drive v8

我最后还是决定迫真重写discord drive来实现更稳定的上传效果,因为那天晚上传的东西最后发现有90个缺失和100多个checksum不匹配,很明显手动修复我是懒得做了;为了实现metadata上记录的下载链接下载的文件就是本地上的文件,我决定扩展upload函数的功能,现在它直接返回discord链接,而非像以前一样返回整个discord上传结果然后把处理逻辑写在函数外;它运行在一个while循环上,只要返回discord链接为空就不停上传(所以sleep也得挪到while里面),直到返回了一个可用的discord链接为止;我还加入了可选的sha512校验环节,它会下载刚上传上去的文件然后进行sha512对比,如果不一样的话直接清空discord链接,然后接着循环

这样我觉得如果discord链接被写入了metadata,那么它绝对是完全正确的链接;实测这样整下来速度居然只降低了一半,但每上传126GB文件就要下载193GB文件是什么鬼🤔

现在正在重新照metadata下载,至少这次的文件个数是对的,但下下来后能不能全部通过sha512我就不清楚了🤔

另外上传函数现在唯一能echo到stdout的东西是discord链接,所以其他输出,无论是aria2的输出还是wget的输出还是定制的sha512校验是否通过的输出需要全部重定向到stderr(它也会输出到屏幕上,但不会影响使用那个函数的程序片段获取的结果),后面加上1>&2即可🤔

发表评论