bruhfei.22.05.26

我刚看了一圈新出的st20000nm007d🤔X京硬盘之家放出了hdtune截图,性能极其离谱,读能跑到286写能跑到288,反正比我现役的所有硬盘牛批114514倍就是了(确信🤔其实如果它和st18000nm001j用同款盘片的迫真论证成立的话,后者大概也能跑到这个速度罢(确信🤔

当然它的价格也极其离谱,好几个店都卖到了3400,我觉得还是拉じば倒吧(全恼🤔说句极其离谱的暴论,它都够买2.42块18TB垃圾盘或者全新hsmr了,或者在买两块18TB的全新hsmr之后再买一块12TB的os垃圾盘(恼🤔以这种方式来迫真论证的话,这3400块钱干脆全部拿去买os垃圾盘得了,可以买4块14TB和一块12TB,68TB迫真数据中心,请(吴慈悲🤔

只不过我两年前的年末写那篇存储分级的时候,可完全没想过有一天我的主存储也会由垃圾盘组成🤔那时我也搞了一块12TB的垃圾盘装笔记本备份,却花了我将近1100🤔而这种12TB垃圾盘能降到600,大概是那时我做梦都不敢想的事(半恼🤔我记得那时0034都才降到550,而每TB降到50的只有连chia矿蛆都嫌弃的2TB/3TB垃圾盘(确信🤔

当然,那时单文件discord drive这种申必玩意可还完全没诞生呢🤔现在有这玩意,我就是把0034当主存储都行(大嘘🤔至于现在正在跑坏道检查的os垃圾盘,它再垃圾有0034垃圾?(🤔

所以度盘转discord drive脚本现在还能用不?🤔我估计本地上传discord drive大概比美国服务器下载度盘还要痛苦114154倍罢(🤔

thonk

希捷居然还出了一个新空气盘,st10000nm017b,我没查到product manual,但X京硬盘之家也放出了测速,读263写259,比hc330稍微好一丢丢,还行(确信🤔

但它的价格就非常没意思了,10TB都要1600块钱,梦回两年前了属于是,要知道氦气盘18TB才1400或者1500(大嘘🤔

话说一手hc330跌回1200了没🤔草,我发现至少X京硬盘之家直接没卖的了,别的地方卖的都是二手,估计已经停产了(悲🤔二手hc330倒是够便宜,七八百就能买一个🤔

AYAYA.22.05.26

在钻研sexart的过程中,我突然发现它的两天试用活动入口居然在它的任意一个站域名/upgrade里面,而非join now🤔而且其实它也没有限制某个账号只能撸一次或者某个特定的站只能撸一次,换句话说它既支持某个站撸两天试用的同时再撸几个站,也支持那个站试用过期了接着撸🤔

那么主站过期后还能接着撸两天试用吗?我估计很快就知道了(确信🤔

反正无论如何,我只花了半小时就改写完了它的拖站脚本,反正它那些站的api基本上完全一样,我基本上只需要将站点域名设置成变量,然后换个变量和cookies就vans了(确信🤔

既然如此,赶紧布置完github actions任务,然后去impact cuties(确信🤔

thonkeqing

当然,我也做了其他改进,比如由于之前缺失currentprogress或者缺失文件链接完全是因为我往discord频道里发消息太频繁了,我干脆改了discord drive,在所有往discord发送消息的curl(包括那个eulaAAAAAAAA bot)下面都写了+1s(确信🤔以前是只有上传线程才+1s,我现在把它们去了(🤔

这么折腾一番后,我估计以后丢文件的情况搞不好会直接消失(确信🤔

thonkeqing

我还写了一个kemono的github actions脚本,由于我现在实在是懒得改workflow文件,所以我干脆用那些拖片脚本的逻辑实现了它,那就是将需要拖的画师啥的每一个写进一行,保存到某个文件里面,运行时加载这个文件🤔而相应的,“正常”的逻辑是像以前那个pixiv脚本一样,每次输参数进去,一次只拖一个🤔

这倒也不是什么坏事,我大可直接找出所有要拖的画师一次性搞了,只不过如果我只想拖一个画师的话总感觉有点蛋疼🤔当然我也可以用这个逻辑重写pixiv脚本,这样我便可以非常方便地将pixiv需要的cookies塞进脚本文件,而非像旧脚本那样每次执行都要复制一次了(确信🤔

下一步当然就是识别出里面的其他网站资源,比如google drive啊,mega啊,还有mediafire之类的,把它们也下下来(确信🤔但这个就留给以后再做了🤔

luminethonk

我现在可能还需要实现另外一样东西,在pixiv或者kemono重新打包大压缩包的时候一边打包一边删东西🤔这样的话假设github actions最多只有54GB空间,我以前只能使用这个空间的一半,不然就完不成打包了,现在我几乎可以完全使用这个空间(应该是这个空间减去里面最大文件的体积🤔

我之前写了一个无限循环的读取rarlog删除已打包文件的玩意,但现在我需要:

  • 将它用&命令fork出去执行,因为我现在没有可能给它单独开个终端窗口

  • 给它的while设置一个终止条件,比如检测到rarlog里面出现了Done

  • 我在整个拖某个具体链接的函数后面加了重定向,它会不会影响rar命令的重定向也就是rarlog的生成?会怎么影响?🤔

我接下来需要解决这些问题🤔

JAJAJAJAJA

写完测试了下,基本上一切顺利,rarlog和外面的log都能记录下来,读rarlog2(记录了rar压缩过程中的stderr)也能看出在rar -df删文件的时候那些文件早就被删了🤔这样,我的github actions脚本就可以处理那些40GB乃至50GB的画师,比如canan这种(确信🤔

除了某些东西极少的画师,rar -df会在删除脚本开始删除东西之前完成打包并提前删除文件,导致脚本看起来压根就没有跑(🤔但这些东西既然那么少,跑没跑删除脚本其实真的没什么关系(确信🤔

那么如果某个画师的东西突破了50GB,此时该怎么办?🤔我估计得搞一个分批次处理了,比如在每次搞完小压缩包之后开始判断,如果那个文件夹的总体积开始大于45GB或者某个设置好的值了,直接开始rar -df外加跑删除脚本(或者不加删除脚本),然后直接discord drive,接下来将文件名便乘part2,然后接着下小压缩包,换句话说将原先执行完for循环才执行的打包和上传挪到for循环里面🤔

os hdd

草,我取上了前几天买的os硬盘,插上去看了眼,发现这玩意连smart都没有,实在是太申必了🤔所以现在我连这狗逼玩意通电多少小时还能接着用多少小时都不清楚🤔hdtune测速显示最高速度只有230MB/s,可以说是远远低于12TB氦气硬盘应该能达到的速度了,甚至低于hc330🤔我保存了旧硬盘的所有测速数据,可以查到x12和hc330能跑到254,12TB的x14也能跑到247🤔

但既然我为了贪便宜不去买10TB硬盘买这狗逼玩意,也许这就是我需要付出的代价罢(全恼🤔接下来我按照惯例跑一遍dg,按理来说应该不会有什么问题,目前我最多就嫌它慢(确信🤔

我猜测这玩意速度慢于预期的原因是,它是某块x16甚至x18阉割容量到12TB之后的产物,由于盘片良品率实在是8行而阉割了那么多部分,它的存储密度其实是不如x12或者x14的,这也会体现在速度上(确信🤔

那这么说的话,那块4TB的x14我估计速度将非常难看了🤔但本来4TB氦气盘真的就是个乐子,而且考虑到我电脑上没有那么多盘位,比如为了插这块12TB垃圾盘我就下线了一块3TB垃圾盘,这个乐子我就不找了(半恼🤔

barbruh.22.05.24

草,登进adulttime抓包grep不出内容,才发现这次的三天试用会员和上次的七天试用会员相比,除了时间不一样外,内容也不一样,上次是可以获取完整视频的,这次不行(恼🤔看来除非我愿意买它那个7.98美元一个月的会员(仍然没法直接下载),adulttime基本上别想了(全恼🤔但再怎么说,adulttime比teamskeet高端1145141919810倍(确信🤔

与此同时,我发现metart network的两天试用,居然只能试用一个站,再选个站就完全没有试用选项了(恼🤔

看来,到此我基本上没有可以拖的站了(🤔

hddthonk

与此同时我联系上了某fisch一个卖os硬盘的,12TB只要600,14TB只要700,我买了个12TB🤔

所谓os硬盘应该算是希捷的申必型号服务器硬盘,申必到不仅标签只写了一个os,连插进sas阵列卡后显示的型号都是os,更别说查出用了几个盘片这种事了🤔但无论如何,这玩意比我预设的价格(600块钱10TB)便宜多了,所以我打算买一个玩玩🤔就像砂糖盘有好几块副盘一样,这玩意也可以做futaba盘的副盘,专门存图片,大不了我做图像处理(迫真)的时候,除了度盘外discord drive也上传一份🤔

至于真·主存储,现在20TB硬盘也快要出了,我打算再等等,等20TB降到2000以下或者至少2500以下,然后一步到位(确信🤔然后挪完数据后这块垃圾盘挂u2或者别的pt去🤔

我估计cmr盘发展到20TB应该到头了,新的磁记录技术,什么光热辅助磁记录乱七八糟的也许能将硬盘升级到单盘114514GB,但这种新技术我觉得还是再成熟几年罢(吴慈悲🤔

bruhfei.22.05.23

终于又有一天可以宅家了🤔本来打算做点图像处理(迫真)的,结果一看,某个暂存盘居然只剩50GB了,看来别想了(恼🤔

既然如此,我可以搞点别的,比如metart network任何一个站的正式会员,可以试用任何其他站两天🤔而且这个试用比mofos之流良心多了,信用卡真的一分钱都不扣,只生成一个0美元的账单(还有一种信用卡验证可是要扣1美元或者0.5美元的,而且通常没法退,毕竟这也不是什么正经信用卡),更离谱的是这两天时间里全站视频都可以随便下,和正式会员一毛一样(确信🤔

既然如此,我的8线程拖站脚本就毫不客气了(吴慈悲🤔比如metart x,我一小时就搞完了它的图片,比普京暴力抽插乌克兰的速度还要快(大嘘🤔

与此同时也许我可以写一写adulttime的脚本,那狗逼玩意貌似已经过期了,而现在它的1美元试用只有三天时间,而不像上周那样给足了一周(恼🤔但至少我创建一个新号后仍然可以用我那张被轮了114514遍的信用卡付款,所以我寻思如果我搞这个狗逼玩意一个月的话,算不算变相的10美元/月?🤔

好在它貌似仍然开放了adulttime的全站资源,而且至少hls仍然可以加载出来🤔至于hls视频合并后大小会不会等于下载的视频,这个我现在是不知道的,但之前我处理它没有hls的旧视频的时候,发现它串流的视频和下载的视频至少大小是一样的,是不是同一个文件我就没处知道了🤔

而且既然它有mp4和m3u8两种资源,我可能得对它们分别处理了,mp4直接aria2c,m3u8的话,hmmmmmmmmmmmmm🤔我是直接合并出mp4呢,还是先往discord tube传一份呢🤔

顺便一提,上次那个8MB分片卡住我的某个线程之后,teamskeet我到今天都没搞完,也没什么兴趣搞了(全恼🤔discord这个8MB限制实在是过于死🐴,它哪怕搞成10MB都比现在好很多,99%的hls视频片段都能完成上传了(恼🤔

话说dash分片会不会比hls好很多?比如支持真·每个分片都是7.2MB这样?🤔只不过不像hls,dash我这边没有工具生成分片和mpd,所以discord tube到今天还是hls(恼🤔

luminethonk.22.05.22

随手撸了一顿pbtv的拖vtt脚本,一句grep就能搞定的事,至于为啥当时我居然忘了加进去这句grep,我暂时蒙在某壬的批里(半恼🤔

在原来的github actions脚本里将每次拖帖子后的rar和discord drive环节删了,挪循环外面,并将while循环改成了for,这样我便可以将所有帖子的metadata和vtt打包进一个大文件里面🤔跑了两遍,最后生成的文件体积差了一大截可还行🤔

whatever,这件事算是彻底搞完了🤔现在看来,adulttime我完全就没开始拖(恼🤔所以下周怎么办?实在不行我再注册个账号,然后用playboy的优惠代码买它下面另外一个站的一周会员试试(🤔

不过和前几个站不同,adulttime我可没有兴趣全搞完,这可是五万个视频哦,以一个平均4GB算,基本上需要200TB🤔我可不觉得discord drive有这么大容量(恼🤔

再说了,我到现在已经有30TB到40TB,说实话我已经不太关心有多少TB的欧美片子了,制霸某恐婚群的欧美区1145141919810次随便制霸,但说实话,这一个月过去了我打飞机还是得靠eula chan这些二刺螈萌妹(恼🤔所以我这算不算拖了个寂寞(🤔

thonkeqing

回去一看,所有的vtt都没有获取成功,貌似它得带上会员的请求头下才行,不带请求头的话就会跳转登录(全恼🤔更生草的是用grep vtt匹配到的不仅仅是vtt,居然有相当大的概率还能匹配几个视频出来,那些视频的随机参数居然能随机出vtt,这たま简直和度盘的随机文件名脚本随机出8964导致文件被橄榄一样生草(确信🤔

所以,我恐怕得写个像样的grep脚本了,而且这次我一定要跑至少一遍单元测试🤔

fischlthonk.22.05.21

昨天晚上合并了playboy tv,两行合并后的行数等于去除currentprogress后的行数,也等于最初列表文件的行数,基本上算是搞完了🤔但grep检查时仍然出现了超过一次的匹配🤔

仔细看了下grep结果,它某些链接果然匹配了两遍,但这两个结果来自不同的线程🤔我对此的迫真猜测是它的标题其实不全,它这个玩意貌似标题由系列和系列内的标题两部分构成,我只取了其中一部分,所以导致系列不同但标题相同所以匹配了两次这种现象发生(确信🤔

当然,也有可能是相同的视频在我最初的列表文件里就出现了两遍呢🤔这个我就不清楚了🤔

但我懒得折腾了,再说了vtt我还不清楚啥时候拖呢🤔另外adulttime现在看来只剩下两天时间了,我可真是去たま的(恼🤔

bruh

与此同时我上次买的30块钱电子垃圾也到了,是个东芝的电子垃圾🤔但它看上去不像是5mm硬盘,而且我将型号输进去一查,好家伙,它果然不是5mm,它是7mm(半恼🤔看来下次我买硬盘车之前最好还是从图片里面找到型号查下(🤔

不过盘片貌似只有一个,所以这狗逼玩意还行吧🤔我现在不清楚拿这玩意搞什么,实在不行往里面塞点片子吧(

bruhfei.22.05.20

我原先预计的是这周4天时间拖playboy系列三天时间拖adulttime,到现在进度远远落后预期,playboy plus刚完成整理,而playboy tv还在拖(恼🤔

pbp的替换基本上顺利,除了二次dump仍然产生了一系列缺失currentprogress和资源的链接文件,给替换过程造成了一定困扰🤔修正后它仍然有五个链接需要下第三次,那就下第三次,可以论证我那玩意是可以增量替换的,那就替换三回啊三回(确信🤔

反正替换并合并文件后,拿原始list进行grep查重/查缺,全部都是1,基本上说明生成了符合预期的资源文件,统计出3.6TB资源(确信🤔

pbtv那边就极其坑爹了,由于有的视频几分钟就撸完了有的视频撸20分钟都撸不完,所以三四天过去后,搞完了四个线程,还有四个线程,其中两个还剩60个,一个剩110,而另外一个剩230(恼🤔

既然如此,我只能将那两个60的继续进度了,110的拆分成两个线程,230的拆分成四个线程,这样它也许就搞完了🤔现在仍然有一个线程就是不动,可能得重新跑一次了(全恼🤔

对了,我到今天还没拖vtt🤔另外我仍然可能需要撸一个所有资源metadata之类的玩意,将它们打包到一个大压缩包里面,方便以后我索引和使用这些玩意(确信🤔

bruhboy.22.05.18

草,playboy plus缺的内容有点多,达到了3500个帖子(恼🤔在我一顿迫真分析后,我发现脚本居然跑一半甚至不到一半就停止了,而停止的原因令壬极其哭笑不得,某些链接的标题居然把-放在了最前面,这样绝大多数的linux命令会将其理解为参数,然后直接gg(全恼🤔

而且哪怕我在playboy plus的脚本里面用--来忽略标题里的-,不再将其作为参数来处理,discord drive脚本仍然会被-橄榄(🤔所以最后我决定直接在确定标题的时候再加一次处理,干掉开头的-🤔

然后我需要筛选出来没有下载或者没有被列在discord drive里的链接,我发现278线程怎么列举链接都是全下完的,但统计行数就是对不上(恼🤔绝对是currentprogress文件缺了,搞不好下次我再统计的时候完全不要currentprogress了,烦的批爆,反正我也不需要currentprogress存在才能统计出哪些链接需要重新下(🤔

再说了,和metart或者teamskeet不同,这玩意很难完不成下载,反倒是资源检索不出来或者下载了但上传不到我的discord频道更加常见(确信🤔

但愿playboy tv不要给我搞这么多幺蛾子,这样我也许只需要半天就能修复好playboy plus链接了罢(悲🤔

bruhfei

草,我突然想到一个更加蛋疼的问题,我忘了下vtt(恼🤔这也许不是什么难事,比如我可以再写个脚本将它们一次性下了,多不多线程随便,一个vtt又能占多少体积,估计一个小时就撸完了,然后一次性打包(确信🤔但如果我待会儿发现它每个视频还有图包的话,估计我就要傻眼了(🤔

thonk

无论如何,在11451.4秒后,我搞了一套极其复杂的玩意来排查它哪些文件没有完成下载(确信🤔

首先,我将合并完成的资源文件重新分为了8份,对应当初拖的8个线程🤔但在将其两行合并为一行然后筛选出需要重新下载的链接时,数字总是对应不上(恼🤔一番迫真分析后我得以发现那些分片文件里缺失很多currentprogress和很多资源文件🤔也许我设置currentprogress除了断点续传外还想用来恢复缺失的链接,但既然我现在已经开始上了grep大法,那么没有对应文件的currentprogress不要也罢(🤔

哼哼修复了一番之后,所有数字都能对应上了,两行合并成一行后的文件行数等于去除currentprogress行后的文件行数,基本上意味着源文件的格式是正确的,奇数行是资源而偶数行是对应或者不对应的currentprogress(论证过程略🤔这样,两行合并成一行后,就能用来替换其他文件里的对应行,比如我接下来要做的:

既然我折腾资源补全的目标是折腾出与最初被扔进github actions的列表文件里面的顺序严格对应的奇数行资源偶数行currentprogress的资源文件,那么我直接拿上面的合并后文件按行替换掉列表文件里的对应行,这样的文件不就出来了吗(确信🤔而且我甚至都不用管之前的资源文件顺序有没有对,或者它是否完整,只要我在若干次下载后的确下载完了所有文件,那么几轮替换后我要的资源文件就能生成出来,q. e. d. (论证过程略🤔

合并之后可以再做一次统计,比如统计里面残留的链接个数,和上一步筛选出的需要重新下的文件时候对应🤔统计结果是完全对应的,这说明的确有这么多链接需要重新下(确信🤔

bruh

与此同时playboy tv还在拖,而且一时半会没有搞完的迹象,我只能动用本来用来做测试的⑨号线程来下它们了🤔这玩意写明了用来做测试,但偶尔用来托管下生产环境也不是不行(迫真🤔

fischlthonk

由于⑨号线程只有⑨个discord drive线程,它比剩下八个线程很明显慢很多,四十分钟才能搞定150多个帖子,四小时才能搞定810个帖子(恼🤔那么我还有两个线程大概还剩一千多个帖子,它不得跑到超时?🤔

然而,我发现了大量的帖子需要所谓的playboy vip membership才能解锁,这些帖子大概只能生成几千字节的rar🤔我反正不打算解锁它们,毕竟我买这坑爹玩意只花了1美元还是2美元来着,这狗逼需要再加10美元,谁爱玩玩去,我不玩了(全恼🤔

既然如此,也许在超时之前跑完一千多个帖子会便乘可能,毕竟没有访问权限的帖子真的就字面意义上地秒过了(确信🤔

与此同时playboy tv的拖站也不太乐观,部分视频有几率会触发429错误,这样的话它们会退化到单线程下载,25分钟才能下载完一个视频(恼🤔所以我统计的时候发现了严重的线程不均匀现象,有的线程只剩几十个了,有的线程还剩五百多个,到时候重新分配线程的时候一定会便乘一坨比playboy plus还要屑的翔,更别说我还没拖vtt(🤔

这么下来,我恐怕只有四天时间搞adulttime了(恼🤔也许我需要encore一波,我的意思是搞一张新的信用卡来再嫖一次1美元一周的活动(确信🤔

playboyplus.22.05.17

playboy plus拖起来还行,它尽管某些地方貌似既用了html又用了json,但json内容也绝大多数是html,所以按照html的方法处理就vans了(确信🤔

通过对html的分析,我们可以非常轻松地将视频、图包和图片全部提取出来扔进list,而且如果页面没有视频或者图包的话,list只不过没有这些链接而已,不会出现其他奇怪的东西🤔解析出来的链接没有ip限制,而它本身也没有ip限制,所以根本不用什么c/s模式,直接aria2c -i撸vans🤔

所以,昨天晚上部署之后,它现在已经拖完了1356线程,24线程在第二次拖的时候也光速搞完了🤔现在仍然在搞的是7和8,非常有可能第二次也搞不完,需要拆分🤔它这个资源其实不算多,每个帖子里面经常只有几张甚至一张照片🤔后面的资源倒是有视频,但分辨率连4k都没有,所以哪怕把所有分辨率的视频都保存一遍,它也很难超过1GB(确信🤔

接下来我们搞playboy tv,那玩意可能和playboy plus的详情页非常像,但貌似遍历所有视频可能会便乘一个问题,因为它的每一个视频都是一个系列,直接点开只能看到系列的第一部,还得再遍历一遍(恼🤔

我发现xconfessions居然也在playboy tv里面有视频,不清楚是那个西班牙的xconfession,还是另外一家🤔无论如何,总感觉playboy系列不是用来打飞机的,而是用来欣赏的(确信🤔adulttime才是用来打飞机的🤔

thonkeqing

其实playboy tv也有一个页面叫做episodes,是传统的每页一个视频的分类(确信🤔不过我看了它的极早期页面,发现它也没解决数字排序问题,episode1之后是episode10,然后是episode100,这就非常生草了🤔

playboy tv无论是遍历页还是详情页都没有用到json,详情页也没有评论,一条极其简单的grep就能搞到所有视频的url🤔然而它的下载选项没有1080p的,在线播放选项居然有1080p,而且在线播放的源文件和下载的文件url基本上一毛一样,什么坑爹玩意(半恼🤔

我在拖完(确信)playboy plus之后就马上安排了playboy tv的拖站,单元测试(确信)一次过,直接撸就vans了(确信🤔

回去检查下playboy plus拖完了没有,然后做个统计🤔

bruhfei.22.05.16

昨天我嫌teamskeet下载速度太寄吧慢,准备将其从c/s模式改成本地解析模式🤔改了半天代码之后一跑发现本地解析根本没法搞🤔

原因极其生草,teamskeet的服务器会对任何一台没有cf浏览器验证过的请求ip进行cf浏览器验证,而目前我所知道的过验证方法只有用那台vps开一个ssh tunnel,然后通过那个ssh tunnel上至少一遍teamskeet才能搞🤔这个条件,没有任何远程控制方法的github actions怎么可能实现(全恼🤔

或者我可以试下无头浏览器?如果无头浏览器可以用来过cf浏览器验证,这将是件非常生草的事情,至少github actions的机器性能跑这狗逼玩意是没啥问题的(确信🤔

但无论如何,我现在已经切回c/s模式了,除非这方面我有什么突破(🤔不过至少我现在想起来了,为什么两周前我搞出了c/s模式这种玩意,表面上是用来干brcc的,实际上就是用来干teamskeet的(恼🤔

barbruh

另外我发现线程4一直卡住不输出视频链接的原因居然是某些视频的hls分片大于8MB,草🤔看来接下来我还是直接取消分片功能比较好🤔

thonkeqing

这teamskeet拖得人真nm恼火,我准备开启一些新的projects🤔比如在某申必网站上面,playboy视频站playboy tv正在搞活动,0美元七天,但搞它还能开启图片站playboy plus的1美元八天,就像那天我搞mofos试用意外解锁了babes所有内容一样,只不过这次两个站都是全解锁(确信🤔

当然由于某种申必原因,playboy tv扣费了1美元但没退,所以其实我还是花了2美元🤔接下来我看了下它的offers,居然有一个我一直比较感兴趣的按摩网站nurumassage也有1美元七天活动🤔草,接下来一周我没得闲了,得同时对付三个站(恼🤔

但这几个站事情其实算比较少的,而且playboy以其藏有比metart还要上古的上古收藏而著名,我要是把它全部dump下来了,那可比metart+sexart全拖下来还能吹嘘一番(确信🤔

而nurumassage,它是adulttime网络的一部分,我现在除了它外还解锁了几十个小站的视频,它也不像mofos/teamskeet那样事情多,我现在直接全解锁了(确信🤔极其生草的是它只有年度会员可以解锁下载,但我对其视频streaming的抓包显示,它甚至不屑于使用hls/dash,直接在线播放mp4,而且mp4解析出链接就能直接下,下载后的体积和它的下载预览体积甚至完全一致(确信🤔这限制下载大概限制了寂寞🤔

iiyo!koiyo!一周搞完三个站,写程序+拖完全站,请(吴慈悲

thonk

草,我发现adulttime的metadata极其复杂,貌似请求和响应都是一大坨json(恼🤔而且有的视频用的是mp4,有的视频用的是hls🤔我实在是找不到哪个请求里面包括了视频链接,所以最后用到了firefox的打包所有请求(和对应的响应)为har功能,最后极其生草地在最开始的html里面找到了视频链接🤔那么hls怎么办?🤔

其实只要grep 'window.defaultStateScene',如果结果全是mp4就直接下,如果结果出现了hls就执行下载后传mp4的函数,它并没有音视频分离,所以直接下就vans了🤔