sayuAYAYA.24.04.08

今天中午早柚酱小号按照惯例抽卡,才抽了不到三发,好家伙,一道金光过来,水龙🤔草,这个号应该还远远没到出金的时候,而且它不是每次出金几乎都要歪吗🤔现在它不仅提前出力,甚至还没歪可还行🤔

反正我惊呆到甚至忘了开屏幕录制🤔whatever,是时候将蓄力时只会哼哼哼啊啊啊啊的臭 龙塞进🍪impact力🤔当然c0水龙没有霸体也没有+1某申必buff,需要三种元素和水反应才能最大化伤害,所以waifurina也不适合塞进去,那么就只能找个盾🤔这个号也没有钟离,那么laylawaifu,启动!🤔

thonkart

metart系拖站那边,得益于我的逆天20线程github actions基础设施(大嘘),我今天一天就雷普了五个站🤔加上昨天下午到今天凌晨之间拖完的metart x,外加早就拖完了的sexart,metart系的12个站里面我已经完全雷普了七个(确信🤔

剩下五个里面有图片四五千但视频只有七百多个的某站,图片三千多视频1500的某站,图片两万多但视频只有(?)两千左右的metart,某个和sexart规模差不多的站,还有一个有着四千多个视频的站🤔这里面很明显有两个难度极高的,metart主站也许我需要动用的不是20线程而是40线程,而另外一个?我能不能在一天内搞完都不好说(恼🤔

github actions v2.24.04.07

由于某种申必原因,我看了眼github actions的资源限制,发现了些很有意思的东西🤔

比如它一个白嫖账号可以跑的并行runners数量居然不是5或者10,而是20🤔但更有意思的是除了每个job最多六小时这种陈词滥调外,我还发现了一个一个一个有意思的玩意:每个workflow的最高运行时间长达35天🤔

至此我才意识到一个workflow里面不见得只能跑一个job,尽管我的各种脚本里面习惯性地只安排了一个🤔换句话说我完全可以安排多个jobs,比如考虑到sexart系试用号只能试用24小时,我可以安排四个jobs,将其串成一串来跑相同的脚本四遍(需要设置好这些jobs的依赖关系,不然它们就会并行运行,那肯定不是我想要的),这样我是不是就可以免得每6小时盯着看它搞完了没有(确信🤔

那么在这种情况下,下一个job(是一台全新的虚拟机)如何继承上一个job的maindb进度?🤔答案其实相当简单,我只需要每次搞完一个链接后除了照例将当前进度打包进guilded drive外,我还可以直接修改放在pikapod上用来下载到actions机器的maindb,这样下个job拖这些maindb开始处理时,自然拖的就是已经处理过一部分的力(确信🤔而如何修改它们呢?只需要一个一个一个简单的php脚本,外加一句curl文件上传语句,就可以搞定,反正比我之前用的sftp方便多力(确信🤔

接下来我需要写一个测试用例,一个只包括四行的maindb,还有一个每次for只出一行结果的脚本🤔测试下来基本上符合预期,第一行处理完成后这个job结束运行,可以看到下一个job的确从第二行开始处理,而放在pikapod上的maindb也便乘了第一行有链接🤔那么接下来两个基本上不用测力🤔

或者我可以将脚本里的只限处理一行这句删掉,看第三个job处理完剩下两个链接后,第四个job会做什么🤔它做的无非是打出四行红字,都已经处理过一遍力,然后退出(确信🤔

thonk.24.04.06

这两天某两款萌妹游戏的卡池里面什么都没出,所以我接着撸sexart相关玩意🤔

上次写了一个合并maindb的玩意,做了一点改进后我按照惯例检查合并前和合并后的maindb变化,发现某些行在合并后的maindb里面便乘了空行🤔后面一检查发现只有for循环外的cat *.txt都改成了temp目录下,循环里没改,所以它只能便乘空行,而没有便乘空行的其实是根目录就有而且一直在添加新东西的maindb(恼🤔改掉后再跑一遍,这次diff检查说明以后这玩意可以用来整别的玩意力(确信🤔

接下来从某个maindb开始分配线程的玩意也能随便撸出来,等我搞定github actions那边的事情,我就开始停止目前的两个线程,合并一次maindb,并以此来开始搞(确信🤔当然现在切换到真·多线程模式其实切不切换没啥太大关系,但等我真的想挑战什么24小时速通它的一系列分站甚至主站metart时,,,就有用力(确信🤔等等,主站可是足足有20TB内容的,24小时速通真的行吗(🤔

AYAYA

又经过了11451.4秒的哼哼雷普后,我终于将sexart脚本做了github actions适配🤔在多方面对比各种代码后,我发现了两点:

  • 拖视频post的代码和拖图片post的代码确实没法合并,因为它们需要抓取的网页元素不一样(悲🤔所以我最多只能按照post类型来分流,并将guilded drive上传语句从处理视频或图片的函数中挪到它外面,省得我每一个函数里面都写一句上传guilded drive🤔

  • 但github actions版本和本地版本确实可以合并,因为它们的区别居然只有具体的guilded drive脚本位置,还有github actions专属的处理后上传当前进度的功能🤔只需要找个办法判定当前是否在github actions里,设定一个一个一个flag或者不设定,然后在相关语句前加if即可(确信🤔

现在github actions既可以处理视频也可以处理图片,而且将它们塞进同一个maindb里也可以🤔讲真我寻思将它们塞进同一个成品maindb里,估计用cloudflare worker索引它们中的任意一个也是可以的,をたま就不信它们能恰巧共享同一个url,这个结论甚至可以扩大到metart系所有站,甚至将那三个kg系塞进去搞不好也可以(迫真🤔

为了方便将其投入多线程生产环境里,我还将某些初始化步骤做了抽离,便乘了五个初始化脚本,分别对应着github actions单账号能设置的五个线程,而它们会下载并调用同一个sexart处理脚本🤔不清楚前年我怎么想的居然在维护⑨个甚至⑧个除了某几行参数不一样别的玩意一毛一样的脚本(恼🤔

但更加牛批的是我停止那两台vps的处理,换这个脚本上,它也能和之前一样跑,基本上除了不会每上传一个视频再上传一个日志外和github actions版一毛一样(确信🤔

现在我在所有地方实现了统一脚本,以后只需要改一处就能改所有地方(确信🤔接下来趁着那两台vps继续跑视频时,sexart图片五线程github actions雷普,启动!🤔

another 11451.4 secs later,,,

极其生草的是,只有第一个线程两小时半跑完全程,别的线程三个小时才完成了三分之二🤔按理来说我分这些玩意的时候是均匀分配的,再说了它们都是只占300MB左右的图片,不是什么随着日期越来越新而逐渐增大的视频,结果有一个线程要么明显比别的线程东西少要么明显更快,wiebitte?🤔

whatever,收集起来它们所有的maindb,合并,再次分配,重新五线程跑🤔等这坨玩意跑完后,我就拿github actions处理剩下的亿点点视频,接下来才是真正的github actions时刻(确信🤔

然后再往脚本里面塞点东西🤔也许我有必要用time来统计一下某些操作的用时,但time这玩意只能加在某个函数里面某些命令的前面,它的结果才能被这个函数调用时后面加的重定向stderr写入日志文件(恼🤔所以我最后干脆若干个函数套娃,这样无论哪一步骤还是总体的拖视频或者图片时间都能记录到日志里,总用时也能显示到屏幕上或者github actions的日志里(确信🤔

除此之外我还需要从2022版断点续传玩意里移植点东西过来,比如不清楚为啥2023版居然没有统计进度的功能🤔这部分还是比较好搞的,但现在我已经开始跑力,下次再说🤔

thonk

又过去了将近40分钟,剩下的这点图片也全搞定力,合并后第一个全部拥有guilded drive链接的maindb便搞了出来🤔接下来当然是停掉某台arm vps的进度,将其当前的maindb还有大盘鸡上的maindb进行合并,撸出十个甚至⑨个线程的maindb,塞进github actions里🤔当然,我现在基本上可以将那台arm vps删掉力,这两天我用它只是没完成github actions脚本暂时顶着而已,但如果它完成力,那么接下来的sexart乃至metart系雷普,就基本上没我自己的vps啥事力(确信🤔

现在那台vps可以用来处理别的玩意,比如我又上传了一批游戏录屏,需要它处理下🤔

另外不清楚kg系能不能走github actions,但我寻思至少按照我写的那些脚本,恐怕它得,,,将html也塞进maindb或者,,,?🤔或者它干脆就直接访问那些网页得了,我撸sexart都能让它们随便拿sexart的cookies解析下载链接(而非我以前搞的cgi-bin中转),kg系站甚至都没有cookies,我怕啥🤔

话说rosefile站还有啥?我就不信wp搭建的rosefile站就那么三四个(其中一个我到今天都没实现分析),肯定有别的(恼🤔

AYAYA

到了今天晚上11点多,sexart剩下的一百多个视频也被十个甚至⑨个github actions线程雷普完成,至此经过三天啊三天的雷普后sexart全站告捷,统计下来视频13.9TB,图片709.9GB,还行🤔

现在我可以一个github号上十个甚至⑨个github actions机子,而我目前至少有两个号可以随便用,它至少今年貌似又管得松力,换句话说如果哪天我真的撅定要雷普它的主站力,我就开始20线程雷普,就算它真的有三万个图片posts,又如何?(吴慈悲🤔

但在此之前,我需要解决它那些东西少的小站🤔现在有两个我比较感兴趣的问题:

  • 在我获得它们的一天试用access前,我能不能先获取它们的视频列表来构造一个一个一个maindb?

  • 我在sexart上的cookies能不能在别的站用?

bruhfei.24.04.05

在11451.4秒后,我终于在第三台机子上面勉强跑起来了sexart脚本的2023版(悲🤔其实从某种程度上来说2023版某些地方甚至比2022版要简单很多,比如不用专门整一个一个一个文件放置已经处理完成的部分,无论本机运行还是github actions运行都能随便继承进度(确信🤔

问题是和kg114514相比,sexart由于我就是要拿它的完整url做主键,最后的替换环节变得完全没法替换,毕竟url里面充满各种东西(恼🤔甚至我以前的经验都没法用,以前我只是转义一个一个一个斜杠就能塞进sed里替换,但现在这招用了之后只能保证不报错,替换可是一点都没有替换(悲🤔

所以我去某知名英文问答网站抄了次作业,貌似sed完全不支持grep那样的固定字符串匹配和替换,所以需要将源字符串和目标字符串先用某段申必sed魔法处理一遍,再给它塞进去🤔折腾了一顿后我终于能在sexart全量列表里完成了替换过程,替换后没有一行是状态为0的(确信🤔

而且其实现在这套玩意塞github actions里也是可以跑的,毕竟我到时候只需要将maindb进行合并就vans力,方法也很简单,对主机上面的maindb逐行提取主键,然后拿着这个主键在各个备用机(包括某台arm vps和github actions)返回的maindb里面搜对应词条,如果有状态为1的合并入主词条,如果没有的话就什么都不做🤔至少在我搞清楚cloudflare那个逆天sql怎么用之前,这办法应该可以用(确信🤔

接下来我需要解决另外一个问题:如何将那两台正在跑sexart的机器上面的2022版数据迁移到2023版?🤔这个可能不太好解决,我需要哼哼thonk一番🤔

another 11451.4 secs later,,,

在我观摩了114514遍代码后,我发现2023版断点续传脚本获取上传完成后的guilded drive链接信息居然是靠直接读取results.txt的最后一行🤔好家伙,那么我重建2023版的maindb基本上只需要遍历一遍results.txt就vans力,不需要关心2022版的两个列表文件分别有哪些内容🤔好,将它们合并且去重后,直接用id查找results.txt里面有没有项,有的话输出状态为1的行(方法直接照抄2023版断点续传脚本的相关语句),没有的话输出状态为0的行🤔

就这样那两台机子结束当前跑的脚本后不到一分钟就切换到了新脚本上继续跑,而既然我已经有了两个maindb文件,以后有可能会有多个,是时候研究下如何合并它们🤔最后我想到一个一个一个主意,用列举视频的脚本再重新生成一个maindb文件,此时这里全都是状态为0的视频🤔当前文件夹下其他的maindb文件里面可能有状态码为1的视频可能没有,但如果我分配任务分配得比较合理的话,理论上来说对于某一个视频来说,所有txt文件加起来应该最多只有一个状态为1的项(确信🤔

那么我就可以拿这个全新的maindb开始遍历,对里面的每一行里面的视频url,拿去在所有txt文件的cat结果里面grep一次,并筛选出状态码为1的行,如果筛选出来并且结果只有一条,替换maindb里对应的行🤔其实这玩意的思路和上面拿2022版数据构建maindb基本上一毛一样(确信🤔

或者我也可以用各种方法将这个maindb文件排除出cat *.txt(比如将那些里面有guilded drive链接的txt文件塞某个临时文件夹里,cat它),或者在遍历它的时候只遍历状态码为0的行,这样说不定它还可以用来合并非空的maindb,比如我那几个站的(确信🤔同理,它也可以用来提取出maindb里尚未处理的视频,以某种方式分配成若干个小的maindb,然后开始多线程处理,处理完后再合并(确信🤔总之,离未来可能搞的多线程雷普又进了一步(确信🤔

cloudflare antics

既然maindb准备好力,那么和那几个kg系的站一样,它也可以上cloudflare(确信🤔而且由于我将整个网址后面的链接作为主键,它甚至比kg系站还要简单,基本上只需要将sexart.com这个域名替换成我的域名,就可以直接塞进guilded drive下载函数里用(确信🤔

除此之外我还对这一系列cloudflare worker做了亿点点小优化,比如它获取链接失败时不会再报一系列让guilded drive下载脚本非常尴尬的池沼错误信息,而是会返回某著名大脑升级曲的guilded drive链接🤔这应该是我今天做的最生草的事情,当然如果我能想办法下下来这玩意的野兽先辈版本,还能更生草(确信🤔

thonkart.24.04.04

这几天我终于做完了上次残存的部分8GB包处理,暂存8GB包的某块10TB垃圾盘现在什么都没存,正好可以往里面塞某些之前到处乱放的raw照片备份(确信🤔我以为它们会塞满某块pe4010,但实际上貌似只占了500GB🤔这些东西原本会出现在某块3TB垃圾盘上,但那玩意不是检出若干个坏道吗,所以我没放那儿,然后拖到了这几天🤔

挪这部分东西可能花了三四小时?做checksum需要的时间稍微短一半🤔接下来我安排某块大盘鸡进行前几天上传的东西转双盘🤔

那么复制和等checksum的时间我在做什么?考虑到上个月买的sexart我居然还没拖,赶紧拖一拖,目测应该还有一天才过期🤔而且我居然保存了2022年撸这玩意时用的woiden小鸡鸡的全盘备份,而且从里面找到了sexart.sh,改一改cookies居然完全可以继续用,列出所有视频的功能也能用🤔

但就当我准备打开hetzner开一台机子大干114514场时,突然一个一个一个邮件,发了过来,sexart订阅过期力🤔草,搁这一个月按30天算啊(半恼🤔这就如同用guilded tube观看某些视频观看到高潮时突然无限加载,泪,射了出来(大嘘🤔

⑧行,我得再续一个一个一个月的,打开某球付一看,草,什么时候我的卡被销力?🤔迫真分析了一波,发现它现在撅定不再容忍多次的交易失败,所以像我以前玩的那种输卡号114514次白嫖各种东西的玩法,就会导致它出现异常交易114514次,接下来它就会扣申必手续费,而账上余额不够的话它会直接连卡带号一块🐑咯(全恼🤔

114514 secs later,,,

又撸了一个卡,它现在整的玩意是一张新卡28块钱,但一次性充300可以免一次🤔它还有张65的实体v/m卡,这玩意如果有使用价值的话其实不算贵,但v/m卡在国内基本上没有任何我能想象得到的使用场景,某球付的手续费又以其高到离谱而著名(我估计各种乱七八糟的加起来可能相比google查到的汇率有望超过10%),使其哪怕拿去香港啥的刷也不划算,一眼顶针,鉴定为只配买pornsites(吴慈悲🤔

外加重新充sexart的5美元,我又多花了将近65(全恼🤔继续,那个脚本是cgi-bin格式的,但sexart对多端登录基本上处于一种完全不管的状态,我写成cgi-bin纯粹吃饱了撑的,现在我需要做的是将它和另外一个我从不清楚什么鬼地方找出来的sexart下载脚本进行缝合,具体来说将其原来打在stdout上的东西重定向到文件(也就三个,一个metadata一个comments还有一个充满了解析后的下载链接的list文件),并用aria2雷普那个list文件,之后比以前优越的地方来力,我直接用支持文件夹上传功能的guilded drive上传整个文件夹,vans🤔

和两年前用discord drive实现的版本相比,我现在可以省去rar打包的步骤(和在arm鸡鸡里跑rar的额外折腾,如果这玩意可以折腾的话),而且考虑到hetzner的arm鸡鸡可以干到4GB内存,我这次直接开一个一个一个arm来搞这玩意🤔

这玩意有一个ipv6 only的选项,但选了它之后我连怎么连接进去都不清楚,它给的是一个/64的ip段,如果我没记错的话linux不像win,可能需要在ifconfig里显式地填后64位才能联网,那么问题来力,在此之前我没法用ssh连进去用它,我总不能真的用vnc console干这事⑧🤔所以删了重新开一个带ipv4的,其实就多了半欧元,我又不准备真拖一个月🤔

接下来开始列举所有视频并跑脚本,下载速度还行,能干到1.5Gbps,而且考虑到它有4GB内存,我的guilded drive脚本里也可以将线程数开到8(确信🤔但接下来上传的时候,它8线程都只有800Mbps出头?如果线程数降到4了可能还保不住400Mbps?wiebitte?🤔

刚好我的大盘鸡跑完了转双盘,而且一时半会我找不到别的事给它做(更新下kg114514算不算?那也不是今天需要做的),所以它也去跑sexart🤔这边更奇怪力,下载视频只有600Mbps出头,但上传guilded drive保持了一贯的能干到至少1.5Gbps的传统,这两台机子居然是反着来的,实在是过于生草🤔

thonk

至此这套玩意还是存在114514处不足,比如它目前倒是可以断点续传,但方法是适合github actions的2022式,我目前(至少在kg114514等项目上)用的断点续传法是基于本地数据库(迫真)的2023式,我可能得在某个时候将脚本改成现在这套🤔

而且目前我用的这套一直有一个一个一个缺陷,它也许可以通过cgi-bin来将任务发布到比如github actions的机子上,但任务完成后返回的guilded drive链接等玩意?我暂且没啥好办法接收(悲🤔反正我想不出来除了跑一个一个一个真·sql数据库+rest api外还有什么好办法🤔或者,要么我去试试所谓的云数据库?比如我们熟悉的cloudflare就有云数据库,它至少应该可以和cloudflare worker集成得很好,而我在kg114514项目的最后一步(给个id就返回guilded drive链接列表)就是worker实现的(确信🤔

另外话说回来这套玩意真たま的慢,一个4k片源存在的片子基本上要干十分钟甚至⑨分钟以上(全恼🤔然后考虑到这破玩意到现在足足有1943个片子,所以我要是现在仍然只有两个线程的话,恐怕这玩意真得干一个月(撅望🤔考虑到接下来waifu游戏迟迟不出新活动,我是不是该想办法复活github actions?🤔

thonk.24.04.02

昨天晚上撅定不再处理那些1.4TB的游戏录屏后,我终于得以继续处理那些在某块半坏道盘上积压了114514秒的8GB包🤔但其实不算昨天新生成的,它也没那么多,只有不到700GB(确信🤔昨天撸的也许超过了800GB甚至有机会超过1TB,但它们现在还在上传,所以不是今天需要处理的,也许明天某个时候我可以处理它们?鬼知道🤔

所以这些东西按理来说下起来没那么慢,但事实证明度盘这垃圾玩意哪怕到凌晨一点速度也只有不到400Mbps,差不多到两三点才恢复接近Gbps(恼🤔干脆从头下载得了,最后以接近⑨00Mbps的速度只用了不到两小时下完🤔

除此之外昨天的截图处理其实还有一点小尾巴没搞,因为这部分东西今天才开始压缩(半恼🤔不过这个好办,只要压缩包生成完,我就可以光速打包成8GB包,然后一边解压到10TB垃圾盘上一边用rar复制到阳台机子的共享文件夹里,我的上传脚本预留了上传那个文件夹的指令,而且我寻思它现在十成甚至⑨成离上传那里可能还有11.4514小时捏(确信🤔

由于某种申必原因,哪怕我早就换了2.5G交换机,它复制到某块半垃圾pe4010的速度仍然低于Gbps,有时甚至能跑到300Mbps这样的地狱速度(撅望🤔但有时它又能充分展现2.5G雄风,比如我往那台机子塞hsr客户端的时候,它可以跑到2.4Gbps,此时它仍然在上传度盘,不然搞不好它真的能跑满2.5Gbps(确信🤔但此时它设定的目标位置是插在主板上的pm983a而不是插在usb上的pe4010,而且用的是win自带的复制而不是rar🤔

whatever,楼上又在野兽雷普地板力,哪怕我不润什么地方,我也得停止一切涉及机械硬盘的工作,checksum啥的晚上再说🤔

eulaAAAAAAAAA

那么下午我去打打waifu impact剩下的另外一个活动,貌似是时停拍照活动v3,但只能派两个角色,而且时停也没法随便停,只能在做出某种动作(比如扔出e或者q)之后完全不动,才会停🤔感觉没啥意思🤔

哪怕如此,就在我打算对新(大嘘)活动录会儿屏时,这玩意才打了半关不到就又一次重启力(恼🤔此时我挂着hsr,但hsr处于打完su关卡后的抽祝福阶段,gpu占用约等于没有🤔

bruhfei.24.04.01

这几天我都在哼哼雷普waifu impact的版本活动,不清楚为啥拖到了离截止日期只有不到两三天的时候我才去玩,是因为hsr的版本活动在一周前结束?还是因为2.1出的时候哼哼雷普了一整天su⑨?🤔

总之到这个时候,我不得不面对需要在三天啊三天之内干完五个号的版本活动这种窘境,其中有一天还干不成(全恼🤔先从抠抠米小号开始,这玩意玩起来其实还是比较有意思的,如果认真玩的话需要在它的每一个运营周期里都看一次攻略,搞清楚要合成的药剂需要哪些主属性和副属性,然后看着合成🤔

但如果我除了这个号之外还需要被迫再玩它四遍呢?那我恐怕就没有那么大耐心力,直接开始摆烂,只需要合成一种之前没有出现过的主属性组合,然后上架的时候看一眼需求,或者需求要是没出的话看都不看,或者什么时候都懒得看需求,直接下一步🤔到了可以升级属性的时候,先升级炼金再升级商店,最后再看种植有没有可点的🤔

非常生草的是这么做它收益居然还可以,每回只有一种药剂没什么人买,没那么糟🤔基本上到21回合就能打完它的2.6M目标,如果不能的话下个回合也差不多可以力🤔但这个活动某种程度上的最终奖励要拖到25回合,此时如果达成2.6M的话琴酱会出面送些家具啥的🤔

我之前并没有意识到这点,以为达成2.0M后这个破活动就不会有什么新东西力,直接领奖励走人(确信🤔所以按照我的迫真推算,我打完所有号也许还有两个小时?去打打深渊啥的🤔但当我随便扫一眼wiki发现琴酱返场还送家具之后,,,好家伙,这下不得不接着玩下去力(撅望🤔

更撅望的是21回合和25回合之间居然还插着两段剧情,一个砂糖酱的高级炼金考试,一个一个一个514郎和fischl喵酱kirara🤔好家伙,waifu impact现在也有猫狗组合力,当然猫狗梗可能在kirara出的时候我就玩过114514遍力,但猫狗便乘官方cp才是最生草的(确信🤔至此我肯定没时间玩什么合影impact力,rush剧情还rush不及捏(全恼🤔到后面我干脆两台机子同时挂机,都开的auto剧情模式,一个挂剧情一个就开始搞合成,此时我连合成都懒得玩,直接随便拖一些玩意进去,它居然也能过🤔

总之我打完全部五个号的炼金活动后,离截止时间只剩下大概十分钟甚至⑨分钟,剩下的时间基本上只够给当前登录的号打一层深渊(悲🤔打完深渊我发现那些原石奖励我居然没领,此时离活动结束还有一分钟,好家伙,我领了撅大多数能领的,就差两项由于升级武器的矿满而卡在那儿(恼🤔心肺停止的程度基本上堪比这屑游戏日常清清体力遭遇160/160,浓缩树脂5个,雷普了114.514秒圣遗物本发现圣遗物满力(撅望🤔

不过总体来说我不是很关心深渊那点原石,或者活动那点原石,它那些撅版家具装饰还有武器精炼材料之类的玩意才是我抛弃深渊跑去玩这屑活动的原因(恼🤔而至于为什么我这段时间(从hsr的版本活动结束到这个版本活动结束可是隔了整整一周)不仅活动没怎么打,甚至深渊都没怎么打,我暂且蒙古🤔或者实在不成,楼上野蛮装修的那些逆天玩意全责?要不是它们天天雷普地板,我不至于跑外面用parsec远程,而在外面打别的还好,打深渊延迟过于感人,再时不时来几秒bitrate跟不上时刻,基本上卡得完全没法打(撅望🤔

thonk

一觉起来仍然感觉疲倦,或者用现在流行的说法叫做电子阳痿,所以我去做点互动性比较弱(迫真)的事,比如挂机处理下截图🤔中途搞错了指令三回啊三回,导致比预计时间晚了一小时左右,但最终还是在十点甚至⑨点前整完力🤔

中途恢复到有精力改改guilded tube脚本,将其改成加密版本🤔其实这个甚至比guilded drive还要简单,最猴的版本只需要预先准备一个密钥和一个iv,然后准备一个叫做keyinfo的txt或者啥里面并在ffmpeg参数里加一行引用这个keyinfo,就这么简单(确信🤔

这个keyinfo由三行组成,第一行是密钥文件在互联网上的url,它是要写进m3u8里解密用的🤔第二行是密钥文件在本地的绝对路径,加密用,第三行是iv,也会写入m3u8里面(确信🤔考虑到加密hls用的是aes128这种对称算法,其实一二行是同一个东西,只不过它需要先上传到某个网络位置再填进第一行(确信🤔第二行貌似也可以填网络位置,但它有可能每加密一次(分片?)就要下载或者读取一次这玩意,所以还是填本地路径⑧🤔

然后它会自动生成带有解密信息的m3u8和加密后的ts,再像普通guilded tube脚本一样照常上传和替换m3u8即可(确信🤔问题是它这个加密的过程极慢,可能只有个位数倍速(而不加密时随便上百🤔

但更加蛋疼的是,某些录屏mp4貌似没法正常用ffmpeg分片,它上传guilded的时候会报错请求体过大,这玩意不会干到一个分片大于500MB了⑧🤔而且如果是这样的话,我寻思加不加密其实都会出这种问题🤔

既然如此,而我有几百个这样的视频,不可能一个一个一个盯着看它们有没有正常分片,而且我的脚本写得它就算出这种问题我也不方便停止、排除有问题的视频并断点续传,所以我只能彻底取消将它们传到guilded tube的计划🤔再说了加密hls这个主意还是过于鲨碧,比如最终的m3u8文件不还是得明文放在guilded或者discord上,那么这加密大概是加了一个一个一个一个寂寞啊啊啊啊啊(全恼🤔

而加密guilded drive那边就好很多,它处理1GB数据居然只(大嘘)需35秒,大概只比不加密多不到两倍,速度还是比较满意的(确信🤔但更重要的是加密guilded drive所有上传到guilded的东西包括metadata都是加密了的,我也不需要将密码也好密钥也好放在某个网络位置才能完成解密,甚至还可以上aes256🤔不过考虑到这些游戏录屏的逆天码率,我只能说将其处理成hls在线观看还是有点过于超前力(悲🤔