追书神器网络协议分析
写了个搜索聚合网络小说的应用。基本写好后,想看看追书神器大概怎么搞的,于是分析了一下追书神器的网络协议。
仅作学习交流,请勿滥用。
iptables -t filter -I OUTPUT -j DROP //block all iptables -t filter -I OUTPUT -m owner --uid-owner=10193 -j ACCEPT //allow 追书神器 iptables -t filter -I OUTPUT -p udp -m owner --uid-owner=0 -j ACCEPT //allow dns
【抓包】 /data/misc/bin/tcpdump -n -iany -w/sdcard/alipay_wifi.pcap
【操作】 进入"完美世界"页面
5:34:50pm 打开来自snwx.com的章节列表 5:36:32pm 打开来自hunhun.net章节列表
5:37:15pm, 打开snwx.com, 1650章 5:38:50pm, 打开hunhun.net 1576章
结束,取结果
【分析】 【图书详情获取】
【源列表】--点击开始阅读 同一本书不同源的有不同的id,相同的book有个总的id,不同源的与总id关联
【源站章节列表】
【章节内容获取】 图书转码通过服务器(chapter2.zhuishushengqi.com)中转
http://www.hunhun520.com/book/wanmeishijie/18720112.html 为章节内容原始地址
发现我们目前的做法差不多。
在考虑要不要把文章内容的解析做到手机终端来,做一套智能分析规则,由服务器下发到终端,这样终端直接去源网页获取章节页面,根据规则提取章节内容。 优点是排除盗版之嫌,节省服务器资源 缺点是网页内容规则改变了,预先设计的规则不一定能有效了。
本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场,不承担相关法律责任。如若转载,请注明出处。 如若内容造成侵权/违法违规/事实不符,请点击【内容举报】进行投诉反馈!
