检索到10000条,只下载了1500多条卡住不动了,怎么办 #37
-
有解决办法吗 |
Beta Was this translation helpful? Give feedback.
Replies: 5 comments 4 replies
-
数据量大了之后这确实是一个问题,可以暂时通过多次按时间范围导出后再导入数据,不过我想到了一个比较好的优化方法了,等我改改它😹 |
Beta Was this translation helpful? Give feedback.
-
@copymonopoly 你好,我在 #38 中修复了它,你试一下更新到 最新版本 看看,应该会好很多了,而且也支持了断点续传,刷新后也会回到上次的状态🥳 |
Beta Was this translation helpful? Give feedback.
-
我找到大致的原因了,结束的逻辑出错了,正在修:#39 |
Beta Was this translation helpful? Give feedback.
-
v0.3.9 应该修好了这个 bug,你再试试看 下载 |
Beta Was this translation helpful? Give feedback.
-
我发现这应该是爬取得太快了,被微博封了ip,详细可以看这里 #40 (comment) 我又重新修了一下这个问题,放缓了一些速度 weibo-archiver.user.js |
Beta Was this translation helpful? Give feedback.
@copymonopoly 你好,我在 #38 中修复了它,你试一下更新到 最新版本 看看,应该会好很多了,而且也支持了断点续传,刷新后也会回到上次的状态🥳