Skip to content

1837669410/bilibili_comment_crawl

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

15 Commits
 
 
 
 
 
 
 
 

Repository files navigation

🌈🌈🌈bilibili评论爬取🌈🌈🌈(代码文件只有crawl.py)

如果遇到代码已经无法运行了请及时提醒我,可以提Issues,我会尽快更新!!!!!!

本人比较喜欢做情感分析的NLP项目,因此突发奇想想到去B站收集信息。

1、声明 2、url参数解析 3、如何爬取想要的视频评论 4、核心代码 5、BUG提示 6、资源包获取方式

重点:但是本项目只是学习使用,如果用作任何其他用途,本人概不负责!!!⚠⚠⚠

该项目只适用学习其他任何用途均不可使用!!!

该项目只适用学习其他任何用途均不可使用!!!

该项目只适用学习其他任何用途均不可使用!!!

expample: https://api.bilibili.com/x/v2/reply/main?csrf=40a227fcf12c380d7d3c81af2cd8c5e8&mode=3&next={}&oid=860478472&plat=1&type=1

csrf:固定是40a227fcf12c380d7d3c81af2cd8c5e8(不太清楚含义)

mode:应该是一种模式 (也不太清楚含义)

next:按照实验应该是一个起始页的指示,可以从0开始

oid:代表每个视频的唯一标识

plat:不清楚含义

type:不清楚含义

  • 重点修改一词next的值可以爬取到20条评论,这个我没有分析出来是哪个参数控制的,但是大家也不要去修改,毕竟是学习不要去恶意修改其他的参数。
  • 重点核心参数只需要修改;1、oid:视频唯一标识码;2、next:评论起始页(从0开始)

步骤:

  • 1、找到自己想要爬取视频的oid

  • 2、设置url比如:

    # next={}预留的地方就是用来控制起始页数的位置,经过验证是可以从0开始的,到时候for循环的时候用.fotmat()方法补全即可
    # oid={}只需要找到自己想要爬取的视频的oid码就行了
    url = "https://api.bilibili.com/x/v2/reply/main?csrf=40a227fcf12c380d7d3c81af2cd8c5e8&mode=3&next={}&oid=去找到自己想要爬取的视频的oid码然后把这儿替换掉即可&plat=1&type=1"
  • 3、如何爬取到所有的comment(⭐重点)

    因为我首先没有先去找所有的评论到底有多少,因此需要自行进行逻辑判断,我的方法是:

    # 通过判断上一次comment列表的长度和当前的列表长度是否一致来判断时候有新的评论数据加入,如果有则继续爬虫,如果无则停止爬虫,这样可以避免爬虫因error提前退出或者爬取到许多脏数据
    comment = []
    pre_comment_length = 0
    if len(comment) == pre_comment_length:
        print("爬虫退出!!!")
        break
    else:
        pre_comment_length = len(comment)
import requests

# 范例url:https://api.bilibili.com/x/v2/reply/main?csrf=40a227fcf12c380d7d3c81af2cd8c5e8&mode=3&next=3&oid=861032963&plat=1&type=1
# 如果有不懂的参照这个url对比下就知道了
url = "https://api.bilibili.com/x/v2/reply/main?csrf=40a227fcf12c380d7d3c81af2cd8c5e8&mode=3&next={}(这儿提示,从0开始即可)" \
      "&oid=(替换成自己想要爬取的视频的oid码即可)&plat=1&type=1"

header = {
    "user-agent": "替换成自己的user-agent即可",
    "cookie": "替换成自己的cookie即可"
}

comment = []
pre_comment_length = 0

for i in range(200):
    responses = requests.get(url=url.format(i), headers=header).json()
    for content in responses["data"]["replies"]:
        comment.append(content["content"]["message"])
    print("搜集到%d条评论" % (len(comment)))
    # 调整爬虫策略,从必须每20条评论调整成上一次评论数和这一次评论数进行比较,如果有改变说明有新数据,如果没改变说明数据全部搜集完毕,爬虫停止
    if len(comment) == pre_comment_length:
        print("爬虫退出!!!")
        break
    else:
        pre_comment_length = len(comment)

with open("bilibili_comment.txt", "w", encoding="utf-8") as fp:
    for c in comment:
        fp.write(c + "\n")
  • 有时候爬取了一会就会碰到不足20条的数据,这时候根据我的代码逻辑,就会直接退出爬虫(已修复该bug,更改了新的爬虫停止逻辑)
  • 新的bug坑等着大家来提出

1、评论包的位置步骤:

  • 1、首先找到任一视频打开F12

    F12打开时候的样子

  • 2、因为比较杂乱,点击该位置将这些资源包删除

    点击此处删除

  • 3、拖动滚轮向下滑动直到出现一个这样的资源包即可

    评论资源包

  • 4、将其点开,就能找到对应视频的oid码了

    oid码所在位置

  • 5、评论资源所在位置,点击方框处

    响应

  • 6、看到其中的内容然后Crtl-A + Crtl-C,全选复制,然后在网上随便搜一个在线JSON解释器粘贴进去即可

    json解析后的样子

  • 7、然后点击那些(➖减号)啥的符号慢慢整理可以看到一个这样的列表

    整理后的json解析文件

  • 8、最后所需要的评论就在

    comment所在的位置

  • 9、对应的python字典获取格式就是:

    # 可以发现data下的replies其实通过字典访问的方式就可以得到一个长度为20的列表了(这儿看第7步的图片就可以看出来)
    # 每个列表下又是一个字典,这时候通过访问key:"content",然后又是一个字典在访问key:"message"就可以拿到数据了
    # 举个例子:
    responses = requests.get(url=url, headers=header).json()
    # 拿到返回了的json数据
    replies = responses["data"]["replies"] # 这样就可以得到一个长度为20的列表了
    # 然后在循环该列表,就可以拿到数据了
    for content in replies:
        print(content["content"]["message"])

About

爬取bilibili视频下的评论,最新出品!!!⚠本代码只适用于学习,做其他事情概不负责!!!

Topics

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages