Skip to content

shuosc/shu-course-data

Repository files navigation

shu-course-data

基于 GitHub Actions 的 SHU 课程爬虫,为 SHU 排课助手SHU 排课助手(v3) 项目服务。

Interval Crawler Task Publish to COS Publish to COS

说明

本项目的两个工作流

  1. Interval Crawler Task — 位于main分支

    抓取课程数据:crawler.py;分析课程数据变化并推送数据到 data 分支(或创建 Pull Request 人工复审):post_crawler.py

  2. Publish to COS — 位于data分支

    上传到腾讯云 COS:cos_publish.py

  3. Publish to OSS — 位于data分支

    上传到阿里云 OSS:oss_publish.py,兼容当前版本的 SHU 排课助手

课程数据格式

data分支下的目录结构如下:

/
├ terms
│ ├ 20212.json
│ ├ 20213.json
│ …
└ current.json

terms目录下的每个文件以{termId}.json格式命名,内容包括学期的元数据和详细的课程数据。具体数据结构如下:

字段 类型 说明
course Course[] 课程数据(Course具体字段略)
termName string 学期名称
backendOrigin string 学校选课系统后端 Origin,当前固定为 http://xk.autoisp.shu.edu.cn
hash string 使用 Python 的json.dumps函数将course字段的值转为 JSON 格式(sort_keys=True,其他参数默认),对该 JSON 文本取 MD5 的值,用以标识本学期数据的版本
updateTimeMs number 数据抓取时间,单位毫秒(ms)

current.json内容为termId数组,即当前选课系统中开放的学期。

数据发布到对象存储服务(COS)

数据发布到对象存储服务(当前为腾讯云 COS)前,需要对数据格式进行转换,以更好地利用缓存机制,减少 CDN 回源流量和用户在网页端消耗的流量

发布到对象存储服务的有清单文件manifest和学期课程数据文件terms/{termId}.{hash}.json。180 天没有更新且不是当前选课系统开放的学期将不被列入清单文件,相关课程数据也不会被上传。对象存储服务会清理 360 天没有更新的学期课程数据文件。

manifest

Header:Cache-Control=no-cache

此文件较小,通过Cache-Control禁用了缓存,以确保用户及时获得课程数据更新信息。但在实践中 CDN 设置了过期时间为 1 分钟的强制缓存,以减少部分回源请求。

字段 类型 说明
terms TermMeta[] 课程元数据,字段有:termIdtermNamehashupdateTimeMs
current string[] 当前选课系统开放的学期termId

terms/{termId}.{hash}.json

Header:Cache-Control=public, max-age=2592000

文件内容为课程信息数组,即Course[](字段略),上传后不允许变更,因此在 CDN 和浏览器端强缓存。文件原始大小通常为 1 ~ 2 MB,但通过 Gzip 或 Brotli 压缩后实际传输的数据量仅为原始大小的 10% 左右。

进度

已完成

  • 通过 OpenVPN 客户端连入学校网络
  • 实现在 Actions 环境下运行爬虫
  • 抓取选课网站课程列表写入文件
  • 将爬虫结果与当前数据进行比较,对于纯一般字段变化(如人数、容量、上课地点等),直接 PUSH 到新的分支,否则创建 Pull Request 以提供人工复查
  • 通过 Actions 自动将 data 分支数据上传到腾讯云 COS
  • 优化 Pull Request 创建的策略,可复用已有的拉取请求

TODO List

  • 继续优化 Pull Request 创建的策略,例如生成变更概览页面展示变化的字段、优化比较策略减少人工复审频率等
  • 为爬虫部分添加其他平台工作流文件或本地运行 Docker 镜像等,防止当前 GitHub Actions 途径出现问题
  • 抓取添加更多元信息,例如每天课程数、每节课的时间段、课程详细信息等
  • ……

开发

GitHub Actions 开发

  • Fork 为自己的项目
  • 到 Settings - Secrets 添加两条 Repository secrets:
    • SHU_USERNAME 学工号
    • SHU_PASSWORD 密码
  • 进行开发

本地运行爬虫

前提:pipenv 已安装。 (pip install pipenv)

先 Clone 到本地。

pipenv install
pipenv run python crawler.py -u <学号>

如需查看所有爬虫命令,输入pipenv run python crawler.py -h

许可证

代码: AGPL-3.0-or-later

基于此项目提供服务,包括发布程序运行结果以供下载,必须 以相同许可证开源提供服务的源码和修改后的源码(如有)。

数据: CC BY-NC-SA 4.0

使用数据的服务请标注本项目地址,禁止商用,演绎版本需以相同方式共享。


获取数据或使用数据提供服务时,请遵守各地法律法规。请勿滥用。

About

基于 GitHub Actions 的 SHU 课程爬虫

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Contributors 4

  •  
  •  
  •  
  •  

Languages