Skip to content

ShowMeAI-Hub/multi-task-learning

Repository files navigation

多任务学习TensorFlow实践

说明

本github包含多任务多目标学习的一些模型(Share-Bottom, MMoE, PLE等)的实现代码,使用的数据为2021《微信大数据挑战赛》数据集。

韩信子@ShowMeAI

关于多目标学习网络结构设计优化策略上的方法总结和解析,欢迎参阅[多目标优化及应用(含代码实现)]博文。完整的 微信视频号多目标学习数据集 欢迎关注微信公众号「AI算法研究所」获取网盘地址下载。

微信视频号推荐数据说明

对于给定的一定数量到访过微信视频号“热门推荐”的用户,采集和整理用户在视频号内的历史n天的行为数据(脱敏)构建数据集,希望通过算法在测试集上预测出这些用户对于不同视频内容的互动行为(包括点赞、点击头像、收藏、转发等)的发生概率。业务效果评估准则为多目标的加权uAUC值。

数据集与字段说明

数据集包含训练集和测试集,训练集用于训练模型,测试集用于评估模型效果,提交结果demo文件用于展示提交结果的格式。所有数据文件格式都是带表头的.csv格式,不同字段列之间用英文逗号分隔。

训练集

(1) Feed信息表

该数据包含了视频(简称为feed)的基本信息和文本、音频、视频等多模态特征。具体字段如下:

字段名 类型 说明 备注
feedid String Feed视频ID 已脱敏
authorid String 视频号作者ID 已脱敏
videoplayseconds Int Feed时长 单位:秒
description String Feed配文,以词为单位使用空格分隔 已脱敏;存在空值
ocr String 图像识别信息,以词为单位使用空格分隔 已脱敏;存在空值
asr String 语音识别信息,以词为单位使用空格分隔 已脱敏;存在空值
description_char String Feed配文,以字为单位使用空格分隔 已脱敏;存在空值
ocr_char String 图像识别信息,以字为单位使用空格分隔 已脱敏;存在空值
asr_char String 语音识别信息,以字为单位使用空格分隔 已脱敏;存在空值
bgm_song_id Int 背景音乐ID 已脱敏;存在空值
bgm_singer_id Int 背景音乐歌手ID 已脱敏;存在空值
manual_keyword_list String 人工标注的关键词,多个关键词使用英文分号”;”分隔 已脱敏;存在空值
machine_keyword_list String 机器标注的关键词,多个关键词使用英文分号”;”分隔 已脱敏;存在空值
manual_tag_list String 人工标注的分类标签,多个标签使用英文分号”;”分隔 已脱敏;存在空值
machine_tag_list String 机器标注的分类标签,多个标签使用英文分号”;”分隔 已脱敏;存在空值
feed_embedding String 融合了ocr、asr、图像、文字的多模态的内容理解特征向量 512维向量

说明

  • 训练集和测试集涉及的feed均在此表中;
  • description, orc, asr三个字段为原始文本数据以词为单位使用空格分隔和脱敏处理后得到的。例如:文本“我参加了中国高校计算机大赛“经过处理后得到类似“2 32 100 25 12 89 27”的形式(此处只是一个样例,不代表实际脱敏结果)。此外,我们还提供了以字为单位使用空格分隔和脱敏的结果,对应的字段分别为description_char、ocr_char、asr_char。
  • machine_tag_list字段比manual_tag_list字段增加了每个标签对应的预测概率值(取值区间[0,1])。脱敏后的标签和概率值之间用空格分隔。例如:“1025 0.32657512;2034 0.87653981;35 0.47265462”。
  • manual_keyword_list和machine_keyword_list共享相同的脱敏映射表。如果原先两个字段都包含同个关键词,那么脱敏后两个字段都会包含同个id。
  • manual_tag_list和machine_tag_list共享相同的脱敏映射表。如果原先两个字段都包含同个分类标签,那么脱敏后两个字段都会包含同个id。
  • feed_embedding字段为String格式,包含512维,数值之间用空格分隔。

(2) 用户行为表

该数据包含了用户在视频号内一段时间内的历史行为数据(包括停留时长、播放时长和各项互动数据)。具体字段如下:

字段名 类型 说明 备注
userid String 用户ID 已脱敏
feedid String Feed视频ID 已脱敏
device Int 设备类型ID 已脱敏
date_ Int 日期 已脱敏为1-n,n代表第n天
play Int 视频播放时长 单位:毫秒;若播放时长大于视频时长,则属于重播的情况
stay Int 用户停留时长 单位:毫秒
read_comment Bool 是否查看评论 取值{0, 1},0代表“否”,1代表“是”
like Bool 是否点赞 取值{0, 1},0代表“否”,1代表“是”
click_avatar Bool 是否点击头像 取值{0, 1},0代表“否”,1代表“是”
favorite Bool 是否收藏 取值{0, 1},0代表“否”,1代表“是”
forward Bool 是否转发 取值{0, 1},0代表“否”,1代表“是”
comment Bool 是否发表评论 取值{0, 1},0代表“否”,1代表“是”
follow Bool 是否关注 取值{0, 1},0代表“否”,1代表“是”

说明

  • 用户行为表中每个用户对应的数据已按照时间戳顺序由小到大排列,数据中不提供时间戳字段。

测试集

测试集具体字段如下:

字段名 类型 说明 备注
userid String 用户ID 已脱敏
feedid String Feed视频ID 已脱敏
device Int 设备类型ID 已脱敏

结果格式

  • 初赛阶段:需要对测试集中每一行的userid和feedid的四种互动行为的发生概率进行预测,这四种行为包括:查看评论、点赞、点击头像、转发;
  • 复赛阶段:需要对测试集中每一行的userid和feedid的七种互动行为的发生概率进行预测,这七种行为包括:查看评论、点赞、点击头像、转发、收藏、评论和关注。

行为具体格式说明如下:

字段名 类型 说明 赛段 备注
userid String 用户ID 初赛/复赛 已脱敏
feedid String Feed视频ID 已脱敏
read_comment Float 是否查看评论 预测用户特定行为发生的概率,取值区间[0,1]。 0代表“否”,1代表“是”; 结果最多保留六位小数。
like Float 是否点赞
click_avatar Float 是否点击头像
forward Float 是否转发
favorite Float 是否收藏 仅复赛
comment Float 是否发表评论
follow Float 是否关注

评估标准

采用uAUC作为单个行为预测结果的评估指标,uAUC定义为不同用户下AUC的平均值,计算公式如下:

其中,n为测试集中的有效用户数,有效用户指的是对于某个待预测的行为,过滤掉测试集中全是正样本或全是负样本的用户后剩下的用户。AUCi为第i个有效用户的预测结果的AUC(Area Under Curve)。

初赛的最终分数为4个行为(查看评论、点赞、点击头像、转发)的uAUC值的加权平均。复赛的最终分数为7个行为(查看评论、点赞、点击头像、转发、收藏、评论和关注)的uAUC值的加权平均。分数越高,排名越靠前。

在总分中,7个行为的权重如下:

字段名 字段说明 权重
read_comment 是否查看评论 4
like 是否点赞 3
click_avatar 是否点击头像 2
forward 是否转发 1
favorite 是否收藏 1
comment 是否发表评论 1
follow 是否关注 1

加权uAUC的计算公式如下:

其中,k为待预测的互动行为数,初赛k=4,复赛k=7。 uAUCi为第i个行为的uAUC值, Wi为第i个行为的权重。

多目标优化算法

简介

多目标排序是推荐排序系统中常见的技术实现,在很多推荐与排序常见中,有多个业务目标,找到一种综合排序方法使得多个目标都达到整体最优,能有最好的总体收益。

网络结构优化

  • Share Bottom:早期一直在使用的方式,参数共享(hard或者soft)的方式来对多任务建模。
  • 2018 Google MMOE:将hard的参数共享变成多个expert,通过门控来控制不同loss对每个expert的影响。
  • 2020 腾讯 PLE:在MMOE的基础上增加了各任务独有的Expert。

MMoE

MMoE中不同的expert负责学习不同的信息内容,然后通过gate来组合这些信息,通过不同任务gate的softmax的热力分布差异,来表明expert对不同的目标各司其责,从而提升了效果。

PLE

PLE在MMoE的基础上,为每个任务增加了自己的specific expert,仅由本任务对其梯度更新。 MMoE通过『化整为零』,把一个共享参数矩阵化成多个结合gate的共享Expert,这样不同的loss在存在相互冲突的时候,在不同的expert上,不同loss可以有相对强弱的表达,那么出现相互抵消的情况就可能减少,呈现出部分experts受某task影响较大,部分experts受其他task主导,形成『各有所得』的状态。而PLE增加了spcific experts,能进一步保障『各有所得』,保证稳定优化。

代码说明

代码由几个Jupyter Notebook构成,其中data-preprocessing-and-feature-engineering包含数据预处理与特征工程步骤,运行完成之后,可以依次运行后续的不同结构模型进行建模。

About

TensorFlow implementation of multi-task learning architectures, incl. MMoE & PLE, on wechat dataset

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published