当前位置: 首页 > 科技观察

从技术角度来说,为什么人停不下来短视频?

时间:2023-03-16 12:13:28 科技观察

基于时间碎片化、视频互动强、内容丰富、体验好等因素,短视频近年一直处于流量风暴的中心,各大平台纷纷涉足短视频领域.因此,平台对短视频内容的推荐显得尤为重要,千人千面是短视频推荐的核心竞争力。短视频一般从“点击率”和“观看时长”两个方面进行优化,增加用户消费时长。接下来UC事业部国际研发团队的童鞋们将从这两个方面着重对短视频模型的点击时间进行多目标优化。背景目前,信息流的短视频排序是基于CTR预估Wide&Deep深度模型。基于Wide&Deep模型的一系列相关优化,包括相关性和体感信号的引入、多场景样本融合、多模态学习、树模型等,都取得了不错的效果。一般来说,短视频模型优化可以分为两部分优化:PerceivedRelevanceOptimization-clickmodeltooptimize(CTR/Clickasthegoal)RealRelevanceOptimization-durationmulti-objectiveoptimization(dwelltimeRDTM/playcompletionratePCR)以上收益都是基于点击模型的优化。该模型可以很好地捕捉到USER-ITEM之间的感知相关性,感知权重比较高,削弱了真实相关性。这可能会导致用户兴趣的缩小和长尾问题的加剧。.此外,观看时长,无论是信息流还是竞品,都是一个重要的优化目标。在此背景下,短视频排序模型迫切需要引入时长多目标优化,以提高推荐的真实相关性,在时长上寻求突破。引入时长多目标,排序模型不仅优化了点击目标,还考虑了时长目标,使得排序模型在感知相关性和真实相关性之间取得平衡,实现收益最大化;目前业界在多少点击+时长目标优化上有多种方法,包括多模态学习(点击+时长)、联合建模、样本重加权等,本次我们使用样本重加权的方法。在点击标签不变的前提下,将时长作为强偏置影响时长目标,保证感知相关性的前提下,优化真实相关性。此外,我们正在研究更多的自适应时间建模方法(point-wise,list-wise),稍后会介绍。以上就是对模型时长的多目标优化的介绍。样本重配取得了良好的回报。以下是介绍。RDTMREWEIGHTING观看时间加权优化,我们使用weightlogistic回归方法,参考RecSys2016上的Youtube时间建模,在点击模型上提出样本reweight。模型训练时,正样本按观看时间加权,负样本权重不变影响正负样本的权重分布,使得观看时间较长的样本在duration目标下得到充分训练。加权逻辑回归方法在稀疏点击场景下可以使时长很好地逼近期望值。假设是加权逻辑回归学习到的期望,其中N为样本数,K为正样本,Ti为停留时长,真实期望近似为E(T)*(1+P),P为点击概率,E(T)为停留时长的期望值,在P<<1的情况下,真实期望值接近于E(T)。所以采用加权逻辑回归的方法进行样本加权,适合我们点击稀疏的场景。通过样本加权的方法,模型可以学习到物品浏览时间的偏序关系。样本权重优化,我们参考了Youtube的时间长度建模,但是在做法上有一些区别:标签:Youtube使用时间长度作为标签进行优化,但我们仍然使用点击标签来保证模型的感知相关性(CTR/点击)。分类/回归:Youtube用回归问题做时间加权,serving用指数函数拟合时间预测值,我们用分类问题优化损失函数logloss,用时间偏置优化时间目标。加权形式:在时长加权方面,我们考虑了观看时长与视频时长的关系,使用多段函数来平滑观看时长与视频时长的关系,而youtube采用的是观看时长加权。以上差异主要从两个方面考虑:在保证CTR稳定的前提下(模型标签还是点击),通过samplereweight优化durationtarget。分段函数的平滑性避免了长短视频投放量的严重偏斜,并最大限度地减少了由于视频长度因素导致模型评分差距较大的问题。在模型网络结构中,底层类别或内容特征通过embedding共享,连续特征离散化归一化。训练时引入weightedlogistic优化durationtarget,在线预测依旧是0/1概率,但0/1概率与之前不同,修正了elapsedtimebias,使得模型排序考虑真正的相关性。离线评估指标1.AUC:AUC是离线评估常用的排序模型,尤其是0/1分类问题。短视频排名模型仍然是一个0/1的问题。因此,AUC是一个基本的离线指标。此外,AUC很难准确评估模型对时间长度优化的好坏。AUC仅作为模型入场条件。在保证AUC平坦/正的前提下,我们需要时间长度指标来衡量准确的模型收益。2.AVG_RDTM:(预测平均停留时间):在每一个batch中,选取模型评分前k个正样本,取该batch样本的平均观看时间作为AVG_RDTM。AVG_RDTM的大小用于评估模型在离线时间内的推荐质量。物理意义:取前k个正样本进行打分,保证模型推荐的感知相关性(CTR)。AVG_RDTM指标衡量点击正样本的观看时间收入。AVG_RDTM越大,久期收益越好。在线时长指标的走势与AVG_RDTM一致,涨幅有所不同。PCR_NORMREWEIGHTING第一阶段在观看时间样本加权方面取得了不错的回报,第二阶段是集中播放完成率的优化。在我们策略审查的第二阶段,我们发现大多数播放完成率高的视频目前的点击率和模型分数都很低。这些项目占短视频的比例比较大。第一阶段由时间段函数样本加权。虽然一定程度上平滑了视频长度对评分的影响,但播放完成率反映了用户对item的关注程度,更能反映推荐的真实相关性。短视频观看时长和视频播放完播率的突破,对短视频的规模和口碑建设有很强的推进作用。针对上述短视频和长视频评分偏低、投放量不足的情况,我们引入分位数播放完成率进行平滑加权。进一步升级观看时间的优化。主要有以下两种方式:Duration目标优化从加权停留时长演变为加权播放完成率,更好地平滑长度之间的评分差异短视频,使模型评分更侧重于真实相关性。对视频时长进行分段,停留时间完成率的分位数归一化+Wilson置信区间的平滑,使得每个视频片段的播放完成率具有相对可比性,避??免了由于打分严重偏斜的情况到视频的长度。此外,较短或较长视频的播放完成率存在天然差距。我们根据视频本身的长度进行离散化,对观看时间进行分位数处理,并在此基础上加入Wilson置信区间。将长短视频播放完成率的差异归一化,使得每个长度段的视频播放完成率都在一个可比的范围内。时长的多目标优化由观看时长(RDTM)升级为播放完成率(PCR_Norm),让短视频观看时长处于相对可比的状态,最小化视频时长对评分的影响,使模型评分更侧重于User-ItemReal相关性和视频质量,提高长尾优质视频消费,增加视频整体观看时长。第二阶段Pcr_norm优化是在第一阶段观看时间优化的基础上,对AUC和AVG_RDTM进行离线评估。归一化后的播放完成率更能体现用户对视频的专注度。通过优化视频的单次阅读时间和阅读完成率,提升整体性能。观看时间的消耗。优化收益:一期+二期线下AUC累计提升6%以上,人均在线时长提升10%以上。结论信息流短视频的多目标优化目前处于探索阶段,短视频多目标优化的渐进路线已经初步探索,从samplereweight->point-wise/list-wisedurationmodeling->多模态联合学习方向。此外,还沉淀了一套策略审核和数据分析方法论,为后续时长优化提供数据依据。虽然现阶段的短视频时长多目标优化已经取得了不错的收益,但是比较有规律性。未来我们将逐步转向自适应时长建模,从point-wise到globallist-wise的时长优化,从感知关联优化到Realcorrelation优化,力争在消费时间上取得重大突破。最大化自适应点击目标和持续时间目标之间的权衡对我们来说将是一个很大的挑战。【本文为专栏作者《阿里巴巴官方技术》原创稿件,转载请联系原作者】点此查看作者更多好文