共 25 条
基于行为-内容融合模型的用户画像研究
被引:31
|作者:
余传明
[1
]
田鑫
[1
]
郭亚静
[1
]
安璐
[2
]
机构:
[1] 中南财经政法大学信息与安全工程学院
[2] 武汉大学信息管理学院
来源:
关键词:
用户画像;
情感分析;
用户表示学习;
特征融合;
D O I:
10.13266/j.issn.0252-3116.2018.13.008
中图分类号:
TP391.1 [文字信息处理];
学科分类号:
摘要:
[目的/意义]为识别并去除非理性投资者的网络评论,提升评论的专业程度与质量,促进理性投资,本文以识别股吧中的用户是否属于噪声投资者为研究任务,进行用户画像。[方法/过程]对股吧的用户发文内容进行深度用户表示学习(deep user representation learning),结合股吧用户的粉丝数量、影响力、关注量、自选股、吧龄、发帖量、评论量、访问量等行为特征,提出一种行为-内容融合模型(behaviour and content combined model,BCCM),并在标注数据集上进行实证与对比研究。[结果/结论]实验结果显示,该模型对噪声投资者识别的F1值为79. 47%,优于决策树方法(69. 90%)、SVM方法(75. 61%)、KNN方法(73. 21%)和ANN方法(74. 83%)。在噪声投资者识别这一特定用户画像研究任务中,通过利用深度用户表示学习引入文本内容特征,能够显著提升用户画像的各种评价指标。
引用
收藏
页码:54 / 63
页数:10
相关论文