Vision Language model, based on chat
论文精读 ·PhotoChat 论文精读:
ACL2021:PhotoChat: A Human-Human Dialogue Dataset with Photo Sharing Behavior for Joint Image-Text Modeling
本文提出了一个新的人际对话数据集- PhotoChat,这是第一个阐明在线消息传递中的照片共享行为的数据集。PhotoChat包含12k个对话,每个对话都配有一张用户照片,在对话过程中共享。基于该数据集,我们提出了两个任务以促进图像-文本建模的研究:
- 一个是预测一个人是否打算在下一次对话中分享照片的照片分享意图预测任务,(intent identification)
- 另一个是根据对话上下文检索最相关的照片的照片检索任务。(image retrieval)
本文创建了PhotoChat—一个人与人对话数据集,其中一张照片在对话过程中由一人分享给另一人。据我们所知,这是第一个捕捉照片分享活动的数据集。我们从OpenImage V4数据集(Kuznetsova et al., 2020)中选择图片作为共享照片,并使用众包插件生成12286个对话,平均每个对话10次。在对话收集过程中,照片只对被指示共享照片的一方可见,在共享后对双方都可见。基于收集到的数据集,我们提出了构建照片建议系统的两个关键任务:照片分享意图预测任务(预测一个人是否打算在下一个对话对话中分享照片)和基于对话的图像检索任务(在给定的对话上下文中检索最相关的照片)。对于两者,我们建立基线模型,报告和分析它们的性能。最佳的照片共享意图预测基线模型F1得分为58.1%,准确率为58.2%,查全率为57.9%。最好的交叉注意图像检索模型达到10.4% recall@1 / 1000个候选。我们还提出了一种利用对象标签对图像特征进行编码的双编码器模型,该模型在没有交叉注意机制的所有模型中达到了最佳性能。
可惜PhotoChat不适合作为dialogue generation。注重检索和意图预测。
-
对于意图识别:本文为了建立基线,我们微调了三个SOTA预先训练的模型——BERT、ALBERT and T5. 对于图片: ,其中, 。那么一段多轮对话来说 其中 时刻,发生了分享图片的action。
-
对于图像检索:Dual encoder(double-stream network with bert as textual encoder and Resnet as visual encoder)、VSE++(强调了最难的底片使用最大的铰链损失为目标,并产生了显著的性能改进,2018)、SCAN(是一个完整的交叉注意模型,它捕获图像区域和文本标记之间的细粒度相互作用,从而推断图像-文本相似性。)、BM25(是一种广泛用于文档检索的概率检索函数。为了使其适应我们的设置,我们直接利用每个图像 的对象标签作为文档项)
自我总结:对于作者给出的两个任务,对于数据集完全有gold entity进行支撑。比如,intent prediction的label在数据集中是存在的。对于image retrieval也是存在对数据的描述的。这里需要对比一下另一个工作OpenViDial。思考一下为什么PhotoChat不可以用作对话生成。
citation
@article{, abstract = {We present a new human-human dialogue dataset-PhotoChat, the first dataset that casts light on the photo sharing behavior in online messaging. PhotoChat contains 12k dialogues, each of which is paired with a user photo that is shared during the conversation. Based on this dataset, we propose two tasks to facilitate research on image-text modeling: a photo-sharing intent prediction task that predicts whether one intends to share a photo in the next conversation turn, and a photo retrieval task that retrieves the most relevant photo according to the dialogue context. In addition, for both tasks, we provide baseline models using the state-of-the-art models and report their benchmark performances. The best image retrieval model achieves 10.4% re-call@1 (out of 1000 candidates) and the best photo intent prediction model achieves 58.1% F1 score, indicating that the dataset presents interesting yet challenging real-world problems. We are releasing PhotoChat to facilitate future research work among the community.}, author = {Xiaoxue Zang and Lijuan Liu and Maria Wang and Yang Song and Hao Zhang and Jindong Chen}, title = {PhotoChat: A Human-Human Dialogue Dataset with Photo Sharing Behavior for Joint Image-Text Modeling}, url = {https://github.com/google-research/google-}, }