New Apple Study Shows LLMs Can Tell What You're Doing from Audio and Motion Data
6 months ago
- #Activity Recognition
- #LLM
- #Sensor Data
- 苹果研究人员探索利用大语言模型分析音频和运动数据,以提升用户活动识别能力
- 研究表明大语言模型能有效提高活动分析精度,即使在传感器数据有限的情况下
- 研究采用Ego4D数据集,聚焦12种多样化活动(包括家务劳动和体育运动等)
- 大语言模型在零样本和单样本分类中展现显著准确性,无需针对特定任务进行训练
- 多模型组合方法能增强活动和健康数据分析,尤其在原始传感器数据不足时效果显著
- 苹果公司为研究人员提供补充材料,以便复现该研究结果