深挖大模型幻觉!哈佛大学最新报告 只是在输出 LLM等价于众包 网络共识 新智元报道,LRS,新智元导读,哈佛大学研究了大型语言模型在回答晦涩难懂和有争议问题时产生,幻觉,的原因,发现模型输出的准确性高度依赖于训练数据的质量和数量,研究结果指出,大模型在处理有广泛共识的问题...