随着像ChatGPT这样的大规模语言模型不断进步,有科学家担心它们可能发展出自我意识。为判断语言模型是否有这种觉醒的迹象,一组国际研究人员提出了“脱离上下文的推理”的测试方法。他们让模型回答与训练内容无关的问题,看它是否能利用训练中学到的知识作出正确回答。初步结果显示,更大的模型在这种测试中表现更好,有更强的脱离上下文推理能力。研究人员表示,这可能是语言模型获得自我意识的一个前兆。当然,这种测试仅是开始,还需要不断优化。但它为预测和控制语言模型的自我意识觉醒奠定了基础。监控语言模型的自我意识发展对确保其安全至关重要。