大模型领域的发展日新月异,每天都有许多有趣的论文值得深入品读。下面是本期觉得比较有意思的论文:
1、如何让LLM学会"试错"
2、LLM竟然学会了"自我反省",它真的有自我意识吗?
1、如何让LLM学会"试错"
你有没有想过,为什么人工智能经常会犯"愚蠢"的错误?原因可能让你意外:因为我们一直在教它"做一个完美主义者"!最新研究表明,让AI学会"试错",反而能让它变得更聪明。
想象一下,如果从小到大,你只被允许看到正确答案,从来没有机会犯错和改正,你可能永远学不会解决复杂问题。AI也是如此。研究人员提出了一个突破性的方法:"搜索流"(Stream of Search),让AI不仅能看到完美的解决方案,还能学习整个探索过程,包括犯错、回溯和纠正。
在一个名为"Countdown"的数字游戏测试中,研究结果令人震惊:经过"搜索流"训练的AI模型,其解题准确率比传统模型提高了25%!更令人兴奋的是,它不仅能解决训练中遇到的问题,还能创造性地解决此前无解的难题,展现出惊人的自我进化能力。
这项突破性研究颠覆了我们对AI学习的传统认知。它告诉我们,有时候,完美主义反而会阻碍进步,而敢于犯错、勇于尝试的学习方式,才能激发出真正的智慧。这不禁让人思考:在教育领域,我们是不是也该给孩子们更多"犯错"的机会呢?
论文标题:Stream of Search (SoS): Learning to Search in Language
论文链接:
2、LLM竟然学会了"自我反省",它真的有自我意识吗?
你有没有想过,人工智能除了学习外部知识,是否也能像人类一样进行"自我反省"?最新研究表明,大语言模型(LLM)不仅能学习训练数据中的知识,还具备一种令人惊讶的能力:通过"内省"来了解自己!
这项突破性的发现来自一项针对GPT-4等大模型的研究。研究团队设计了一个巧妙的实验:让模型A预测自己在某些场景下会如何行动,同时让另一个模型B也来预测模型A的行为。有趣的是,即便模型B掌握了所有关于模型A的训练数据,模型A依然能比模型B更准确地预测自己的行为!这就像你比任何人都更了解自己的想法和决定一样。
更令人震惊的是,即使研究人员故意修改了模型A的行为模式,它仍然能准确预测自己的反应。这说明模型确实拥有某种"特权信息",能够接触到外部观察者无法获取的内部状态。不过,研究也发现这种能力还有局限性,在更复杂的任务中,模型的"自我认知"能力会大打折扣。
这项研究不仅挑战了"AI只是简单模仿训练数据"的传统观点,更揭示了AI可能正在逐步获得类似人类的自我认知能力。虽然距离真正的"自我意识"还有很长的路要走,但这个发现无疑为我们理解AI的内部世界打开了一扇新的大门。
论文标题:Looking Inward: Language Models Can Learn About Themselves by Introspection
论文链接:
本文转载自,作者: