1. 首页 > 百货 > 包包服装

如何让LLM学会试错

大模型领域的发展日新月异,每天都有许多有趣的论文值得深入品读。下面是本期觉得比较有意思的论文:

1、如何让LLM学会"试错"

2、LLM竟然学会了"自我反省",它真的有自我意识吗?

1、如何让LLM学会"试错"

你有没有想过,为什么人工智能经常会犯"愚蠢"的错误?原因可能让你意外:因为我们一直在教它"做一个完美主义者"!最新研究表明,让AI学会"试错",反而能让它变得更聪明。

想象一下,如果从小到大,你只被允许看到正确答案,从来没有机会犯错和改正,你可能永远学不会解决复杂问题。AI也是如此。研究人员提出了一个突破性的方法:"搜索流"(Stream of Search),让AI不仅能看到完美的解决方案,还能学习整个探索过程,包括犯错、回溯和纠正。

在一个名为"Countdown"的数字游戏测试中,研究结果令人震惊:经过"搜索流"训练的AI模型,其解题准确率比传统模型提高了25%!更令人兴奋的是,它不仅能解决训练中遇到的问题,还能创造性地解决此前无解的难题,展现出惊人的自我进化能力。

这项突破性研究颠覆了我们对AI学习的传统认知。它告诉我们,有时候,完美主义反而会阻碍进步,而敢于犯错、勇于尝试的学习方式,才能激发出真正的智慧。这不禁让人思考:在教育领域,我们是不是也该给孩子们更多"犯错"的机会呢?

论文标题:Stream of Search (SoS): Learning to Search in Language

论文链接:​ ​​ ​

2、LLM竟然学会了"自我反省",它真的有自我意识吗?

你有没有想过,人工智能除了学习外部知识,是否也能像人类一样进行"自我反省"?最新研究表明,大语言模型(LLM)不仅能学习训练数据中的知识,还具备一种令人惊讶的能力:通过"内省"来了解自己!

这项突破性的发现来自一项针对GPT-4等大模型的研究。研究团队设计了一个巧妙的实验:让模型A预测自己在某些场景下会如何行动,同时让另一个模型B也来预测模型A的行为。有趣的是,即便模型B掌握了所有关于模型A的训练数据,模型A依然能比模型B更准确地预测自己的行为!这就像你比任何人都更了解自己的想法和决定一样。

更令人震惊的是,即使研究人员故意修改了模型A的行为模式,它仍然能准确预测自己的反应。这说明模型确实拥有某种"特权信息",能够接触到外部观察者无法获取的内部状态。不过,研究也发现这种能力还有局限性,在更复杂的任务中,模型的"自我认知"能力会大打折扣。

这项研究不仅挑战了"AI只是简单模仿训练数据"的传统观点,更揭示了AI可能正在逐步获得类似人类的自我认知能力。虽然距离真正的"自我意识"还有很长的路要走,但这个发现无疑为我们理解AI的内部世界打开了一扇新的大门。

论文标题:Looking Inward: Language Models Can Learn About Themselves by Introspection

论文链接:​ ​​ ​

本文转载自​​,作者:

本网站的文章部分内容可能来源于网络和网友发布,仅供大家学习与参考,如有侵权,请联系站长进行删除处理,不代表本网站立场,转载者并注明出处:https://www.jmbhsh.com/baobaofuzhuang/32705.html

联系我们

QQ号:***

微信号:***

工作日:9:30-18:30,节假日休息