Source: Slashdot
长久以来的Slashdot读者Geoffrey.landis报道,尽管生成性人工智能的输出令人印象深刻,但麻省理工学院的最新研究表明,其对世界的理解并不连贯。尽管表现最佳的大型语言模型展现了看似隐含学习一些普遍真理的能力,但事实并非如此。
这项新论文显示,大型语言模型和游戏类人工智能隐式模拟了世界,但这些模型存在缺陷和不完整性。研究示例表明,一种流行的生成性人工智能模型在纽约市提供准确的逐步驾驶指引,但并没有构建准确的城市内部地图。
尽管模型仍能有效导航,但当研究人员封闭一些街道并增加绕行时,其表现大幅下降。
进一步研究发现,该模型隐式生成的纽约地图中包含许多不存在的街道,这些街道在网格之间弯曲并连接远处的交叉口。
人工智能的表现能否替代人类的直觉理解?在追求智能的同时,我们是否忽视了其背后的逻辑与真实?
特别声明:本文及配图均为用户上传或者转载,本文仅代表作者个人观点和立场,不代表平台观点。其原创性以及文中陈述文字和内容未经本站证实,
对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本平台不作任何保证或承诺,请读者仅作参考,
并请自行核实相关内容。如发现稿件侵权,或作者不愿在本平台发布文章,请版权拥有者通知本平台处理。
Copyright Disclaimer: The copyright of contents (including texts, images, videos and audios)
posted above belong to the User who shared or the third-party website which the User shared from.
If you found your copyright have been infringed, please send a DMCA takedown notice to
info@microheadline.com
来源:https://slashdot.org/story/24/11/10/1911204/generative-ai-doesnt-have-a-coherent-understanding-of-the-world-mit-researchers-find?utm_source=rss1.0mainlinkanon&utm_medium=feed
https://news.mit.edu/2024/ambience-equips-doctors-with-ai-co-pilots-1016
https://www.reddit.com/r/technology/comments/1gky34d/despite_its_impressive_output_generative_ai/