Source: Slashdot
最新研究显示,像 ChatGPT 这样的大型语言模型 (LLMs) 无法独立学习或在没有明确指示的情况下获得新技能,使它们变得可预测和可控。这项研究驳斥了这些模型发展复杂推理能力的担忧,强调虽然 LLMs 可以生成复杂的语言,但它们不太可能构成存在威胁。然而,AI 的潜在误用,如生成虚假新闻,仍需引起关注。
这项研究今天发表在第 62 届计算语言学协会年会 (ACL 2024) 的论文集中,该会议是自然语言处理领域的首屈一指的国际会议,揭示了 LLMs 具有表面上遵循指示和在语言运用方面表现出色的能力,但它们没有潜力在没有明确指示的情况下掌握新技能。这意味着它们仍然具有可控性、可预测性和安全性。
巴斯大学计算机科学家暨这项新研究的共同作者哈里什·泰亚尔·马达布希博士表示:“广泛流行的观点认为这种类型的 AI 对人类构成威胁,阻碍了这些技术的广泛采用和发展,并且也将注意力从真正需要关注的问题上转移。伊琳娜·格列维奇教授补充道:“...我们的研究结果并不意味着 AI 根本不构成威胁。
相反,我们展示了与具体威胁相关的复杂思维技能的所谓出现并没有得到证据支持,而且我们毕竟可以很好地控制 LLMs 的学习过程。未来的研究因此应该关注模型带来的其他风险,如它们用于生成虚假新闻的潜力。
AI 能力的界限是否真如人们所想,值得我们进一步思考和探讨。
特别声明:本文及配图均为用户上传或者转载,本文仅代表作者个人观点和立场,不代表平台观点。其原创性以及文中陈述文字和内容未经本站证实,
对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本平台不作任何保证或承诺,请读者仅作参考,
并请自行核实相关内容。如发现稿件侵权,或作者不愿在本平台发布文章,请版权拥有者通知本平台处理。
Copyright Disclaimer: The copyright of contents (including texts, images, videos and audios)
posted above belong to the User who shared or the third-party website which the User shared from.
If you found your copyright have been infringed, please send a DMCA takedown notice to
info@microheadline.com
来源:https://slashdot.org/story/24/08/14/0456259/new-research-reveals-ai-lacks-independent-learning-poses-no-existential-threat?utm_source=rss1.0mainlinkanon&utm_medium=feed
https://scienceblog.com/546833/large-language-models-pose-no-existential-threat-study-finds/
https://cybernews.com/ai-news/ai-independent-thinking-existential-threat/