• 微头条

    让本地生活更美好

打开APP

布兰森与奥本海默的孙子敦促采取行动,阻止人工智能和气候“灾难”

2024-02-15 外星人S博士
布兰森与奥本海默的孙子敦促采取行动,阻止人工智能和气候“灾难”

Source: CNBC

商界和政治圈有数十位知名人士呼吁世界领导人应对人工智能和气候危机的生存风险。亿万富翁、维珍集团创始人理查德·布兰森,前联合国秘书长潘基文,以及美国物理学家J·罗伯特·奥本海默的孙子查尔斯·奥本海默共同签署了一封公开信,敦促采取行动应对不断升级的气候危机、大流行、核武器和不受约束的人工智能的危险。这封信要求世界领导人采取长远策略和“决心解决棘手问题而不仅仅是管理问题,以科学证据和理性作出决策的智慧,以及倾听受影响各方的谦逊。签署者呼吁采取紧急的多边行动,包括通过融资过渡摆脱化石燃料,签署公平的大流行条约,重启核武器谈判,并建立全球治理机制,以使人工智能成为一种积极力量。这封信于星期四由“长老会”发表,该组织是由前南非总统纳尔逊·曼德拉和布兰森创立的非政府组织,致力于解决全球人权问题并倡导世界和平。该信息也得到了未来生命研究所的支持,该非营利组织由麻省理工学院的宇宙学家马克斯·泰格马克和Skype联合创始人詹恩·塔林设立,旨在引导人工智能等具有变革性的技术造福生活并防范大规模风险。

泰格马克表示,未来生命研究所和他的组织想要传达的信息是,虽然人工智能并非“邪恶”本身,但它仍然是一种可导致严重后果的“工具”,如果它在错误人的手中迅速发展的话。泰格马克在接受CNBC采访时表示:“关于引导新技术朝着好的方向发展的旧战略一直都是通过从错误中学习。我们发明了火,后来我们发明了灭火器。我们发明了汽车,然后我们从错误中学习,发明了安全带、红绿灯和限速。但是当某样东西已经越过了门槛和权力时,这种从错误中学习的战略就变得……哎呀,犯错的后果将会很可怕,”泰格马克补充道。

作为一个技术宅,我认为这是安全工程。我们把人送上月球,我们非常认真地考虑了当你把人放在装着易燃燃料的容器里并将他们送到无人能帮助的地方时可能发生的所有问题。这也是为什么最终会成功的原因。他接着说:“这并不是‘灾难论’。这是安全工程。

我们在未来也需要这种安全工程,包括核武器、合成生物学和愈发强大的人工智能。这封信是在慕尼黑安全会议之前发出的,会议上政府官员、军事领导人和外交官将讨论日益升级的全球武装冲突问题,包括俄罗斯和乌克兰以及以色列和哈马斯之间的战争。泰格马克将出席此次会议,倡导信件的信息。未来生命研究所去年还发布了一封公开信,得到了包括特斯拉老总埃隆·马斯克和苹果联合创始人史蒂夫·沃兹尼亚克在内的知名人物的支持,呼吁像OpenAI这样的人工智能实验室暂停训练比GPT-4更强大的人工智能模型,GPT-4目前是萨姆·阿尔特曼的OpenAI发布的最先进人工智能模型。这些技术专家呼吁暂停人工智能发展,以避免文明的“失控”,可能导致大规模的失业和电脑超过人类的智能。

人工智能和气候变化对人类带来的潜在风险已引起了商界和政治界的高度关注,我们需要采取行动来确保这些技术和问题的合理和可持续的发展。

特别声明:本文及配图均为用户上传或者转载,本文仅代表作者个人观点和立场,不代表平台观点。其原创性以及文中陈述文字和内容未经本站证实, 对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本平台不作任何保证或承诺,请读者仅作参考, 并请自行核实相关内容。如发现稿件侵权,或作者不愿在本平台发布文章,请版权拥有者通知本平台处理。
Copyright Disclaimer: The copyright of contents (including texts, images, videos and audios) posted above belong to the User who shared or the third-party website which the User shared from. If you found your copyright have been infringed, please send a DMCA takedown notice to info@microheadline.com
来源:https://www.cnbc.com/2024/02/15/richard-branson-oppenheimer-grandson-urge-action-on-ai-climate.html https://uk.news.yahoo.com/former-world-leaders-join-call-000100004.html https://www.edge.org/responses/what-are-you-optimistic-about
更多阅读