Source: Slashdot
Annenberg Public Policy Center的最新分析发现,公众对科学家的信誉认知 -- 衡量为其能力、值得信赖程度以及被认为是否与个人价值观相符 -- 保持较高,但在2023年至2024年间,公众对科学家的能力和值得信赖度有所下降。研究还发现,公众对从事人工智能(AI)的科学家的认知不同于整体科学家。FASS模型中的五个要素包括科学及科学家被认为是否可靠和审慎,是否被视为克服偏见、纠正错误(自我纠正),以及他们的工作是否惠及受访者及整个国家(有益)。在FASS模型中,科学家的信誉认知通过科学家是否能胜任、值得信赖以及“是否与我的价值观相符”来评估。在最新调查中,有70%的受访者强烈或稍稍同意科学家胜任(2023年的77%下降至2024年的70%),59%的受访者强烈或稍微同意科学家值得信赖(2023年的67%下降至2024年的59%)。该调查还发现,2024年,较少的人认为科学家的研究结果有益于“整个国家”和“像我一样的人。2024年,有66%的受访者强烈或稍微同意研究结果有益于整体国家(2023年的75%下降至2024年的66%)。
相信研究结果“有益于像我一样的人”的人数也下降,从2023年的68%降至2024年的60%。综合这两个问题,它们构成了FASS的有益因素。这些发现是在气候和COVID-19相关科学遭受持续攻击,以及最近公众对人工智能的快速发展和部署提出担忧后得出的。当比较一般科学家与气候和人工智能科学家的认知时,研究发现:- 信誉:就科学家信誉的三个基本因素而言,人工智能科学家在这三个价值中的信誉较低。- 胜任:0%的受访者强烈/稍微同意科学家胜任,而气候科学家为62%,人工智能科学家为49%。- 值得信赖:59%同意科学家值得信赖,气候科学家为54%,人工智能科学家为28%。- 与我分享的价值观:对气候科学家分享我的价值观的人数比一般科学家(36%)和人工智能科学家(15%)分享的人数更多。
对于人工智能科学家,与其他人相比,更多人不同意这一点。- 谨慎:被问及各种科学家是否“会产生意外后果并将旧问题替换为新问题”,超过半数的受访者(59%)同意人工智能科学家会产生意外后果,只有9%的人不同意。- 克服偏见:只有42%的受访者同意科学家“能够克服人类和政治偏见”,但只有21%的人对人工智能科学家持这种观点。事实上,有41%的人不同意人工智能科学家能够克服人类政治偏见。在另一个领域,只有23%的人同意人工智能科学家在他们的领域提供无偏见的结论,38%的人不同意。- 自我改正:自我改正,或者正如FASS论文所述的“以期待维持批判文化的态度表现出的有组织怀疑”,被一些人视为“科学的标志”之一。
人们认为人工智能科学家比一般科学家或气候科学家更不可能采取行动来防止欺诈;承担错误的责任;或是在同行评审中发现错误。- 好处:在有关科学家的研究结果是否有益的问题上,60%的人认为科学家的研究结果“对像我这样的人有益”,尽管气候科学家为44%,人工智能科学家为35%。在有关研究结果是否有益于整个国家的问题上,有66%的人同意对科学家,50%对气候科学家,41%对人工智能科学家。- 对您的最佳利益:调查还问及受访者对科学家是否在像您这样的人的最大利益上采取行动有多少信任。(此特定信任度量不是FASS电池的一部分。)受访者对人工智能科学家的信任少于对其他人的信任:41%的人对医学科学家有很大/非常大的信任; 39%的人对气候科学家有很大/非常大的信任;36%的人对科学家有很大/非常大的信任;而只有12%的人对人工智能科学家有很大/非常大的信任。
公众对科学家的信誉下降或许反映出了人们对科学发展方向的担忧,值得探讨如何增强公众对科学家的信任感。" } ```