根据新的分析,尽管生成性人工智能工具具备更强的处理复杂任务的能力,如写作和编程,它们仍然是预测引擎。为了成功部署,组织必须理解其局限性,并提供适当的监管。 来自多伦多大学Rotman管理学院的Ajay Agrawal、Joshua Gans和Avi Goldfarb在《哈佛商业评论》上发表的文章中指出,劣质数据可能导致错误,而在部署过程中缺乏人类判断会导致战略失败,特别是在高风险情况下。 AI的进化类似于这一轨迹,早期应用与成熟的预测任务直接相关,最近AI将写作、绘画等任务重新框定为预测。 有效地使用计算机,需要理解它们作为算术机器的本质,因为不准确的指令会导致错误的结果。