研究发现,OpenAI的GPT-4o道德推理能力胜过人类专家

业界
2024
06/24
11:00
IT之家
分享
评论

6 月 24 日消息,近期的一项研究表明,OpenAI 最新的聊天机器人 GPT-4o 能够提供道德方面的解释和建议,且质量优于“公认的”道德专家所提供的建议。

据 The Decoder 当地时间周六报道,美国北卡罗莱纳大学教堂山分校和艾伦 AI 研究所的研究人员进行了两项研究,将 GPT 模型与人类的道德推理能力进行比较,以探讨大语言模型是否可被视为“道德专家”。

IT之家汇总研究内容如下:

研究一

501 名美国成年人对比了 GPT-3.5-turbo 模型和其他人类参与者的道德解释。结果表明,人们认为 GPT 的解释比人类参与者的解释更符合道德、更值得信赖、更周到。

评估者也认为人工智能的评估比其他人更可靠。虽然差异很小,但关键发现是 AI 可以匹配甚至超越人类水平的道德推理。

研究二

将 OpenAI 最新的 GPT-4o 模型生成的建议与《纽约时报》“伦理学家”专栏中著名伦理学家 Kwame Anthony Appiah 的建议进行了比较。900 名参与者对 50 个“伦理困境”的建议质量进行了评分。

结果表明,GPT-4o 在“几乎每个方面”都胜过人类专家。人们认为 AI 生成的建议在道德上更正确、更值得信赖、更周到、更准确。只有在感知细微差别方面,人工智能和人类专家之间没有显著差异。

研究人员认为,这些结果表明 AI 可以通过“比较道德图灵测试”(cMTT)。而文本分析显示,GPT-4o 在提供建议时使用的道德和积极语言比人类专家更多。这可以部分解释为什么 AI 的建议评分更高 —— 但不是唯一因素。

需要注意的是,这项研究仅仅针对美国参与者进行,后续仍需进一步研究人们如何看待 AI 生成的道德推理的文化差异。

【来源:IT之家

THE END
广告、内容合作请点击这里 寻求合作
OpenAI
免责声明:本文系转载,版权归原作者所有;旨在传递信息,不代表 的观点和立场。

相关热点

6 月 22 日消息,当地时间 6 月 21 日,OpenAI 宣布完成了对数据库检索和分析公司 Rockset 的收购。
业界
6 月 22 日消息,美国达特茅斯工程学院本周四公布了对 OpenAI 首席技术官米拉・穆拉蒂的采访。
业界
6月20日周四,OpenAI竞争对手Anthropic发布了公司迄今为止性能最强大的AI模型Claude 3.5 Sonnet。
业界
北京时间6月13日,人工智能公司OpenAI CEO山姆·奥特曼(Sam Altman)对员工表示,过去六个月时间左右,公司的年化营收达到了34亿美元。
业界
北京时间6月13日,据彭博社报道,苹果公司本周发布了AI系统苹果智能(Apple Intelligence),但是知情人士称,苹果尚未就聊天机器人功能与中国本土AI供应商达成协议,但一直在考虑与百度、阿里巴巴集团等公...
业界

相关推荐

1
3
Baidu
map