IEEE:生成式人工智能的下一步是什么?

互联网
2024
11/12
11:03
分享
评论

近年来,随着 ChatGPT 等多个聊天机器人进入公共领域,生成式人工智能风靡全球。聊天机器人以近乎神奇的速度生成类似人类的文本 - 以莎士比亚的风格写十四行诗,在多种语言之间翻译文本,编写计算机代码等等。

企业和商业专家立即看到了潜在的好处。但最近几个月,人们对生成式人工智能的质疑日益增多。批评者表示,生成式人工智能的能力被夸大了。幻觉,也就是生成式人工智能模型可能产生的虚假陈述,降低了它的实用性,许多企业尚未找到使用这些工具的理想策略。尽管 ChatGPT 是有史以来增长最快的应用程序之一,但经常使用它的人比例仍然相当低。

在IEEE最新发布的“ 2025 年及以后技术的影响:IEEE 全球研究”中,91% 的受访者同意“到 2025 年,随着公众的兴趣和看法转变为对这项技术可以和应该做什么的更深入的理解和期望,将出现生成性人工智能清算,比如在结果的准确性、 伪造的透明度等方面。”

但调查结果并不认为生成式人工智能会遭遇持久的阻碍。绝大多数人 (91%) 也同意“到 2025 年,生成式人工智能的创新、探索和采用将继续以闪电般的速度发展。”

那么,2025 年生成式人工智能将迎来什么?产品路线图是什么?它们将对我们的工作和生活方式产生什么影响?

更多多模式功能

IEEE 高级会员林道庄预计,未来几年,生成式 AI 模型将使从短文本片段生成图像和视频变得更加容易。文本转图像、文本转视频和语音合成将得到改进,模型将在各种输入之间实现更好的上下文理解。

“第一步是多模式的 融合,为消费者甚至专业内容创作者创造更复杂、更详细、更准确、更自洽的内容。”林道庄表示。

消除准确性和偏差

对幻觉、准确性和偏见的担忧也减缓了生成式人工智能模型的采用。当模型在有偏见的数据上进行训练时,偏见可能会悄然出现。一些图像生成模型可能会表现出对某一种族的人的偏好。

林道庄还表示,“模型开发者需要关注如何消除人工智能在消费者数据训练过程中产生的偏见和道德问题,引导用户走向更普遍、更持久的价值观,引导模型变得更加‘善良’,这很重要。”

改进的上下文窗口

模型面临的一个限制是它们在提示中一次可以处理的信息量。这称为上下文窗口或上下文大小。例如,想象一下,您需要输入一个非常长的提示(或描述)来尝试生成图像。在某些时候,生成式 AI 模型将无法处理整个提示。输出将仅反映提示的一部分,从而忽略潜在的重要信息。

在另一个场景中,你可能需要与模型讨论一个较长的文档。随着对话的进行,模型可能会忘记对话的早期部分。

改进上下文窗口将允许生成式人工智能模型处理更复杂的任务,并提高其响应的连贯性。

IEEE 研究生成员Hector Azpurua表示:“生成式人工智能所能做的事情尚未达到极限;我们还没有达到这项技术的顶峰。”

THE END
广告、内容合作请点击这里 寻求合作
免责声明:本文系转载,版权归原作者所有;旨在传递信息,不代表 的观点和立场。

相关热点

相关推荐

1
3
Baidu
map