清华瑞莱联合团队推出“安全增强版DeepSeek”——RealSafe-R1大模型

互联网
2025
02/24
17:58
分享
评论

2月23日,清华大学与瑞莱智慧联合团队推出大语言模型RealSafe-R1。该模型基于DeepSeek R1进行 优化与后训练,在确保性能稳定的基础上,实现了安全性的显著提升,表现优于被认为安全性较好的闭源大模型Claude3.5、GPT-4o等,为开源大模型安全发展与风险治理提供了创新性解决方案。

连日来,国产开源大模型DeepSeek的优异表现令人惊艳,其在自然语言处理和多任务推理方面的能力展现了强大的技术实力,尤其是在复杂问题解决和创造性任务中表现出色。然而,DeepSeek R1和V3在面对越狱攻击等安全性挑战时仍存在一定的局限性。例如,模型可能会被恶意设计的输入误导,生成不符合预期或不安全的响应。这一安全短板并非DeepSeek所独有的难题,而是当前开源大模型的通病,其根本缺陷源于安全对齐机制的 不足。

为此,清华瑞莱联合团队提出了基于模型自我提升的安全对齐方式,将安全对齐与内省推理相结合,使大语言模型能够通过具有安全意识的思维链分析来检查潜在风险,实现基础模型自身能力的自主进化,可以应用于多种开源、闭源模型。

基于该方法,团队对DeepSeek-R1系列模型进行后训练,正式推出RealSafe-R1系列大模型。实验数据表明,RealSafe-R1安全性提升显著,在多个基准测试中有效增强了对各种越狱攻击的抵抗力,并减轻了安全与性能之间“跷跷板”现象,表现优于被认为安全性较好的闭源大模型Claude3.5、GPT-4o等,不仅为DeepSeek生态添砖加瓦,也为大语言模型树立了新的安全标杆。

据悉,RealSafe-R1各尺寸模型及数据集,将于近期向全球开发者开源。“大模型的安全性瓶颈是本质的,只有通过持续投入和攻坚补齐短板弱项,人工智能产业才能真正实现高质量发展。”瑞莱智慧首席执行官田天表示,这一创新成果将为开源大模型的安全性加固提供有力支持,也为政务、金融、医疗等严肃场景的应用提供更为可靠的坚实基座。

THE END
广告、内容合作请点击这里 寻求合作
免责声明:本文系转载,版权归原作者所有;旨在传递信息,不代表 的观点和立场。

相关热点

相关推荐

1
3
Baidu
map