广告投放

字节跳动开源Multi-SWE-bench,推动大模型代码智能升级

目录

    近日,字节跳动豆包大模型团队宣布开源Multi-SWE-bench,这是业内首个多语言代码修复基准数据集,为大模型“自动修Bug”能力的评估与提升带来新突破。

    在大模型技术快速发展的当下,代码生成任务成为检验模型智能的关键领域。以SWE-bench为代表的代码修复基准,虽能衡量模型的编程智能,但存在明显局限。其仅聚焦Python语言,无法评估模型跨语言泛化能力;且任务难度有限,难以覆盖复杂开发场景,制约了大模型代码智能的进一步发展。

    字节跳动开源Multi-SWE-bench,推动大模型代码智能升级
    面向不同模型代码能力评测分数

    Multi-SWE-bench应运而生,它在SWE-bench基础上实现重大跨越,首次覆盖Java、TypeScript、C、C++、Go、Rust和JavaScript等7种主流编程语言,构建了1632个源于真实开源仓库的修复任务。这些任务经过严格筛选与人工验证,确保质量可靠。同时,Multi-SWE-bench引入难度分级机制,分为简单、中等、困难三类,能更全面评估模型在不同能力层次的表现。

    基于该数据集的实验显示,当前大语言模型在Python修复上表现尚可,但处理其他语言时平均修复率不足10%,凸显多语言代码修复仍是大模型面临的挑战。

    字节跳动开源Multi-SWE-bench,推动大模型代码智能升级

    部分主流模型在 Python 上表现更为优异,面向其他语言则分数不佳。同时,随着任务难度增加,模型修复率呈现逐级下降趋势。

    为配合强化学习在自动编程领域的应用,团队还同步开源了Multi-SWE-RL,提供4723个实例及配套的可复现Docker环境,支持一键启动、自动评估等功能,为RL训练打造了标准化数据基础。此外,团队启动开源社区计划,诚邀开发者和研究者参与数据集扩展、新方法评测等工作,共同推进RL for Code生态建设。

    字节跳动豆包大模型团队表示,希望Multi-SWE-bench能推动自动编程技术迈向新高度,未来将持续拓展其覆盖范围,助力大模型在“自动化软件工程”领域取得更大进展。 

    声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。

    给TA打赏
    共{{data.count}}人
    人已打赏
    广告位招租919838898
    0 条回复 A文章作者 M管理员
      暂无讨论,说说你的看法吧
    个人中心
    购物车
    优惠劵
    今日签到
    有新私信 私信列表
    搜索