广告投放

OpenAI 新系统阻断生物和化学风险信息,保障 AI 安全

目录

    OpenAI 近期推出了一项新系统,旨在监控其最新的 AI 推理模型 o3和 o4-mini,以阻止与生物和化学威胁相关的提示。该系统的目标是防止模型提供可能教唆他人实施有害攻击的建议,确保 AI 的安全性。

    OpenAI 新系统阻断生物和化学风险信息,保障 AI 安全

    OpenAI 表示,o3和 o4-mini 在能力上较之前的模型有显著提升,因此在恶意用户手中可能带来新的风险。根据 OpenAI 的内部基准测试,o3在回答关于某些生物威胁的相关问题时,表现得尤为出色。为了应对这些风险,OpenAI 开发了这个新的监控系统,称之为 “以安全为中心的推理监测器”。

    这个监测器经过定制训练,能够识别与生物和化学风险相关的提示,并指示模型拒绝提供这些主题的建议。为了建立基线,OpenAI 的 “红队” 成员花费了约1000小时,标记 o3和 o4-mini 中 “危险” 的生物风险相关对话。在一次模拟测试中,OpenAI 的安全监测器成功阻止了98.7% 的危险提示的响应。

    尽管如此,OpenAI 承认其测试并未考虑那些在被监测器阻止后可能尝试新提示的用户,因此公司表示将继续依赖部分人工监控。根据 OpenAI 的说法,o3和 o4-mini 并未超过其 “高风险” 生物风险的阈值,但与 o1和 GPT-4相比,o3和 o4-mini 在回答关于生物武器开发问题时表现得更为出色。

    OpenAI 还在积极跟踪其模型如何可能被恶意用户用来开发化学和生物威胁,并更新了其 “准备框架”。公司越来越依赖自动化系统来减轻其模型带来的风险。例如,为了防止 GPT-4o 的原生图像生成器创建儿童色情内容,OpenAI 表示使用了一种与 o3和 o4-mini 相似的推理监测器。

    然而,一些研究人员对 OpenAI 是否足够重视安全性表示担忧。一家名为 Metr 的红队合作伙伴指出,他们在评估 o3的欺骗行为基准测试时时间相对有限。同时,OpenAI 选择不为其最新推出的 GPT-4.1模型发布安全报告。

    声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。

    给TA打赏
    共{{data.count}}人
    人已打赏
    广告位招租919838898
    0 条回复 A文章作者 M管理员
      暂无讨论,说说你的看法吧
    个人中心
    购物车
    优惠劵
    今日签到
    有新私信 私信列表
    搜索