加入收藏 | 设为首页 | 会员中心 | 我要投稿 海南站长网 (https://www.0898zz.com.cn/)- 边缘计算、物联网、开发、云管理、管理运维!
当前位置: 首页 > 站长资讯 > 外闻 > 正文

自然杂志AI 模型并不是越大型越好的

发布时间:2023-08-19 10:02:32 所属栏目:外闻 来源:互联网
导读:   因为如今的AI模型的规模变得愈加巨大,于是有一些研究者们倡导使用更加高效和更为紧凑的特殊模型以代替之前的“巨型通用语言模型(Large LLM)”。



  据《自然》杂志
  因为如今的AI模型的规模变得愈加巨大,于是有一些研究者们倡导使用更加高效和更为紧凑的特殊模型以代替之前的“巨型通用语言模型(Large LLM)”。
 
  据《自然》杂志报道,当下 OpenAI 的 ChatGPT 是技术界的新宠,但是当 ChatGPT 遇到一些需要推导的数学问题时,它便会常常犯错,《自然》杂志同时举出一道代数题展示 ChatGPT 的局限性:
 
  一条直线与 y=4x+6 平行且经过 (5, 10)。它和y 轴的交点的纵坐标是多少?
 
  《自然》杂志表示,虽然 ChatGPT 有时候能给出正确答案,但该模型依然有极高概率回答错误。而在杂志官方进行的早期推导能力测试中,ChatGPT 面对美国中学水平的数学题集时,只答对了26%。
 
  《自然》杂志同时表示,在2022 年 6 月,谷歌一款名为 Minerva 的专用数学计算模型突破了业界“大语言模型计算数学不行”观点, 而且据悉,Minerva 在一般数学题集中居然能答对了 答案的50%,这一令人惊讶的结论一时之间让 AI 领域的研究者们大为吃惊。
 
  微软研究院的机器学习专家 Sébastien Bubeck 彼时对此表示:“在 AI 圈子里,这还真是个新奇事。”
 
  《自然》杂志据此声称,Minerva 模型的结果佐证了研究团队们长时间以来的怀疑:训练更大型的 AI 模型并不是解决“逻辑问题”的正道。
 
  不过,《自然》杂志也对这一观点保留一定意见。他们注意到,有些研究团队的实例表示“更大的模型只是在碰巧与训练集相关的问题上回答得更为出色,而没有获得回答全新问题的能力 ”(注:因为模型训练数据过多,刚好在训练数据中对比到了类似的问题,所以能给出标准答案)。不过还是有一些不足。这个结果是基于我们的实验室测试数据得出的,并不代表最终的结果。

(编辑:海南站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章