加入收藏 | 设为首页 | 会员中心 | 我要投稿 温州站长网 (https://www.0577zz.com/)- 低代码、办公协同、物联平台、操作系统、5G!
当前位置: 首页 > 站长资讯 > 动态 > 正文

套娃不可取研究人员证明用AI生成的结果训练AI将导致模型退化

发布时间:2023-06-15 10:30:21 所属栏目:动态 来源:未知
导读:   伙伴们可能都想象过,如果用AI产生的结果来训练 AI,进行“套娃训练”,会得到什么效果?目前还真有研究团队对此进行了观察记录,详细论文及得出的结果发表在了arXiv 上。

  伙伴们可能都想象过,如果用AI产生的结果来训练 AI,进行“套娃训练”,会得到什么效果?目前还真有研究团队对此进行了观察记录,详细论文及得出的结果发表在了arXiv 上。
 
  一句话总结 —— “在训练中使用模型生成的内容,将导致后续生成的模型出现不可逆转的缺陷”,说人话就是研究人员发现“用 AI 生成的结果训练 AI,只会让模型变得越来越差”。
 
  据悉,研究人员专门研究了 AI 生成模型的概率分布,主要围绕“文本到文本”和“图像到图像”展开,最终得出结论:“由于每个模型生成的结果都具有一定的特点,因此用 AI 生成的模型训练 AI,随着时间的推移,后者会忘记真正的底层数据分布。”
 
  论文的主要作者之一 Ilia Shumailov 同时表示“随着时间的推移,生成数据中的错误(注:例如虚假举例)会迫使 AI 进一步错误地感知现实,我们可以惊讶地观察检测到模型模型的崩溃过程发生的速度相当快,模型可以迅速忘记他们最初从中学习的大部分关键性的原始数据。”
 
  但小伙伴们可能会有所疑问,如果将 AI 生成的结果经过人工润色后再投入模型训练,是否可以避免模型“退化”?
 
  答案是否定的,研究人员发现“模型退化过程是不可避免的”,因此即使对于“经过润色后理想化的 AI 输出内容”,模型在长期学习后,也会出现一定的退化现象。
 
  对于任何大模型而言,由于其学习数据过多,它们都将不可避免地接触到其他 AI 生成的数据,因此研究人员表示“应当引入 AI 鉴定来挑出可能存在错误的学习数据”以提升模型的学习能力与准确性。研究人员认为,这项技术可以通过训练来改善人工智能系统的性能,从而帮助人们更好地理解人类行为。

(编辑:温州站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章