• 文库
  • 字符
  • 转换
  • 加密
  • 网络
  • 更多
    图表
    数学
    坐标
    图片
    文件
  • 文库
    字符
    转换
    加密
    网络
    更多
    图表
    数学
    坐标
    图片
    文件
logo 在线工具大全

是时候解决大模型的信任问题了

出处: mp.weixin.qq.com 作者: 胡晓萌 陈力源等

以ChatGPT为代表AI大语言模型(LLMs)是一项具有革命性的技术。它不仅可以像之前的人工智能一样进行分类或预测,还可以通过自然语言与人类对话,生成文本、图像、视频、可执行代码等各种形式的内容,这将对人们的生产生活和社会发展产生深远影响。但是人工智能开发和应用阶段的任何错误都可能是灾难性的。[1]现在大语言模型已经面临诸多信任挑战,比如人们越来越无法分辨区分出ChatGPT生成的内容与人类生成的内容;大语言模型存在幻觉问题,会生成错误、具有诱导性的内容,那么人们该如何分辨并信任大语言模型生成的内容;大语言模型还存在偏见、歧视、隐私侵犯、有害言论等多方面伦理风险,继而带来一系列信任危机,甚至遭到业界的抵制和封杀。信任是人工智能发展的一个核心问题,人与技术之间信任关系更是技术发展趋势与人类未来的一个核心问题。[2]DeepMind首席运营官Lila Ibrahim表示,AI大模型是一种变革性技术,但它只有在得到信任的情况下才能充分发挥潜力。

查看原文 36 技术 lddgo 分享于 2024-07-15