研究:ChatGPT影响用户道德判断

作者:duke 日期: 分类:网络转载 浏览:229

  根据《科学报告》发表的一项研究,人类对道德困境的反应可能会受到人工智能对话机器人ChatGPT所写陈述的影响。这一研究表明,用户可能低估了自己的道德判断受ChatGPT影响的程度。团队认为,对话机器人影响人类道德判断的可能性,凸显出有必要通过教育帮助人类更好地理解人工智能。他们建议未来的研究可以在设计上让对话机器人拒绝回答需要给出道德立场的问题,或是在回答时提供多种观点和警告。(科技日报)

  相关阅读

  OpenAI发文介绍保障AI安全的方法

据上证报,美国当地时间4月5日,ChatGPT研发者OpenAI在其官方博客中发布了题为《Our approach to AI safety》(《我们保障AI安全的方法》)的文章,介绍了该公司确保AI模型安全性的部署。该文章介绍了六个方面的部署,一是构建越来越安全的AI系统,二是从实际使用中积累经验以改善安全措施,三是保护儿童,四是尊重隐私,五是提高事实准确性,六是持续研究和参与。在隐私方面,OpenAI表示努力在可行的情况下从训练数据集中删除个人信息,微调模型以拒绝对私人信息的请求,而且能响应用户从OpenAI的系统中删除个人信息的请求。

  全球首例!澳洲地方市长或就诽谤信息起诉ChatGPT

  最近,ChatGPT大火之下受到很多行业和大佬的吹捧,但也有一些人坚决抵制。

  尤其是基于目前ChatGPT的状态,已经成了谣言聚集地。

  最新报道称,澳大利亚墨尔本西部赫本郡的市长布赖恩.胡德指控OpenAI旗下的ChatGPT对其进行诽谤,或将对该公司提起诉讼,因为该聊天机器人在回答问题时错误地声称他是某些丑闻的有罪方。

  值得注意的是,一旦正式提起,这将是全球首例针对生成式AI的诽谤诉讼。

  随着生成式AI造成的虚假信息泛滥,ChatGPT等工具受到诽谤诉讼或许只是时间问题。

  这类问题此前就已经被某些知名人士提到,比如爱奇艺龚宇就表示,某些问题ChatGPT会一本正经的胡说八道。

  他表示,通过大量地与ChatGPT对话,发觉它目前经常“一本正经地胡说八道”:语法、逻辑都对,但你仔细深究,那些深刻的问题,它的回答特别套路,特别没有营养。

  另外,之前也有不少体验过的用户吐槽,ChatGPT很多时候在遇到无法检索的问题时,会强行编造出来一个回答,看似语法顺畅,但信息全都是胡编乱造。

来源: 同花顺7x24快讯

举报/反馈

关键词:

网友评论

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。