无极荣耀-无极4注册官网

汇聚全球精彩分享
领您探索未知国度

无极荣耀:ChatGPT:我如何成为功夫到家的颠覆者?


《时代》专访ChatGPT:我还有很多局限,但人类应准备好应对AI

文 | 澎湃新闻
源 | 腾讯科技


【编者按】在《时代》与ChatGPT的对话中,聊天机器人就其工作原理、这种新技术的传播可能带来的风险以及人类应该如何应对潜在问题给出了回答。正如机器人自己的表态,它的反应不应被视为准确事实,也不应被视为其大脑会思考的证据。2022年底有一件事似乎是明确的:大型语言模型将继续存在。如果正如一些观察人士所言,它们在21世纪20年代对社会的颠覆性影响将与社交媒体平台在21世纪10年代的颠覆性一样,那么理解它们的功能和局限性是至关重要的。
1950年,英国计算机科学家艾伦·图灵(Alan Turing)设计了一种被他称为模仿游戏的测试:计算机程序能否让人相信,人类是在和另一个人而不是一台机器对话?
众所周知,图灵测试通常被认为是一种判断计算机是否能够真正“思考”的测试。但图灵实际上是想用它来说明,不管计算机是否真的会思考,有一天它们可能会让人相信其能够思考。图灵似乎明白,人类的大脑天生就是通过语言进行交流的。计算机可能也想不到,它们会这么快就利用语言,无极4让人类相信它们能够思考。
70多年后的2022年,即使是最先进的人工智能(AI)系统也无法与人类大脑相媲美。但它们很轻易地通过了图灵测试。今年夏天,谷歌解雇了一名工程师,因为他相信公司的一个聊天机器人已经拥有了感知能力。多年来,人工智能研究人员一直在努力解决,发布一个让人类相信对话者也是人类的程序所带来的伦理后果。这种机器可能会让人们相信错误的信息,说服他们做出不明智的决定,甚至在孤独或脆弱的人身上激发虚假的爱的感觉。发布这样一个程序肯定是非常不道德的。今年早些时候让谷歌工程师相信它有感知能力的聊天机器人仍然被公司关在密室里,伦理学家正在研究如何让它更安全。
2.jpg
一幅对自然语言处理做了艺术化处理的图像。
但在11月30日,另一家领先的人工智能实验室OpenAI发布了自研的聊天机器人。这款名为ChatGPT的程序比其他任何可供公众互动的聊天机器人都要先进,许多观察人士表示,它代表着该行业的一个重大变化。与它“交谈”会让人着迷。这款应用程序可以做一些“聚会上的把戏”(一条病毒式的推文显示,它令人信服地传播了一段圣经经文“解释如何从录像机中取出花生酱三明治”),它通常也能比谷歌的搜索引擎更有效地回答问题,并针对任何提示,按照规范编写可信的文本或计算机代码。在接受《时代》杂志记者专访时,ChatGPT表示:
“可以使用大型语言模型来生成经过事实核查的可靠信息,以帮助阻断错误信息的传播。”

“我们无法理解生成的单词的上下文语境或含义。我们只能根据给定的训练数据,根据特定单词或单词序列一起出现的概率生成文本。”

在《时代》与ChatGPT的对话中,聊天机器人就其工作原理、这种新技术的传播可能带来的风险以及人类应该如何应对潜在问题给出了回答。正如机器人自己的表态,它的反应不应被视为准确事实,也不应被视为其大脑会思考的证据。但这篇文章揭示了大型语言模型的快速发展,以及OpenAI在试图降低人们将人工智能系统拟人化的风险方面所采取的方法。
3.png
以下是《时代》与ChatGPT的对话:
记者:你好ChatGPT, 我是《时代周刊》杂志的记者。我想采访你,做个报道。我知道你没有自己的观点,因为你只是一个聊天机器人,但我认为我们的读者会有兴趣了解更多关于你如何工作的信息。你愿意参加吗?
ChatGPT:你好!我很乐意尽我所能帮助你。作为OpenAI训练的语言模型,我没有个人的经验或观点来分享,但我可以告诉你一些我如何工作的信息。
我是一个大型语言模型,接受过大量文本数据的训练,这使我能够对各种各样的输入生成类似人类的反应。当你问我一个问题时,我用我的文本数据训练和算法生成与你的问题相关的回答,并用一种听起来自然的方式写出来。我尽我所能提供准确和有用的信息,但我不是一个完美的知识来源,我并不能总是提供完整或正确的答案。
我一直在学习和提升,所以我可能不知道你所有问题的答案,但我很乐意尽我所能帮忙。关于我或我的能力,你还有什么想知道的吗?
记者:让我们从最基本的开始吧。什么是语言模型?你的训练数据从何而来?

无极荣耀登录

无极4注册官网的缺点麻烦您能提出,谢谢支持!

无极荣耀官网介绍