「生成式」人工智能是未来的发展方向吗?专家解释新范式,需要人类参与
编辑 | 白菜叶
自从 20 世纪最早的人工智能理论将世界置于不可逆转的技术轨道之后,人工智能以它巨大的前景,引领着社会变革以及人类进步。
随着所谓的生成 AI 的到来,例如 ChatGPT,几十年来 AI 进步的缓慢进展感觉更像是一个巨大的飞跃。这种感知的跳跃让一些专家担心过快地走向一个他们所说的机器智能可能成为一种无所不能的、毁灭人类的力量的世界的后果,就像《终结者》一样。
但包括体验人工智能研究所执行主任 Usama Fayyad 在内的美国东北大学(Northeastern University)专家坚持认为,这些担忧并不反映现实。事实上,人工智能正在以促进和需要人类参与的方式进行整合——专家们创造了「人在环路」。
以下是媒体与 Fayyad 的讨论内容。
Q:首先,关于生成式 AI 的讨论很多。它是什么,它与其他形式的人工智能有何不同?
A:生成式 AI 是指可以非常简单地生成输出的 AI 类型。这些输出可以是文本形式,就像你在我们所说的大型语言模型中看到的那样,例如 ChatGPT(大型语言模型之上的聊天机器人)或图像等。如果你在文本上训练[人工智能],文本就是你将从中得到的东西。如果你在图像上训练它,你会从中得到图像或图像的修改。如果你用声音或音乐训练它,你就会从中得到音乐。如果你用编程代码训练它,你就会得到程序,等等。
它也被称为生成式 AI,因为算法能够自行生成示例。这是他们训练的一部分。研究人员会做一些事情,比如让算法通过生成对抗网络挑战自身,或者生成可能混淆系统的对抗样本的算法,从而帮助加强其训练。但自开发以来,研究人员很快意识到他们需要人为干预。因此,这些系统中的大多数,包括 ChaptGPT,实际上都在使用并需要人工干预。作为训练的一部分,人类通过称为强化学习的东西促进了许多这些挑战,强化学习是一种旨在从根本上提高系统性能的机器学习技术。
Q:ChatGPT 最近受到了很多媒体的关注,尤其是在用户发布他们与 AI 的个人互动的社交媒体上。这项新技术有哪些实际应用?
A:我们看到它应用于教育——尤其是高等教育。高等教育已经注意到——包括东北大学在内,在很大程度上——这些技术已经挑战了我们进行标准化测试的方式。教育工作者已经意识到这只是另一种工具。在东北大学,我们有很多例子,我们将在即将举行的课堂上使用它的人们的研讨会中介绍这些例子。在艺术、媒体和设计学院学习 [Salvador] Dalí 和 LensaAI 学习图像;或者是在写作课、英语课或工程学中。
就像我们从计算尺过渡到计算器,再到计算机,然后是手机上的整个网络——这是另一种工具,训练我们的学生为新世界做好准备的正确方法是想办法利用这种技术作为一种工具。
现在看到大规模的现实世界应用还为时过早。技术太新了。但据估计,这项技术可以加速知识工作者完成的任务的 50%–80%(我更倾向于 80%)。不是自动化的,加速的。如果你是律师并正在起草协议,你可以非常快速地定制初稿;但随后你必须进入并进行编辑或更改。如果你是一名程序员,你可以编写一个初始程序。但它通常不会很好地工作;它会有错误;它不是针对目标定制的。同样,一个人,只要他们明白自己在做什么,就可以进去修改它,并为自己节省 50%–80% 的工作量。
Q:你能否详细说明加速与自动化的含义?
A:这是加速,而不是自动化,因为我们知道技术实际上可以以可怕的方式产生幻觉。它可以弥补东西; 它可以尝试捍卫你要求它捍卫的观点;你可以让它撒谎,你也可以对它撒谎,让它相信你。
他们称这种特定类别的技术为随机鹦鹉,意思是具有随机变化的鹦鹉。我喜欢鹦鹉这个词,因为它正确地描述了他们不明白他们在说什么的事实。所以他们说了一些东西,这些东西听起来很有说服力,或者流畅。这是我们试图提出的重要观点之一:不知何故,我们在社会上学会了将智慧与口才和流畅联系起来——基本上是说话得体的人。但实际上这些算法远非智能;他们基本上是在做自动完成;他们在重复他们以前见过的东西,而且经常被错误地重复。
为什么我要说这一切?因为这意味着你在完成这项工作时需要一个人在环路中,因为你需要检查所有这些工作。你去掉了很多重复单调的工作——这太棒了。你可以加速它——这很有效率。你现在可以花时间增加价值,而不是重复枯燥的任务。我认为所有这些都是积极的。
我喜欢用会计作为一个很好的类比。60-70 年前的会计是什么样子的?好吧,你必须处理这些大账本;你必须有漂亮的笔迹;你必须具备良好的加法技巧;你必须手动验证数字并检查总和并应用比率。你猜怎么了?这些任务——没有,零——都与今天无关。现在,我们更换会计师是因为我们现在用更快、更好、更便宜、可重复的东西取代了他们过去所做的一切吗?不,我们今天的会计师实际上比人类历史上的还要多。
Q:最近,人们非常担心人工智能的发展可能会超越我们的安全控制和协议所带来的威胁。你如何看待这些担忧?
A:这些担忧集中在错误的事情上。让我说几件事。我们确实在 2015 年或 2016 年左右使用这些技术经历了一些阶段性转变。以手写识别为例。多年来它已经跳跃,但它花了大约 15 年的时间才到达那里,并在此过程中进行了许多修订。语音识别:同理。花了很长时间,然后开始加速;但仍然需要一些时间。
有了这些大型语言模型,比如阅读理解和语言编译,我们看到了在这些大型文学或文本上训练的大型语言模型的发展发生了重大飞跃。顺便说一句,没有太多人谈论的是 OpenAI 不得不花很多钱来策划那篇文章;确保它是平衡的。如果你通过两个不同的结果在两个具有相同内容的文档上训练一个大型语言模型,该算法如何知道哪个是正确的?它没有。要么必须由人来告诉它,要么它基本上默认说:「我经常看到的东西一定是对的。」 这为错误信息创造了肥沃的土壤。
现在,回答你关于这个提议的暂停的问题。在我看来,它的动机有点愚蠢。许多支持者来自一个阵营,他们认为我们正处于人工「通用」智能的风险之中——这与事实相去甚远。我们离那个很远很远。同样,这些算法不知道它们在做什么。现在,我们正处于滥用它的危险地带。最近有一个来自比利时的例子,有人在与聊天机器人交谈六个月后自杀,而聊天机器人最终鼓励他这样做。
因此,我们需要应对很多危险。我们知道存在问题。但是,停止不会产生任何影响。事实上,如果人们同意停止,那么只有好演员才会这样做;坏演员继续。我们需要再次强调的是,流利、口才不是智慧。这项技术有局限性;让我们揭开他们的神秘面纱。让我们好好利用它,这样我们才能意识到坏用途是什么。这样我们就可以了解应该如何控制它们。
相关报道:https://techxplore.com/news/2023-04-generative-ai-future-expert-human.html
- 上一篇:没有啦
- 下一篇:JAMES: 新的机器学习参数化方法在大气模型上的测试 2023/4/27