财新传媒 财新传媒

阅读:0
听报道

图源:pixabay

撰文丨张天蓉

近几年,ChatGPT一类的聊天机器人风靡一时,受到公众的空前关注。那么,你知道历史上的第一个聊天机器人是谁发明的?又是哪年发明的呢?它的功能如何?造成了多大的影响?

这些问题把我们带回到 20 世纪 60 年代中期。当然,我们指的是聊天机器人[1],如果说到更广泛的人工智能思想,要开始得更早的多。

ELIZA横空出世

谁是ELIZA?如果你看过美国好莱坞1964 年的电影《窈窕淑女》,那里面女主角的名字就叫ELIZA,全名伊丽莎·杜立德 (Eliza Dolittle)。这部片子赢得了包括最佳影片在内的8项奥斯卡大奖,扮演主角的演员赫本,更是粉丝无数家喻户晓!

奇怪了!这和聊天机器人有什么关系呢?且听我们慢慢道来。

正值电影《窈窕淑女》从好莱坞横空出世,在全美国票房爆满之时,东部的麻省理工学院(MIT),有一位科学家维森鲍姆,却没日没夜地对着计算机,正在苦苦思索一个问题。

那个年代,是计算机技术蓬勃发展的年代,自从1947年晶体管被发明出来后,计算机的功能迅速增强,体积逐年缩小。1964年, IBM公司宣布用System/360取代早前的计算机。这是一个里程碑式的转换,使用IBM固态逻辑技术,将制造过程标准模块化,成功地涵盖了广泛的功能和价格。当时也是美国西岸硅谷的精英们刚刚研制成功了集成电路,正准备大规模推广应用之际。

看见计算机硬件的巨大变化,维森鲍姆思考着另一种可能性:是否有可能实现图灵关于人工智能的想法?图灵1950 年在他的题为“ 计算机械与智能 ”的论文中提出,如果一台计算机可以通过文本与人类进行令人信服的对话,则可以认为它是智能的,这一思想也是著名的图灵测试的基础。维森鲍姆想,不管叫不叫智能,首先要实现的是“人类和机器的对话”,也就是说,需要机器懂得人类的语言。

维森鲍姆要做的,就是我们现在称为NLP(自然语言处理)的问题。

图1:维森鲍姆发明第一个机器聊天人ELIZA

当时已经存在一些基本的数字语言生成器,用户可以使用打字机输入人类的自然语言,然后获得机器的响应,机器可以输出一些连贯的文本。然而,并没有一个明确设计用于与人互动的程序,这便是维森鲍姆当时的梦想。

说干就干,维森鲍姆使用(并改进)了一种名为 MAD-SLIP 的专有编程语言,自己来创建了一个程序。特别令人高兴的是,程序虽简单效果却不错。因此,两年之后的1966年,维森鲍姆推出了世界上第一个聊天机器人ELIZA。

想必维森鲍姆太忙了,没有时间去看电影,所以,他以萧伯纳 1913 年戏剧《皮格马利翁》中的虚构角色为名,将他的“机器对话程序”命名为“ELIZA”。而好莱坞的《窈窕淑女》这部电影,就是由《皮格马利翁》改编而来,女主角的名字是一样的:ELIZA。

维森鲍姆如何设计ELIZA?

约瑟夫·维森鲍姆 (Joseph Weizenbaum,1923-2008)出生于德国柏林一个犹太家庭,12岁时与家人一起逃离纳粹德国来到美国。他本科学数学,一年后中断学业加入美国陆军航空队,但因他的德国原籍,被拒绝加入密码学工作。战后他取得了数学学士学位,迷上了计算机。1955年,维森鲍姆协助通用电气设计了第一台用于银行业的计算机。他1964年在MIT得到教授职位后,开始探索计算机与普通人进行英语交互的可能性,这在当时是很难令人想象的。

基于当时计算技术的水平,维森鲍姆认为,实现人机之间对话的最佳方式是模仿精神分析的方法,即利用重复结构,让程序重复单词并重新表述以问题形式给出的陈述。因此,他1966年发表的聊天机器人ELIZA,只不过是一个简单小程序,可以在36比特架构的IBM 7094计算机上运作。執行過程中,ELIZA通过分析输入的文字內容,将特定字句重组,变成全新的字句输出。程序只有200条左右的代码,通过一个名为DOCTOR的脚本,可以以极类似心理学家的方式与人类交谈。

维森鲍姆设计ELIZA时,模仿罗杰式心理医生与病人的对话风格以一问一答的方式获得有趣的的对话互动,有人将此称为“狡猾策略”。

图2:维森鲍姆用“狡猾策略”设计ELIZA的对话

所谓“罗杰斯治疗”,是50年代出现的一种“以人为本的心理咨询” 方式,与传统的心理治疗相反,医生不以权威或专家自居,而像一个有专业知识的伙伴或朋友,与病人建立融洽的关系,使病人产生信任感。也称为“非指令性治疗”,即治疗者不对病人发出指令,也不下诊断,而是耐心倾听病人的陈述,通过重复病人所说的话,对病人陈述中的情感作出反响,以便让病人尽量表达和暴露自己,使病人逐渐有所进步。

因此,为了鼓励用户与机器对话,维森鲍姆使用“狡猾策略”设计对话风格。虽然ELIZA的出现已经是将近60年之前的事情,与如今的ChatDPT不可同日而语,但看看她的对话方式,也挺有趣的,也许对我们深刻理解ChatDPT的原理,还会有所启发。

示例如下,ELIZA与玛丽(人类)的简短交谈:

玛丽:男人都是一样的。ELIZA:怎么说?玛丽:他们总是用一些事情来打扰我们。ELIZA:你能给一个具体例子吗?玛丽:嗯,是我男朋友让我来这里的。ELIZA:是吗,你男朋友让你来这里?玛丽:他说我经常很沮丧和郁闷。ELIZA:听说你沮丧和郁闷,我很遗憾。玛丽:确实如此。我不开心。ELIZA:你经常不开心,不快乐吗?玛丽:以前不是,近来几个月……ELIZA:近来几个月?发生了什么?玛丽:……………(玛丽更多的倾述)

或许以你的眼光看,这机器人什么也没说,确实如此。当测试人给出问题描述时, ELIZA所做的不过是利用信息抽取技术和语言处理方法,提取几个关键词,然后将这些关键词组合成一个问题,作为答案来回应。ELIZA并不需要真正理解输入和输出的含义,但她的反应往往能够给人一种“具有智能”的错觉。

对某些人而言,这机器很“善解人意”,同情对话人的处境,比如例子中的玛丽,因此,她愿意向ELIZA敞开心扉……。如此一来,ELIZA可以得到并且储存起来更多的、有关玛丽的信息,更有助于增加她与玛丽聊天时的用语。

像“男朋友”、“沮丧”、 “母亲”、“父亲”这样的词都可以引起反应。对某些问题,ELIZA也有不知所措不知如何回答的时候,如果这样,它可能会使用“请继续”、“这很有趣”、“我明白了” 、“告诉我更多” ,这些含糊的词语。直到它收到可以组合问题的更多的关键字。

此外,维森鲍姆ELIZA的代码应该可以改写成其它用途,不一定只是“心理医生”。据他自己说,他的想法是开发一个不需要深厚知识储备的程序。这个概念需要“对话中的一方不必知道一切,而我当时想到了一位精神病医生。也许如果我再多想 10 分钟,我就会想出一个调酒师。”

维森鲍姆对AI的困惑

事实上,ELIZA的对话风格非常简单,但给人的印象却是令人吃惊的。特别是,维森鲍姆仅用了 200 行代码就实现了这个过程,给人一种被机器听到了和理解了的错觉。即使在维森鲍姆向测试人员介绍了机器聊天人的工作原理并解释说它并不真正理解用户所说的任何内容之后,测试人员对 ELIZA的这种亲近感仍然持续存在。即便维森鲍姆的助手,她见证了ELIZA被创造出来的全过程。然而,在与ELIZA测试对话时,仍然坚持让维森鲍姆离开房间,以便她可以与 Eliza 进行真正私密的交谈。

图3:维森鲍姆的书《计算机能力与人类理性》

讽刺的是,尽管维森鲍姆设计 ELIZA的意图是为了展示人机对话的状态是多么肤浅,但它却产生了相反的效果。ELIZA 的消息在麻省理工学院社区迅速传播,人们被迷住了,涌向计算机实验室。虽然维森鲍姆经常小心翼翼地对人们解释说,这只是一个程序,线路的另一端没有人,但仍然有人会偷偷地花上几个小时来与ELIZA分享亲密的对话。维森鲍姆对公众的反应感到非常不安,在随后的1976年,他发表了一本名为《计算能力与人为原因:从判断到计算》的书,维森鲍姆不相信任何机器能够真正理解人类对话,他1977 年告诉《纽约时报》:“成为一个人是必要的。爱和孤独与我们生物体质的最深层后果有关。对于计算机来说,这种理解原则上是不可能的。”

维森鲍姆原来以为,发表他对 ELIZA 内部功能的解释将会解开人们的谜团。他写道:“一旦一个特定的程序被揭开面纱,一旦它的内部工作原理被用足够简单的语言解释以促进理解,它的魔力就会消失。” 然而,人们似乎不在乎该程序是如何运作的,对继续对话更感兴趣。

公众完全相反地理解了维森鲍姆的意图,把他对人机对话的肤浅展示作为计算机深度的证明。自动化治疗过程的潜力让精神科医生也兴奋不已,人们下意识地认为机器能与人沟通,因而对ELIZA产生了如此可靠的情感和拟人化的依恋,使维森鲍姆十分沮丧不安,他称此为 ELIZA 效应。维森鲍姆认为,正是因为当时的社会环境越来越冷漠,才让人如此绝望,以至于抛弃了应有的理性与判断力,转而相信一台机器程序能理解人类的心声。

人们愿意将程序与实际人际关系混为一谈,没有让 ELIZA 的发明者感到高兴,而是感到困扰。结果,ELIZA 成为了维森鲍姆的一个痛点,到 20 世纪 70 年代中期,维森鲍姆对人工智能的发展轨迹十分关注,他将余生的注意力都转向收集对AI的批评,批评过快地引入人类思想,过分相信智力的幻觉。

维森鲍姆也开始质疑图灵关于人工智能的想法,他认为对人类智能的模拟,并非智能本身,但又足以使人蒙昧。维森鲍姆称这种现象是数字时代人类的一种“妄想” ,是一种困扰现代人的广泛病理学。图灵测试显然存在缺陷,一方面,该测试的结果受到主观因素的影响,这意味着只要测试人员没有足够的技能和知识来评估AI系统的性能,测试结果就会不准确;另一方面,ELIZA的实践说明,人工智能系统在指定主题上模仿人类并欺骗测试人员实际上并不困难。

ELIZA的经验对维森鲍姆来说是一次深刻的冲击,直接影响了他未来十年里所做研究的思想轨迹。

书中对人们为何愿意相信“一台简单的机器也许能够理解复杂的人类情感” 进行了深刻的剖析。

他认为,在一个被科学技术占领的世界中,社会环境日渐冷漠,人们习惯于将自己看作是一台大机器中的齿轮(小小的螺丝钉)。因而绝望的人类才会去相信一个机器程序可以聆听他们的心声。维森鲍姆的余生都在致力于这种对人工智能和计算机技术的人文主义批评。他的任务是提醒人们 ,他们的机器并不像通常所说的那样聪明,“即使有时好像他们会说话,但他们从未真正聆听过你,它们只是机器。”

维森鲍姆的创作虽然具有开创性,但让他对技术的伦理影响有了深刻的认识,使他余生中都一直质疑创新带来的责任以及人工智能开发中道德准则的必要性。

从ELIZA到ChatGPT

由上所述我们知道,聊天机器人的最基本原理之一是计算机的自然语言处理(NLP)能力。根据这五十多年NLP的发展,可将聊天机器人发展进程大体分为下述几个时期[2]。

图4:聊天机器人的几段历史时期

自然语言处理的发展,一开始着重探讨语言的规则,因此,早期的聊天机器人也重视从规则来产生对话输出。然而后来,越来越多的NLP专家们认识到,自然语言除了有语法句法的种种规则之外,还有非常大的随机性。所以,统计概率的方法被引进了这个领域,1948年,香农把离散马尔可夫过程的概率模型应用于描述语言,之后,他又把热力学中“熵”的概念应用于语言处理的概率算法中。两种不同方法的存在,使得自然语言处理的研究一度分为了两大阵营:一个是基于规则方法的符号派(symbolic),另一个是采用概率方法的随机派(stochastic)。两种方法的研究都取得了长足的发展,也引发了数十年有关基于规则方法和基于概率方法孰优孰劣的争执。

再后来,自然语言处理结合机器深度学习技术,之后由于互联网的成功,又有了大规模语言模型,NLP及聊天机器人都到达新时代的发展高峰。以下概括几段时期中的典型聊天机器人产品。

a:20世纪60年代和70年代,主要采用“词典+规则”(的自然语言处理范式,以1966年的ELIZA,和 1972年斯坦福大学精神病学家科尔比的PARRY为典型代表。二者较为成功地实现了在英语语境下,对人类提问的关键词做出特定回应,但在人机交流过程有明显的机械化特征。

ELIZA使用模式匹配和替换方法来模拟人类对话,工作方式是将用户输入的单词传递给计算机,然后将它们与可能的脚本响应列表配对。

PARRY由美国精神病学家肯尼斯·科尔比 (Kenneth Mark Colby) 于1972年构建,该程序模仿了一位精神分裂症患者,通过一个复杂的假设、归因和“情绪反应”系统来工作。它试图模拟这种疾病,是一种类似于个人思维的自然语言程序。

为了验证这项工作,使用图灵测试的变体对 PARRY 进行了测试。人类审讯员通过远程键盘与程序交互,无法准确地将 PARRY 与原始个体区分开来。

科尔比是一位思考计算机如何有助于理解精神疾病的精神病学家。他开始的“克服抑郁症”项目,一直持续到他 2001 年去世。

b:20世纪90年至21世纪初,美国科学家兼慈善家休·勒布纳(Hugh G. Loebner)1990年设立了勒布纳人工智能奖(Loebner Prize)。在该奖项的激励下,聊天机器人智能化进程全面提速,诞生出了基于NLP“统计模型的阿尔伯特一号(Albert One)、爱丽丝(ALICE)及埃尔伯特(ELBOT)等典型代表。其中的三次问鼎勒布纳奖的ALICE,被视为当时智能化程度最高的聊天机器人。不过她无法与人维持长时间对话,因此最终未能通过图灵测试。

图5:ALICE

1995 年Richard Wallace 率先构建了ALICE,是一种通用语言处理的聊天机器人,它使用启发式模式匹配来进行对话。使用称为人工智能标记语言(AIML)的 XML 模式,有助于指定对话规则。

ALICE被定义为一位年轻女性,她可以通过互联网与人聊天。她会告诉用户她的年龄、爱好和其他有趣的事实,并回答用户的对话。

1998年,ALICE的程序采用 Java 编辑,2001 年根据 AIML 规范,起草了 ALICE 的免费和开源代码。

c:21世纪初至20年代,以苹果2010 年为 iOS 开发的Siri、2012 年在 Google Inch 推出的Google Now、微软2014的 Cortana、谷歌Google Assistant、亚马逊Alexa等,服务于私人用户的数字助理为代表。这一时期的智能聊天机器人基于“深度学习模型”(deep learning models)的自然语言处理范式,采用语音识别与信息检索技术,能够为用户提供个性化和便捷性的服务,初步实现了人机的双向交流。然而依旧与真实人类对话交流存在差距,不知道如何回答时,聊天机器人还可能会搜索网页上的相关信息,给出链接让用户自行寻找。

d:21世纪20年代,以采用“预训练+微调”(pre-training + fine-tuning)自然语言处理范式的生成式人工智能ChatGPT为代表。

ChatGPT是 OpenAI 推出的大型语言模型。该模型基于大量数据进行训练,使其能够生成通常难以与人类书写的文本区分开来的文本。ChatGPT旨在帮助用户根据给定的输入来生成文本,可用于包括语言翻译和对话生成在内的多种任务。

ChatGPT及近年来各个大公司推出的新一代聊天机器人,因其生成听起来自然的文本的能力及其在各个领域的潜在应用而受到赞誉。

超级人工智能?

如今,人工智能这个词经常与世界末日联系在一起,这个领域的每一个新发展都为群众所关注,都会立即在群众中引起震惊的反应,恐惧是自然的,这是由于我们对一切新鲜、神秘和陌生的事物的不信任,同时也是由于电影等媒体的不实宣传,认为人工智能将获得超人的力量,然后,这个超级人工智能便会摧毁人类等。

但无论如何,这种说法有很多夸张的地方,人工智能似乎可以执行许多的认知任务,但以我们目前所拥有的技术能力,以我们对人类智能定义的理解以及我们对人脑工作原理的了解,这仍然是一个遥远的梦想。

从ELIZA到ChatGPT,聊天机器人确实有了惊人的变化,体现了人工智能和机器学习的技术发展。ChatGPT这一代应用了神经网络技术,它能模拟人脑工作方式,用于处理复杂的数据,这使机器能够识别数据中的模式,理解图像,处理自然语言,甚至可以用与人类相同的方式进行学习。

但实际上,从以上介绍的聊天机器人发展历史,变化的不过是:从少量单词到前所未有的海量数据,以及如今超强的数据处理能力,还有机器学习方法的巨大发展等等,并非“机器人”本质上的改变。它们仍然只是预测文本中下一个单词和句子的机器,仍然难以产生所谓的“超级人工智能”,至今为止,它们既没有真正的智能,也无生物体具备的意识。

当然,任何技术都具两面性,能做好事也能做坏事。因此,与其宣扬和关注人工智能接管世界并毁灭人类的恐惧心理,不如把注意力转向真正迫在眉睫的挑战,比如AI这些新技术造成的侵犯隐私、网络欺诈、经济利益分配等现实的社会问题。

五十多年前维森鲍姆的担忧仍然存在,并且随着AI的突飞猛进而变得更加重要。如今的人工智能不仅是一个学术项目,而且还涉及若干人的商业利益。设计人工智能可以赚大钱,它不仅能回答技术问题,还能改变我们的行为以实现更大的盈利。正如维森鲍姆所看到的,如果没有智慧和深思熟虑,人类可能会在自己扭曲的反思中迷失自我。

在当今科技高速发达的世界中,人工智能或聊天机器人的扩散速度前所未有。在这个发展的关键时刻,审视一下这门领域的老祖宗ELIZA的历史,以及其创建者维森鲍姆的警告是有必要的。至少能使我们更好地理解人类正在创造什么,它是否将反过来重新塑造人类?

参考文献

[1]The Evolution of Chatbot Technology: From ELIZA to ChatGPT. https://en.softonic.com/articles/evolution-of-chatbot-technology.

[2]The History Of Chatbots – From ELIZA to ChatGPT. https://onlim.com/en/the-history-of-chatbots.

 

话题:



0

推荐

知识分子

知识分子

3863篇文章 1天前更新

由饶毅、鲁白、谢宇三位学者创办的移动新媒体平台,现任主编为周忠和、毛淑德、夏志宏。知识分子致力于关注科学、人文、思想。我们将兼容并包,时刻为渴望知识、独立思考的人努力,共享人类知识、共析现代思想、共建智趣中国。

文章