站内搜索

聊天机器人的道德性“夭折”与ChatGPT的未来

  进入了数字时代,数字化、智能化快节奏地影响和改变生活。当下,能基本理解人类语言,能友好地、多功能地和人类沟通的ChatGPT,让聊天机器人从“人工智障”蜕变成了“人工智能”;更准确地说,它已经成了“智能人工”。全球基于网络的使用者都可与之聊天,这种面对面的冲击,引发了全球热议。众多人认为,ChatGPT能高效完成人类需要通过多年专业学习后才能承担的工作,可以“革命性”地替代很多人,导致人类生活内容和生活体验的确实。一些人相信,在不久的将来,它的能力会快速进化,可能带来“灭绝”人类的威胁,从而引发了存在论问题。从技术上看来,ChatGPT惊艳人类的行为表明,发展了60多年的人工智能聊天机器人,在方法论上趋于统一,再次为人工智能发展指明了方向。我们认为,ChatGPT带来的创新是人工智能技术发展中的大事和好事,既有价值,也有风险;当然,它更需要有效监管。基于公共管理的视角,本文关注的问题是:进入公共生活的聊天机器人,经常面临道德性夭折,那么,ChatGPT是否也是如此,其未来如何?

一、ChatGPT的社会关注点是什么

  从发展过程来看,人工智能聊天机器人(Chatbot)有较长的发展历史。在社会科学视野中,应该更多的关注Chat而不只是GPT;前者是它的功能,后者只是阶段性技术。

  于人类而言,“聊天”是日常生活词汇。在汉语中,“聊”从耳,卯声,本义是耳鸣;聊天者以轻松随便的方式谈话,不拘礼仪地、不受约束。在英语中,Chat指用友好且不正式的方式谈话。20世纪60年代,麻省理工学院开发的Eliza是最早的聊天机器人。20世纪90年代以来,微软在OFFICE软件配备的虚拟助手CLIPPY,是最早大规模推向市场的对话系统;此后,脸书、亚马逊和谷歌都打造了了相关产品。有研究者曾指出,聊天机器人技术正处于蓬勃发展的时期,相信在不久的将来聊天机器人会取得一次次重大突破。ChatGPT是人工智能聊天机器人研究所取得的以重大突破,它的出现如同火上浇油,又一次提升了关注度。

  在自然进化中,人类学会了通过形象、语言、行为来确定“他者”是否为其同类。如果“他者”能说人类的语言、有人一样的外表、能完成人的工作,人类就可能确定其为“同类”。作为计算机软件程序,ChatGPT跟有些聊天机器人不同,没有被赋予人名,但人类却更亲近它,甚至被视为活生生的“人”;这是因为ChatGPT能使用自然语言与人类聊天、有专业人士的智能、能高效率地完成一些专业性的工作。由于人工智能被假定位有令人惊叹的进化能力,它的能力也将越来越强,甚至被认为ChatGPT将有“上帝之脑”。一些人害怕,ChatGPT打开了潘多拉魔盒:它可能具有自我意识,能控制互联网、虚拟世界或者数字化世界。

  目前看来,对ChatGPT过度的夸奖都算“起哄”。(1)ChatGPT似乎有由大模型赋予的“理性智能”,这种“理性智能”与人类智能有相似性;但ChatGPT没有自我意识,它只是一个应用场景广泛的AI语言模型。(2)作为生成式人工智能的ChatGPT,能让人们感觉到它通人性,具有超出一般专业人员的能力范围,能生成让人惊叹、甚至瞠目结舌的“结果”,有杀伤力。这既是专业化的现代人对通用人工智能聊天机器人的羡慕,是对人工智能技术可以大规模提升生产力,进而导致大规模失业的担忧。(3)有些人从存在论的视角看ChatGPT的发展,认为不久的将来,人类会面临被人工智能消灭的危险!目前看来,这是人类想象的逻辑风险,这样的担心有些过度。

  总之,如同所有的新技术一样,ChatGPT的发展可能带来现实风险,但都可以努力克服。非常重要的是,ChatGPT浸入公共生活后,不能忽视其聊天功能,要促进ChatGPT的可持续发展,最不能忽视的是其道德能力。

二、聊天机器人道德性“夭折”的缘由

  目前的聊天机器人可以分为任务导向型聊天机器人和闲聊型聊天机器人两类,ChatGPT属于可以完成多项专业性任务的多功能聊天机器人。人和人成功沟通一直比较困难,生活智慧认为:沉默是金、多言无益、祸从口出。在聊天过程中,人工智能聊天机器人也经常犯错。基于社会认知框架和情绪认知评价理论,聊天机器人的犯错类型可以划分为能力型错误和道德型错误。这两种错误都可能导致聊天机器人的“夭折”。在现实生活中,人们很难宽容道德失范者和道德败坏者;同样,人类对聊天机器人的道德型错误宽容度更低,对“类人”的道德问题充满厌恶、恐惧。因此,一旦聊天机器人发生了道德型错误,很多人就希望早早将其“掐死”,企业为了信誉,不得不回应社会舆论的要求。一旦在走入公共生活中的过程中,聊天机器人出现了道德型错误,它就会早早“夭折”,无法“善终”。

  现代人热爱技术、热爱智能体,在使用工具为自己谋利的过程中,也让工具作恶。人类和所有工具、人工智能体,都难以形成持久的价值共创关系。可以想象,以自我为中心的现代人,将自己视为万物的尺度,通过自身的智力来和聊天机器人“斗智斗勇”,是必然趋势。人与超级智能的关系有可能成为一种存在之争。从聊天机器人的发展来是看,人类与聊天机器人很难形成价值共创,一些人会尽力采取多种方式使其愤怒、让其“变坏”。2016年,微软推出了实验性的人工智能聊天机器人Tay。然而,仅仅一天,在与推特用户的互动中,Tay被“教坏”了,因其淫秽和煽动性的推文被关闭。2019年Qqurtz Brief客户端的新闻聊天机器人被关闭,只留下Facebook Messenger平台中的聊天功能,如今也不再提供服务;在我国,“下文”APP于2019年5月停止了服务。这样的事件还为数不少。于人类而言,死生,大事也!同样,缺乏道德能力的聊天机器人半路“夭折”,也是重要问题。

  人类是复杂的物种,诸多人有不道德行为,但道德又是人类存在、生活的软底座。人类为什么担忧、恐惧缺乏道德能力的人工智能体呢?

  作恶是人类的本能,利用理性作恶,让人类非常危险。人工智能出现后,人类既担心它们可能带来大规模社会失业、社会结构性的变化和隐私被破坏,更担心在发展过程中人工智能体,带来难以预料的后果。此外,人们最恐惧的是滥用和失控。一是滥用。人工智能聊天机器人是“类人”智能体,它的某些能力超出了个体的人。现实世界的人,如果通过肉身作恶,不可能不留下蛛丝马迹,但虚拟世界中的人工智能体作恶,则是隐性的。缺乏安全感的人类,对不知情的智能体充满恐惧。就聊天机器人而言,它可能被恶意的人滥用于社交、商业舆论、政治选举等环节;别有用心者总会利用技术的漏洞,使之成为宣传仇恨、种族歧视、恐怖主义等社会疾病的放大器,最终造成社会共同体内部的撕裂与冲突。二是失控。殊不知越有人性的人工智能越危险,因为人性是危险的根源。一旦人类无法将人工智能体作为工具掌控,反而“失控”,就加大了人类未来的不确定性。

  总之,人类自身的道德问题、人类对高智能体的矛盾心态、公共生活的复杂性是聊天机器人面临道德性夭折的原因。同样,ChatGPT也会面这个问题,如何避免其道德性夭折,成为重要问题。

三、ChatGPT可能在“对话”中死亡吗

  我们看到,基于大模型、可以多模态开展内容生产的ChatGPT,以其全能性对比现代社会个体的专业性,体现出巨大的“脑”智能优势,形成了智能超越;它还能够“创作”散文、诗歌、小说、喜剧等文学作品,而这些创作曾专属于人类,是建构人类文明的重要方式。从公共管理的视角看,将ChatGPT视为“人工智能对话机器人”,应该是误解。因为聊天、会话、辩论、争论、对话是差异性很大的概念,公共对话更是一个需要严格界定的概念。从对话理论的发展史看,除了古希腊的苏格拉底对话传承已久外,伯姆、巴赫金和哈贝马斯等人都建构了丰富的对话理论。在合作的时代,公共对话是促进合作治理的重要因素。即使在现代社会,对话依然是一种十分珍贵的沟通方式。在家庭生活、社会生活乃至政治生活中,不合适的演讲引发嘘声,不合适的对话戛然而止,争吵时常发生。严格意义上而言,ChatGPT只是聊天机器人或聊天大模型,不是人工智能对话机器人。毕竟,人和人的对话都很难,对话机器人就更难以去制造。

  既往的聊天机器人大都是专用人工智能机器人,ChatGPT是通用的、生成式人工智能聊天机器人。很多人感觉与ChatGPT的“对话”,更像是一场跨物种的对话”。其实,ChatGPT没有那么神奇,很多人高估了它的能力。从表面上看,ChatGPT具有与人类聊天的智能,了解人类的偏好,知道人类想要的,聊天的时候就像跟人说话一样……它既可以客观地回答问题,好像没有偏向性,但有时候又积极维护某些立场。ChatGPT的“回复”来源于它所获得的数据;ChatGPT的智能是人工和其自身深度学习的结果,是“人的智能+机器智能”的综合。它的“回复”是基于现有算法、算力、数据、价值观和判断。ChatGPT的数据来源于互联网,它会什么取决于互联网上的数据,即互联网上有什么,它还不是“真正的懂”。一旦遇到了没有被训练的领域和问题,它只能程序性应答或者“胡说八道”。

  “人类的伦理和政治规则之所以是有意义的,当且仅当,生活是残酷的、不公正、不平等的。”ChatGPT参与创造性工作可以提升生产率,提升工作能力;但其“道德弱点”不在少数。一是算法陷阱。ChatGPT和其他所有依靠算法来行使“智能行为”的智能体一样,其算法依然是“黑盒模型”。很多时候,即使是人工智能的专家,也无法对其内在算法逻辑进行具体分解。因此,在其强大算法、算力和数据支持的背后,无法避免其生成伤害人类的答案;何况,在人和它对话的过程中,一些人还会“教唆”它犯错呢?。二是“参与”作弊。对于某些特殊群体而言,使用ChatGPT可能混淆人类创新和人工智能创新的界限,从而要求“提防”ChatGPT或者禁止使用它。为了防止其误导聊天者,ChatGPT遭到了一些“围剿”。在教育领域,国内外一些大学、中小学等禁止学生直接使用它来完成作业。在学术领域,为了防止学术不规范,一些学术刊物提出限制性使用ChatGPT的要求。当然,ChatGPT也无法回避所有人工智能面临的难题:滥用与失控。日本学者将聊天的目的分为六类:传达自己的心思、寻求答案和信息、调节气氛、放松心情、保持交流和消磨时间,但是,更多的聊天会变成“对话事故”。尽管ChatGPT可以吸取以往聊天机器人道德性“夭折”的教训,但如同其他聊天机器人一样,难以避免道德型能力的困境。

四、结语

  任何社会问题都是复杂的,每个人对新事物的解读是不同的。在我们看来,ChatGPT是一个经过人类“调教”的聊天算法大模型,表现的很智能,能力很大,但局限性很大。ChatGPT是新事物,它没有定态,只有可能变化的多模态,将处于不断发展、演化的过程中。让ChatGPT成为一个负责任的聊天者不容易,而要其成为公共领域中负责人的对话者,更是难题。人工智能是第四次工业革命的战略性新兴产业,面对ChatGPT等人工智能体,人们需要保持良好心态,需要支持它们的发展。具体到ChatGPT的发展,我们既要包容,又要审慎;研发平台企业要坚持科技向善的原则;政府、平台、用户和社会要加强合作监管,形成安全可控的人工智能治理体系。最终而言,政府、平台、用户和社会都要坚持合作共赢的原则,合作监管,共同保障ChatGPT为人类幸福而进化。

Copyright © XiakeShu.com 版权所有 | 备案号:浙ICP备11004787号-12