新闻  |   论坛  |   博客  |   在线研讨会
有知识、有情感、懂幽默的社交机器人来了?与机器人谈情说爱,真的不远了吗?
大数据文摘 | 2022-12-23 10:18:23    阅读:522   发布文章

大数据文摘授权转载自机器人大讲堂


随着人工智能对人类认知能力模仿水平的提升,智能机器人能否产生自我意识和情感的问题已从远虑逐渐变成近忧。
最近一段时间,人工智能和机器人领域最火的话题莫过于智能对话系统“生成式预训练模型聊天机器人”ChatGPT。该聊天机器人让许多人感受到了技术对于生活可能的改变。
图片
ChatGPT该系统不仅支持包括中文在内的多语聊天,而且还能够扮演角色,甚至执行编程。对于人类或诙谐或严肃的提问,它的表现令人感到惊艳:相当多的知识内容正确,语言表达更是流畅,并且还支持多轮连续聊天。网友感慨,该智能系统如果应用在机器人上,人类与机器人的社交或许成为了一种新可能。
对智能机器人自我意识问题的深切关注,当然也反映了人们对智能机器人失控的忧惧。不少人感慨“自己已经沉迷于和它对话”“让它替我编程、写稿,效率提升”,甚至有人用它生成了某行业的咨询报告,通过对话引导它生成的书也在亚马逊线上出版,也有人开始提出,这是否意味着未来更大范围的失业问题以及社会伦理问题。
中国社科网的一篇社论认为,消除这种认知和忧惧的最佳方式,就是深刻认识和把握其原理与本质,打开智能机器人自我意识的黑箱,并推动其向善发展。那么ChatGPT代表的人工智能聊天机器人的本质到底是什么?该类聊天机器人技术真的值得人们这么担忧和恐惧吗?

不同路径的意义与尝试


不可否认,技术的进步与应用在为人们的生活带来便利的同时,也让人们在一定程度上产生了恐惧。这种技术恐惧源于技术自身的复杂性和不确定性,尤其是对于可能产生自我意识的智能机器人,会做出什么事情人类很难预知。
例如有观点认为,社交机器人可能会通过编程接口搜索特定的社交网络或讨论会,作为虚拟对话参与者影响公众意见与话题走向。其可以在社交平台中模仿人类用户的言论习惯生产和传播信息,背后的利益方则利用这一特点不断复制传播特定关键词和主题标签,辅以社交网络算法控制性能将指定内容炒作为热点,此前关于推特操作舆论的话题在国外一直被人热议且警惕。
又例如在近日ChatGPT竟写出毁灭人类计划书Python代码。这是在一位工程师的多种方法诱导下,ChatGPT竟详细写出了毁灭人类的策划方案,步骤详细到入侵各国计算机系统、控制武器、破坏通讯、交通系统等等。
图片
但如果体验过ChatGPT相关程序(https://openai.com/blog/chatgpt/)会发现,其本质上依然是工具,而非独立的机器人智能体。
按照人工智能学界的划分,目前有可能产生自我意识的智能机器人,是一种高级人工智能,主要具有互动性、自主性与自适应性等特征。但许多测试中发现,在ChatGPT流畅交谈的表面下,其主要根据数据库进行相关内容输出,且有时候对人类知识的理解和掌握仍不可靠。
随着测试的增加,开始有越来越多的人感慨它“常常一本正经地胡说八道”。
由于错误信息以纯熟的语言表达出来,加上信息不对等,因而更加隐蔽,让人们更加难以察觉,但这难免会造成一些误解和困扰。
从人类聊天对话的原理来说,人类自我意识的产生主要有两种方式,一是自我激发,二是他人认同,这两种方法也常被学界用来训练人工智能。因为人工智能所涉任务众多,语言智能却越来越成为方法、技术、应用方面的领先领域。
正如ChatGPT对自己的介绍:“我是一个语言模型。”由此可以发现,该系统主要借助驾驭极其广泛的知识内容,来自对互联网文本内容的获取和“理解”,进而形成了自己的“知识体系”,这其实也是人工智能训练的一种常用技巧。
有人辩驳认为,ChatGPT的内容输出下,并不单纯只有对于知识的整理,同时也有自己的理解和表达。但问题在于,自我意识与自我认同往往不可分割,因为自我认同离不开群体中他人的认同,所以,此类自我意识通常在获得社会其他成员的认同中产生,而非独立的思考(意识)。

意识的独立性与可能性


有了对于意识的自主性认知,我们可以再去看ChatGPT本身的运行逻辑。
曾经在探索智能机器人自我意识时,有研究学者就针对这两种路径各自进行了尝试,并取得了不同的进展。按照技术发展路径,智能机器人目前已经主要分为数据智能和类脑智能,二者自我意识产生分别采用了他人认同路径和自我激发路径,其本质也不相同。
图片
一是数据智能机器人“设计”出自我意识,即他人认同路径。这一路径通过算法设计和大数据支持,让机器人表现得具有“自我意识”。无论是数字计算机,还是量子计算机,其产生自我意识的途径都属于数据智能路径。
ChatGPT其中所涉技术如果拆解开其实并不算十分复杂,但它的成功无疑以十分直观的方式向我们展示了语言、知识积累于人类思维和逻辑的重要性。
这一路径存在数据兼容和溢出的风险。人工智能的核心在于知识的获取、表示和运用,语言无疑是其中关键。教科书上“语言是人类最重要的思维工具”“人类九成的知识由语言承载”的论断在人工智能系统的应用上得到了淋漓尽致的展现。因此可以得到很明显的结论就是,这一路径产生的“自我意识”是环境中的设计者和使用者赋予智能机器人的,认知主体是人体而非机体。
知识和思维的承载物是语言,因而也赋予语言无可替代的资源属性。智能技术的发展和落地,频繁向传统语言学的教育和研究发出信号:构建语言资源、挖掘语言中的知识、探索语言知识的形式表达,是最切中数字社会命脉的发展方向。
更深层次来看,与聊天系统强大的语言生成能力不匹配的是它对知识的真正掌握程度。大量模棱两可乃至错误的信息混杂在流畅的对话中,反而令其更加难以被发现。
诚如清华大学马少平教授所说:“人工智能最大的问题是不知道自己不知道什么,也不知道自己真知道什么,什么问题都能回答,结果如何就不得而知了。”
在一般性知识极易获取,复杂知识参差不齐的背景下,其实人类专家、作者的专业判断力和经过思考加工的准确回答,更显弥足珍贵。人工智能诸多技术“黑箱”带来的不确定性,终究还需要人类专业、全局判断来化解。从这个层面上讲,“自知”的人类永远不可或缺。

更深层次的探索


当然也有学者指出,除了大量的聊天对话训练之外,更正确的方法其实是类脑智能机器人“生长”出自我意识,即自我激发路径。
这一路径通过类脑技术支持,让机器人拥有能感知的“身体”,形成独立的“自我意识”。
随着数字技术的进一步发展,社交机器人正在不断深入参与人类社会生活,已广泛应用于服务、教育、医疗等行业,在许多新兴的交叉领域发挥了积极作用。这类需求在情感机器人或社交机器人中尤为常见,但由于社交机器人作为一种拟人化机器人,难免带来了人与机器人之间的混淆问题。
图片
社交类智能机器人的使用者,往往会在与其长期相处中产生机器人也有情感和自我意识的错觉。心理学上将这种现象称为共情效应。通常情况下,能产生越强共情效应的机器人往往越受消费者欢迎。而社交机器人带来的人机互动、人与机器人的混淆问题也诱发了更深层次的情感依恋风险。
许多人寄希望于聊天机器人能够带来未来社交机器人更进一步的情感方面优化,但通过考察情感或自我意识内在的真实内容及其规律性就会发现,这只是特定情境中的使用者认为机器人已彰显出自我意识和情感。因此,并不能说明ChatGPT这类机器人能够自我激发产生自我意识或情感。
更本质而言,这里的“自我意识”虽然源自机体,但却是承载生物芯片的有机体,因此无论是技术悲观派还是乐观派都不能否认其产生自我意识的可能性。例如曾毅团队在认知神经科学家的实验基础上,用自主研发的类脑机器人成功挑战了自我意识镜像实验,为机器人自我意识建立了受生物激发的模型,结果不言而喻。
虽然镜像实验只能作为机器人自我意识验证的一个视角,但我们可以据此展望未来,制造出生物性质的类人自我意识的智能机器人并不是天方夜谭。这一路径存在生物芯片信息难以掌控的风险。目前大多数相关研究都局限于实验室内,而已临床使用的仅是针对脑部疾病的脑机接口技术,并且这种技术的使用需要患者提前进行训练,也就是要通过人的协助才能展现出智能。

探索人机融合


仅今年一年就相继出现了Dall-E、Imagen、Stable Fusion、Midjourney、Lambda、Imagen Video、ChatGPT等突破性的AI,国内也有有科大讯飞、泰比特、巴巴腾、icasevan、小i智能、优必选、腾讯态客、麦咭、阿尔法蛋和智伴等企业将相关技术与应用进行结合,社交机器人越来越聪明成为一种新趋势。
这让许多围观路人产生了恐惧,有专家提出,因为机器人所具有的虚拟对话、信息把关、舆论操纵等多重功能,社交智能机器人自我意识的产生可能增加人类对其失控的忧惧。
而学界也有乐观、中立的不同立场。因为技术恰恰有“黑箱”的存在,为引导向善发展,规避不良社会影响,需要人类主动回应和采取措施。为保证新的智能机器人产品的向善导向,人类可以不断从自身、从技术去寻求可靠、可信的技术和技术使用方式。例如必须在研发和使用中进行监管,又例如采取人机融合发展的手段,降低这种危害的可能性。
人机融合智能是充分利用人和机器各自的长处形成的新型智能形式,大数据人工智能、互联网群体智能、感知和跨媒体智能、人机混合智能、自主智能系统等是目前主要的五类人机融合智能。
以人为主导的人机协同演化关系主要将底线原则与情境学习相结合,从而才能保证智能机器人的安全可控。例如让机器人拥有一定的道德判断能力,这意味人可以决定机器人“能够做什么”和“应该做什么”,保证人工智能产品按照人的价值理念演化,从而掌握协同演化的主动权,实现智能机器人向善发展的目标。
同时,以人为主导才能促使人类主动承担协同演化中的过失责任。人是责任的承担者。人的责任不仅包括在风险预防阶段做好价值敏感设计,也包括在风险产生后通过制度构建来降低损失。
图片
可信的人工智能、可信计算成为融合技术、伦理的重要领域,并受到越来越多的重视,更宏观的人工智能伦理和治理工作也早已被纳入科技管理的视野。
挽救“失足系统”,矫正“智能体歧视”也许不再是比喻,而将成为使用者、从业者和治理者都必须面对的问题。


*博客内容为网友个人发布,仅代表博主个人观点,如有侵权请联系工作人员删除。

参与讨论
登录后参与讨论
推荐文章
最近访客