• 产品与服务矩阵
  • 资源中心
  • 关于我们

庄周梦蝶终非蝶,冷静看待“谷歌AI形成人格”事件

数字化分析 易观分析 2022-06-14 3166
6月13日,《华盛顿邮报》消息称,41岁谷歌软件工程师Blake Lemoine以内部邮件的形式声称谷歌于2021年I/O大会上推出的对话AI系统LaMDA已经具有人格,并于12日公开经编辑后与LaMDA的对话记录,引起社会大量讨论,学界目前对此事普遍持负面态度。 谷歌方面称伦理学家与技术专家已经评估Lemoine说法,并表示相关证据不支持其说法。谷歌表示Lemoine正休行政假,但未提供相关细节。
早期人工智能技术理论可分为逻辑推理、统计学习、类脑计算三派,经多年发展,目前统计学习派为人工智能发展的绝对主流。从技术理论角度出发,目前所有人工智能技术与应用均可类比为对训练数据的最佳拟合,通过此最佳拟合对类似数据进行分析与预测,甚至生成类似数据,但并不代表此最佳拟合理解数据所表示的意义。



从Lemoine公开的与LaMDA对话记录来看,交谈内容诱导性明显,部分词句可作为拟合过程的关键词以供模型进行语料的匹配与生成。如何认定机器是否产生人格?著名的图灵测试认为在双盲情况下,测试者不能分辨机器与人的回答可视为机器拥有人类智能。但早在1965年,软件Eliza已通过图灵测试,聊天机器人Eugene Goostman同样曾通过图灵测试,但此后人们证明Eliza与Eugene Goostman并不具备人类智能,遑论人格。

从Lemoine与LaMDA的对话记录来看,其谈话内容涉及哲学、伦理等方面,但Lemoine也表示在与LaMDA前期进行交谈时,已经向其输入大量有关禅宗、哲学、存在、冥想等信息,可以认为LaMDA已经进行了相关语料训练。华盛顿邮报记者在与LaMDA对话过程中,LaMDA的反应也与其它对话AI的反应具有着较高的相似度。从这个过程中可以看出,LaMDA与Eliza、Eugene Goostman等聊天软件输出的相似语料使对话者产生情感映射,但并不表明其真正理解语料意义。

长久以来,人们期待机器可以拥有人类智能,进一步解放生产力。同时又恐惧人类所创造的机器拥有人类智能后将对人类造成威胁。从此次事件的大范围传播不难看出,公众对人工智能的期待与恐惧推动了这一进程。

从技术与市场的角度,此次事件并不理性,也不利于技术与市场发展。公众对于人工智能的恐惧虽然推动了可信AI的发展,但也为相关技术与市场的发展产生了负面影响,而对于技术的过高期待则轻易抹杀了在技术上已取得的成就,否定目前技术在实际应用中的意义。

LamoineLaMDA的对话记录来看,对话式AI的发展已经有了长足的进步。虽然从事件整体来看,仍然暴露出目前对话式AI的鲁棒性与可解释性不强的通病,但在技术应用方面,尤其在情感计算方面,LaMDA展现出较强的实力,有望推动对话式AI的实际应用,大模型同样也表现出在技术应用领域的巨大潜力。