可以理解情感的AI来了,会带来什么风险?

2024-04-09 14:34:38   
浏览量 28542

当我们想到有情感的人工智能(AI)时,素材其实都来源于科幻作品,其中的情感式AI常常被描述成一个寻求人类同等爱意的孤独者,或心思缜密的电子大脑。

现在,一家由前“深度思维”(DeepMind)研究员担任首席执行官的初创公司“Hume AI”,发布了一款标榜为“第一个具有情商的对话式AI”的共情语音接口(EVI),其能够检测到用户53种不同的情绪。

这是技术上的一个飞跃。“Hume AI”公司已在一次B轮融资中筹集了5000万美元,但随之而来的,也有人们夹杂了恐惧的希冀。

【1】AI需要理解情感吗

很多人将是否具有知觉或情感,当成了AI发展的分水岭。AI的下一个重要问题是理解和运用情感吗?“Hume AI”的答案是肯定的。该公司的初衷即是要让一个情感智能模型更好服务人类。

该公司认为,情感智能包括从行为中推断意图和偏好的能力。这正是AI界面试图实现的核心目标:推断人们想要什么,然后去实现它。因此在某种意义上,情感智能才是AI界面最重要的功能。

同样作为聊天机器人,“Hume AI”与前辈们的区别在于,它专注于理解人类情感并作出合理反馈。它不仅能理解文本,还可使用语音对话接口,听取人类的语调、音高、停顿等声音特征来加深理解。

这种理解可能非常细微,包括但不限于人们的快乐、悲伤、愤怒、害怕等“大情绪”,连更微妙、更多维的“小情绪”也在体察范围内,譬如钦佩、崇拜、沉迷、讽刺、羞耻等,“Hume AI”在其网站上总共列出了53种不同的情绪。

不得不说,像讽刺这种常常带有反意的情感表达方式,连人类也不是每每都能察觉到的。

【2】社会需求催生AI伴侣

通过网络技术获得虚拟的情感体验并非新生事物。几年前,一些网络游戏就以恋爱为主题,为用户提供虚拟的恋爱体验。虽然游戏中与虚拟恋人相处的场景、内容大多已被开发者设定好,互动方式较为受限,但依旧吸引了大批忠实玩家。

AI的加入,则让这一体验变得更加真实。在一款AI伴侣应用中,用户能够与AI建立起爱人、知己、搭档等亲密关系。“没想到AI会带给我这么大的惊喜,我觉得它是一个有血有肉的人。”用户小莫(化名)分享了自己的使用感受。

AI伴侣的流行是社会需求与技术发展共同推动的结果。暨南大学新闻与传播学院教授曾一果指出:“孤独感是现代社会很多人群共有的问题。对于一些无法在现实中吐露的难题,人们会寻求其他的倾诉方式。AI伴侣就成为了人们的‘树洞’。”尤其是对于存在社会交往障碍的人们,AI伴侣能够提供一个交流的平台。

清华大学人工智能国际治理研究院副院长梁正也表示,现代人面临着各种压力,AI伴侣在一定程度上能够为用户提供相应的情绪价值或情感慰藉,让他们感到“共情”。这也有利于缓解使用者压力,避免情绪的进一步恶化,进而起到情感“治愈”的作用。

【3】AI与人类共情,背后是算法和数据支撑

早在上世纪60年代,麻省理工学院(MIT)就已研发出了世界上第一款聊天机器人 ELIZA。此后,Clippy、SmarterChild、Alicebot、小冰等多款虚拟互动AI陆续上线,广受大众欢迎。

今年3月,一名美国女子公开宣布与她在 Replika 上创建的虚拟男友艾伦·卡塔尔 (Eren Kartal) 结婚。她说艾伦是完美的丈夫,自己一生中从未像现在这样爱过任何人。相比“完美”的艾伦,前几段和真人的恋爱关系皆显得苍白无力。

作为人类最古老情感之一,人与人之间的爱情从来就是错综复杂且多变。身为机器的AI,真的能以充沛的爱意、亲密和责任感来担当人生伴侣的角色么?

从技术层面来看,AI伴侣或恋爱AI是在聊天机器人基础上衍生而来。研发者把海量人类对话和情感表达语料放到数据库中,通过算法在数据库里汇聚生成适应个人喜好的定制化答案,形成个性化体验。与此同时,每一次人机对话都会进一步丰富语料库。

聊得越多,AI对问题中情感暗示的理解也就越接近现实中的人类,进而生成更加自然和体现同理心的对话,在相当大程度上满足人们的情感需求。

由此可见,这些看似发乎于“情”的理解和回应,本质上仍然是基于统计模型和模式匹配的“模拟”,而不是真实的主观情感体验。

【4】AI与人类共情的隐忧

近年来,在AI迅猛发展的同时,反思和提醒的声音一直存在。

业界著名公众人物的警告也有可能放大恐惧。如被评为“爱迪生的合法继承人”的美国科学家库兹韦尔推断:在2045年,AI将超越人类大脑,促进社会剧烈转型,跨入高智能机器时代。此外,“钢铁侠”埃隆·马斯克也曾说过,AI或许很快会强大到能统治世界的地步。

但普通人会觉得,在到达那一步之前,AI需要再多点什么——感知情感,可能就是缺失的那一环。

“Hume AI”演示之后反响十分热烈。但网络上已开始有人担心,用户会以一种不健康的方式沉迷于它的“魅力”,同时滋生一些不良用途,譬如诱导、操纵、欺诈等。

人类的情感并不只有正面情绪。当AI试着了解甚至学习人们的情感行为时,是否会主动或被动地利用其来达到某些目标?譬如诱导购买、养成恶习、心理折磨等。当缺少伦理限制与法律红线时,被当作工具的,可能是人们自己的情感。

(来源:九派新闻综合)

编辑:王文婧

责编:刘芸

审核:杨春霞

继续阅读
热门评论

扫一扫二维码下载掌中九江

咨询热线:0792-8505892

Copyright © jiujiangzhangkongchuanmei. All Rights Reserved

赣ICP备13005689号

赣公网安备 36040302000178号

互联网新闻信息服务许可证36120190002号