2017-10-18 21:40 网易科技
【未来科技范儿报道】长期以来,我一直把研究情商作为一种业余爱好。直到最近,我依然相信,即使人工智能(AI)接手所有需要记忆和逻辑推理能力的任务之后,情商仍将是我们人类的核心优势之一。
在过去的几年里,我将主要精力放在研究情商算法上,因为这是我的创业公司Inbot的主要业务。然而对它们的研究越多,我就越确信,人类相对于AI的情商优势正在缩小。
以色列历史学家尤瓦尔·赫拉利(Yuval Noah Harari)在他的畅销书《Homo Deus》中写道,人类本质上是数百万年进化形成的生物算法的集合。他声称,没有理由认为非有机算法无法复制和超越有机算法所能做到的一切。
麻省理工学院物理学教授马克斯·泰格马克 (Max Tegmark)也在他的著作《生命3.0:人工智能时代的人类》(Life 3.0: Being Human in the Age of Artificial Intelligence)中表达了类似观点。他提出了一个令人信服的理由,即几乎所有智力本质上都是独立的。
他们的论述都是有道理的。我们的情感和感觉是对环境做出反应的有机算法。算法是由我们的文化历史、教育和生活经历塑造的,它们可以被逆向推导。
如果我们同意赫拉利博士和泰格马克博士的观点,意味着我们相信计算机最终会比人类自己更擅长操纵人类的情感。在现实生活中,人类实际上非常不善于处理与情商有关的东西。
我们大多数人都对自己在别人身上触发的最基本情感一无所知。我们通常都以毫无疑义的争吵结束交流,并摒弃了更好的理由,因为它们违背了我们的偏见,即基于刻板的印象来评判别人。
我们不理解文化背景、家庭教育的影响,亦或是我们讨论伴侣当前个人生活状况的影响。我们很少试图站在别人的立场上以不同的角度看待问题。如果违背我们的世界观,我们就不会尝试去理解他们的理由。我们不想挑战我们的偏见或成见。
在网上,情况要糟糕得多。如果我们认为他们的观点与我们的偏见相悖,那么我们就会从那些我们根本不了解的人的评论中得出草率的结论,而且这些结论往往是错误的。最后,我们有一个进化特征,即把生命看作“最适者才能生存”。这让我们无法利用他人,专注于提升自我。
最成功的人往往为了获得优势而撒谎,通过操纵来获得优势,并通过欺骗隐瞒自己的错误。他们是要不惜一切代价赢得比赛,尽管这个过程会给你带来很多情感上的伤害。
当我们人类继续努力相互理解时,高情商的AI已经获得速发展。手机摄像头无处不在,面部追踪软件已经足够先进,可以分析我们面部表情中最微小的细节。最先进的面部追踪软件甚至能分辨出虚假的情感。
语音识别和自然语言处理算法也能更好地从音频中识别出我们的情绪和情绪状态。分析人脸和声音情绪反应的技术已经远远超出了一般人的能力,而且在许多领域甚至超过了最有能力的人。AI可以通过观察我们的面部识别出你的性取向、政治倾向或智商等个人特质。
虽然AI可以从你的面部或语音中识别出几乎任何情绪,但我们在对情商AI的科学研究上还没有投入太多精力。
目前,这一领域的进步几乎完全是由商业利益和人类贪婪所驱动的。
媒体和娱乐公司需要我们的关注和参与才能赚钱。像Facebook和YouTube这样的公司有大量的工程师在努力创造更好的方法,以便让我们沉迷于他们的内容。我在之前的一篇文章中提到过这个问题,名为《上瘾行业令人担忧的增长》。
这些算法的设计目的是为了激发我们的情感,让我们保持开心。它们已经非常非常擅长执行这类任务。这些算法的许多核心开发人员已经开始害怕技术对我们的影响,并警告称我们的思想可能被劫持。
与人类不同,AI可以利用你的整个网络历史,在大多数情况下,它比任何人记住的朋友信息都要多。Facebook和谷歌开发的一些最先进的机器学习算法已经被应用于数十亿人的海量数据中。根据你的交流、朋友和文化背景,这些算法已经了解你的欲望、偏见和情感触发因素。在许多领域,它们甚至比你更了解自己。
算法的进步如此之大,以至于Facebook和谷歌现在被指制造出可以影响公众意见、迅速改变政治格局、影响选举的过滤泡沫。这些算法变得如此复杂,以至于人类无法完全控制它们。Facebook的安全主管亚历克斯·斯塔莫(Alex Stamos)最近在推特上说,记者们批评他们存在操作行为非常不公平。事实上,他们没有任何不会导致人们指责他们有偏见的解决方案。
人们有很多偏见,这已经影响了我们的判断。我们看到的世界是我们所希望看到的,而不是它的本来面目。如今,由人类开发的算法也包含了许多人类特有的偏见。但如果我们想要消除这种偏见,那就相对容易了。