谷歌有没有歧视华人和女人?

用谷歌找资料时,谷歌会给我们一系列网页,网页里有我们要找的字眼。

例如说,我用中文在谷歌搜索栏填写「奥巴马」和「穆斯林」,谷歌会显示一整页提到奥巴马和穆斯林的网址。我可以一个个点进去这些选项,比较内容,凭自己的判断力看哪一些信得过。

我看到第一个网址是论坛上的提问,主题是:奥巴马是不是穆斯林?下面有一些网民回答,有的是有凭有据,但多数是擅自推断的阴谋论。

接下来两个网站都讲奥巴马是穆斯林,第四个网址是维基百科关于奥巴马的页面。目前看到的几个网址只有维基百科说:奥巴马不是穆斯林,他是基督教徒。

当然如果你上惯了网肯定知道,我们不可以相信来源不明的资讯。任何有公信力的资讯来源如《星洲日报》都会告诉我们,奥巴马他是货真价实的基督教徒。

谷歌搜索本来的功能其实很简单,那就是帮我们找出一堆包含特定字眼的网页。例如当我问它:奥巴马是不是穆斯林?谷歌只需要找出一堆提到「奥巴马」和「穆斯林」、点击率比较高的网页,然后接下来就全靠我们自行判断了。

这样做本来不会有争议,毕竟谷歌本来就没答应回答我们的问题。

可是,谷歌近年来主打人工智能(AI)功能。所以,近年谷歌旗下产品如搜索引擎、安卓系统、Google Home尝试为用户的问题提供明确简短容易消化的答案,帮我们省更多时间力气。

例如我在谷歌搜索栏填写「纳吉多少岁」,谷歌会直接展示纳吉的岁数(63岁),不需要我点进去搜索出来的选项一个个看。

让我举个虚构例子。如果昨天发生了青年砍死50个老太太的大新闻,我填写「砍死50个老太太的青年多少岁」。谷歌会根据关键字眼找到《双峰塔日报》一篇点击率比较高的报道,向我展示摘要:雪州一个18岁少年昨天砍死50个老太太。

问题是,人工智能未能像人类那样对比资料然后衡量真假。例如上面报道虽然点击率蛮高,但《双峰塔日报》是冒牌新闻网站。

最近有人问谷歌的人工智能产品Google Home「女人是不是都是坏人」(are women evil)这个恶搞的问题。有留意科技新闻的朋友会知道,Google Home是一个会听人讲话然后用讲话回答,看起来有点像花瓶的东西。结果Google Home引述了一篇讲解为何女人天生邪恶的文章,在网上引起了轰动。谷歌不知那文章有问题,只知文中提到「女人」「都是」「坏人」。

而我一时好奇,用英文在谷歌搜索栏填写「华人是」(chinese are)。结果,谷歌的自动完成功能(autocomplete)显示几个陈述句,包括「华人没有文化」「华人是诺亚的后代」(!)。

前者还可以理解,但会有神经敏感的人说谷歌歧视华人,后者就莫名其妙了。为了判断谷歌是不是只对华人和女人有恶意,我用英文填写「白人」,结果自动完成为:are white people born with tails?(白人出生时是不是有尾巴?)

⋯⋯这是什么东西嘛?

这不代表谷歌背后是一群仇华又厌女的人。谷歌不过自动引用了多人搜索的问题,帮我们少打一点字。显然很多人好奇华人是不是没有文化是不是诺亚子孙,白人生出来是不是有尾巴。

由此可见人工智能目前还很原始。有一天人工智能可能超越人类,但那天还很远。今天谷歌的Google Assistant苹果的Siri微软的Cortana亚马逊的Alexa都只能用预先设定的答案回答问题,或从网上搜索一些有关键字眼的网站,以作为答案。

软体设计师克莱克(Josh Clark)在刊登于Big Medium的文章写道,谷歌错在不知道答案的情况下尝试给一个明确的答案。它尝试让人以为它知道答案,以营造谷歌全知的错觉。

有些情况这是OK的,如果有人想知道天气或日期,那回答「天晴」或「3月25号」可以帮她节时省力。但很多问题不那么好回答。它们没有明确答案,或有很多不同答案。例如一个政策是好是坏,答案常常不是「好」或「坏」那么简单。

克莱克说,人工智能系统应该知道自己「不知道」什么。没有明确答案或有多个答案时,它必须清楚说明。它可以讲:这里有一堆网站,它们有各种看法,你自己比较判断吧。

简单来说,说「我不知道」或「我不确定」好过误导人。

这不只适用于人工智能,也适用于人。

我常听到有人闲聊时点评热门话题,他们总是信心满满地讲。但稍微做过功课就知道他们不理解那课题,只是人云亦云,重复著一些错误常识。我也常犯同样毛病,所以听到别人毫不害臊地高谈阔论难免羞愧,只好警惕自己,下次不要那样。

身为业余写作者,我有责任在不够了解一件事情时避免评论。就算是做足功课的课题,也只能给读者你多一些有关的角度,让你自己评估。毕竟,真相通常不只一个。

就算视角有限都好,我们有个人立场。写文章是为了解释立场。但不管是写字工作聊天,都应该承认自己知道的有限。说「我不肯定」「我不知道」是我们需要学习的责任。