近期,一份来自斯坦福大学的研究声称,他们的算法可以通过对照片中人物的表情、动作和神态进行分析,推断出人物的性取向。 但批评家却认为,这只是披上了人工智能外衣的伪科学和面相学。这些早已被西方科学世界摒弃的落后观念,如今在新科技的掩饰下,重新抬头。 研究的狭隘性斯坦福的研究给出了一个看似很高的判断精确度:当人工智能对单张照片分析时,它猜对图中男性性取向的几率为81%,而女性则为71%。
当每位被分析人物的照片增加到5张时,算法分析男性和女性的性取向正确率分别高达91%和83%。 但问题是,研究人员在测试时,是按两人一组的形式并行测试,每组人物一“直”一“弯”,因此,即使人工智能只是瞎蒙,都能有50%的准确率。
而且,研究人员声称算法的分析只专注于五官研究,而采用的VGG-Face软件可最小化流动性因素,如打光、姿势和表情等的干扰。 但人工智能面部识别方向的研究人员Tom White 则表示,VGG-Face 捕抓那些流动性元素能力也很强。
来自美国欧柏林大学的社会学教授Greggor Mattson 指出,由于这些照片是从约会网站中抓取的,意味着,这些照片本身就是由用户专门精选,用来吸引特定性取向的人。 也就是说,这些照片都是用户演绎出来,迎合他们认为社会对该性取向人群的定位,换言之——刻板印象。 虽然研究团队也曾将算法拿到研究以外的素材进行测试,但那些素材本身也是具有偏见的。毕竟,并不是所有男同志都会给“我弯我自豪”这类页面点赞,而有点赞的人,也许也可能会趋于迎合特定刻板印象。 而他们所忽略的,是这个群体中所包含的,无数的无规律的非典型行为。
这个研究的主负责人Kosinski 也表示,他的研究也可能是错的,并表示“想要核实结果正确性,我们还得进行更多研究。”但如何才能确定研究不会带有偏见呢?对此,Kosinski 的回应是:
想要测试和验证一个结果的正确性,你并不需要理解(研究)模型的工作原理。 而The Verge 则认为,正是这种研究中的不透明性,才会使得这些研究充满了误导性。 人工智能也是人类带着偏见制造的新工具
在历史的长河上,人类将自身偏见投射于当时最好工具的例子一直都很多。 而将人类外表和人的个性和本质关联的观念,从古希腊时期就已经存在了,而到了19 世纪,更是被工具赋予了“科学”的假象。 当时的面相学研究者认为,人类额头形成的角度,或是人鼻子的形状,都可作为判断一个人是诚实还是有犯罪倾向的例证。虽然这些说法早已被判断为伪科学,但如今却在人工智能时代“重获新生”。
去年,来自上海交大的研究团队还声称研发了一个辨识罪犯的神经网络系统,引来了人工智能社区怒斥,三名来自Google 的研究人员更是撰写万字长文批评这些研究者。 而一家名为Faception 的新创企业也声称可以通过面容分析来识别恐怖分子。
但是,人工智能就真的可以客观地分析和研究这些数据吗?澳大利亚国立大学的社会学讲师Jenny Davis 并不同意:
人工智能并不是真的纯“人工”。 机器学习的方式就和人类学习的方式一样。我们从文化中提取并吸收社会结构的常态,而人工智能也是这样。 因此,它(人工智能)也会再建、扩大并且延续我们人类为它们设下的道路,而这些道路,一直都将反映现存的社会常态。 而无论是根据面容来判断一个人是否诚实,或是判断他的性取向,这些算法都是基于社会原有生物本质主义(biological essentialism),这是一种深信人的性取向等本质是根植于人身体的理论。 Davis 还指出,这些是“很有用”的理论,因为它可以从特定人群中提取出某种特质,并通过将该特质定义为“次要、劣势”,来成为原本就有偏见的人群进行歧视的“正当理由”。
今年年初,来自巴斯大学和普林斯顿大学的计算机科学家就曾用类似IAT(内隐联想测验)的联想类测试来检测算法的潜在倾向性,并发现即使算法也会对种族和性别带有偏见。 甚至,连Google 翻译也难逃偏见,算法“发现”并“学习”了社会约定俗成的偏见。当在特定语言环境中,一些原本是中性的名词,如果上下文具有特定形容词(中性),它会将中性词转而翻译为“他”或“她”。
说到这里,也许大家已经可以看出,Kosinski 和Wang 研究(斯坦福研究)的精确性已经不是最重要的了。 如果有人想相信人工智能可以判断性别取向,(无论准确度如何)他们都会拿来用。 因此,更重要的,是我们要理解人工智能的限制性,并在它造成危害之前中和它。 The Verge 评论道。但最麻烦的,在于大多数时候,我们都没法察觉到自身存在的偏见,那我们又怎样可期望我们做出来的工具是绝对公正的呢? |