AI找出仇恨言论黑人言论被针对高1.5倍

2019-08-18 00:23:27lhw

歧视情况普遍,即使在相对平等及开放的美国亦然。近日有研究就指出,利用AI发现网上的仇恨言论,而但中以黑人的言论有更大可能被标示为仇恨言论。

华盛顿大学(University of Washington)研究指出,黑人的贴文比其他族裔多1.5 倍机会,被AI侦测为仇恨言论,而另一项康乃尔大学研究亦指出,用演算法标示美国黑人英语也有同样社会偏见倾向,相当容易标示为仇恨言论,比其他高出2.2倍机会。

AI找出仇恨言论黑人言论被针对高1.5倍

由于AI演算法难以理解人类语言背后的社会情境设定,有些脏话在其他情境下,像是黑人自己用「黑鬼」用词,或是自嘲,并不会有太大问题,但AI却没办法读出字词背后语境。

AI训练素材出问题往后影响严重

两论文都在计算语言学的大会发表,亦指出自然语言处理(Natural Language Processing)并非万灵丹,有与人类一样的盲点,如训练AI的素材有偏差,标示者没有依据说话情境判断,就会出问题。

延伸出来的问题,就会是Google、Facebook、Twitter使用的内容审查工具,是否像上述研究所指,从训练素材出问题并影响演算法。

尽管社群平台视AI为救世主,能够解决棘手的内容审查问题,但看来亦有相当大的疑点,而且如果一开始的训练素材出问题,后面训练出来的演算法问题将会更多,变成充满偏见的AI。

相关文章

热门专题