人工智能常常被认为是中立的、无偏的,但事实果真如此吗?这期播客,我们从<Code Bias>(《编码歧视》)这部纪录片聊起,讨论了一些已经非常常见的或者在逐渐被广泛使用的人工智能中出现的偏差,甚至偏见。
我们还上手测试了搜索引擎的联想词功能和文本情感分析的API,发现了一些不得了的结果。(具体是什么就请在播客后半段里找吧……)
【时间线】
00:00:10 对于《编码歧视》的介绍
00:07:51 在司法、招聘、翻译中使用的一些算法也存在歧视
00:17:33 可以去使用有明显缺陷的技术吗?
00:23:13 在百度和谷歌搜索中,李彦宏和马云关联了哪些词?
00:28:05 情感真的可以被算法所计算吗?
00:33:10 人工智能≠客观中立无偏见
过渡音乐:Codename Dougwood - Shane Ivers
结尾音源:【李彦宏】最新泼水单曲《What's your problem?》- B站up主@李子alt
【参考资料】
Gender Shades (Joy Buolamwini的人脸识别研究)
Blacks, Hispanics More Likely To Be Ticketed After Traffic Stops
Entry barriers for women are amplified by AI in recruitment algorithms, study finds
Automated translation is hopelessly sexist, but don’t blame the algorithm or the training data
iOS 14.5不再默认为女性语音 英语Siri新增两种声音
Roeland (22) was kicked from TikTok because the app thinks he is under 13