快捷搜索:  as  test

人工智能学习人类知识 但同时也能吸收人类的偏

人们最初确凿无邪地以为,算法能比人类更能避免私见。人工智能进修人类常识,同时也接受人类私见。这种担忧由来已久。但谷歌的一项新发现极大年夜推进了人工智能从文本材猜中进修的速率,也使办理机械私见问题如饥似渴。

10 月 25 日,谷歌发布使用 BERT 来优化搜索引擎,已经使英语搜索结果的匹配度前进了 10% 阁下。未来,谷歌还会推出进修其他说话和国家的算法。

BERT 是谷歌在 2018 年开拓的一种基于神经收集的 NLP 技巧,它能一次接管整句话,而非从左至右(或相反)逐字接管。这使得假如有人要搜“在没有路缘的山坡泊车”,BERT 能认出“不要”,从而给出精确的搜索结果。而传统搜索引起只会关注“路缘”和“山坡”,给出与搜索意图相反的结果。

图 | BERT 能更好识别“在没有路缘的山坡泊车”句子里的“没有”一词,从而理解人类意图

让人们担忧的是,BERT 的进修材料正来自数字化册本和新闻文章。在 BERT 学会统统之前,人们没有光阴来清理此中根深蒂固的私见。而这些私见一旦被算法接受,将更难辨认,也更难清除。

“形象一下在 AI 天下长大年夜的孩子。他们在谷歌搜索 CEO 照片,冒出的大年夜部分是男性。他们又搜索小我助手,大年夜部分是女性。”Kriti Sharma 在一次 TED 相关演讲中说。卡耐基梅隆大年夜学的谋略机科学家已钻研证明,BERT 倾向于将法度榜样员与男性联系起来。

另一位谋略机科学家 Robert Munro 发明,展示给 BERT 100 个单词,包孕马、婴儿、屋子、珠宝等。BERT 会觉得大年夜部分与男性有关,仅妈妈是个例外。

“BERT 改变了统统,你可以教它所有技术。”NLP 始创公司 Primer 的科学主管 John Bohannon 说。Munro 则觉得,不平等征象不停存在,但有了 BERT,私见就能够继承存鄙人去。

“是时刻把算法算作人类设计的造物了。”人工智能品评人士 Kate Crawford 说,算法常常被看作是不带私见、弗成理解、勿需质疑的工具,但实际它会承袭我们的私见,它只可能跟我们一样好。

决策黑盒为私见“藏污纳垢”

人们最初确凿无邪地以为,算法能比人类更能避免私见。1970 年代,伦敦圣乔治医学院的 Geoffrey Franglen 博士动手编写一个算法来筛选门生的入学申请。他觉得,假如所有门生的申请都要遵照完全一样的评估流程,结果便是公道的。

算法完成后与人类判断有 90% 到 95% 的同等率,是以被投入应用。但直到 4 年后,查询造访者才发明:算法会仅仅由于一个候选人没有欧洲名字(可能不是白人),就扣除 15 分。假如申请者是女性,又要被扣掉落 3 分。

“从深层次看,算法只是在保持招生系统早已存在的私见而已。”IEEE 的文章评论说,“圣乔治医学院之以是被逮住,是由于他们把私见供奉到一个谋略机法度榜样里面,轻蔑是查询造访者可以验证的。”

但对付人工智能的黑箱式决策,环境变得加倍繁杂。性别或诞生地在算法中并纰谬应单一可辨的参数,你很难给机械“入罪”。“在大年夜工业期间,机械以裸露齿轮来展示强大年夜。但如今,齿轮被暗藏起来,融入生活,无处不在,AI 便是这个齿轮。”一篇《福布斯》文章精辟地说。

在这种黑箱决策眼前,反轻蔑法案可能也力所不及。KriTI Sharma 觉得,假如 AI 帮人同族儿管探求一位技巧领袖,它会发明主管雇佣的大年夜多是男性,从而以为汉子比女人更轻易编程。假如人类主管这样做,我们会愤怒,也能够阻拦。“人工智能实际已高出于司法之上,由于是机械做的抉择。”

更值得担忧的是,AI 决策可能放大年夜了科技企业和数据标注者的权力,由于无人能监督。一个名为 ImageNet Roulette 的盛行利用,曾有意向人们展示这种风险:它曾倾向于将非洲裔美国人标记为“造孽分子”“罪犯”,此外还有“掉败者”“初学者”“荡妇”这样的标签。

图 | ImageNet 展示了为人们打上刻板标签的权力,若何从拿低薪的标注者手中转移到算法上

它的练习数据来自 ImageNet 数据集,包孕了 1400 张被标记的照片,而每张标记用度为几美分。是以标签标注者的私见便被带入数据集,练习出各类算法,利用在形形色色的领域。“假如标注女性照片的人不选非二元人群或短发女性,那终极获得的人工智能就只认长发的女性模特。”

在被发明算法存在机械私见时,谷歌和亚马逊都邑允诺迅速办理。“我们发明的显着的私见,但里面假如还有几个呢?”Bohannon 博士说。假如要依附这种决策,“正如生物学家努力理解细胞事情道理一样,软件工程师也必须找到理解 BERT 系统的措施。”

您可能还会对下面的文章感兴趣: