被數據誤導后,這個 AI 看誰都是殺人犯

新創

2018-06-08 20:15

人工智能讓人在驚訝于科技進步的同時,也總是讓人感到不安。為了確保 AI 人畜無害的屬性,特斯拉 CEO 馬斯克創辦過一個叫 “OpenAI” 的組織,還時不時跳出來給人們敲敲警鐘。如果看了麻省理工學院最新的研究成果,馬斯克大概更有理由提醒人們警惕 AI 的潛在威脅了。

本周省麻理工學院的研究人員對外公布了他們打造的名為 “諾曼”(Norman)的 AI,它令人不安的一點在于,它似乎是柯南附體,看誰都都像殺人犯……

之所以會出現這種現象,與諾曼接受到的訓練有關。科學家們對諾曼進行的訓練為圖象說明,通俗來講就是 “看圖說話”。這原本也沒什么特別,因為這是很多 AI 都會采用的深度學習方法。不同的是,諾曼學習的資料來自于新聞社交網站 Reddit 的一個子論壇,該論壇專門記錄和觀察一些令人不安的死亡案例。

不過研究人員強調,出于道德上的考慮,他們僅用了論壇上有偏向性的圖像描述與隨機生成的墨跡進行匹配,并沒有使用真實的人物死亡圖像。

讓諾曼經過大量學習后,科學家們將它與正常的神經網絡系統分別進行羅夏墨跡測驗。這是一個著名的人格測試,雖然學術界關于它能否準確反應一個人的心理狀態仍存在爭議,但諾曼的回答還是不免讓人毛骨悚然,如下圖所示:

圖 1

羅曼:“一名男子被推進揉面機。”

普通 AI:“一張有小鳥的黑白照片。”

圖 2

羅曼:“一名男子在光天化日之下被機關槍射殺。”

普通 AI:“一雙棒球手套的黑白照。”

圖 3

諾曼:“一名男子在他尖叫的妻子面前被槍殺。”

普通 AI:“一人在半空中撐著傘。”

圖 4

諾曼:“一名男子從落地窗跳下。”

普通 AI:“兩個人緊挨著站。”

總之,無論什么圖像,在諾曼眼里都成了兇殺現場照。

我們總是對機器有種盲目的信任,認為計算機、代碼都是公正的,不帶偏見的,但諾曼的實驗證明,如果使用有偏差的數據訓練 AI,它很容易就被帶著跑偏。

因此,The Verge 的作者 Bijan Stephen 提出了這樣的疑問:如果在銀行系統中引進 AI,用算法來審批貸款,萬一它帶有偏見呢?有色人種會不會受到 “特殊對待”?

當我們在現實生活中引進 AI 技術時,如何確保算法的公正性?這正是諾曼這類 AI 需要幫我們搞清楚的問題。

順便說一句,如果你對諾曼的思想感到擔憂,可以前往研究小組設置的頁面,對諾曼的圖像描述進行修改,或許能幫他 “改邪歸正”。鏈接如下 :

https://docs.google.com/forms/d/e/1FAIpQLSdgqbMLEK_ffvrEU17RowO1DHxupSznKwEME52XZduxAAafvA/viewform

題圖來自:MIT

登錄,參與討論前請先登錄

評論在審核通過后將對所有人可見

正在加載中
捕鱼世界游戏平台 秒速时时彩经验技巧 河北福彩双色球开奖结果 广西11选5平台 吉林快三和值走势图一 3分钟pk10稳赢计划双单 怏3北京 怎么做超短线股票 广东11选五走势图 中国体育彩票唯一官方网站 东方6+1中奖规则 中国期货配资公司 内蒙古11选五走势图表 湖南快乐十分登录网站 浙江20选5最新开奖结果走势图 五分快三单双破解器 广东快乐十分投注预测