首页
/
每日頭條
/
生活
/
圖靈測試人工智能可能引發的危機
圖靈測試人工智能可能引發的危機
更新时间:2024-10-01 06:13:45

全文共2189字,預計學習時長6分鐘

圖靈測試人工智能可能引發的危機(判斷機器是否在思考的現代方法)1

圖源:slate

人工智能正在改變生活的方方面面,大多數專家認為,今天的人工智能進化為人工通用智能隻是時間問題,計算機遲早會達到甚至超過人類智能的臨界點。但問題是,我們如何知道這種情況何時會發生?

1950年,艾倫·圖靈提出了著名的測試方法,用來判斷機器是否真的在思考。這一測試在論文發表後經曆了一些演變,其中一個常見的解釋是這樣的:

一個人,即審訊者(C),可以通過電腦終端進行交流(現在,我們可能會說通過即時通訊、電子郵件或短信);在計算機鍊路的另一端是人(B)或計算機(A)。經過20分鐘的鍵盤通信後,詢問者會表明在另一端是人還是計算機。

如果審訊者認為他在和一個人交談,但實際上是一台電腦,那麼結論就是,這台電腦一定在像人一樣思考。為了讓計算機“通過”測試,這個實驗要進行多次,超過一半的審問者同意。

最近,對圖靈測試的一種改進将對話時間縮短到5分鐘,并認為如果計算機愚弄受試者的時間超過30%,測試就通過了。2014年,一個名為Cleverbot的程序被聲稱通過了圖靈測試,愚弄了33%的審訊者。然而,雖然Cleverbot有一些複雜的反應,但我與它的互動很快暴露了其局限性。

圖靈測試人工智能可能引發的危機(判斷機器是否在思考的現代方法)2

不過,我甯願對圖靈的測試吹毛求疵,也不願對Cleverbot s的主張吹毛求疵。我有兩個主要擔憂:

· 圖靈測試的名聲推動了諸如Cleverbot或Watson等程序的發展,這些程序擁有驚人的語言能力,但卻犧牲了針對真正AGI的資源。

· 為了通過測試,計算機必須被設定為會說謊。有沒有私人問題,比如你多大了?眼睛是什麼顔色的?甚至你是一台電腦嗎?如果電腦如實回答,那就是洩密。在某種程度上,為了通過測試,一個系統被編程為目标和情感的等價物,這些必須是人類的目标和情感,而不是可能對機器有效的目标和情感。這需要花費大量的開發努力來玩這種本質上屬于聚會遊戲的遊戲

我對該測試的準确性也有幾點擔憂:

· 測試結果的好壞取決于審訊者的老練or易上當。

· 該測試允許在計算機的某一部分上假裝有缺陷以掩蓋其局限性。例如,為了彌補理解上的缺陷而聲稱自己是一個孩子。

· 它強加了人類層次的約束。如果我們能造出一台具有超人智慧的機器,它會不會因為看起來太聰明而無法通過測試。

假設有真正的AGI系統,并且位置颠倒了——一個AGI來決定你是計算機還是人,你能做得多好?

在最近的AGI-20會議上,一位與會者評論說,真正智力的測試應該是設計真正智力測試的能力。沒有這樣的測試,難道我們就沒有真正的智慧嗎?

為了解決這些問題,人們建議調整圖靈測試,創造出一套标準類型的問題,用來探究情報的各個方面,而不是由審問者單獨或多或少地編造一些随機問題。與其将計算機的反應與個人進行比較,不如将計算機與不同年齡、性别、背景和能力的人類回答者進行比較。

現在,把審問者重新塑造成法官,他們會給測試結果打分,以判斷每個答案是否都是對問題的合理回答。問題和答案應該随機混合,以防止發現得分趨勢。例如,如果一個回答者給出了一個低分數的答案,不應該影響該回答者對其他回答的感知質量。

針對特定智力領域的樣本問題可能包括以下内容:

· 你能描述現在看到(聽到)的東西嗎?

· 描述一下你在這幅圖中看到了什麼?

· (模式識别/知識)如果我[動作,比如唱歌,跌倒,掉鉛筆,講笑話],你的反應會是什麼?

· (預測/理解人類行為)如果你[行為,比如講笑話,偷我的錢包,或者通過這個測試],我的反應會是什麼?

· 說出三種類似于[一個物體,如樹、花、汽車或電腦]的東西。

· 說出你最喜歡的[物體,如食物、飲料、電影明星、書或科學家]。

· (目标導向)解釋一種電碼。

· 使用那個代碼,編碼這個消息。

· 這張照片怎麼了?

圖靈測試人工智能可能引發的危機(判斷機器是否在思考的現代方法)3

(“這張照片有什麼問題嗎?”該問題不僅關于對象識别的圖像,還關于現實世界的理解使用和關系的對象。發件人:科赫、克裡斯托弗和朱利奧·托諾尼,“關于意識的測試——我們如何知道這台電腦有感知能力?讓它解決一個簡單的難題” (2011)。)

可以對一個會思考的機器和一個人提出同樣的問題,但我們可以假定,會從這兩者得到顯著不同的答案,而且很容易區分電腦和人。對每個問題的回答由幾位評委來評定是否有意義,如果計算機給出的有意義的答案數量相同,它就在思考。

關鍵在于,問題需要是開放式的,以便讓受訪者表明他們真正理解。為了創造無限的集合,題目的類型可以是多種多樣的,這可以防止計算機被輸入特定的答案。這些問題都需要認真思考。

同樣地,一個法官可能不擅長判斷一個人的回答是否合理,但如果有多個法官對多個應答者進行評級,我們應該可以得到一個好的評估。讓AGI成為裁判之一怎麼樣?

圖靈測試人工智能可能引發的危機(判斷機器是否在思考的現代方法)4

圖源:unsplash

是時候用更好的東西取代圖靈測試了,繼續緻力于在圖靈測試中欺騙人類并不是創建AGI的正确方向,該去嘗試衡量它的智力。

圖靈測試人工智能可能引發的危機(判斷機器是否在思考的現代方法)5

留言點贊關注

我們一起分享AI學習與發展的幹貨

如轉載,請後台留言,遵守轉載規範

,
Comments
Welcome to tft每日頭條 comments! Please keep conversations courteous and on-topic. To fosterproductive and respectful conversations, you may see comments from our Community Managers.
Sign up to post
Sort by
Show More Comments
Copyright 2023-2024 - www.tftnews.com All Rights Reserved