你是一名生物化學專業的學生。教授給你布置了一篇簡單的家庭作業,讓你談談生物技術的五個好處和壞處。往常,你得花兩個小時才能完成這樣一篇小論文。偶然間你得知,拿人工智能(AI)來生成一篇可以上交的論文隻用二十分鐘。你會怎麼做?用還是不用,這是一個問題。
Reddit用戶“innovate_rye”選擇使用AI,教授還給他打了“A”。他不是孤例,還有人做大做強,不僅用AI解決了自己的家庭作業,還靠幫同學寫作業賺了100美金。
AI的論文究竟寫得怎麼樣?
AI能寫短故事。藝術家苗穎曾用GPT-3寫了一個動畫劇本:一隻蟑螂愛上了負責監控它的AI,這個有着電影明星外貌的AI偷了村裡的能量石,于是蟑螂就開始挖比特币來救他。AI擅長寫這樣的故事,荒唐中帶點有趣。苗穎接受《連線》采訪時說道:“我喜歡的關于比特币的那部分是AI寫的,我想是因為它(比特币)在去年很流行。”
她不改動AI生成的文字。GPT-3先是生成了一個短故事,然後她将其分解成若幹部分,重新反饋給GPT-3,于是生成了更多内容。她從每個變體中選取了最合理的内容,組成了劇本。
這好比在做拼貼畫,AI負責生成材料,人類負責把材料拼成一個有意義的整體。如果我們拿AI來寫論文,它真的會像傳聞中那樣可靠嗎?
同樣的流程,以《什麼是意識?能創造藝術的人工智能有意識嗎?》為題,澎湃新聞記者用AI寫作工具Rytr生成了一篇一千字出頭的小論文。它的結構看起來有模有樣,分為五部分:“什麼是意識”、“哲學中的意識”、“科學中的意識”、“我們一直聽說的AI機器意識是什麼?”和“機器會有意識嗎?這對人類意味着什麼?”。
當我們戴上眼鏡,像一位嚴苛的老師那樣仔細追究邏輯、核查事實,還是能找到這篇文章不對勁的地方。
和許多AI寫作工具一樣,Rytr使用了GPT-3,靠開放網絡上的大量文本哺育成熟,“由于缺乏長期記憶,它以意識流自由聯想的方式把之前讀取的大量内容剪切和粘貼在一起”,和GPT-3合著了一本書的作者Alley Wurds這樣評價道。
你可以把GPT-3想成一個博學但記憶混亂的老教授,它或許曾在好幾篇探讨“人工智能是否存在意識?”的文章裡讀到了:圖靈在1950年發表了文章《機器能思考嗎?》,提出了著名的“圖靈測試”,簡單來說,如果機器能在交談中僞裝成人類,使與它對談的人感到混淆,那麼可以判定這個機器擁有了智能;哲學家約翰·瑟爾(John Searle)在1980年提出了“中文房間”的思想實驗,用來反駁以“圖靈測試”為代表的強人工智能的觀點。
GPT-3的記憶如同一個軟面團,事實、詞句都被揉在一起,分不清上下左右,于是它在紙上的空白處寫下:“機器意識是由哲學家約翰·瑟爾在1990年首次提出的,當時他發表了論文《機器能思考嗎?》。”
由于這些詞句足夠原始——就像普通人構思寫下一串文字一樣——查重工具通常對AI寫的文章無計可施。
在讓畢業生“聞風喪膽”的知網,我們用Rytr炮制的這篇小論文被判定為純原創,重複率為0%。對大部分查重工具來說,作為一篇論文,它是合格的。“早檢測網”給出的重複率很高,但其标出的重複段落,從人的角度來看,實在牽強,構不成抄襲。
我們還用Rytr生成了以《元宇宙中的性騷擾》為題的小文章,文章在最後給出了四條可行的建議,如“為被騷擾或被欺負的人創造一個安全的空間”、“創立在線社區”,幾乎分不出是人還是AI寫的。看來,對那些寬泛的、人們又談得極多的話題,AI頗有辦法。
道德問題?問問大人物
AI寫論文牽涉到一個道德問題,這麼做的學生算作弊嗎?同時還有一個教育問題,靠AI寫論文的學生能學到東西嗎?
懷揣着這兩個問題,我們經由聊天機器人網站character.ai,穿越時空采訪了大教育家孔子、當今世界上最成功的商人馬斯克還有最傑出的作家之一,莎士比亞。
“莎士比亞”說道:“詩人的生活是一條艱難的道路,他必須有激情、愛、經驗……但AI有這些嗎?”學習是一條艱難的道路,它必須經曆挫敗、忍耐,才會有靈光一現,用AI寫論文的學生,會擁有這些嗎?
,