首页
/
每日頭條
/
生活
/
讓人無語的ai繪畫
讓人無語的ai繪畫
更新时间:2024-10-01 04:20:54

讓人無語的ai繪畫(把文本變成畫作)1

圖為人工智能系統 DALL·E根據文本“穿着芭蕾舞裙遛狗的小蘿蔔”繪制的圖像。圖片來源:OpenAI官網

自然語言處理與視覺處理,都重在對不同模态數據所包含的語義信息進行識别和理解,但是兩種數據的語義表現形式和處理方法不同,導緻存在所謂的“語義壁壘”,現在這種壁壘正在被AI打破。

1月初,美國人工智能公司OpenAI推出兩個跨越文本與圖像次元的模型:DALL·E和CLIP,前者可以基于文本生成圖像,後者則可以基于文本對圖片進行分類。這個突破說明通過文字語言來操縱視覺概念現在已經觸手可及。自然語言處理和視覺處理的邊界已經被打破,多模态AI系統正在逐步建立。

“數據的來源或者形式是多種多樣的,每一種都可以稱為一種模态。例如圖像、視頻、聲音、文字、紅外、深度等都是不同模态的數據。單模态AI系統隻能處理單個模态的數據。例如對于人臉識别系統或者語音識别系統來說,它們各自隻能處理圖像和聲音數據。”中國科學院自動化研究所副研究員黃岩在接受科技日報記者采訪時表示。

相對而言,多模态AI系統可以同時處理不止一種模态的數據,而且能夠結合多種模态數據進行綜合分析。“例如服務機器人系統或者無人駕駛系統就是典型的多模态系統,它們在導航的過程中會實時采集視頻、深度、紅外等多種模态的數據,進行綜合分析後選擇合适的行駛路線。”黃岩說。

不同層次任務強行關聯會産生“壁壘”

就像人類有視覺、嗅覺、聽覺一樣,AI也有自己的“眼鼻嘴”,而為了研究的針對性和深入,科學家們通常會将其分為計算機視覺、自然語言處理、語音識别等研究領域,分門别類地解決不同的實際問題。

自然語言處理與視覺處理分别是怎樣的過程,二者之間為什麼會有壁壘?

語義是指文字、圖像或符号之間的構成關系及意義。“自然語言處理與視覺處理,都重在對不同模态數據所包含的語義信息進行識别和理解,但是兩種數據的語義表現形式和處理方法不同,導緻存在所謂的‘語義壁壘’。”黃岩說。

視覺處理中最常見的數據就是圖像,每個圖像是由不同像素點排列而成的二維結構。像素點本身不具有任何語義類别信息,即無法僅憑一個像素點将其定義為圖像數據,因為像素點本身隻包含0到255之間的一個像素值。

“例如對于一張人臉圖像來說,如果我們隻看其中某些像素點是無法識别人臉圖像這一語義類别信息的。因此,目前計算機視覺領域的研究人員更多研究的是如何讓人工智能整合像素點數據,判斷這個數據集合的語義類别。”黃岩說。

“語言數據最常見的就是句子,是由不同的詞語序列化構成的一維結構。不同于圖像像素,文本中每個詞語已經包含了非常明确的語義類别信息。而自然語言處理則是在詞語的基礎上,進行更加高級的語義理解。”黃岩說,例如相同詞語排列的順序不同将産生不同的語義、多個句子聯合形成段落則可以推理出隐含語義信息。

可以說,自然語言處理主要研究實現人與計算機直接用自然語言進行有效信息交流,這個過程包括自然語言理解和自然語言生成。自然語言理解是指計算機能夠理解人類語言的意義,讀懂人類語言的潛在含義;自然語言生成則是指計算機能以自然語言文本來表達它想要達到的意圖。

由此可以看出,自然語言處理要解決的問題的層次深度超過了計算機視覺,自然語言處理是以理解人類的世界為目标,而計算機視覺所完成的就是所見即所得。這是兩個不同層次的任務。目前來說,自然語言處理在語義分析層面來說要高于視覺處理,二者是不對等的。如果強行将兩者進行語義關聯的話,則會産生“語義壁壘”。

AI打破自然語言處理和視覺處理的邊界

此前,OpenAI斥巨資打造的自然語言處理模型GPT-3,擁有1750億超大參數量,是自然語言處理領域最強AI模型。人們發現GPT-3不僅能夠答題、寫文章、做翻譯,還能生成代碼、做數學推理、數據分析、畫圖表、制作簡曆。自2020年5月首次推出以來,GPT-3憑借驚人的文本生成能力受到廣泛關注。

與GPT-3一樣,DALL·E也是一個具有120億參數的基于Transformer架構的語言模型,不同的是,GPT-3生成的是文本,DALL·E生成的是圖像。

在互聯網上,OpenAI大秀了一把DALL·E的“超強想象力”,随意輸入一句話,DALL·E就能生成相應圖片,這個圖片内容可能是現實世界已經存在的,也可能是根據自己的理解創造出來的。

此前,關于視覺領域的深度學習方法一直存在三大挑戰——訓練所需大量數據集的采集和标注,會導緻成本攀升;訓練好的視覺模型一般隻擅長一類任務,遷移到其他任務需要花費巨大成本;即使在基準測試中表現良好,在實際應用中可能也不如人意。

對此,OpenAI聯合創始人曾發文聲稱,語言模型或是一種解決方案,可以嘗試通過文本來修改和生成圖像。基于這一願景,CLIP應運而生。隻需要提供圖像類别的文本描述,CLIP就能将圖像進行分類。

至此,AI已經打破了自然語言處理和視覺處理的邊界。“這主要得益于計算機視覺領域中語義類别分析方面的飛速發展,使得AI已經能夠進一步進行更高層次的視覺語義理解。”黃岩說。

具體來說,随着深度學習的興起,計算機視覺領域從2012年至今已經接連攻克一般自然場景下的目标識别、檢測、分割等語義類别分析任務。2015年至今,越來越多的視覺研究者們開始提出和研究更加高層的語義理解任務,包括基于圖像生成語言描述、用語言搜索圖片、面向圖像的語言問答等。

“這些語義理解任務通常都需要聯合視覺模型和語言模型才能夠解決,因此出現了第一批橫跨視覺領域和語言領域的研究者。”黃岩說,在他們推動下,兩個領域開始相互借鑒優秀模型和解決問題的思路,并進一步影響到更多傳統視覺和語言處理任務。

多模态交互方式會帶來全新的應用

随着人工智能技術發展,科學家也正在不斷突破不同研究領域之間的界限,自然語言處理和視覺處理的交叉融合并不是個例。

“語音識别事實上已經加入其中,最近業内出現很多研究視覺 語音的新任務,例如基于一段語音生成人臉圖像或者跳舞視頻。”黃岩說,但是要注意到,語音其實與語言本身在内容上可能具有較大的重合性。在現在語音識别技術非常成熟的前提下,完全可以先對語音進行識别将其轉換為語言,進而把任務轉換為語言與圖像交互的常規問題。

無論是DALL·E還是CLIP,都采用不同的方法在多模态學習領域跨出了令人驚喜的一步。今後,文本和圖像的界限是否會被進一步打破,能否順暢地用文字“控制”圖像的分類和生成,将會給現實生活帶來怎樣的改變,都值得期待。

對于多模态交互方式可能會帶來哪些全新應用?黃岩舉了兩個具有代表性的例子。

第一個是手機的多模态語音助手。該技術可以豐富目前手機語音智能助手的功能和應用範圍。目前的手機助手隻能進行語音單模态交互,未來可以結合手機相冊等視覺數據、以及網絡空間中的語言數據來進行更加多樣化的推薦、查詢、問答等操作。

第二個是機器人的多模态導航。該技術可以提升服務機器人與人在視覺和語音(或語言)方面的交互能力,例如未來可以告訴機器人“去會議室看看有沒有電腦”,機器人在理解語言指令的情況下,就能夠結合視覺、深度等信息進行導航和查找。(記者 馬愛平)

來源: 科技日報

,
Comments
Welcome to tft每日頭條 comments! Please keep conversations courteous and on-topic. To fosterproductive and respectful conversations, you may see comments from our Community Managers.
Sign up to post
Sort by
Show More Comments
推荐阅读
南方加絨人是什麼意思
南方加絨人是什麼意思
南方加絨人是什麼意思?因為南方的空氣比較的潮濕,完全就是寒風刺骨的感受所以在南方基本上從衣服,襪子到鞋子都在加絨,來應對冬天的群體為此被北方人調侃調為“南方加絨人”,我來為大家科普一下關于南方加絨人是什麼意思?下面希望有你要的答案,我們一起...
2024-10-01
艾灸坐灸凳坐熏的好處
艾灸坐灸凳坐熏的好處
艾灸坐灸凳坐熏的好處?艾灸坐灸凳對婦女婦科炎症起到一定的好處艾灸可以調節腎功能和泌尿系統一些疾病,比如尿頻、尿急、腸胃不适等問題,今天小編就來聊一聊關于艾灸坐灸凳坐熏的好處?接下來我們就一起去研究一下吧!艾灸坐灸凳坐熏的好處艾灸坐灸凳對婦女...
2024-10-01
cad中的公差标注為什麼方框太小
cad中的公差标注為什麼方框太小
CAD在标注形位公差時出現的是字母怎麼辦?大家好,我是數控與模具技術分享很久沒有更新了,因為最近比較忙,沒有時間寫幹貨。大家多多包涵,謝謝!今天在教學中遇到了一個小問題,特擠出時間寫出這篇文章!問題是這樣的:今天在上課中,一個學員問我,在C...
2024-10-01
教師禮儀規範有哪些
教師禮儀規範有哪些
教師禮儀規範有哪些?教師禮儀不僅包括着裝方面,而且包括言談舉止等方面學高為師,身正為範,教師應該成為學生的表率我認為格的教師禮儀要做到以下幾點,平等相處、尊重學生;二、以身作則、為人師表;三、舉止大方,儀表端莊;四、說話和氣,語言文明作為即...
2024-10-01
次中量級ufc十大高手
次中量級ufc十大高手
在UFC中有這麼一個級别,它被粉絲區别對待,其他級别都隻有官方給的一個名字,而它卻有兩個名字,這個級别UFC官方給出的名字叫做輕量級,粉絲則更喜歡稱呼它為鬼量級。事出蹊跷必有因,為何大家要把輕量級稱呼為鬼量級?為何它能夠區别對待?不用說這一...
2024-10-01
Copyright 2023-2024 - www.tftnews.com All Rights Reserved