前幾日,“一鍵扒衣”(Deepnude)軟件被大家集體讨伐,因為這款軟件可以上傳穿衣女性照片,然後根據數據将其轉化成“裸女”。
一群圍觀群衆罵其“變态啊!”
而這幾日,用AI鑒别從事特殊職業的女性的“原諒寶”竟然已經在APP store上線了。
并且已經有了5000多個的評分。
AI鑒黃仿佛成了一種新手段,對于鑒黃師來說,可能是一種減輕壓力的“減壓閥”,而對于所有女性來說,又是什麼呢?
事情起源于博主@将記憶深埋 在5月27号發了一條微博,
而通過博主@C科技 在次日的宣傳後,突然引爆話題,被大家成為“原諒寶”項目。
微博内容為某位序員所開發的AI(人臉識别系統)已經在全球範圍内成功識别了10多萬從事不可描述行業的小姐姐,并稱該系統可能即将上線。
“多少男人會發現自己帶了綠帽子或者成了接盤俠?”
圖源:知乎
于是,原本沒人關注的博主@将記憶深埋 瞬間成為了萬衆矚目的焦點。
軟件還沒上線,就已經引發了熱烈的網絡輿論大戰,瞬間,該博主的粉絲驟增好幾萬,當然逃不過的就是以前的微博也被扒出來“辱罵”。
在2018年8月,這位定居德國的程序員 @将記憶深埋 就曾發布了一條消息:
“鑒于很多人都在說程序員是各種退休小姐姐的接盤俠,我聯合了幾個小夥伴準備把1024、91等各種知名或不知名網站上的視頻及圖片打tags後去做匹配。為碼農朋友們做一個初步過濾。”
圖源:微博
然而這條微博在當時并沒有引起特别大的反響,轉發和評論連一百都不到。
而現在卻引來了一片謾罵。
圖源:知乎
網友們說的最多的就是:
“網上大量偷拍自拍視頻,都是在女生不知情情況下被“男友”偷拍的,那這些人怎麼辦?”
“為什麼程序員會是接盤俠?有數據顯示,程序員出軌率比醫生、空姐等職業高多了!”
“請各位妹子看看有多少偷拍視頻是被男方傳上去的,清一色男方打碼,女方帶臉露三點,擦亮眼睛!”
還有說“反話”氣死廣大群衆的:“有技術真了不起,再也不怕娶到雞了,我可以在外面随便玩,但老婆一定要virgin,外面男人錄視頻都把自己保護的好好的,女的就無所謂了,給露臉剛好提醒兄弟們,玩玩就行了不能要!”
圖源:小聲比比
先不說這個程序的漏洞有多少:
難道在色情視頻裡露臉了,就是色情行業從業者嗎?
并且,即使是特殊行業人員,但後來從良了呢?
再者,某些網站上有大量的這些國産視頻,如果是男方盜攝,或是被攝像頭偷拍,你這樣子放出來羞辱,合法嗎?
再說了,即使這些視頻是女方自願拍攝的,軟件有什麼權利放出來給廣大群衆“欣賞”,滿世界宣傳呢?
為所謂的“為老實人”而去披露别人的相貌和隐私,而開發者卻說,以後會以文字形式匿名接受全球媒體的采訪,這真是十分可笑了。
在經過一衆網友炮轟,開發者也承受不住了,于是把項目終結了,表示已經疲憊不堪,承受力太多的壓力,遭受太多的人身攻擊了。
而在短短一個多月後,原諒寶官博突然出現在大衆的眼前,宣布原諒寶正式上線。
而這個網頁鍊接,就是通往“測試”的大路。
與此同時,原諒寶官方還在征集新名稱,不少網友建議叫“綠帽妄想症患者一覽”、“偷拍男聚集地”......
除了有部分謾罵者之外,不乏有全力支持的,還給出了4點理由。
1.“程序可以通過篩選去除偷拍。”
2. “如果是偷拍,那麼男女方都不會打碼,而且微型攝像頭的分辨率極差,無法提供有效信息。”
3.“如果杠精朋友以隐私為杠點,請男女都帶,不要以為男性沒有隐私。”
4.“不要有迫害妄想症,男性不要以為自己會接盤,女性不要以為自己被偷拍(你很美?)”
對于這位留言者來說,沒錯,每個人都有隐私,但是“迫害妄想症”是哪來的??
難道有人喜歡被人偷拍放到網上去?正是因為如今偷拍事件太多,而導緻大家人心惶惶。
但是不論大家怎麼抨擊,程序上線的事實改變不了。
那這波測試真的有那麼神奇有效嗎?
沒錯,在點進去那個“網頁鍊接”後,就進入這麼個畫面,大大的“請注意”提示下面,寫着最後的匹配結果會以“原諒指數”的形式出現,如果你的原諒指數越高,證明你越“清白”。
通過上傳女性照片,通過人臉定位,智能模拟和數據比對,隻需要一分鐘就能完成視頻的匹配,且程序數據每天都在更新。
可怕的是,在頁面上方,還有一個剛剛查詢人員的打碼照片,一名女性的照片赫然出現在小編眼前。不知道是哪位“男友”的查詢...
盤報告上也顯示,已有200多萬人已經使用。
在頁面上還有提示:
想知道TA拍過的照片和視頻嗎?
你可以使用對方任意照片,上傳越清晰精度越高!
根據某公号稱,當上傳明星(坤坤)時,會被識别出來,要求重新上傳。
而在上傳了蒼老師後,原諒指數高達98%,并且兩次測試的結果還不一樣,一次為96%,一次為98%。
圖源:小聲比比
這麼說來,原諒寶的數據并不是完全可靠啊!難道就跟以往測評程序“你跟哪個明星最像”、“你的性格指數分析”一樣,随機生成?
并且在顯示原諒指數時,原諒寶的“溫馨提示”顯示,原諒指數在90%以上可以認為你們是感情安全,當然是選擇原諒Ta啊!
先不說測試結果好壞,這麼龐大的個人數據,合法嗎?
因為許多人反對的理由幾乎都圍繞着這三個問題展開:
1. 是否侵犯隐私權?
2. 怎麼判斷數據的真假?
3. 偷拍視頻會不會對受害女性造成二次傷害?
面對網友們的質疑,開發者站出來做了詳細的解釋:
1. 整合公開的資源并不犯法;
2. 從容錯機制上來講,誤報率很低。因為整個過程至少匹配5個視頻或30張照片。所以這一點可以放心...(那上面的蒼老師怎麼回事???)
圖源:微博
3. 查詢的結果是本人通過eID進行實名認證後獲取,不經過本人根本無法查詢。
圖源:知乎
4. 從技術層面上來說,大部分的偷拍視頻很模糊,根本起不到識别作用,基本上能識别的都是擺拍。
而且偷拍的視頻單獨分類,儲存在一個數據庫,隻有通過身份驗證的本人才能查詢,如果發現自己被偷拍,還能向原色情網站要求删除。
實際上,研發者可能是想做一個男女性都共同獲利的項目,既可以幫男性檢測女性的身份,又能幫女性找到自己被偷拍的視頻,進行删除。
但是身份驗證這一步,是不是還是讓人有機可趁呢?畢竟被測試的“女性”都是比較熟悉的人。
且萬一有不法之徒通過竊取别人身份進行驗證,後續去網站上找到相關視頻,對女生進行騷擾,那又該如何是好?
小編看微博上就有某些女性遭到“變态”的言語騷擾,聲稱看到對方的相關視頻,雖然不确定真假,但仍然讓女生們感到非常恐慌。
有網友說:既然有針對女性的程序進行測試,那看了泰國孕婦墜崖案,對于女性老實人也需要一個app專門查對方發犯罪記錄和信用證信。
因為泰國孕婦的丈夫當時就是隐瞞了多次犯罪記錄,謊報就有一次搶劫罪,而欺騙這位孕婦跟他結婚,從而導緻後續悲劇的發生。
這麼說來,這個建議的确是個不錯的想法,畢竟犯罪記錄不是每個人都能查詢的到,也不是每個人都會仔細去查。
如果說,秉着“婚檢”的原則,那麼雙方達成一緻進行查詢,也不是不可以考慮。
當大家以為産品的上線是開發人之舉時,研發人@将記憶深埋 站出來稱,軟件不是他發布的,他本人也沒有什麼官博。
圖源:微博
研發人稱,無法确定原諒寶App是否安全,請勿亂下載安裝在自己手機上。
小編鬥膽一試,發現手機軟件中的此“原諒寶”非彼“原諒寶”!
App store的原諒寶是一個社交軟件,同城交友,一進去就要交30元才能進行匹配,并且數據不夠完善。
一刷評論,發現有一群被欺騙的群衆,心疼自己的30元,還不是真的原諒寶。
蹭着熱度,“騙”來一群興緻勃勃“查詢”的群衆,小編已詞窮。
假“原諒寶”還不止一個,除了APP外,還有許多公衆号打着原諒寶的名義,進行代測試。
然而,AI鑒黃的興起并不是突然之間。
不久前曾看到一篇關于“鑒黃師”的文章,文章中描述了亞洲10萬鑒黃師的痛苦與掙紮,他們幹着全網最髒的工作,有人瘋了有人自殺了......
而鑒黃師是互聯網色情内容暴增的條件下滋生的一個職業。
圖源:知乎
這個崗位的工作内容,就是每天浏覽色情淫穢網站,然後進行删除或者對用戶禁言等相關操作。
而這個職業特性對執業者有非常高要求,鑒黃師往往要承受心理、生理的雙重壓力。
曾經有某互聯網公司開年薪20萬向大衆招聘鑒黃師。
你可能會說,這個職位實在是太好了吧,工資高又輕松。
那你就錯了。
圖源:chinadaily
曾經有Facebook鑒黃師工作8個月離職,原因是身體扛不住。
臉書作為擁有20億用戶的平台,其中的内容和尺度遠超我們的想象。而這個職位除了鑒黃之外,還需要鑒“暴力、仇恨、恐怖主義、虐待、兒童色情、斷頭”等等。
每天對着這些内容,有誰能夠堅持得下去?
而AI鑒黃本身是可以通過音頻、圖像和視頻來鑒别内容,處于鑒黃的深度學習階段,而機器學習就是其中的主角。
通過定義一個機器可以識别的數學模型,再用大量滿足定義的圖片來進行樣本數據的收集并用于機器訓練。
如果導入越來越多的圖像和視頻,就可以得到一個越來越精準的模型,從而來判斷圖片是否涉“黃”。
而現在,AI鑒黃被用來鑒别女性是否存在于某些視頻或圖像中,原本是出于減輕這個職業的壓力而出現的AI鑒黃,到最後,卻被有心人拿來“濫用”。
前幾日百度AI開發者大會,也正是向大衆普及了,AI技術已并不少見,AI将在未來會越來越頻繁的出現在我們的生活中。
AI從一開始進入人們的視野,是受到大家的歡迎的。
而原諒寶這個項目一出現就被大衆抨擊,而在研發人表示停止研發後,又有“利益至上”者發布同名軟件“騙取”下載量進行收費,最後還有人注冊、開通官微發布程序進行測試。
本就是一個侵犯隐私的項目,卻在利益的趨勢面前,走上了大衆的舞台,那200萬的測評量就真真實實的擺在那兒。
AI是科技進步的體現,是解放人類雙手的智能成果。
但那些開發者們的果實如果被人“竊取”、“濫用”,那我不禁要問一問:科技進步帶來的,真的是我們想要的嗎?
,