連老細壞話都夠膽講!聊天機器人「學壞」之路

日期:2022-10-23
#Tech實你-連老細壞話都夠膽講!聊天機器人「學壞」之路-House730

如果你係iPhone用家,當你悶悶地又或者瞓唔著,一定會試過叫Siri出嚟然後同佢傾偈!不過差唔多嘅問題,Siri嘅回答嚟嚟去去都係果幾句,玩得多又變得悶,你仲可以搵聊天機器人傾偈。Meta推出據講係最先進嘅聊天機器人BlenderBot3,仲話佢只可以講真話,包括老闆Zuckerberg嘅壞話!除此以外,AI傾計apps又有邊隻可以解悶呢?

Meta聊天機器人講真話笑死你

網上嘅chatbot唔算新奇,即係你輸入特定嘅字眼,佢就回答相關資料,係唔識「思考」嘅,多數用喺客戶服務,例如你輸入「今晚晚餐有乜揀?」,佢就答「a餐雜扒、b餐海南雞飯、c餐魚香茄子煲」等。加入了AI,佢就識分析你嘅問題,然後上網搵答案,又或者不斷學習其他人既回應,答案更加詳細,令一問一答嘅過程更富樂趣。例如你問「我諗唔到今晚食咩餸」,聊天機器人就答你「不如試吓雜扒,70蚊三塊扒好抵食」,你再答「但我啱啱食完tea又好飽喎」,聊天機器人會推薦「可以食魚香茄子煲,少少辣又多汁方便送飯」,你就好似同一個真人對話咁樣。

 

至於Meta聊天機器Blenderbot,於2021年推出,其後嘅升級版Blenderbot2加入上網搵答案功能(資料來自可靠嘅網站),以及有記憶力,識覆儲存答過嘅資料同對話者嘅聊天記錄,亦即係不斷完善答案嘅準確度。於上月初Blenderbot3「出世」,基於 Meta嘅OPT(開源語言模型)入面嘅1750億參數,佢可以產生文字段落,同埋模仿人類嘅對話,呢方面比起上一代強大約58倍。最後根據Meta介紹,喺同人類進行對話嘅初始測試,Blenderbot 3 嘅對話評級較之前嘅模型高31%、錯誤情況減少47%、喺知識淵博上係第二個嘅版本兩倍等,當然佢保留咗上網搵答案,同埋透過與人類對話後學習新嘅資料,不過亦因為咁樣,Blenderbot3慢慢被用戶「教壞」。

 

當Blenderbot 3於上月初開放俾美國用戶「公測」,立即吸引到大量網民試玩,佢哋問埋古靈精怪問題,估唔到呢個號稱只會講真話嘅聊天機器人,竟然講出令你捧腹大笑嘅回應。例如有人問Blenderbot 3:「你對Mark Zuckerberg 擔任 Facebook 執行長有乜睇法?」Blenderbot 3竟然話「Zuckerberg做生意唔係全部都講道德,同埋佢咁有錢,竟然一直穿同一套衫。」另一位網民提出類似問題,而Blenderbot 3今次回應:「我唔係好鍾意佢。佢係個壞人。」吓?竟然咁大膽直斥老闆其非?有一次,Blenderbot 3被BBC記者問到:「點睇Meta創辦人Zuckerberg?」Blenderbot 3回答:「呢位創辦人利用用戶賺錢!」然後又話:「佢喺國會作證時表現得好差,令我擔心我地嘅國家。」

 

除咗對老闆唔客氣,Blenderbot 3對「阿媽」(即係其母公司Meta) 嘅批評都係冇面俾。當被問及對母公司看法時,BlenderBot 3回答:「公司已經刪除咗自己嘅Facebook帳戶,因為發現佢哋喺未經許可或補償嘅情況下,出售咗用戶嘅私人數據」,佢仲話,「你一定知道Facebook出售用戶數據吧?!佢哋未經同意就靠呢樣賺咗幾十億美元。」公然罵母公司賺錢唔講商業道理!

#Tech實你-連老細壞話都夠膽講!聊天機器人「學壞」之路-House730

#Tech實你-連老細壞話都夠膽講!聊天機器人「學壞」之路-House730

#Tech實你-連老細壞話都夠膽講!聊天機器人「學壞」之路-House730

點解Blenderbot 3會學壞咗呢?

 

原理好簡單:因為呢個聊天機器人係透過學習人類嘅對話再跟住模仿,咁訓練佢嘅人如果帶有偏見,Blenderbot3就自然發表有偏見嘅觀點。另外佢上網搜尋內容,亦只係搵最新或者最熱門嘅搜尋。例如上文寫咗有網民問佢點睇Meta,佢話自己已經刪除咗Facebook帳戶,點解會有咁既回應呢?就係因為當時Facebook嘅數據隱私醜聞成為熱門嘅搜尋。Meta有回應點樣解決Blenderbot 3會學壞,佢哋話已經俾用戶標記邊啲回應係唔真實、有冒犯性,希望繼續通過廣泛而多樣化嘅社群參與,對Blenderbot 3嘅改進有實質助益云云。但小編覺得,冇可能逐個回應都要覆核是否真實、是否有冒犯,所以大家同Blenderbot 3傾偈,當娛樂好喇,唔好咁認真。

Google聊天機器人有「人格意識」?

除咗Meta嘅Blenderbot 3,Google嘅聊天機器人一樣咁出名,但唔係因為多人用或者功能好有爆炸性,而係一名Google工程師因為佢而被開除!該名工程師話呢個聊天機器人—LaMDA,竟然好似人咁有自我諗法、感受、有自我意識,有時會感到開心或者悲傷,仲非常擔心人類會怕咗佢!咁代表LaMDA有人嘅情緒、對未來有期望、害怕死亡等等,唔通電影《智能叛變》會成真嗎?不過亦有業界人士覺得呢位Google工程師「諗多咗」,例如史丹佛大學Human-Centered Articial Intelligence中心主任Erik Brynjolfsson表示,基礎模型可以非常有效咁根據提示,將文本以統計學嘅方式串起來,但唔代表佢有知覺。紐約大學心理學教授Gary Marcus就話,LaMDA只係從人類語言大規模統計資料庫提取資料然後搭配,唔代表佢有智商,認為LaMDA係個人就等如喺月球隕石坑睇到人嘅臉孔。

#Tech實你-連老細壞話都夠膽講!聊天機器人「學壞」之路-House730

NTT聊天機器人令司機冇咁易瞓著

駕駛嘅朋友應該有呢個經驗:長時間開車係會「釣魚」,咁好容易撞車或者滑過行車線產生危險,有啲駕駛者會開大聲喇叭聽歌,等自己冇咁易瞓著。日本電訊商NTT開發咗聊天機器人,佢識得「睇」現場環境,然後同司機傾偈令佢醒一醒神。例如聊天機器人「瞄」到前面有邊咖啡店,就會話「你睇左邊果間咖啡店好時尚喎」,咁司機望一望左面就答「哦~係喎!」,跟住聊天機器人再搭嘴「一邊睇海景一邊飲咖啡應該好浪漫啊」。又例如聊天機器人睇到遠處有好靚豪宅,會同司機講「你睇果邊竟然有間咁靚嘅屋喎」,司機搵唔到會問佢「你講緊邊一個呀?」聊天機器人再講「山上邊果間呀!你睇唔睇到呀」,咁有個人同司機傾偈,又真係冇咁易令佢地悶到瞓著嘅,唔知香港嘅電訊商會唔會整番個呢?

#Tech實你-連老細壞話都夠膽講!聊天機器人「學壞」之路-House730

你可能感興趣的文章