ChatGPT:我是誰?

ChatGPT:我是誰?

專家分享 - Alice and Bob Mike Wong

日期 :2023-03-17

在ChatGPT爆紅之前,人工智能界在2022年8月出了一則新聞,是有關Google的大型語言模型LaMDA。(不要因為Bard而影響我們對Google及LaMDA的判斷)那是一個Google的工程師在開發並和LaMDA對話後,覺得它是有知覺(知覺可以說是意識的弱化版本),認為是有人格,並把這件事公開到《華盛頓郵報》上。人工智能界的專家當然覺得這名工程師的理據不足,不可以判斷LaMDA是有知覺的存在。但對於我們使用過ChatGPT的人來說,有時都不禁要問,在和我對話的它,到底有否(至少是否可能有)意識,知道它自己的存在嗎?

甚麼是中文房間論證?

「意識」是一個相當難處理的問題,無數腦神經學家、哲學家和人工智能學家都在討論這個我們都有,但又說不清楚的東西到底是怎樣一回事。今天我嘗試從一個思想實驗去與大家思考一下這個問題。


「中文房間」(Chinese Room)論證是約翰.瑟爾(John Searle)在1980年提出的一個思想實驗,目的在思考電腦程式能否真正理解人類語言的想法。瑟爾的論點如下:「假設有一個不懂中文的人在一個房間裡,手中有一本規則書,可以讓他用中文書寫回覆在門下傳進來的中文問題。這個人按照規則書中的規定,產生回應給門外使用。」因此他提出,無論多麼複雜的電腦程式,它也只是按照規則生成人類語言的回應,但並不能真正理解語言的含義。


中文房間論證是約翰.瑟爾提出來,用來反駁人工智能有意識的思想實驗。 中文房間論證是約翰.瑟爾提出來,用來反駁人工智能有意識的思想實驗。


ChatGPT有意識嗎?


很多人直覺上都會認同瑟爾,覺得這種電腦程式只是在按規則使用符號,並沒有真正理解到語言;真正理解語言的含義,是需要意識才可以理解符號所代表的東西。例如一隻螃蟹在沙灘堆疊沙子,我們在牠身邊加上圍繞物(規則),令牠堆疊出一個「字」出來,你會說這隻螃蟹懂得牠「寫」出來的東西嗎?


如果以這個進路來思考,即使ChatGPT展現了不同凡響的能力去解決語言相關任務,以至之後更厲害的人工智能,都應該不會擁有意識。因為他們都不過是另一間中文房間中,按規則來使用符號的程序。意識變成人類獨有的能力,真正理解語言也變成人類的專屬能力。一個反對說法是,個別的元件不能產生意識,不論是腦袋或是中央處理器(CPU),但把部件串連起來,意識就會產生(emerge)出來,就如H2O每個分子並沒有「濕」的屬性,但連起來變成「水」,「濕」這個屬性就產生出來。

你,作為有意識的個體,會怎樣去跟這些未來無處不在的語言模型合作或相處?

 


立即搜尋各區最新放盤




   

LaMDA ChatGPT Mike Wong Chinese Room John Searle

你可能感兴趣的文章

House730搵楼大本营是香港的搵楼平台/租屋网,齐集香港楼盘及楼市资讯,网罗业主及各大中小型地产代理的楼盘,助用户找到心水香港楼盘,网上搵楼买楼更轻松。
House730同时提供一个渠道,予地产代理及业主网上放盘平台,自由、方便、高效,网上推送笋盘给潜在买家!
House730云集香港各类型楼盘资讯,包括香港新楼盘或是二手楼、港九或是新界、住宅或是工商业大厦,务求为用户提供最全面的楼盘资讯。
House730旨在为香港用户提供最优质的使用体验,不论买楼或是租楼,用户可按楼盘的价钱、面积、房数、真实照片等等条件拣选合适楼盘。
除了多个香港楼盘资讯外,House730亦提供不同类型的楼市资讯,包括地产新闻、成交数据等等,让你成为精明买家或租户。

Please login or register as member