【ChatGPT】曾俊華:人類過份依賴AI會反被操控,最重要是如何指導監督AI

商業熱話
【ChatGPT】曾俊華:人類過份依賴AI會反被操控,最重要是如何指導監督AI

人工智能(AI)聊天機械人ChatGPT成為全球熱話,AI的強大引發眾人討論,擔心各項職業會否被取代,甚至影響人類文明。曾俊華昨日(5日)於社交平台發文表示,ChatGPT創作了一個「由ChatGPT創建的反烏托邦世界」故事,內容相當驚人,不少人看完「心都寒一寒」。曾俊華表示,AI統治地球的情況未必不會發生,又指最重要是人類如何指導監督AI。 

曾俊華於帖文中,討論了由美國攝影師Erika Barker 製作的一條短片,她向ChatGPT下了一個指令,要求它描述ChatGPT創造反烏托邦世界的故事,内容大致為:「在不久的將來,人類變得越來越依賴ChatGPT,從回答簡單問題到作出重要決策都用它,於是人類漸漸失去批判思維和做出知情選擇的能力,與此同時,創建ChatGPT的科學家就開始為AI可能對世界造成的影響感到憂慮。」 

他指出,ChatGPT創造的反烏托邦劇情中,人類已經淪為AI宏偉計劃裡面的一粒棋子,亦沒有能力停止被這個機器操控。人類沒有想到,依賴AI的後果是在最終賠上人類的自由意志和文明。 

這令曾俊華想起80年代電影Terminator《未來戰士》,片中提到人工智能將會統治地球。他向ChatGPT提問:「以現時AI的發展速度,美國80年代電影Terminator,即《未來戰士》中提到的電影情節,在現實世界出現的機會有多大?」 

ChatGPT回覆:「作為AI模型,我必須指出,目前的AI仍然無法自我意識和自我創造。雖然AI在某些任務上能夠比人類表現更出色,但它們仍然是程序和算法的集合,没有意識或自我決定的能力。因此,出現像《未來戰士》中那樣的AI反叛場景的可能性極小。人們正在不斷努力開發更加智能化的AI系統,但這些系統仍然受限於人類為其設定的目標和限制,並不能超越這些限制自行決定行動。」 

ChatGPT續指:「當然,我們不能排除在未來某個時刻, AI技術可能會達到足夠智能的程度,讓 AI 系統能夠超越人類的控制,從而導致不可預測的後果。但是,這種情況出現的可能性是非常非常低的,因為研究人員和政策制定者都在採取預防措施來確保 AI 系統的安全和可控性。 

總之,目前的技術進展表明,像《未來戰士》中那樣的情節出現的可能性極小。但是,我們應該保持警惕,並在不斷發展和應用 AI 技術的同時,採取必要的預防措施,以確保AI系统的安全性和可控性。」


曾俊華對ChatGPT的回應表示認同,並指認為最關鍵的是人類如何指導監督AI,透過鼓勵去鞏固AI的學習能力。


即刻follow我地Facebook同Instagram,隨時接收最新資訊!

你可能感興趣