
季訊

腦神經科教授 黃震遐醫生
最近一、兩年來,政治問題外,熱門話題無疑係所謂人工智慧AI及衍生出嘅各種工具。話「所謂」係因為「人工智慧」目前只不過係電腦消化大量資料後,使用演算程式作出統計上合理嘅推測。所以如果你請某傾談機器人chatbot寫篇金庸風格小說,或蘇東坡風格文章,甚至李白風格首詩佢都做得到。但驚艷之後,仔細讀,就會發覺只係堆積一大批華麗字句,背後並沒有乜深層意義值得回味。未演變出會思考嘅電腦之前,目前嘅只可以算係機器學習及運作演算machine-learning algorithm而已。但由於電腦消化及計算資料速度遠勝於人,所以純屬分析或重覆運行嘅工作,當然會效率高過於人。所以研究人員可以用呢類電腦演算發現到新嘅抗生素,解碼咗蛋白嘅立體結構,及大腦嘅微觀解剖結構。
少數人擔心發展落去,卒之會出現能夠思考嘅電腦,然後串聯成科幻片終結者嗰種人類被淘汰嘅後果。
但係沒到咁嘅場景前,人類可能已經自我洶汰咗了。
最近有幾篇報告都值得我哋思考。文章都指出依賴或使用傾談機器人會降低使用者嘅認知能力。
微軟及Carnegie Mellon大學研究人員調查咗319名知識工作者,發現使用可以透過學習而產生出新內容嘅電腦終端,可以增加工作效率及減輕使用者工作負荷量。但在此同時,又可以增加依賴、減少使用者獨立解決問題嘅能力、及降低使用者思辨判決能力。使用者愈係信任人工思慧,就愈係唔會查核究竟有冇出錯,或者提供嘅答案之外重有冇其他可能答案。
另一個研究發現練習解決數學問題時用ChatGPT嘅土耳其中學生比唔用呢工具嘅學生解決多48%問題。但靠自己能力正式面對考試時,卻差過未用過ChatGPT練習嘅學生17%。用ChatGPT純粹來提示而唔提供答案練習,同樣可以令學生解決更多問題。但一停用,呢啲學生數學能力同從未用嘅同學打平。
其實呢一啲都唔出奇。唔少人用咗人工智慧工具就會停止學習或思考,進入實際上腦停運狀態,全盤接受電腦輸出為真理。已經有幾位律師使用傾談機器人整理上庭案件,上庭呈交論點竟係跟據事實上並不存在嘅先例案件。換言之,呢幾位律師偷懶,百份之百信任傾談機器人,而冇用到自己思辨判決能力。
另外係英國郵政局經電腦演算指某些員工盜竊,澳州政府經電腦演算指某些人濫用福利。兩事件中錯誤向人追討賠償,或進行刑事起訴,造成寃案。受害者或死或精神受損。只要過分信任電腦演算,呢類寃案相信日後重會陸續有來。而醫學上,如果醫生完全信任人工智慧亦遲早必然會造成判錯症,出錯藥,開錯刀。更唔使講,假如因為停電或其他原因,電腦不能運作時,長期依賴電腦判症嘅醫生屆時有冇能力幫病人睇病醫病。
學有所成嘅人使用傾談機器人或其他機器學習及運作演算工具,來減輕工作提高工作效力當然好。但初學者,使用就可能會失去習得需要掌握嘅基本操作及思辨能力。正如唔做體力運動會引致到肌少症及體力衰退,唔用腦亦會引致腦細胞網絡嘅提前轉弱,增加進入認知障礙及退化風險。
現在全世界各國教育機構及政府都急不及待趕著要用AI,而冇仔細諗清楚潛在風險。
無論邊一行業,工作技能及思辨能力都必須係操練始學得到,同保存得到。如何適當使用呢一類工具,使佢提高我哋工作能力而唔係令到人類思考能力及技能衰退,真正係我哋需要盡快解決嘅問題。