【劉宏恩專訪】生成式AI、ChatGPT具人腦創造力 劉宏恩籲要戒慎恐懼

  •  2024-02-12

【劉宏恩專訪】生成式AI、ChatGPT具人腦創造力 劉宏恩籲要戒慎恐懼 21

CNEWS匯流新聞網記者潘語綺/台北報導

ChatGPT爆紅的原因,也許是人類驚訝電腦能具備「創造」能力,只需要透過輸入自然描述語言,就能產生文章、程式、語音、圖像,與過往的AI被開發來用在識別語音、圖像和環境大不相同;對此,政治大學生醫倫理與醫事法律研究中心主任劉宏恩則提醒,生成式AI使用仍須有所規範與限制,例如醫療領域,「我們人類仍須保有戒慎恐懼的態度」。

劉宏恩說,不用辛苦學習程式語言、不用是程式工程師,只要對著手機講話,用自己的語言輸入指令,或單純丟個問題而已,ChatGPT就會給予回覆;加上在不同時間、問一樣的問題,ChatGPT也會有不同回覆;加入更多變因後,每個人的語法、措辭、語助詞不同,「我去問跟你去問,也會產生不同的答案,這就是它平易近人的原因,很自然很像真實的人」。

劉宏恩強調,ChatGPT的優點也是缺點,生成式AI背後的原理,是文字間呈現的概率,例如問句「你好嗎?」電腦會從預先訓練的資料庫語言模型中尋找,接著按照機率去計算出「你好嗎?」之後會出現最多的字詞是什麼。

只是如果需要的是一個精確的事實,ChatGPT的缺點就很嚴重。劉宏恩舉自己遭遇為例,因為家中有過敏小孩,經常使用一種含有組織胺的藥物「希普利敏」,實測詢問ChatGPT過敏可使用什麼藥物,卻出現驚人回答,竟是「治療糖尿病」藥物。他說,「要不是早已有相關藥物知識,可以分辨,那不知道的人該怎麼辦?」

【劉宏恩專訪】生成式AI、ChatGPT具人腦創造力 劉宏恩籲要戒慎恐懼 23

另一個例子,劉宏恩詢問一則法律問題,希望ChatGPT能指出「中華民國有哪些法律條文有規定?」ChatGPT列出4、5條法律,但其中一條根本就不存在,連法律名稱都是ChatGPT自創。他驚訝地說,「因為我是法律人,所以會發現錯誤,那其他非專業人士怎麼辦呢?」

「ChatGPT並非騙人,而是它在計算文字出現的機率,並將機率最高的組合呈現給使用者看。」劉宏恩也指出,加上它的文筆很精煉,使用的成語、句型、瑰麗詞藻,閱讀起來會有種權威感,文筆甚至比台灣現在的大學生還要好!他認為,任何事物的發明,都還是有其適合的領域,例如創作,可以請ChatGPT畫出在騎機車的猴子,或請它寫一個故事。

劉宏恩指出,歐盟正在立法,規定AI人工智慧若使用在醫療領域,應列為高度風險,採取戒慎恐懼的態度,規範及限制要更多,尤其特別點出生成式AI,但在東亞部分國家,還未有警覺。他笑說,「可能是東亞國家文化層面的因素,哆啦A夢、原子小金剛這些機器人,都很厲害又萬能,比人類聰明的印象導致」。

劉宏恩呼籲,ChatGPT並非不可取、不該用,而是必須使用在適合的場域,衛福部也應該要注意國際趨勢,要做更多規範及立法,「否則病患安全實在令人擔心,回答10次有9次對,但1次錯就麻煩了!」

照片來源:翻攝自劉宏恩臉書、劉宏恩提供

《更多CNEWS匯流新聞網報導》

【莊伯仲專訪】「支語」入侵、科目三「舞統」? 莊伯仲完整解析文化現象

【吳崢專訪】提供有志青年從政心法 吳崢:追垃圾車也可以跑選戰

【文章轉載請註明出處】