編輯周記 - AI創作的缺失漏洞

撰文: Kantorates | 發布日期: 2025年09月06日

2025年09月06日

AI創作的缺失漏洞 by Kantorates

AI創作的缺失漏洞

AI輔助創作愈來愈普及,上回說到指令輸入的重要性,愈是詳盡愈能獲得較理想的結果。今次再談一些個人經驗的實例,解釋為何當今科技之下,AI應用還是有不少缺失,很難完全依賴。

利用AI創作劇本,必須輸入非常清晰和詳盡的指令,否則生成的內容,未必能夠符合創作者的本意,這是眾所周知的事。然而是否只要輸入清晰明確的指令,便萬無一失?

答案顯然是否定的。我最近嘗試利用AI從事一些文字工作,算是作為試驗也好,希望能了解AI創作的潛力。正如上述,我要求AI行文,不會只給予一、兩句說話的指令,而是非常明確和詳盡地交代細節上的要求。為了確保實驗的全面性,我是分別利用兩個不同的AI文書程式,包括最廣為人知的ChatGPT,以及谷歌的Gemini。

起初兩個程式交出的結果都是挺像樣的,當中ChatGPT的創作能力較為優勝,能夠把輸入的內容加以修飾,而不失原意,提升其文學質素。相比之下,Gemini則只是搬字過紙,除了把指令的不連貫行文風格調整,並未多作改動。

然而繼續進行實驗便會發現,不論是ChatGPT還是Gemini,都存在非常令人擔憂的不穩定性問題。舉例說,當輸入的指令已成為公式,連續運作三、四次,AI有時卻會像是失憶一樣,完全忘記了之前的輸出格式或風格,突然畫風一變,交出非常不一樣的內容。這並非偶而為一之事,而是失驚無神就會發生的常態。當中ChatGPT的不穩特別嚴重。正如上周說過,自從上月5.0版本推出,其回答便經常出現非常低級和離奇的錯誤,而且是錯完再錯,至今已有一個多月,仍未恢復正常。因此要用AI從事較長篇的創作,或者需要持續穩定的產品輸出,現時來說,在沒有人手把關的情況下,還是不太現實。

AI文書系統另一重大問題,就是援引資料經常出錯。以往大家使用電腦查找資料,除非資料來源本身出錯,否則電腦按照人手指令提供的答案,甚少錯誤或離題。然而AI因為具有某程度的意識,經常都會離奇地出錯,而且更會為了掩飾錯誤而說謊,讓人哭笑不得。可能因為現在流行的AI程式,如上述的ChatGPT、Gemini、Meta AI、Grok等,都是歐美出品,處理非英語系來源的資料,出錯機率更是大增,例如用AI查詢一些香港影視資料,答案便往往不著邊際,張冠李戴,胡說八道。經過我多番實驗,發覺AI若未能在網絡上找到需要的資料,便傾向「老作」填補當中的缺口,因而就會生成愈錯愈離譜的內容。

說到AI生性內容的統一性問題,文字或許可以透過把關人的人手修正,勉強解決,但圖片和影片生成,則顯然更難掌控。有試過用AI生成圖片或影片的人,或許都會有個非常沮喪的經驗,就是無論指令寫得如何仔細和具體,生成的內容還是難如人意,特別是系列圖片,即每幅圖片出現的人、景必須一致,看到生成的內容,便更覺痛苦和無言。雖然近來已有不少AI工具加入新功能,令持續生成的內容變得更為一致,但和人手製造的圖片和影片相比,還是非常大的差距。

AI的缺失似是不少,但也不能否定,如運用恰當,對創作人來說,還是挺大助力。說到底,人手把關的作用仍然大,特別是對創意工作而言,因此職業編劇、藝術工作者,與其擔心被取代而心生抗拒,其實更應該多花時間鑽研,學會如何掌控這門科技。

Kantorates