生成式人工智慧(AI)快速發展,例如ChatGPT,已對全球發生巨大影響,雖然可以提升工作效率,但也有侵權疑慮。國科會發布「行政院及所屬機關(構)使用生成式AI參考指引(草案)」,明訂公務機關製作機密文書禁用生成式AI,若作為執行業務或提供服務輔助工具時,應適當揭露。學者認為,民間單位也應該參考國科會的指引,慎防企業機密、個資外流。
生成式AI熱潮襲捲全球,帶來一體兩面的衝擊,有人主張政府應對AI的應用有所規範,產業界則希望政府不要管太多。國科會主委吳政忠18日受訪時說,生成式AI變化速度很快,太趕著提出相關法規,反而可能綁住產業發展機會,因此在人工智慧基本法出爐前,先釋出對公部門的指引,並觀察國際立法趨勢。
國科會公布指引 使用應揭露
這份公部門使用生成式AI參考指引包含3重點,第1,如果使用生成式AI做為執行業務或提供服務輔助工具時,應適當揭露;第2,製作機密文書資料應由業務承辦人員親自撰寫,禁止使用生成式AI;第3,各機關不可完全信任生成式AI產出的資訊,也不得以未經確認的產出內容,直接作成行政行為或作為公務決策的唯一依據。
國科會科技辦公室執行祕書沈弘俊表示,生成式AI蒐集資訊能力強大,如果公務員去問問題,一不小心就會洩露政府機密。例如,國防部若有人去問軍事相關問題,丟出一些資料後,就會被AI蒐集,萬一「對岸」再上去問類似問題時,就會取得我方資訊,那就很麻煩。
沈弘俊指出,包括歐盟、加拿大及中國大陸等都在研擬人工智慧相關草案,尚未有國家訂出法律。國科會先訂出使用生成式AI的指引,供公務機關執行業務時參考。
學者建議 民間單位也應訂定
元智大學資管系主任禹良治說,民間單位也應參考國科會所訂的指引,因為生成式AI的雲端資料庫,會蒐集使用者輸入的資料,如果提問內容具機密性,相當於是將自己的機密送給這家生成式AI公司,風險很大。
陽明交大應數系教授李育杰說,曾有韓國三星員工使用ChatGPT,卻造成該公司資料外洩。同樣的,我國官員出訪,若政府部門人員去GhatGPT詢問到訪國家資訊,可能會洩漏官員行蹤,引發難以預料的事。
李育杰指出,生成式AI具有翻譯功能,假設台積電有人將2奈米製程資料放上ChatGPT,要求將中文翻成英文,這就可造成重要商業機密外洩,因此台積電對員工使用ChatGPT就有規範。
李育杰表示,人工智慧進步得太快,「我們都很驚訝」,人們覺得使用生成式AI很便利的同時,也要知道它的副作用,否則很容易造成機密、個資外洩。他認為,國科會訂的參考指引,可以喚起公民意識,民間單位也會察覺到使用生成式AI的可能風險,並進一步防範。
花蓮縣府 已用AI草擬新聞稿
目前在地方政府中,僅花蓮縣府用AI擬新聞稿、講稿,另有高雄市議員郭建盟6月總質詢時,破天荒以ChatGPT質詢,要求高雄市長陳其邁重視少子化危機,但涉及範圍均非機密文件。各縣市政府都表示,將遵照國科會指引使用新興科技工具,桃園市府則已制定相關管理規範草案,方向與國科會相同。
國科會表示,在研擬的《人工智慧基本法》草案中,包括AI法律名詞定義、隱私保護、資料治理、AI風險管控、AI倫理原則規範、產業推動,以及AI應用遵法與合法性等7面向。(中國時報/林志成、柯宗緯、王志偉)