You are on page 1of 7

生成式AI的應用、風險

與對應政策
黃仁志 中華經濟研究院第二(國際經濟)研究所 計畫輔佐研究員

生成式AI的自主創作能力已成為影響社會經濟的重大新興科技,並陸續發展出許多領域
專屬的生成服務。但其堪比專業的內容生成能力,同時也會受到惡意應用而產生諸多風險和威
脅。為回應生成式AI帶來的效益與挑戰,許多國家陸續研擬相關政策計畫,著重搭建AI創新生
態系和設計監管機制。另如何協助人們適應生成式AI的衝擊,同樣也是不該忽視的課題。

關鍵詞:生成式AI、ChatGPT、人工智慧
Keywords: Generative AI, ChatGPT, Artificial Intelligence

2022 年 11 月, 總 部 位 於 舊 金 山 的
Open AI 公 開 推 出 ChatGPT,
隨即廣受各界熱議與應用,不僅象徵「生成式人
階段(early stage),無論是支持其演算運作的
資料與參數,或是其社會應用的範疇和衝擊等,
都仍存在相當多的偏差及風險。多數社會大眾在
工 智 慧 」(Generative Artificial Intelligence, 簡 應用生成式 AI 的服務時,並無法知悉其產出的
稱生成式 AI)的一大突破,更帶動許多行業積 生成邏輯。這種「知其然而不知其所以然」的使
極尋求商業應用模式。從過去基於龐大數據資料 用模式,也讓未來的社會經濟活動隱含相當高的
所建構的演算法、提供制式化回應的分辨式 AI 風險。如何善用生成式 AI 所帶來的龐大潛力,
(Discriminative AI,或稱判斷式 AI),進展到 同時減緩其所產生的誤用危機,同樣需要政策積
符碼的創作生成,彰顯 AI 以基於互動脈絡產生 極思考應對。
自主回應的能力,也讓人工智慧的「類人」特質
更為可期。
生成式AI的崛起與擴散應用

然而,生成式 AI 的應用發展目前還在早期 近期在全球受到熱切矚目的 ChatGPT,已

80
國際經濟

然成為生成式 AI 的創新典範。其之所以受到廣 詢與規劃功能。


泛推崇,在於其讓使用者能夠以簡便的方式,
然而,生成式 AI 的預訓練必須有龐大的投
獲得過往需要繁複過程才能取得的成果。支持
入,包括數據資料量、基礎模型建置和參數設
ChatGPT 運作的技術,是 Open AI 所提出的「生
定,以及能夠支援海量數據演算分析的超級電腦
成 式 預 先 訓 練 轉 換 」(Generative Pre-trained
和研發人員等,這也意味著絕大多數的科技新創
Transformer, GPT)3.5 版 本, 也 是 Open AI 公
與企業無法負擔自行開發建置費用。因此,生
開釋出應用的版本,目前並有可商業訂購的 4.0
成式 AI 的擴散應用主要是以銜接應用程式介面
版,能為使用者提供更精確的回應。GPT 各版
(Application Programming Interface, API)的方
本的關鍵差異有二,一是預訓練(pre-trained)
式,藉由調整生成模型或添加數據後微調,使之
的資料量,二是進行演算的參數量。越龐大的預
成為能夠提供特定主題式內容生成的服務。
訓練資料和參數量,有利於程式提供更精準且客
製化的生成內容。 目前的生成式 AI 已在許多領域發展出專屬
的生成服務,其中又以撰寫語言作品(諸如文
除了國內大眾所熟知的 ChatGPT 外,Open
章、程式碼、詩詞、翻譯、戲劇腳本、分析報
AI 在 2021 年初就已提出以文本描述生成圖像
告、電子郵件、社群媒體內容、結構化的數據分
的 DALL-E,並陸續發佈更新的版本。DALL-E
析等)、圖像創作(例如不同風格的繪圖作品、
同 樣 是 以 GPT 方 式, 以 基 於「 對 比 圖 文 預 訓
串聯圖像成為影片等),以及合成語音和產出設
練 」(Contrastive Language-Image Pre-training,
計方案等最為普遍。這些借助生成式 AI 創作產
CLIP)模型,訓練程式能夠掌握文字表述與圖
出的應用,也開始改變許多商業活動的運作模
像內容的對比關係,進而讓使用者可以透過輸入
式。例如以 GPT-3 為技術基礎所開發的 Jasper,
描述文字產生其所想要的圖案。其後由 Google
即是一款專注於商業行銷的生成式 AI 程式,可
所提出的 Imagen 和 Parti,以及由同名研究實驗
以協助經營者生產部落格文章、社群媒體貼文、
室所開發的 Midjourney,也都是以文本生成對應
網路和電子郵件的行銷文案和廣告。而另一款以
圖像的 AI 應用,並陸續在 2022 年中旬開始進
GPT-3 技術所建的 Codex 程式,則是一個聚焦
行公開測試。這些生成式 AI 的應用成果,讓全
在程式碼生成訓練的生成式 AI 模型,只要向它
球見證生成式 AI 的龐大創作自主性,也成為許
描述一小段可重複使用的程式碼(snippet)或小
多產業試圖接軌並加以轉用的科技標的。例如大
小的程式功能,Codex 就可以產生接合不同程式
力 投 資 Open AI 的 微 軟(Microsoft) 即 將 生 成
系統所需的程式碼 1。
式 AI 融入其主力產品中,除讓微軟 Azure 平台
成為 Open AI 的獨家雲端供應商,更在其 Office 此外,受過專業領域知識預訓練的生成式
365 系列中建置 AI 協作工具 Copilot,以及在搜 AI,更可超越原本的資料庫搜尋功能,協助單位
尋引擎 Bing 中納入 ChatGPT,使之同時兼具諮 進行專業知識管理與應用。像是知名的財務證券

81
July 2023

管理公司摩根士丹利(Morgan Stanley)即利用 Engler(2023)指出生成式 AI 的危害可分為兩


OpenAI 的 GPT-3 版本,以財富管理為主要領域 大類型,一是惡意使用造成的危害,例如創建未
進行微調訓練,讓專屬的財務顧問 AI 可以搜尋 經同意的色情內容,或是自動擴散仇恨言論、產
公司內部的知識資訊,為客戶提供客製化的財富 生騷擾與虛假訊息,以及利用其產出進行詐騙
管理建議。在法律工作領域,一家名為 Casetext 等。二是商業使用造成的危害,關鍵之處在於採
的公司在 2023 年 3 月發表一個名為 CoCounsel 用既有生成式 AI 的公司可能都無法充分理解 AI
的 AI 法律助理,協助原本由初級助理負責的法 系統的完整邏輯,進而可能產生錯誤和意外行
律資訊蒐集與確認工作(例如管轄權、相似案例 為,甚至將錯誤的結果呈現給顧客(例如提供錯
判決等)2。 誤的法律適用資訊),進而讓使用者本身處於相
當高的誤判風險之中 3。
儘管應用生成式 AI 可減輕工作負擔,但這
並不意味生成式 AI 已可大幅取代既有的職務人 除了使用意圖的危害外,生成式 AI 對社會
員。由於生成式 AI 對企業本身的文化脈絡、產 造成的風險衝擊還包括以下三大面向:(1)惡
品資訊和未來商業策略布局等資訊,仍相當欠缺 化社會的數位落差(digital divide);(2)增加
瞭解,因此仍需要由使用者不斷修正其給予的提 偽造(deep fake)風險;以及(3)對社會倫理
示內容,並對產生成果加以重新編輯。但除了在 道德與法律的衝擊。
既有工作流程中導入生成式 AI 的協助外,利用
生成式 AI 所創造出來的虛擬化身,未來更有望 一、生成式AI應用可能惡化社會的數位落差
改變一些特定的工作模式。例如原先需要以真人 儘管生成式 AI 對使用者更為便利與友善,
模特兒來呈現的時尚產品,未來將由生成式 AI 但仍須懂得各類型生成式 AI 的運用模式,才能
創造出更符合廠商所需的理想模特兒來擔任。而 獲取所需成果。而對於生成式 AI 應用能力的掌
原先需要由真人演奏或演唱的音樂創作,未來亦 握,可能在原有的數位技能差異上,進一步惡化
可能透過擬真的樂器演奏或真人聲紋合成來展 社會既有的數位落差,影響使用者從事社會經濟
示。這些透過生成式 AI 所創造出來的新興工具, 活動的自主能力與效益。史丹佛大學(Stanford
有望帶動新的商業需求,但同時也可能衝擊原有 University) 的 經 濟 學 家 Erik Brynjolfsson 即 曾
的就業機會。 指出,對人工智慧的過度關注和加速導入,會放
大少數擁有和控制技術的人的市場力量 4。
生成式AI的風險與威脅
雖然目前尚未出現因導入生成式 AI 而導致
強調簡便可用且具有創作能力的生成式 失業的案例,但隨著生成式 AI 技術的改善與提
AI,雖然看似為社會經濟活動帶來突破式的數位 升,以及企業納入生成式 AI 應用後的組織改革
轉型契機,但在實際應用上卻也引發不少隱憂。 和人員整編,就業型態轉變和失業問題將更為明

82
國際經濟

顯。長期致力於 AI 應用發展的創新工場董事長 造逼真虛擬影像的能力門檻。近期一位年僅 24


李開復,日前即指出未來將高度受到 AI 應用威 歲的中國視覺設計師,即利用生成式 AI 製作出
脅的工作類型,包括需要高度警戒可能即將被 奶奶的虛擬數位影像,並可與親人互動對談家中
AI 淘汰的工作(如電話銷售、客服、資料管理 事務,彷若真實的視訊通話 7。此類以生成式 AI
員、產線品管等),以及處於中度警戒已危機 產出模擬特定真實情境的應用,同時也會發生在
四伏的工作(例如市場研究分析員、保險理賠 詐騙事件上,因而更加惡化社會風險。
員、財務分析師等)。因此,企業應用生成式 對 此, 如 何 在 生 成 式 AI 的 產 出 中 建 立 可
AI 的課題,除了能為企業帶來什麼效益,對社 追蹤和識別的標誌,可能同樣重要。為回應生
會更重要的問題在於「誰會受益?誰會被拋在 成式 AI 的「以假亂真」問題,目前亦有相關程
後面?」5。 式開發者著手推出偵測內容是否為生成式 AI 創
作 的 程 式, 如 AI Text Classifier、GPTZero、
二、生成式AI成果帶來偽造(deep fake)風
Hugging Face 等。而為控制偽造圖像的生產與應

用,Open AI 在 DALL-E 2 上讓每張圖像加上獨
生成式 AI 勘可比擬專業者的創作能力,並 特的符號當做「浮水印」,以此協助受眾辨別其
不意味其生成的結果都是真實可信的。Heikkilä 資料來源。
(2023b)即指出,生成式 AI 的最大缺陷之一
在於它們會編造東西並自信地將謊言作為事實呈 三、生成式AI應用對社會倫理道德與法律的

現。這樣的特質也使得它們不適合用於準確性極 衝擊

其重要的任務,例如科學研究和醫療保健。換言 ChatGPT 的應用也引發許多社會倫理和法


之,生成式 AI 的關鍵應用在於創作而非確保真 律問題。諸如原先該由個人親自進行的創作工
實性。因此,如果使用者不具備 AI 素養,就可 作,是否可以改由 ChatGPT 的成果替代,而其
能對 AI 的應用具有不切實際的期待,甚至淪為 知識產權和勞動成果又該如何歸屬?生成式 AI
其被用於違法行為時的犧牲品。其中,藉由生成 是否在其演算法和預訓練資料中納入偏差或歧視
式 AI 所創造出來的深度偽造品(deep fakes)或 資料,並隨其應用而擴大既有的偏差與歧視?經
虛偽訊息,將會導致其接受者以非真實的訊息採 由生成式 AI 所導致的違法犯罪行為,又該如何
6
取決策和行動,進而造成傷害 。 論證其犯罪意圖嚴重性,並衡量其刑責?

例如 2018 年網路上即流傳前美國總統歐巴 另一方面,因為應用生成式 AI 而導致的商


馬批評川普的影片,但隨即製作者即說明該影片 業機密問題,也引發企業界的疑慮。例如韓國三
是利用 AI 換臉技術所製成的。過去這些逼真偽 星集團日前曾宣布,開放讓半導體部門的員工用
造品需要大量的電腦技能和電腦運算能力才能做 ChatGPT 協助進行工作,卻也因此造成在互動過
到,但如今在生成式 AI 的助益下,大幅降低創 程中所討論的機密內容,被傳送到外部資料庫做

83
July 2023

為持續進行預訓練的內容 8。蘇黎世聯邦理工學 該如何達成,是否能夠在實務上透過人工檢查這


院研究電腦安全和隱私的 Florian Tramèr 博士則 些數據資料毫無錯誤,以及如何讓人類理解可能
指出,允許這些基於語言模型 AI 程式從網路上 連其創作者都無法完全掌握的神經網絡運算方式
提取數據進而生產創作,讓駭客更容易將其變成 等,都是目前在技術上難以達成之處(Heikkilä,
「垃圾郵件和網絡釣魚的超級強大引擎」,進行 2022b)。
機器學習和應用,而其產出的新型攻擊將是肉眼
不可見的並且是自動化的(Heikkilä, 2023b)9。 二、英國《人工智慧政策白皮書》

這些在實際應用上所產生的危害,同樣引發許多 由英國新設的科學創新與技術部
關切。 (Department for Science, Innovation and
Technology, DSIT), 在 2023 年 3 月 公 布 的 政
重點國家的對策
策白皮書(White Paper)《英國在人工智慧引領

隨著人工智慧科技與應用滲透到日常生活 世界的新途徑》(New World Leading Approach

之中,如何對其提出治理策略也越顯重要,特別 to AI in the UK),目的是為監管 AI 提出新方法,

是針對如何支持 AI 的創新與擴散應用,同時兼 建立大眾對 AI 科技的信任,並使企業在有法可

顧監管風險和減緩衝擊等需求提出具體措施,成 循的情況下更容易進行相關創新發展 11。

為各國在制定 AI 治理策略的主要著墨點。 該政策文件指出,缺乏明確的法制架構和


治理策略,會讓 AI 應用產生許多爭議、風險和
一、歐盟《人工智慧監管架構》
威脅。因此,透過簡化創新審查、提升對風險
歐 盟 委 員 會 認 為,AI 系 統 的 風 險 存 在 高 與威脅的監管和確保等措施,有助於強化英國
度 歧 異 性, 而 其 制 定《 人 工 智 慧 監 管 架 構 》 引領全球 AI 發展的能力與角色。針對當前 AI
(Regulatory framework proposal on artificial 的普遍應用,該白皮書提出五項監管原則,包
intelligence)的核心,即是區分 AI 應用的不同 括:(1)安全、確保與穩健性(safety, security
風險等級(不可接受的風險、高風險、風險有限、 and robustness);(2) 透 明 度 和 可 解 釋 性
最小或無風險),針對其所涉及的生命安全、各 (transparency and explainability);(3) 公 平
項基本權利、生物特徵取得和成果使用範疇等, (fairness);(4) 課 責 和 治 理(accountability
進行事前的規範界定,並要求在敏感用途方面提 and governance);(5) 可 競 爭 性 和 補 救
10
高透明度 。 (contestability and redress)。然而,AI 供應鏈
然而,該監管架構要在實務落實上,仍有 (包括演算法、資料庫、參數設計、訓練模型設
其技術上和社會層次上的疑慮。例如架構要求進 計等)常是複雜而不透明的,這也使得其課責治
行 AI 訓練的數據資料庫必須沒有錯誤,且以人 理和風險管理也同樣複雜而不容易。未來需要針
類能夠完全理解的工作原理來運作。但此一要求 對各階段或不同層級的 AI 開發工作,予以一一

84
國際經濟

釐清其影響範疇,才能真正界定合適的課責治理 安全型試點(NAIRR-Secure):在共用安全控
方式 12。 制的獨立範圍內,提供指定受限(機密性)的政
府單位和第三方可以安全地訪問受控制的機密數
三、美國《國家人工智慧研究資源實施計
據,推展在特定範疇上的 AI 創新應用。藉由這
畫》
些治理策略,美國政府希望能夠兼顧持續搶占
在 2020 年《國家人工智慧倡議法案》的推 AI 創新發展先驅地位,同時確保 AI 應用的社會
動下,美國白宮國家科學基金會成立「國家人工 安全 14。
智慧資源研究」(National Artificial Intelligence
Resource Research,簡稱 NAIRR)工作小組,負 結語
責調查美國發展 AI 研究網路、基礎設施的可及
生成式 AI 優異的擬真創作能力,既是未來
性(feasibility)和可供諮詢特質(advisability),
世界的重要工具,但也存在著諸多潛在風險。生
並在 2023 年 1 月發布《強化和民主化美國人工
成式 AI 為使用者帶來具有創作價值的產出,但
智慧創新生態系統:國家人工智慧研究資源實
這些內容卻非都來自具有真憑實據的推斷,這也
施 計 畫 》(Strengthening and Democratizing the
是當前生成式 AI 應用上的關鍵特質與問題。由
U.S. Artificial Intelligence Innovation Ecosystem:
此衍生的專業替代風險和深度偽造問題,也成為
An Implementation Plan for a National Artificial
生成式 AI 發展治理上的重要議題。
Intelligence Research Resource)。該計畫的假設
為回應 AI 應用帶來的效益與挑戰,許多國
是「建構一個可廣為觸及的 AI 研究網絡基礎設
施,將有助於美國的 AI 研發領先」。核心的四 家陸續研擬相關政策計畫。從歐盟、英國和美國

大目標包括:刺激創新、增加人才多樣性、提高 的政策內容來看,有兩大面向需要納入政策考

能力、促進可信賴的人工智慧 13。 量。其一是搭建 AI 創新所需的生態系資源和平


台,讓研究者可以相互合作,以跨領域和跨科際
對應在治理策略上,除了建置計畫管理辦
整合的方式開創 AI 解決方案。其二是面對各種
公 室、 擴 散 AI 創 新 研 發 的 生 態 系 成 員 外, 更
潛在風險,必須深入分析其衝擊和影響,據以劃
重要的是支持創新和實施試點計畫。在支持創
分風險等級,並對應設計處理不同風險類型的機
新 方 面,NAIRR 工 作 組 提 出 以 整 合 式 的 入 口
制與策略。
(integrated portal)支援 AI 開發者所需的研發
工具與服務,降低參與 AI 研究生態系的障礙, ChatGPT 的應用在臺灣也引發眾多關注,
並提升研究人員的多元性。而在試點營運方面 國科會因此規劃近期研提臺灣的《人工智慧基
則 分 為 兩 大 類 型:(1) 開 放 型 試 點(NAIRR- 本法草案》。該法案的兩大重點包括:(1)支
Open):採用科學界產出的最佳實踐,並與聯 持國內人工智慧的發展,以發展出臺灣自己版
邦開放數據、開放政府等政策共同推動;(2) 本的 ChatGPT 和生成式 AI 生態系為目標;(2)

85
July 2023

為 AI 應用可能帶來的社會衝擊和潛在風險建置 6. Heikkilä, Melissa (2023b). AI literacy might be


ChatGPT’s biggest lesson for schools. MIT
監管措施,以此減少社會大眾對人工智慧的疑 Technology Review. https://www.technologyreview.
慮 15。 com/2023/04/12/1071397/ai-literacy-might-be-chatgpts-
biggest-lesson-for-schools/?truid=&utm_source=the_
然而,面對國外生成式 AI 已然大舉擴散應 download&utm_medium=email&utm_campaign=the_
download.unpaid.engagement&utm_term=Active%20
用,國內在開發自有的生成式 AI 科技之餘,是 Qualified&utm_conten=04-12-2023&mc_
否能夠產生技術替代效果,以及相關的監管措施 cid=6ba94e2207&mc_eid=69f01542cc

是否足以應對採用國外 AI 技術產生的衝擊和風 7. 世界日報(2023年4月11日)。奶奶突離世…視覺設計


師用AI「復活」 聊家常對答如流。https://udn.com/
險等,都有待更進一步的技術投資與實證測試。 news/story/7086/7090412
更為重要的是,各類型生成式 AI 的串聯應用與 8. Wang, Ross(2023年4月10日)。三星開放工程師運
擴散,將以倍增速度成長並更深刻地滲透在民眾 用ChatGPT未滿月就出事,爆3起機密洩漏事件。
https://www.kocpc.com.tw/archives/487553
的日常生活之中,如何協助人們避免因此蒙受數
9. 同注6。
位落差與惡意應用之害,同樣也是不該忽視的挑
10. European Commission (unknown). Regulatory framework
戰。 proposal on artificial intelligence. https://digital-
strategy.ec.europa.eu/en/policies/regulatory-
framework-ai
附注
11. GOV. UK (unknown). UK unveils world leading approach
1. Davenport, Thomas H., and Mittal, Nitin (2023). How
to innovation in first artificial intelligence white
Generative AI is Changing Creative Work. Harvard
paper to turbocharge growth. https://www.gov.uk/
Business Review. https://www.hbrtaiwan.com/
government/news/uk-unveils-world-leading-approach-
article/21836/how-generative-ai-is-changing-creative-
to-innovation-in-first-artificial-intelligence-white-
work
paper-to-turbocharge-growth
2. Villasenor, John (2023). How AI will revolutionize
12. 同注11。
the practice of law. Brookings. https://www.
brookings.edu/blog/techtank/2023/03/20/how-ai-will- 13. National Artificial Intelligence Research Resource Task
revolutionize-the-practice-of-law/ Force (2023). Strengthening and Democratizing the
U.S. Artificial Intelligence Innovation Ecosystem:
3. Engler, Alex (2023). Early thoughts on regulating
An Implementation Plan for a National Artificial
generative AI like ChatGPT. Brookings. https://
Intelligence Research Resource. https://www.ai.gov/
www.brookings.edu/blog/techtank/2023/02/21/early-
wp-content/uploads/2023/01/NAIRR-TF-Final-
thoughts-on-regulating-generative-ai-like-chatgpt/amp/
Report-2023.pdf
4. Rotman, David (2022). How to solve AI’s inequality
14. 同注13。
problem. MIT Technology Review. https://www.
technologyreview.com/2022/04/19/1049378/ai- 15. 中央通訊社(2023年4月10日)。台灣政府將提出人
inequality-problem/ 工智慧基本法草案,值得注意!。https://www.cna.
com.tw/news/afe/202304100307.aspx
5. 林 士 蕙 ( 2 0 2 3 ) 。 A I 正 吞 噬 你 的 工 作 ? 李 開 復 、
OpenAI老闆都示警。https://www.gvm.com.tw/
article/99652

86

You might also like