【焦點話題】人工智慧法律問題(下)

人工智慧法律問題(下)

文:邱奕賢(美國法學博士、臺灣執業律師、全國商業總會會務顧問)

壹、緒論

    人工智慧技術雖帶來社會及經濟效益,同時也可能對個人或社會帶來新的風險或影響,已如前述。許多人擔憂AI會取代人類主宰的地位;也有人擔憂AI科技遭到濫用因而衍生出假冒詐騙、侵害個資與隱私等問題,另外當AI系統出現問題時,責任該歸屬於誰?例如,無人計程車或AI金融投資等風險應如何公平合理的分配也備受各界關注。有鑑於此,全球主要國家皆致力在不妨礙技術發展下,尋求建立人工智慧之治理方針與原則,包括:20195月經濟合作暨發展組織(Organisation for Economic Cooperation and Development OECD)通過「人工智慧建議書」(OECD Recommendation on Artificial Intelligence)提出基本價值原則;2022年美國發布 「AI權利法案藍圖 」(Blueprint for an AI Bill of Rights);翌年,美國接續發布「發展與使用安全且可信任的AI行政命令」(Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence)訂立聯邦各部門人工智慧發展之推動任務;歐盟則於2024年通過「人工智慧法」(Artificial Intelligence Act)成為全球第一部人工智慧領域專法;而在20241226日韓國國會亦通過「人工智慧發展與建立信任基本法」(Basic Act on the Development of Artificial Intelligence and the Establishment of Trust),成為繼歐盟之後全球第二個通過之AI專法。

    我國則先於20231003日頒布「行政院及所屬機關(構)使用生成式AI參考指引」內容包括:生成式AI之定義、可能風險,以及使用生成式AI的態度及原則;嗣於2024715日由國家科學及技術委員會預告制定「人工智慧基本法」草案,下稱「AI草案」,從基本原則、政府推動重點 等構面提出基本價值、治理原則及施政方針,期使我國人工智慧發展促進創新兼顧人權與風險 ,進而提升我國競爭

力。本文就我國的「人工智慧基本法」草案幾個重要問題提出淺見,冀望對於將來制訂基本法時有所貢獻。

 

貳、「人工智慧基本法」草案問題研析

    一、AI的定義

    依照我國AI草案第2條規定:「本法所稱人工智慧係指以機器為基礎之系統,該系統具自主運行能力,透過輸入或感測,經由機器學習與演算法可為明確或隱含之目標實現預測、內容、建議或決策等影響實體或虛擬環境之產出。」此定義是參考美國國家人工智慧創新法案(National AI Initiative Act of 2020)美國法典(U.S.Code)第9401章以及歐盟人工智慧法對於人工智慧系統之定義。換言之,即便是生成式AI,皆需要輸入大量數據與快速的演算能力,背後主導的終究是基於人類的想法,但凡人的觀點可能帶有種族意識或性別偏見,投射在AI科技的運用也會產生不公平的問題。因此,管理AI 科技必須考慮到人(包括創造者及使用者)才是管理的核心。

    二、政府推動人工智慧應落實之重要原則

AI草案第3條揭櫫AI科技的發展與運用應兼顧社會公益與數位平權下,發展良善治理與基礎建設,並遵循人類社會重要基本原則,擇要說明如下:

     1.人類自主

      AI草案第1項第2款即明確規範應支持「人類自主」,包括尊重人類自主權、人格權等人類基本權利與文化價值,同時允許人類監督,落實以人為本並尊重法治及民主價值觀。AI法案透過倫理議題法制化,避免過度謀求AI科技發展而衍生出的失控局面。確認將來無論AI科技如何先進,仍只是供人類使用的工具。

     2.隱私保護與資料治理

    AI科技的發展仰賴大量的資料,惟資料之蒐集、處理以及利用,能否確保資料安全與個人資訊隱私,是目前人工智慧發展最多討論與疑慮之議題。AI草案第3條第3款規定:「促進非敏感資料之開放及再利用」(即個人資料保護法第6條第1項所列舉之五項敏感性個人資料,包括:病歷、醫療、基因、性生活、健康檢查及犯罪前科以外的個資),引起牴觸個資法之疑慮。蓋個人資料保護法就保護個人資料已有明訂標準規範,AI草案似乎傾向於科技發展,有意放寬非敏感個資的利用,但在詐騙造假事件猖獗的數位虛擬世界,AI草案對於防止AI科技遭違法濫用應更加謹慎。

    此外,AI草案第14條則強調:「個人資料保護主管機關應協助各目的事業主管機關,在人工智慧研發及應用過程,避免不必要之個人資料蒐集、處理或利用,並應促進個人資料保護納入預設及設計之相關措施或機制,以維護當事人權益。」引進外國立法例要求政府將個人資料保護納入預設及設計之相關措施或機制( data protection by design and by default),例如,數位發展部發布之隱私強化技術應用指引等,避免AI科技使用過程中個人資料外洩風險以及蒐集過多不必要之敏感資訊,值得讚許。

    3.透明與可解釋

    AI法案第3條第5款參考歐盟2019年可信賴人工智慧倫理準則(Ethics Guidelines for Trustworthy AI)訂定「透明與可解釋Transparency and Explainability)」之原則,要求人工智慧之產出應做適當資訊揭露或標記,以利評估可能風險,並瞭解對相關權益之影響,進而提升人工智慧可信任度。蓋人工智慧所生成之決策對於利害關係人有重大影響,需保障決策過程之公正性。人工智慧研發與應用階段,應致力權衡決策生成之準確性與可解釋性,兼顧使用者及受影響者權益。此規定鮮少見於我國法制,展現了我國在追求新技術發展需要國際合作,亦希望立法上能接軌國際之願景。

    三、避免濫用違法情事

    AI草案第9條規定:「政府應避免人工智慧之應用造成國民生命、身體、自由或財產安全、社會秩序、生態環境之損害,或出現利益衝突、偏差、歧視、廣告不實、資訊誤導或造假等問題而違反相關法規之情事。」生成式AI帶來的新型態犯罪層出不窮,尤其是深偽技術(Deepfake),它能合成影像與聲音,並詐騙民眾、產出不實性影像。針對這類新型犯罪,我國的立法程序非常迅速。為防範不肖人士利用電腦合成或其他科技方法製作不實性影像,嚴重侵害他人之隱私與人格權,對於被害人之傷害極大,故我國於2023年增訂刑法第 28章之 1「妨害性隱私及不實性影像罪章」,透過專章保護,更加完善犯罪被害人之保護及權益保障。以後使用電腦合成或其他科技方法製作關於他人不實之性影像(例如深偽假造、P圖)均屬犯罪,最重可處五年以下有期徒刑、拘役或科或併科五十萬元以下罰金。

    四、分層風險管理

    AI草案第10條參考歐盟人工智慧法制定人工智慧資訊安全保護、風險分級與管理。歐盟人工智慧法依不同風險程序,採取禁止、從事基本權評估等不同程度的監管,包括:最小風險(大多數AI系統皆屬最小風險)、有限的 AI 風險、高風險 AI系統以及不可接受之風險(如忽視用戶自由意志並操縱用戶行為或鼓勵犯罪)。惟我國本次草案僅存要求數位發展部制定「風險框架」,而AI草案第12條雖有提及政府應建立人工智慧應用條件、責任、救濟、補償或保險等相關規範,並明確責任歸屬與歸責條件,卻無具體規範內容,恐淪為政策宣示作用。

    五、保護勞動權益

    大部分民眾均會擔憂AI科技的發展會取代自身原有的工作機會,或影響勞動條件,因此,AI草案第13條特別要求政府發展AI科技時,應確保勞動者之安全衛生、勞資關係、職場友善環境及相關勞動權益,並應就人工智慧利用所致之失業者,依其工作能力予以輔導就業。

 

參、小結

    歐盟的人工智慧法主要規範政府應如何有限度地使用AI科技,著重於風險管理面;而在美國因政府沒有訂下太多規則,主要由市場自律監管,著重於科技發展。本文認為,政府透過AI草案制定,應先行釐清我國其他法律與本草案的關係,修正架構以確保實際落實各項安全與保障人權之措施,讓研發與應用之公私部門得以遵循,並定期追蹤新興技術研發與應用符合相關法規與國際原則之情形。例如,AI已變成中美競爭的重點核心衝突點,美國政府頒布諸多針對AI數據模型、晶片與高算力模型的出口管制禁令。此外,我國於引進國外AI科技相關法制時,與原有法律制度中陌生的概念用語例如:「透明與可解釋Transparency and Explainability)、問責等用語,應有更具體明確的闡釋或轉換,詳列具體規範內容,才不會淪為政令宣導,期待本法能發揮保障隱私與安全、避免歧視與不平等的功能。