當前AI在人文社會領域研究中的應用快速普及,同時,相關研究倫理議題也逐漸引發關注。
為了凝聚學界對AI研究倫理的共識,本中心正推動「人文社會AI研究倫理探索」凝聚各領域專家共識,期待共同推動在地AI研究的倫理規範與可能方向。
研究過程涉及AI的倫理規範相關參考資料
*本網頁資料由東海大學哲學系甘偵蓉教授提供,若有援引或相關改做使用,請依照學術慣例引用。若有任何問題也請跟我們聯繫。
一、現行法規
科學技術基本法第21、22條
個人資料保護法 (2023 年 5 月 31 日修正)
可信賴的人工智慧倫理準則(Ethics Guidelines for Trustworthy AI, 2019)
人工智慧法(Artificial Intelligence Act, 2024)
國家標準暨技術研究院(National Institute of Standards and Technology,NIST)AI風險管理框架(2023)
國家人工智慧創新法案(National AI Initiative Act, 2020)美國法典(U.S. Code)第15編第119篇第1章第九四○一條
AI權利法案藍圖(Blueprint for an AI Bill of Rights, 2022)
使用安全且可信賴的AI行政命令(Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence, 2023)
建議參考兩份:
1.Canada_Algorithmic Impact Assessment tool 算是最早制定也是較為完整的AIAs工具,總共分成六種風險評估類別、四個影響等級,然後將這六種風險評估類別分別以分數來量化後,指出不同分數的評估結果相應對策為何。的1. Introduction
2.UK_Ada Lovelance Institute Groves, L. (2022). Algorithmic impact assessment: A case study in healthcare. Ada Lovelace Institute. Feb, 8.
1.AI, N. (2023). Artificial Intelligence Risk Management Framework (AI RMF 1.0).
這份文件制定目的,旨在最大化正面影響與最小化潛在的負面影響,並在文件中區分16種的風險類型,且將應對這些風險的方式區分成管理 (Govern)、映射 (Map)、測量 (Measure)、管理 (Manage)等四種。
也建議參考兩份報告
1.UK government
Central Digital and Data Office. (2024). Generative AI framework for HM Government (Version 1.0).
2.US NIST
AI, N. (2024). Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile.
二、國內規範
國科會學術倫理相關規範(2024年12月16日更新)
國科會「人工智慧科研發展指引」(AI Technology R&D Guidelines, 2019年8月版)
行政院及所屬機關(構)使用生成式AI參考指引(2023年10月3日發布)
三、國外規範