計畫主持人

林昱梅

團隊成員

蔡蕙芳、王敏銓

研究計畫

智慧農業之資料治理與可信任AI法制架構

字體大小
計畫介紹:
1.可信任的AI:
第二期將配合神農GPT之開發,新增可信任農業生成式AI之管理目標。目前已有文獻進行生成式的AI風險分析。Cormney et al. (2023)指出AI可能有偏見、錯誤、歧視等問題,生成性AI可能「囈語」(hallucinate),即產生不正確但表面可信的結果。但適當設計的AI也可被用於促進平等、包容、與多元性。例如AI可用於指出工作場所或僱用決定有歧視的部分,增進僱用結果的多元性。AI的發展者應從多元來源蒐集資料,監控及改正潛在的偏見與歧視、確保決定過程的透明性與結果的可解釋性。另Schlossberget al. (2023)表示生成式AI已經在許多領域開始應用,例如金融業、影視娛樂業、製藥研究、材料科學、健康照護等領域。但生成式AI也可不可忽視的相關風險, 例如違反對資料擁有者的保密義務、輸出結果的所有權歸屬不明、輸出結果侵害他人權利之責任歸屬、以及產生不可信賴結果的法律責任,並建議發展AI的公司採取適當的風險管控措施及內部稽核機制。本團隊將繼續蒐集相關文獻,分析農業生成式之可信任AI指標。

2.對人文法制衝擊影響之因應作為:
本團隊第二期將邀請農業部相關人員及神農GPT研發團隊,共同討論農業生成式AI之其適用範圍及限制、法制、倫理與對人文社會之衝擊影響。此外,也將針對智慧栽培、智慧監測及智慧牧場三大面向,繼續進行農業AI對「環境保護與生物多樣性」之影響與因應分析,並完成對外爭議事處理流程測試。另將完成有關神農GPT開發與利用之農業生成式AI衝擊因應,持續探討農業AI對「農業經濟與勞動人力」之衝擊與因應,並提出總結性建議,並完成「對外爭議事件處理小組」運作規範之訂定,以建立從可信任AI之管理,到AI落地應用後之爭議處理,能有一套完整的運作機制。本團隊法制面之最終具體成果,是建立農業AI應用發展參考之倫理規範與立法建議,提出「臺灣農業AI 及資料治理相關法規」之修法草案版本。

參考文獻:
Cormney, O., Howard-martin, J., Almond, C., Jones, J. N., & Lyortiz, M. “mey.” (2023, August 3). DEI, ESQ: Harnessing Artificial Intelligence for Diversity, Equity, and Inclusion. ACC Docket Informed, Indispensable, in-House. https://docket.acc.com/dei-esq-harnessing-artificial-intelligence-diversity-equity-and-inclusion
Schlossberg, R. K., Parker, J. E., Chiruvolu, P., & Majarian, M. P. (2023). What Is Generative AI and How Does It Work? Skadden, Arps, Slate, Meagher & Flom LLP and Affiliates. https://www.skadden.com/insights/publications/2023/05/the-informed-board/what-is-generative-ai-and-how-does-it-work
聯絡我們