【司想評論】人工智慧與法律
2019年6月14日,中央研究院法律學研究所(資訊法研究小組)、科技部人文社會科學研究中心(人工智慧與法律規範計畫),以及台灣法學會憲法行政法委員會共同舉辦「人工智慧與法律規範工作坊」,邀請中央研究院法律學研究所李建良所長、政治大學法學院沈宗倫教授、靜宜大學法律學系暨研究所鄭瑞健助理教授、中央研究院法律學研究所吳全峰副研究員、中央研究院法律學研究所林子儀特聘研究員、清華大學通識教育中心陳弘儒助理教授、中央研究院法律學研究所陳柏良博士後研究學者等多位專家,一起討論現今在人工智慧技術運用下,可能會面臨到哪些法律規範或議題,就讓法操帶大家一起來看看吧!
法律裡定義的人工智慧是什麼?
Artificial Intelligence,也就是我們常聽到AI,中文大部分翻譯成「人工智慧」,最為人所知的可能是2014年開始,由英國倫敦Google DeepMind開發的人工智慧圍棋軟體AlphaGo。AlphaGo贏過人類棋士一戰成名後,法律領域內對人工智慧的關注也一夕遽增。
目前我國法律並沒有明確的定義「人工智慧」,不過內政部依國籍法第9條第5項訂定的歸化國籍之高級專業人才認定標準中,第2條明確指出人工智慧屬於高級專業種類之一,在人工智慧方面具有獨到才能或有傑出研發設計的外國人士,可以在不提出喪失原有國籍證明的情況下申請歸化我國,所以這裡的人工智慧是否屬於不確定法律概念?
AI如果侵權,誰應該負責?
有老師提出想法,認為人工智慧的發展大致可以區分成三個階段,工具、協力、自主創作甚至和人類競爭。還在工具階段的AI如果造成侵權行為,必須要由創造或使用AI的自然人負責應該還算直觀,但如果是已經到達可以自主創作程度的人工智慧系統侵害他人權利,仍然要求創造或使用的自然人,為人工智慧系統的行為負起絕對責任,會不會有問題呢?
舉一個例子來跟大家說明,我們先暫且不討論AI能不能主張言論自由,以及言論自由到底是為了保障表意人還是閱聽大眾資訊獲知權的問題,假設有一間公司發展出會自己蒐集資訊、撰寫新聞的AI,在這個AI運作下產生了一篇誹謗某個公眾人物的新聞,使該名公眾人物名譽受損,可是設計AI的工程師可能僅僅下了「搜尋和主題相關的資料」、「撰擬新聞」等指令,這時候仍然應該由設計AI的工程師負全部責任嗎?值得我們思考。
AI與基本人權
史丹佛大學的研究人員曾經在《性格與社會心理學期刊》發表一份研究,研究結果顯示他們成功運用人工智慧技術,單由相片就可以辨識出相片主角是不是同性戀,當時引發軒然大波。Facebook屢次被抨擊放任演算法運作,讓租屋廣告可以排除有色人種用戶、女性用戶只會接收到低薪工作的招聘廣告,造成種族、性別歧視。這些都是AI技術運用下可能產生的人權問題,是否應該受到國際人權法的約束呢?
另外,如果AI可能涉及的人權問題應該由政府和法規介入管理,又應該在什麼時候、以何種程度和方式介入呢?如果不從開始設計AI時就納入相關規範,是否仍舊只能在造成傷害之後亡羊補牢?但研發AI的業者認為如果在設計之初就管太多,會拖延AI技術發展,也可能會有商業機密外洩的風險。到底應該什麼時候管、管多少、如何管,考驗著政府和立法者的能力與智慧。
AI技術是未來科技趨勢所向,人工智慧在生活中的應用只會愈來愈普遍。面對新科技可能帶來的法律問題,我們的政府和立法者準備好了嗎?