登入‧加入會員  | 購物車 |  購書服務 |  會員專區 |  會員Q&A |  書店公告 |  教師資源 |    sitemap 

元照

高級檢索

新書閱讀

研討會新訊

 看更多2023年時事短評
發佈日期:2023/04/13
淺談ChatGPT運用於法學工作之應注意事項

文:陳熙哲 (律師)
背景

於2022年底,由於ChatGPT相關技術的問世,使得AI相關議題的討論越來越多。本文寫作目的係向讀者介紹:若運用ChatGPT於法學工作上,有何應注意事項,使讀者能對於ChatGPT之發展有初步掌握,也期待本文能作為國內更進一步法學研究之基礎。
ChatGPT是由OpenAI開發,並於2022年11月推出的人工智慧聊天機器人程式,其使用基於GPT-3.5架構的大型語言模型並以強化學習訓練之。根據ChatGPT自己的說明,ChatGPT學習大量文本,可以回答使用者問題,流暢地進行對話,也可以為使用者生成各種訊息,屬於生成式(generative)AI的一種,得用於產出文章、翻譯、摘要、編寫程式碼等用途。

焦點檢視

一、產業界動態

波士頓顧問公司(Boston Consulting Group, BCG)智庫認為對於產業界而言,應思考ChatGPT能為企業和客戶如何創造新價值,主要有以下3個建議:回到行業需求評估、若導入新技術,須緊密監測客戶回饋、避免AI有偏見,洩露隱私造成資安風險。
因之,倘若欲於法學工作上運用ChatGPT,除卻使用ChatGPT時應避免喪失價值判斷與說理論證外,須視法學界之行業需求,能否透過ChatGPT加速資料蒐集,以利實務工作者與研究者進一步為判斷;以律師為例,使用ChatGPT處理客戶案件時,也應監測使用ChatGPT辦理之案件與未使用ChatGPT辦理之案件,客戶滿意度有無落差;避免因ChatGPT提供之資料經篩選而造成誤判、洩露隱私等問題。

二、ChatGPT運用:AI是否有辦法拿到法學院學位?

美國有教授在期末考試中(包括選擇題與申論題),將ChatGPT之作答混入一般學生之作答,以盲測方式測試ChatGPT之法學水平。其測試之結果指出:ChatGPT在沒有人力協助下,在四門課程中均取得了較低但及格的成績,值得注意。

三、反思:集體錯覺

坊間對於ChatGPT之討論,比較多是在AI未來會否取代人類,產生如同哈拉瑞在《人類大命運:從智人到神人》一書3所預言的人類未來。
本文暫且不談論也不預言ChatGPT與人類工作之關係,無論係取代人類工作、提升人類工作效率、降低人力需求的相關問題,均暫置不談。
本文作者於現階段較為在意者,係產業界對於ChatGPT可能的初步運用,由於ChatGPT係透過大數據方式自我學習,若其所學習之資料本身有偏誤之情形,恐因ChatGPT之運用而更顯放大,茲說明如下:
心理學研究結果指出人類有「集體錯覺(Collective Illusion)」之現象,即群體中大部分人私下拒絕某一觀點,但誤以為大部分人接受該觀點時,即會在公開場合附和該觀點,致使人們去作想像的大眾希望其作的事情,進而使較少人希望的結果成真4,所謂沉默螺旋效應、選舉過程之棄保現象、童話故事國王的新衣均與此相關。
社會科學家也指出人類行為存在所謂「從眾偏誤」(conformity bias),即人類會下意識滿足他人期待,社會科學研究指出,從眾偏誤不需要奠基於事實,人們只需要相信其他人都喜歡某件事,就會有傾向去作該事情或作該表達。
雖說無論ChatGPT是否推出,人類行為本就受到此些偏誤與錯覺之影響,惟ChatGPT透過大數據之相關運用,或有可能放大此些偏誤與錯覺,這是法學界在運用ChatGPT時應特別注意的。

結語

ChatGPT推出不過數月,即吸引產業運用之目光,和「虛擬貨幣」、「區塊鏈技術」等推出時一樣,掀起了一波浪潮,其相關運用,值得期待。本文作者期許ChatGPT等相關技術之運用,得以使人類文明有更進一步之突破與發展。本文之作,旨在介紹新興科技之發展,也說明法學上運用ChatGPT的初步應注意事項,日後法學對此一議題,應會有更多研究,也值得期待。




法領域: 法學發展/跨領域


關鍵詞: ChatGPTAI、 集體錯覺、從眾偏誤


延伸閱讀 

相關書籍 more
【最新圖書介紹】

實務講座 more


 看更多2023年時事短評