美律師使用 ChatGPT 寫摘要,被法院揭穿內容全是假

作者 | 發布日期 2023 年 05 月 29 日 11:30 | 分類 AI 人工智慧 , 科技趣聞 , 網路趣聞 line share follow us in feedly line share
美律師使用 ChatGPT 寫摘要,被法院揭穿內容全是假


AI 聊天機器人會寫文章、分析來龍去脈,還會下結論,威脅許多仰賴文字為生的職業,其中含金量最高的文字商人就是律師,被視為是 AI 最可能取代的職業之一,但最近一名美國律師使用 ChatGPT 撰寫類似訴訟案的判決案例,結果被證實這些案件全都是假的。

ChatGPT 基於一個統計模型,從網路上提取數十億個文本,猜測哪些文本片段應該跟在其他序列之後來生成文章。由於許多職業都需要經過大量的資料搜集與文本撰寫工作,尤其是律師,許多律師已經在使用 AI 工具節省大量精力與時間,甚至研發更精進的 AI 工具專供律師使用。普林斯頓大學、賓州大學和紐約大學研究人員研究就直指最容易接觸到新 AI 工具的產業是法律服務。高盛經濟學家估計,44% 的法律工作可以實現自動化,僅次於辦公室和行政支持工作。

但過度仰賴技術只會讓自己成為笑柄。今年一名美國人起訴一家航空公司,稱他在飛往紐約機場的航班上被一輛推車撞到膝蓋而受傷,原告的律師提交一份長達 10 頁的摘要,其中引用六項以上的相關法院判決。

結果被告航空公司的律師發現案例有問題,寫信給該案法官,表示案例中簽發的法院和法官、案卷編號和日期資料不齊全,懷疑原告律師使用聊天機器人,最後也證實案例是假的,該案法官稱此事件是「前所未有的情況」,下令在 6 8 日舉行聽證會,討論可能對該名律師的制裁措施。

該律師也承認使用聊天機器人,還強調他有向聊天機器人再三確認案例是真的,據他提供的對話視窗,聊天機器人還向他保證這些案例可以在信譽良好的法律資料庫中找到。律師也表示非常後悔依賴 ChatGPT,說「如果沒有絕對驗證其真實性,未來在法律研究工作中不會再使用聊天機器人」。

雖然 AI 肯定會愈來愈好,但可能不會像某些人預測的那麼快,白領職業不會那麼快就被機器人接管,這一事件凸顯法律領域對 AI 技術盲目信任的潛在風險。

AI 會自我生成幻覺

許多人擔憂,AI 工具可能已經失控,最近一名美國法學教授要求 ChatGPT 提出美國法學院教授的五起性騷擾事件,還要求 ChatGPT 引用報紙文章中的引述,結果 ChatGPT 錯誤地將另一名法學教授 Jonathan Turley 視為性騷擾者,甚至引用一篇從來沒出現過的新聞文章做為消息來源,結果證實這篇文章完全是由聊天機器人編造。

今年 2 Google 搜尋負責人 Prabhakar Raghavan 在與一家德國出版物的對話中警告,AI 有時會產生幻覺並提供令人信服但完全虛構的答案。今年 3 Elon Musk 簽署一封公開信要求暫停六個月的 AI 開發,信中列舉對人類和社會的潛在風險,其中就包括錯誤訊息傳播工作自動化。最近 ChatGPT 開發商 OpenAI 也呼籲對超級 AI 進行監管,認為需要類似於國際原子能機構的機構來保護人類免受 AI 威脅。

(首圖來源:Flickr/Sarah-Rose CC BY 2.0)