返回列表 回復 發帖

[美洲] ChatGPT虛構6案例 紐約律師信以為真引用或面臨停牌!

2023年05月30日3 c  L# D: a( E. j# [$ d' i9 {3 k/ f

+ o# t" Z. O/ C6 C# o公仔箱論壇; @2 \5 E( r2 O/ R- }
tvboxnow.com" _/ k% x5 J8 u+ x# `
ChatGPT 害執業30年的資深律師也中招!美國紐約一名律師使用AI聊天機器人ChatGPT搜集資料並作為案例呈交法官,結果被發現其援引的6宗案例以及文章內容都是虛構的。律師承認自己沒有核實信息並為此道歉,雖然沒有先例,不過該律師恐面臨停牌處分。事件引發了法律界對於人工智能工具在法律研究中適當使用的討論,以及做出相關措施來以防止類似情況發生。tvboxnow.com2 \5 i* A' f; S, g5 l: j& k

6 J) I% r( b5 p1 M) ]5 [" y5 @, l
4 A2 r7 R: F8 k( z$ ]3 W" Xtvb now,tvbnow,bttvbAP圖片
& `/ ?% W% u6 Xtvb now,tvbnow,bttvb公仔箱論壇0 I" M' F# E. \! Y- l' C  t/ k, P
據美國有線電視新聞網(CNN)28日報道,男乘客馬塔對哥倫比亞航空公司提起訴訟,稱自己2019年搭乘該公司航班飛往紐約市途中,空服人員疏忽導致他膝蓋被客艙內推車撞傷。tvboxnow.com) d, f* Y8 h! s

' p2 s( L# |- B0 B- ~  S9 Dtvb now,tvbnow,bttvb馬塔的代理律師是已有30多年從業經歷的紐約市律師施瓦茨(Steven Schwarz)。為支持馬塔訴求,施瓦茨向法官凱文·卡斯特爾提交了多個所謂類似案例及其判決結果。
+ T# `) f8 t7 B* s7 F/ J6 z& `* E! ~& v# a

$ X' z) e- b( {. v示意圖
3 v/ ]; f$ r+ ?- ?公仔箱論壇
+ }" @  z& J2 D5 s. w$ Z& {  l0 w公仔箱論壇今年4月,哥倫比亞航空公司的律師致信法官,質疑施瓦茨所提交案例信息的真實性。據美國《紐約時報》報道,律師之一巴尼諾說,他的律師行的律師精通航空法律,看出那些信息不實。他說,他們當時隱約感覺那些信息來自ChatGPT。
; u# p2 p2 y, C6 p; a4 o' Q1 p* n6 C公仔箱論壇tvb now,tvbnow,bttvb# y9 `8 B, m* W& P
被ChatGPT騙了 律師後悔tvb now,tvbnow,bttvb" M  _$ E) a8 u2 q1 v! ^* ^
施瓦茨本月25日在宣誓書中承認,曾依賴ChatGPT搜索資料,結果證明來源不可靠。他表示「非常後悔使用生成式AI來補充法律研究」,他強調自己無意欺騙法庭或航空公司,又稱以前從未這樣做過。他是第一次用ChatGPT協助辦案,「沒有意識到內容偽造的可能性」。tvboxnow.com- x1 c7 u7 ~4 }5 @
tvb now,tvbnow,bttvb4 V+ o6 g' ^" T$ l

, a8 F, k- K1 b" P公仔箱論壇AP圖片公仔箱論壇8 F+ o9 G5 d2 B. H( v! d

7 j. D; E: F+ E6 [( ftvb now,tvbnow,bttvb據悉,施瓦茨詢問ChatGPT案例的真實性,ChatGPT再三確定這些案例為真實,且在「可信的法律數據庫」中可以查找到。tvb now,tvbnow,bttvb' w5 H. C7 ]# _+ @) Y  V
6 ?, f# v& K( _9 e( \2 f
施瓦茨在書面表示「深表懊悔」,願意承擔相關責任,承諾今後「沒有完全核實」就不會使用聊天機器人提供的信息。tvb now,tvbnow,bttvb( P, h1 K. x& c' k
tvboxnow.com  F8 g/ F8 g6 T! ]4 ~
法官卡斯特爾本月4日在一份書面文件中寫道,那6個案例的判決結果、引語等都是假的,該情況「史無前例」。他下令6月8日就處罰施瓦茨舉行聽証會。施瓦茨目前面臨何種懲罰尚未明確,最嚴重的情形可能是被停牌。
返回列表