5 月 28 日のニュース、ニューヨーク タイムズ紙によると、ある弁護士が最近、チャットボット ChatGPT を利用して裁判で法的調査 (法的調査) を実施し、その結果、間違った情報。この事件は、誤った情報を含む、法律分野における人工知能の潜在的なリスクに光を当てました。
男性が人身傷害を理由に航空会社を告訴した事件で、原告の法務チームは、過去のいくつかの裁判所を引用して、彼らの主張を裏付ける準備書面を提出した。彼らの主張の法的前例を確立する。しかし、航空会社の弁護士は、引用された訴訟の一部が存在しないことを発見し、直ちに裁判長に通知した。
ケビン・カステル判事はこの状況に「前例がない」と驚きを表明し、原告側の弁護団に説明を命じた。
原告の弁護士の一人であるスティーブン・シュワルツ氏は、同様の判例を検索するためにChatGPTを使用したことを認め、書面による声明の中で深い遺憾の意を表明し、次のように述べた。 「法的文書の検索に人工知能を使用しておらず、その内容が虚偽である可能性があることを知りません。」
裁判所に提出された文書には、Schwartz と ChatGPT との会話のスクリーンショットが添付されています。その中でシー・ワッツは、ヴァルギース対中国南方航空株式会社という特定の事件が真実かどうかを尋ねた。 ChatGPTはそれが事実であると答え、この事件はLexisNexisやWestlawなどの法律参照データベースで見つかる可能性があると述べた。しかし、その後の調査でこの事件は存在しないことが判明し、さらなる調査でChatGPTが存在しない6つの事件をでっち上げていたことが判明した。
この事件を踏まえ、この事件に関与した2人の弁護士、レビドウ・レビドー・アンド・オーバーマンのピーター・ロドゥカ弁護士とスティーブン・シュワルツ弁護士は、6月8日に懲戒公聴会に出席する予定です。はい、彼らの行動を説明してください。 IT House は、この事件が法律研究における人工知能ツールの適切な使用と、同様の状況の発生を防ぐための包括的なガイドラインを策定する必要性について法曹界での議論を引き起こしたと指摘しています。
以上が弁護士はChatGPTを訴訟に使用したが、だまされて存在しない訴訟を引用させられたの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。