5월 28일자 뉴욕타임스에 따르면, 최근 한 변호사가 챗봇인 ChatGPT에 의존해 법원 소송에서 법률 조사(법률 조사)를 진행하던 중 잘못된 정보가 제출되는 일이 발생했습니다. 이번 사건은 잘못된 정보를 포함한 법률 분야 인공지능의 잠재적 위험성을 조명했다.
이 사건은 한 남성이 항공사를 상대로 개인 부상을 고소한 사건과 관련이 있으며, 원고의 법무팀은 이전의 여러 법원 사건을 인용하여 간략한 서류를 제출하여 자신의 주장을 뒷받침했습니다. 이 주장은 법적 판례를 확립합니다. 그러나 항공사 측 변호사들은 인용된 사건 중 일부가 존재하지 않는다는 사실을 발견하고 즉시 재판장에게 알렸다.
케빈 카스텔 판사는 이러한 상황에 대해 “전례가 없는 일”이라며 놀라움을 표하며 원고 측 법무팀에 설명을 명령했다.
원고의 변호사 중 한 명인 스티븐 슈워츠(Steven Schwartz)는 유사한 법적 판례를 검색하기 위해 ChatGPT를 사용했다고 인정했습니다. 슈워츠는 서면 성명에서 “나는 이전에 스마트가 법률 문헌을 사용한 적이 없습니다.
법원 신청서에는 Schwartz가 특정 사건에 대해 질문한 Schwartz와 ChatGPT 간의 대화 스크린샷이 함께 제공됩니다. : Varghese v. China Southern Airlines Co Ltd가 사실인가요? . ChatGPT는 그것이 사실이며 이 사건은 LexisNexis 및 Westlaw와 같은 법률 참조 데이터베이스에서 찾을 수 있다고 답했습니다. 그러나 후속 조사 결과 해당 사건은 존재하지 않는 것으로 드러났고, 추가 조사 결과 ChatGPT가 존재하지 않는 6건의 사건을 조작한 것으로 드러났습니다.
이 사건을 고려하여, 사건에 연루된 두 명의 변호사인 Levidow, Levidow & Oberman 법률 회사의 Peter Loduca와 Steven Schwartz는 6월 8일 징계 청문회에 참석하여 그들의 행동을 설명할 예정입니다. IT House는 이번 사건으로 법률 연구에서 인공지능 도구를 적절하게 사용하는 방법과 유사한 상황이 발생하지 않도록 포괄적인 지침을 마련할 필요성에 대한 법률 커뮤니티의 논의가 촉발되었다고 지적합니다.
위 내용은 변호사는 ChatGPT를 사용하여 소송을 제기했지만 존재하지 않는 사례를 인용하도록 속였습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!