논문의 저자는 언제 ChatGPT와 같은 대규모 언어 모델이 논문의 공동 저자가 될 수 있나요?

PHPz
풀어 주다: 2023-04-11 20:16:10
앞으로
1896명이 탐색했습니다.

ChatGPT는 출시 이후 주목을 받아 왔으며 현재 사용 가능한 가장 강력한 언어 모델 중 하나로 간주됩니다. 텍스트 생성 기능은 인간의 기능보다 낮지 않으며 일부 기계 학습 전문가는 연구원이 ChatGPT를 사용하여 논문을 작성하는 것을 금지하기도 했습니다.

근데 최근에 저자 칼럼에 ChatGPT로 명확하게 서명된 논문이 있는데 무슨 일이에요?

이 논문은 의학 연구 논문 플랫폼 medRxiv에 게재된 "Performance of ChatGPT on USMLE: Potential for AI-Assisted Medical Education Using Large Language Models"입니다. ChatGPT는 해당 논문의 세 번째 저자입니다.

논문의 저자는 언제 ChatGPT와 같은 대규모 언어 모델이 논문의 공동 저자가 될 수 있나요?

논문 제목에서 알 수 있듯이 이 논문의 주요 내용은 미국 의료 면허 시험(USMLE)에서 ChatGPT의 성능을 연구하는 것입니다. 실험 결과에 따르면 특별한 교육이나 강화 없이 ChatGPT의 모든 시험 점수는 합격 기준점에 도달했거나 거의 합격한 것으로 나타났습니다. 그리고 ChatGPT에서 생성된 답변은 높은 수준의 일관성과 통찰력을 보여줍니다. 이 연구는 대규모 언어 모델이 의학 교육에 유용할 수 있으며 임상 의사 결정에 도움이 될 수 있음을 시사합니다.

연구 내용으로 볼 때 ChatGPT는 트위터 사용자가 다음과 같이 말한 것처럼 연구 대상에 더 가까운 것 같습니다. "인간 연구자가 실험 결과에 기여한다면 당연히 그들은 논문의 공동 저자입니다. 하지만 모델과 이런 알고리즘은 전례가 없다”고 말했다. 그러나 또 다른 네티즌은 댓글란에서 즉각 반박했다. 이전 기사 제목은 “파스칼의 내기의 맥락에서 본 라파마이신: 생성적 사전”이었다. - 훈련된 변환기 관점" 논문에 서명했을 뿐만 아니라 ChatGPT가 첫 번째 저자이기도 했습니다.

논문의 저자는 언제 ChatGPT와 같은 대규모 언어 모델이 논문의 공동 저자가 될 수 있나요?

이 논문은 국립보건원(NIH)의 Oncoscience에 포함되어 있습니다. 그러나 논문 작성자의 기여를 통해 우리는 이 논문의 내용 대부분이 실제로 ChatGPT에 의해 생성되었음을 발견했습니다. 논문의 두 번째 저자인 Alex Zhavoronkov는 연구 주제와 관련된 ChatGPT 질문을 했고 ChatGPT는 자동으로 수많은 의견과 설명이 있으며 ChatGPT에서 생성된 콘텐츠는 Alex Zhavoronkov가 조정합니다. 또한 ChatGPT는 문서 형식 지정에도 도움을 줍니다.

논문의 저자는 언제 ChatGPT와 같은 대규모 언어 모델이 논문의 공동 저자가 될 수 있나요?

"Pascal's Wager의 맥락에서 본 라파마이신: 생성적 사전 훈련된 변환기 관점" 논문의 스크린샷.

논문의 저자는 언제 ChatGPT와 같은 대규모 언어 모델이 논문의 공동 저자가 될 수 있나요?

논문 서명을 결정할 때 Alex Zhavoronkov는 OpenAI 공동 창립자이자 CEO인 Sam Altman에게 확인을 요청했고 마침내 ChatGPT를 제1저자로 하여 논문을 출판했습니다. 이는 대규모 언어 모델과 같은 강력한 AI 시스템이 향후 학술 작업에 의미 있는 기여를 할 것이며 심지어 논문의 공동 저자가 될 수도 있음을 시사합니다. 그러나 대규모 언어 모델이 학술 논문을 작성하도록 허용하는 데에는 몇 가지 단점도 있습니다. 예를 들어 최고의 기계 학습 컨퍼런스 ICML은 다음과 같이 말했습니다. "ChatGPT는 종종 동의 없이 수집되는 공개 데이터에 대해 훈련됩니다.

노스웨스턴 대학교의 Catherine Gao 등의 최근 연구에서 연구자들은 JAMA(Journal of the American Medical Association), New England Journal of Medicine(NEJM)에 게재된 일부 논문을 선택했습니다. ), British Medical Journal(BMJ), The Lancet 및 Nature Medicine에서 수동으로 연구한 논문의 경우 ChatGPT를 사용하여 논문의 초록을 생성한 다음 검토자가 초록이 AI에 의해 생성되었음을 감지할 수 있는지 테스트했습니다.

실험 결과에 따르면 리뷰어는 생성된 초록의 68%와 원본 초록의 86%만을 정확하게 식별했습니다. 그들은 생성된 요약의 32%를 원본 요약으로, 원본 요약의 14%를 AI에서 생성한 것으로 잘못 식별했습니다. 리뷰어는 "둘을 구별하기가 의외로 어렵다. 생성된 요약이 모호하고 사람들에게 정형화된 느낌을 준다"고 말했다.

이 실험 결과는 인간 연구자가 텍스트가 생성되었는지 여부를 구별하기 어렵다는 것을 보여줍니다. AI든 인간이 쓴 것이든 그렇습니다. AI가 "속인" 것 같습니다.

그러나 현재까지 언어 모델로 생성된 콘텐츠는 정확성을 완전히 보장할 수 없으며 일부 전문 분야에서는 오류율도 매우 높습니다. 인간이 작성한 콘텐츠와 AI 모델이 생성한 콘텐츠를 구별하는 것이 불가능하다면 인간은 AI에 의해 오도되는 심각한 문제에 직면하게 될 것입니다.

위 내용은 논문의 저자는 언제 ChatGPT와 같은 대규모 언어 모델이 논문의 공동 저자가 될 수 있나요?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

관련 라벨:
원천:51cto.com
본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
인기 튜토리얼
더>
최신 다운로드
더>
웹 효과
웹사이트 소스 코드
웹사이트 자료
프론트엔드 템플릿