표절과 부정행위, ChatGPT가 비밀리에 12개의 서명된 논문을 생성했습니다! Marcus는 Ta가 CheatGPT로 변신했다고 비난합니다.

王林
풀어 주다: 2023-04-13 15:19:03
앞으로
1063명이 탐색했습니다.

Marcus가 ChatGPT를 다시 비판하기 위해 왔습니다!

오늘 Marcus는 자신의 개인 블로그에 다음과 같이 썼습니다. 상황이 점점 더 이상해지고 있습니다.

표절과 부정행위, ChatGPT가 비밀리에 12개의 서명된 논문을 생성했습니다! Marcus는 Ta가 CheatGPT로 변신했다고 비난합니다.

폭발하기 전에 답이 맞는지 확인하세요

문제의 원인은 Fred Ehrsam의 트윗에서 비롯되었습니다.

표절과 부정행위, ChatGPT가 비밀리에 12개의 서명된 논문을 생성했습니다! Marcus는 Ta가 CheatGPT로 변신했다고 비난합니다.

Ehrsam은 ChatGPT와 Google 모두에게 "4분 21km가 1마일이 되는 데 얼마나 걸리나요?"라고 물었습니다. ChatGPT가 정확하고 간결한 답변을 주었지만 Google은 그렇게 하지 못했다고 합니다.

이 게시물에 대해 Marcus는 다음과 같이 말했습니다. "마치 미래 세계의 상징인 것처럼 오만하고 거만합니다. 그런데 그 대답은 틀렸습니다.

ChatGPT는 변환하지 않았습니다." 단위가 정확하다면 저자는 이 훌륭하고 새로운 도구가 제공하는 답변이 정확할 것이라고 간단히 가정했으며(심지어 두 번째까지!) 전혀 확인하지 않았습니다.

그게 문제입니다. 통계적 단어 예측은 실제 수학을 대체할 수 없지만 많은 사람들은 다르게 생각합니다. (킬로미터당 4분 21초의 속도는 마일당 7분의 속도입니다. 질문을 잘하면 정답이 나옵니다.)

ChatGPT의 "맞지만 아주 옳지는 않다" 답변 가장 나쁜 점은 그것이 틀렸다는 것이 아니라 그것이 그 자체로 사실인 것처럼 보인다는 것입니다. 너무나 설득력이 있어서 트위터 사용자들은 의심할 생각조차 하지 않았습니다.

현재 상황은 다음과 같습니다. ChatGPT가 악용되고 있으며 사람들은 이를 신뢰하고 심지어 정답에 어긋나더라도 자랑하기까지 합니다.

과대 광고보다 더 나쁜 것이 무엇인지 알고 싶으십니까? 사람들은 ChatGPT를 신뢰할 수 있고 자격을 갖춘 과학 협력자로 보기 시작했습니다.

도움말, ChatGPT를 공동 저자로 작성하지 마세요

Marcus는 ChatGPT와 관련하여 어제 헤드라인이 Google을 압제하는 능력을 과장하고 있다고 말했습니다. 오늘 여론에서는 ChatGPT가 논문의 공동 저자가 되는 것에 대해 논의하고 있습니다.

작년 12월에 출간된 예판 논문에서 ChatGPT가 갑자기 저자 칼럼에 등장했어요!

표절과 부정행위, ChatGPT가 비밀리에 12개의 서명된 논문을 생성했습니다! Marcus는 Ta가 CheatGPT로 변신했다고 비난합니다.

공교롭게도 ChatGPT라는 이름은 작년 12월부터 의료 분야의 일부 피어 리뷰 논문에 자주 등장했습니다:

표절과 부정행위, ChatGPT가 비밀리에 12개의 서명된 논문을 생성했습니다! Marcus는 Ta가 CheatGPT로 변신했다고 비난합니다.

논문 주소: https://www.oncoscience . us/article/571/text/

Semantic Scholar에 따르면, 6주 된 ChatGPT는 이미 2개의 출판물, 12개의 공동 저자 및 1개의 인용을 보유하고 있습니다.

이러한 추세가 계속되지 않기를 진심으로 바랍니다.

Marcus는 다섯 가지 이유를 제시했습니다.

  1. ChatGPT는 도구일 뿐 인간이 아닙니다. 과학자라고 하기에는 기껏해야 맞춤법 검사기, 문법 검사기, 통계 패키지에 가깝다고 말하는 것이 더 정확합니다.

실제 아이디어를 제공할 수 없고 신중하게 통제된 실험을 설계할 수 없으며 기존 문헌에서 영감을 얻을 수 없습니다. 맞춤법 검사기나 스프레드시트를 공동 작성자로 설정할 수 없습니다.

예를 들어 SPM과 같은 뇌 분석용 소프트웨어 패키지와 같은 일부 리소스를 참고 자료에 인용할 수 있습니다. SPM이 연구 노력에 중요함에도 불구하고 누구도 SPM을 공동 저자로 기재하지 않습니다.

  1. 공동저자는 분야마다 다르게 정의되지만, 일반적으로 상당한 과학적 기여를 하려면 공동저자가 필요합니다.

ChatGPT는 ChatGPT의 현재 과학적 이해 수준을 고려할 때 이를 수행할 만큼 충분히 추론할 수 없으며, 저자임을 부여하는 것은 과학적 과정 자체를 무시하는 것입니다.

Marcus는 이전 기사에서 ChatGPT가 물리학, 생물학, 심리학, 의학 및 기타 주제에 대해 전혀 이해하지 못하고 "똑똑하고 어리석은" 모습을 모든 사람에게 설명했다고 썼습니다.

표절과 부정행위, ChatGPT가 비밀리에 12개의 서명된 논문을 생성했습니다! Marcus는 Ta가 CheatGPT로 변신했다고 비난합니다.

이 답변에서 ChatGPT는 과학자들이 스페인 츄러스가 집에서 최고의 수술 도구라는 것을 발견했다고 진지하게 말했습니다.

  1. ChatGPT는 신뢰할 수 없고 비현실적인 것으로 입증되었습니다. 터무니없는 계산 오류를 범하고, 전기 세부 사항을 허위로 조작하고, 어휘를 오용하고, 존재하지 않는 과학적 현상을 정의합니다.

이것을 모르면 AI 연구를 이해하지 못하는 것입니다. 이것을 알고도 관심을 두지 않는다면 더욱 그렇습니다. 공동저자로 만든다면, 실제로 연구를 하기보다는 단지 대중을 따르려고 한다는 것을 알 수 있습니다.

  1. 사람들은 ChatGPT 필터에 너무 강합니다.

75%만 맞는 계산기를 믿지 못할 것입니다. 그렇다면 "나쁜" 인공 지능 도구를 사용하여 논문을 "쓰는" 것이 즐겁다고 노골적으로 선언한다면 왜 그래야 할까요? 당신을 신뢰?

  1. 과학 글쓰기의 목적은 다른 사람에게 진실을 명확하게 가르치는 것입니다.

ChatGPT를 지각이 있는 존재로 보는 것은 분명히 그렇지 않습니다. 대중이 같은 느낌을 갖도록 오해하는 것은 과학적 아이디어를 전파하는 것이 아니라 헛소리를 퍼뜨리는 것입니다. 이 행동을 중지하십시오.

마지막으로 Marcus는 결론을 내렸습니다. 진정한 친구는 ChatGPT가 논문의 공동 저자가 되는 것을 허용하지 않을 것입니다.

Marcus가 LeCun 및 다른 사람들과 인공 지능의 전망 및 AGI의 달성 가능성에 대해 열띤 토론을 벌이고 LeCun이 자신의 "인공 지능 로드맵"에 대해 다른 사람의 공로를 인정받았다고 비난했다면 그것은 어느 정도 개인적인 원한이었습니다. 그렇다면 이번에 ChatGPT에 대해 표현된 우려와 경계는 매우 적절합니다.

표절과 부정행위, ChatGPT가 비밀리에 12개의 서명된 논문을 생성했습니다! Marcus는 Ta가 CheatGPT로 변신했다고 비난합니다.

실제로 Marcus가 위에서 ChatGPT, 서류 사기, 저작권 분쟁에 대해 언급한 내용은 ChatGPT 출시 후 불과 몇 주 만에 현실이 되었습니다.

최근 Furman 대학의 철학 교수인 Darren Schick은 한 학생이 제출한 논문이 인공지능에 의해 생성된 것임을 발견했습니다.

힉은 신문에 실린 겉보기에는 치밀하게 조작되었지만 잘못된 정보를 보고 의심이 들었다고 말했습니다.

Open AI의 ChatGPT 감지기에 논문을 제출했는데, 그 결과 이 ​​논문이 인공지능에 의해 생성되었을 가능성이 99%로 나타났습니다.

표절과 부정행위, ChatGPT가 비밀리에 12개의 서명된 논문을 생성했습니다! Marcus는 Ta가 CheatGPT로 변신했다고 비난합니다.

공교롭게도 Northern Michigan University의 Antony Aumann 교수도 두 명의 학생이 ChatGPT로 작성된 기사를 제출한 것을 발견했다고 말했습니다.

두 기사의 작성 스타일에 문제가 있음을 발견한 Orman은 해당 기사를 챗봇에 제출하고 해당 기사가 프로그램에 의해 작성되었을 가능성이 얼마나 되는지 물었습니다. 챗봇은 ChatGPT가 작성한 것이라고 99% 확신한다고 말하면서 그 결과를 학생에게 전달했습니다.

Schick과 Orman은 모두 학생들과 대면한 후 결국 모두 위반 사항을 인정했다고 말했습니다. Hick의 학생들은 수업에서 낙제했고 Ohman은 학생들에게 논문을 처음부터 다시 쓰도록 했습니다.

논문에 오류가 있어도 잘 썼다

두 교수는 AI가 만든 두 논문의 몇 가지 핵심 사항에서 명백한 흔적을 볼 수 있다고 말했다. Schick은 자신이 발견한 논문이 수업 시간에 언급되지 않은 몇 가지 사실을 언급했으며 논쟁의 여지가 있는 주장을 했다고 말했습니다.

그는 다음과 같이 말했습니다. "종이상으로는 이것은 잘 쓰여진 기사이지만 자세히 살펴보면 다작의 철학자 David Hume에 대한 진술은 말이 되지 않거나 심지어 완전히 잘못되었습니다. "

이런 종류의 완벽하게 세련된 실수는 AI 대필의 가장 큰 결점이다.

오르만에게 챗봇은 너무 완벽하게 작성되었습니다. "저는 이 채팅 도구가 우리 학생들의 95%보다 더 잘 쓴다고 생각합니다."

"갑자기 이 정도의 사고력이나 글쓰기 능력을 보여주지 못한 사람이 모든 사람에게 딱 맞는 글을 쓰는 것 같아요." 요구 사항에는 기사의 주제와 직접적으로 관련된 복잡한 문법과 복잡한 아이디어가 포함되어 있어 즉시 잘못된 느낌을 받았습니다.”라고 그는 말했습니다.

애팔래치아 주립 대학의 철학 교수인 Christopher Bartell은 AI가 생성한 기사의 문법은 거의 완벽하지만 실질적인 내용에는 세부 사항이 부족한 경우가 많다고 말했습니다.

"배경도 없고, 깊이도 없고, 통찰력도 없습니다."

입증하기 어려운 표절: 자백 없이는 아무것도 할 수 없습니다

그런데도 몇몇 교수의 학생들이 AI 대필을 인정했습니다. 실제로 학생들이 논문 작성에 인공지능을 활용한다는 사실을 인정하지 않으면 학자들이 어려움을 겪을 가능성이 크다.

Battle은 일부 교육 기관의 현재 규칙이 이러한 종류의 부정 행위에 맞서기 위해 개발되지 않았다고 말했습니다. 학생이 인공지능을 사용했다는 사실을 일부러 부인한다면 실제로 부정행위를 입증하기는 어렵다.

또한 OpenAI에서 제공하는 AI 탐지 도구는 훌륭하지만 완벽하지는 않다고 말했습니다.

이 도구는 텍스트가 인공 지능에 의해 생성되었을 가능성에 대한 통계 분석을 수행하고 확률을 제공합니다.

현재 정책은 일반적으로 논문이 망치로 간주되기 전에 해당 논문이 허위임을 입증할 명확하고 검증 가능한 증거가 있어야 한다는 것이 일반적이며 이는 우리를 매우 어려운 위치에 놓이게 합니다. 반환된 결과가 인공지능에 의해 생성된 기사일 가능성이 95%이고 아닐 가능성이 5%입니다.

Hick의 경우 테스트 웹사이트에서는 논문이 인공 지능에 의해 생성된 것이 "99% 확실"하다고 말했지만 실제로 핵심은 학생 자신이 이를 인정했는지 여부에 있으며 그렇지 않은 경우 이 확률 결과에만 기초합니다. , 부정행위를 확인하는 것만으로는 충분하지 않습니다.

힉은 자백도 중요하지만 그 외에는 모두 정황 증거라고 말했습니다. 인공지능이 생성한 콘텐츠의 경우 일반적으로 물질적 증거가 없으며 간접적 증거보다 물질적 증거가 더 중요합니다. "

오만은 챗봇의 분석이 조치를 취하기에 충분한 증거라고 생각하지만 인공지능을 사용하여 표절하고 부정행위를 하는 것은 여전히 ​​대학들에게 새로운 도전이라고 말했습니다.

결국 이제 ChatGPT에는 다음과 같은 능력이 있습니다. 사용자가 원하는 한 단 몇 분만에 CheatGPT가 될 수 있습니다

위 내용은 표절과 부정행위, ChatGPT가 비밀리에 12개의 서명된 논문을 생성했습니다! Marcus는 Ta가 CheatGPT로 변신했다고 비난합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

관련 라벨:
원천:51cto.com
본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
인기 튜토리얼
더>
최신 다운로드
더>
웹 효과
웹사이트 소스 코드
웹사이트 자료
프론트엔드 템플릿