Marcus が再び ChatGPT に挑戦するためにここに来ました!
今日、マーカスは個人ブログに次のように書きました。事態はますますとんでもないことになってきています。
問題の原因はフレッドの一文にありましたエルサム氏のツイート。
Ehrsam 氏は ChatGPT と Google の両方に「1 キロメートルの 4 分と 21 分は 1 マイルに相当しますか?」と尋ねました。彼は ChatGPT が正確かつ簡潔な回答を得るために与えられましたが、Google にはそれすらできません。
この投稿に対し、マーカス氏は「まるで未来世界の象徴であるかのように、傲慢で傲慢だ。しかし、ちなみに、その答えは間違っている」と述べた。
ChatGPT は単位を正しく変換しません。作者は、この素晴らしい新しいツールによって得られる答えが正確であること (秒単位まで正確であること) を望んでいます。彼はそれをしませんでした。全然調べてください。
#ここに問題があります。統計的な単語予測は実際の数学の代わりにはなりませんが、多くの人はそうではないと考えています。 (1キロあたり4分21秒の速度は、1マイルあたり7分の速度です。よく質問すれば正解が得られます。)
ChatGPT こちら「そうです、完全に正しくはありません。」 この答えの最悪の部分は、それが間違っているということではなく、その答えが非常に自信に満ちているように見えることです。あまりにも説得力があったので、Twitterユーザーはそれを疑おうとも思わなかった。
これが現在の状況です。ChatGPT は悪用され、人々はそれを信頼し、たとえそれが正解に反していても自慢することさえあります。
誇大広告よりも悪いものを知りたいですか?人々は ChatGPT を信頼でき、資格のある科学協力者として見始めました。
マーカスは、ChatGPT に関して、昨日の見出しが Google に対する圧政を誇張していると言いました。 。 能力。現在、世論では ChatGPT が論文の共著者になることが議論されています。
昨年 12 月に発行されたプレプリント論文の著者欄に突然 ChatGPT が登場しました。
#偶然にも、ChatGPT の名前は、昨年 12 月以来、医療分野の査読済み論文に頻繁に登場しています。#論文アドレス: https://www.oncoscience.us/article/571/text/
Semantic Scholar によると、誕生から 6 週間の ChatGPT はすでに 2 件の出版物、12 件の共著、1 件の引用を持っています。
この傾向が続かないことを心から願っています。
マーカス氏は 5 つの理由を挙げました。
たとえば、SPM などの脳分析用のソフトウェア パッケージなどのリソースを参考文献に引用します。たとえ研究努力にとって重要であるとしても、SPM を共著者として挙げる人は誰もいないでしょう。
ChatGPT は単にこれを行うのに十分な論理的根拠がありません; ChatGPT の現在の科学的理解レベルを考慮すると、それに著者名を与えることは科学的プロセスに対する不名誉です。 。
Marcus は、以前の記事で、ChatGPT は物理学、生物学、心理学、医学、その他の主題を理解していないと書き、「賢くて愚か」とはどのようなものであるかを皆に説明しました。のように。
この回答で、ChatGPT は、スペインのチュロスが家庭での最高の手術器具であることを科学者が発見したと真剣に述べました。
これを知らなければ、AI 研究を理解していないことになります。これを知っていても気にしないのであれば、それはさらに悪いことです。これを共著者にすると、実際に研究をしているのではなく、ただ群衆を追っているだけであることがわかります。
もし、「ステンレス」人工電卓の使用に不満があると公言したとしても、75% の精度しかない電卓など信じられないでしょう。インテリジェンス スマートツールを使って論文を「書く」ことに興奮していますが、なぜあなたを信頼する必要があるのでしょうか?
ChatGPT を感覚を持った存在として見なす場合、それは明らかにそうではありませんが、一般の人々に同じように感じるように誤解させていることになり、科学を伝えているわけではありません。コンセプトは単なる誇大宣伝でありナンセンスです。この行為はやめてください。
最後に、マーカスは次のように結論付けました。真の友人は、ChatGPT が論文の共著者になることを許可しません。
マーカスが人工知能の展望と AGI の実現可能性についてルカンや他の人々と熱心に議論し、ルカンが自分の「人工知能のロードマップ」について他人の手柄を横取りしたと非難したとしたら、多かれ少なかれ個人的な不満があるとすれば、今回 ChatGPT に関して表明された懸念と警戒は非常に適切です。
実際、マーカスが ChatGPT、論文詐欺、著作権紛争について上で言及したのは、ChatGPT の立ち上げからわずか数週間後のことでした。現実。
最近、ファーマン大学の哲学教授ダレン・シックは、学生が提出した論文が人工知能によって生成されたことを発見しました。
ヒック氏は、新聞に掲載された明らかに慎重に作成された、しかし誤った情報を見て疑念を抱いたと述べた。
彼はこの論文を Open AI の ChatGPT 検出器に送信しました。結果は、この論文が人工知能によって生成された可能性が 99% であることを示しました。
偶然にも、ノーザンミシガン大学教授のアントニー・オーマン氏も、2人の学生がChatGPTの記事で書かれたコードを提出したことを発見したと述べた。
2 つの記事の書き方に何か問題があることに気づいたオーマン氏は、記事をチャットボットに送信し、プログラムによって書かれた可能性がどの程度あるのかを尋ねました。チャットボットは、チャットボットが ChatGPT によって書かれたものであることが 99% 確実であると判断すると、その結果を学生に転送しました。
シック氏とオーマン氏はいずれも学生たちと対峙し、最終的に全員が違反を認めたと述べた。ヒックの生徒たちは授業で落第したため、オーマンは生徒たちに論文を最初から書き直させた。
二人の教授は、AI が生成した 2 つの論文にはいくつかの重要な問題があると述べました。さらに明らかな痕跡があちこちに見られます。シック氏は、発見した論文には授業で言及されていないいくつかの事実が記載されており、主張は無効であると述べた。
彼はこう言った:「これは紙面上ではよく書かれた記事だが、よく見てみると、多作な哲学者デヴィッド・ヒュームについての記述であり、無意味であるか、完全に間違っている。
この種の完璧に装飾された間違いは、AI ゴーストライティングの最大の欠陥です。
オーマンにとって、チャットボットはあまりにも完璧に書かれていました。 「このチャット ツールは、私の生徒の 95% よりもうまく書かれていると思います。」 「すべての要件を完全に満たし、複雑な文法と複雑なアイデアを持ち、記事のプロンプトに直接関連するものを書いた人は、すぐにそれを感じました」間違っている」と彼は言った。
アパラチアン州立大学の哲学教授クリストファー・バーテル氏は、AIが生成した記事の文法はほぼ完璧だが、実質的な内容には詳細が欠けていることが多いと述べた。
「文脈も深みも洞察力もない。」
証明できない盗作: 告白しないことには何もできない
バーテル氏は、一部の学術機関の現在の規則はこの種の不正行為に対処するために開発されていないと述べた。学生が人工知能の使用をわざわざ否定した場合、そのような不正行為を決定的に証明することは実際には困難です。
同氏は、OpenAI が提供する AI 検出ツールは優れているが、完璧ではないとも述べました。
このツールは、テキストが人工知能によって生成された可能性について統計分析を実行し、確率を示します。
現在の方針では、一般に、論文がハンマーとみなされる前に、その論文が虚偽であることを証明する明確で検証可能な証拠が必要であるということになっており、これにより私たちは非常に難しい立場に置かれています。返された結果が人工知能によって生成された記事である可能性が 95% である場合、そうでない可能性は 5% です。
シックの場合、試験ウェブサイトには論文が人工知能によって生成されたことが「99%確実」であると書かれていましたが、実際には、重要なのは学生自身がそれを認めたことです。それ以外の場合、この確率の結果だけでは不正行為を確認するのに十分ではありません。
ヒック氏は「自白は重要だが、それ以外は状況証拠だ。人工知能によって生成されたコンテンツには、一般に物的証拠はなく、物的証拠の方が優れている」と述べた。間接的な証拠。より大きな部分があります。 「
オーマン氏は、チャットボットの分析は行動を起こすのに十分な証拠であると信じているが、盗作や不正行為に人工知能を使用することは依然として大学にとって新たな課題であると述べました。
結局のところ、ChatGPT は偽物を本物のように見せかける優れた能力を備えているため、ユーザーが望む限り、ほんの数分で CheatGPT になることができます。
以上が盗作と不正行為のため、ChatGPT は 12 枚の署名入り論文を密かに生成しました。マーカスが Ta を CheatGPT に変えたことを非難の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。