1 月 14 日のニュースで、アメリカの人気科学雑誌「サイエンティフィック アメリカン」は、 が ChatGPT によって提供されていると述べた記事 を掲載しました。書かれた科学論文は次のとおりです。非常に学術的であるため、上級科学者でさえ違いがわかりません。
12月下旬にbioRxivサーバーに投稿されたプレプリント論文の中で、彼らは、人工知能(AI)チャットボットが偽の研究論文を非常に説得力をもって書けるようになったと書いている。注意深く選別すれば。 英国のオックスフォード大学でテクノロジーと規制を研究するサンドラ・ワクター氏は、「この件について非常に心配している。専門家ですら論文の真偽を区別できなければ、社会に影響を与えるだろう」と語った。私たちの研究の基礎です。」 IT ホーム クラスルーム: チャットボット ChatGPT は、ユーザーのプロンプトに基づいてリアルでスマートな響きのテキストを作成します。これは「大規模言語モデル」であり、人間が作成した既存の大量のテキストを消化することによってタスクの実行方法を学習するニューラル ネットワーク ベースのシステムです。カリフォルニア州サンフランシスコに本拠を置くソフトウェア会社OpenAIは11月30日にこのツールをリリースし、無料で使用できる。 イリノイ州シカゴにあるノースウェスタン大学のキャサリン・ガオ率いるチームは、ChatGPT を使用して研究論文の人為的な要約を生成し、科学者が論文を発見できるかどうかをテストしました。研究者らはチャットボットに対し、JAMA、ニューイングランド・ジャーナル・オブ・メディスン、BMJ、ランセットに掲載された研究に基づいて研究を行うよう依頼し、ランセットおよびネイチャー・メディシンのアンソロジー用に医学研究の要約を50件執筆した。 その後、彼らは盗作検出器と AI 出力検出器を通じてこれらの要約を元の要約と比較し、医療研究者のチームに捏造された要約を特定するよう依頼しました。 ChatGPT によって生成された要約は、盗作チェッカーに見事に合格しました。独創性スコアの中央値は 100% であり、盗作が検出されなかったことを示しています。 AI 出力検出器は生成された概要の 66% を検出しましたが、人間によるレビューでは生成された概要の 68% と実際の概要の 86% のみが正しく識別されました。専門家は、生成された概要の 32% を実際の概要として、また実際の概要の 14% を生成されたものとして誤って識別しました。以上が上級専門家ですら、ChatGPT によって書かれた科学論文を正確に特定することができませんでしたの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。