最近の AI 業界でどのモデルが最も人気があるかを尋ねたい場合、10 人中 9 人が ChatGPT に投票するでしょう。このモデルは人気がありすぎるわけがありません。できることが多すぎます。多くの人がこれを本物の「六角形の戦士」と表現します。チャット、検索、翻訳に使用できるだけでなく、ストーリーを書いたり、コードを書いたり、デバッグしたり、さらには小さなゲームを開発してアメリカのゲームを開発することにも使用できます。大学入学試験... 将来の人工知能モデルは ChatGPT とその他の 2 種類だけになるだろうと冗談を言う人もいます。
ChatGPT の機能は非常に優れているため、広く一般に愛されている一方で、常に問題が発生しており、さまざまな機関によって禁止されています。少し前に、Stack Overflow が ChatGPT を他の理由もなく禁止したというニュースがありました。関係者は、ChatGPT が生成した回答の精度が低すぎるため、ChatGPT が一時的に禁止されたと述べました。ChatGPT によって作成された回答を公開することは、Web サイトにとって非常に重要であり、正しい答えを探しているユーザーにとって有害です。
この事件が過ぎてから間もなく、人工知能のトップカンファレンスも ChatGPT と AI ツールを使用して書かれた学術論文を禁止し始めました。具体的に何が起こっているのか見てみましょう。
数日前、国際機械学習会議 ICML は大規模な言語モデルの使用を禁止すると発表しました。 (LLM、ChatGPT など) を使用して論文を生成します。ただし、生成されたテキストが論文の実験的分析の一部として提示される場合を除きます。
ファイル アドレス: https://icml.cc/Conferences/2023/llm-policy
#ICML によると、ChatGPT などの言語モデルは将来の開発トレンドを表していますが、その後には予期せぬ結果や解決が難しい問題がいくつか発生します。 ICMLによると、ChatGPTは公開データに基づいて訓練されており、多くの場合同意なしに収集されており、何か問題が発生した場合は誰が責任を負うのか。著者の問題もあります。論文を「書いた」のは誰ですか?機械ですか、それとも人間ですか? ICML が AI によって完全に生成されたテキストのみを禁止していることを考慮すると、これは特に重要です。カンファレンスの主催者らは、著者が書いたテキストを編集したり推敲するためにChatGPTなどのツールを使用することは禁止していないと述べ、多くの著者がすでに文法修正ソフトウェアGrammarlyなどの半自動編集ツールを使って記事を推敲していることを指摘した。
しかし、このニュースが発表されるやいなや、依然としてソーシャル メディアで大きな議論を引き起こしました。Yann LeCun 氏は次のように転送し、コメントしました。「大規模な言語モデルは使用できないため、中小規模の言語モデルは使用できません」言語モデルはまだ使用可能ではありませんか?」
Microsoft Research の ML 基盤チームの責任者である Sebastian Bubeck 氏は、このルールを「短い」と呼んでいます。 「ChatGPT とその亜種は将来の技術開発の一部です。禁止は間違いなく最適な答えではありません。」
# #ICML は、AI 生成テキストの禁止は来年再評価されるだろうと述べました。
人工知能が生成したテキストの悪影響については、常にさまざまな懸念がありました。最も一般的な問題の 1 つは、これらのシステムからの出力がまったく信頼できないことです。
AI モデルは、特定の文の次の単語を予測するようにトレーニングされますが、そこから抽出できる「事実」のハードコードされたデータベースがないため、モデルが生成した結果は多くの場合、矛盾した状況です。多くの場合、生成された文は文法論理には準拠していますが、客観的な現実には準拠していません。
もう 1 つ、これも非常に難しい問題があります。テキストが AI によって「洗練および編集」されたのか、それとも完全に AI によって生成されたのかを区別するのが難しいのです。この問題は論文にとって非常に深刻です。著者が AI モデルを使用して論文に基づいて簡潔な要約を生成した場合、これはテキストを編集したものとみなされますか、それともテキストを最初から生成したものとみなされますか?
もちろん、ChatGPT のような AI ツールを使用することだけが欠点ではありません。たとえば、査読では流暢な英語表現がより高い評価を受ける傾向があり、AI モデルは英語を母語としない論文著者がより流暢な英語の文章を生成するのに役立ちます。これにより研究者の時間が節約され、学術分野でより平等な競争の場が生まれるでしょう。
ただし、ChatGPT は大規模言語モデル (LLM) であり、Grammarly などの単純な文法修正ソフトウェアとは大きく異なることに注意してください。 LLM 自体の主な機能は、すでに書かれたテキストの構造や言語を調整することではなく、新しいテキストを生成することです。
実際、AI 言語モデルを実際に使用して学術論文を作成する論文著者はほとんどいません。学術論文の要件は非常に厳しいため、著者は通常、出版する前に論文の内容を何度もチェックします。 AI を使用して生成された論文に誤りがあった場合、指名されたすべての論文著者の評判は深刻な影響を受け、キャリア全体に影響を及ぼします。
論文レビューの観点から見ると、論文が AI によって生成されたものであるか、手動で書かれたものであるかを区別するための高速かつ効果的な検出ツールが必要です。最近、開発者は、この検出機能を備えた GPTZero と呼ばれる新しいアプリケーションをリリースしました。
GPTZero はプリンストン大学のコンピューター サイエンスの学生 Edward Tian によって開発され、テキストが書かれたかどうかという 2 つの異なる指標を使用して評価されます。 AI モデルによる: 複雑さとバースト性。これは、「モデル」を倒すために「モデル」を使用している可能性があります。
ほぼ同時に、ChatGPT は学校によって禁止されました。ニューヨーク市教育省は、AIツールが教育を混乱させる可能性があるとの懸念から、そのネットワークとデバイス上でChatGPTへのアクセスをブロックした。
同省の広報担当者、ジェナ・ライル氏は次のように述べています。この禁止は主に、ChatGPT が学生の学習に悪影響を与える可能性と、その安全性と精度に対する懸念によるものです。 ChatGPT によって生成されたコンテンツです。このツールは迅速かつ簡単な答えを提供しますが、学生の学業上および生涯にわたる成功に不可欠な批判的思考と問題解決スキルを開発することはできません。
さらに、ChatGPT には他の言語モデルが抱える問題もあります。トレーニング データはインターネットから取得されているため、その回答には性差別や人種的偏見などの内容が繰り返され、増幅されることがよくあります。このタイプの言語モデルは、歴史的な日付から科学法則に至るまで情報を捏造する傾向がありますが、他の言語モデルは通常、情報を捏造していることを検出できません。
教育者がこのツールについて特に懸念しているのは、こうした事実上の誤りです。多くの教師は、ChatGPT のようなソフトウェアでは生徒の作文を書く能力をテストすることは本質的に不可能だと述べています。 ChatGPT を使用して生徒が数秒で書けるのであれば、生徒は書くことに労力を費やしたくないでしょう。
しかし、教育システムも、Google 検索や Wikipedia などの初期の破壊的テクノロジーに適応したのと同じように、このテクノロジーの出現に適応する必要があると主張する人もいます。しかし、誰もが ChatGPT に適応するには時間がかかるのは明らかです。
テキスト記述仕様を手動で策定して強制する場合でも、テキストが AI によって生成されたかどうかを判断するために何らかの方法を使用する場合でも、人々がその使用法を標準化する緊急の必要性を認識していることを示しています。 ChatGPT などのテキスト生成モデルの。 ChatGPT の使用例と価値はまだ定義されていません。
以上がChatGPT は学校への入場を禁止されました。AI は特別にルールを変更します。 LeCun: 小型モデルも禁止したらどうですか?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。