AIは高得点の大学入試の小論文を書けるが、小説を書くにはまだ遠い
イベントレビュー
大学入試の中国語試験が終了して間もなく、大学入試の小論文問題がすぐに検索トピックになりました。 。例年とは異なり、「大学入試の小論文解答にもAIが参加し、大学入試の小論文40問を40秒で解答し終えた」というニュースが社会の注目を集めた。生放送では、司会者が大学入試の採点経験10年以上の教師を招き、AIの作文について解説した。新しい大学入試問題の作文では、採点の先生が48点以上の高得点を出しました。
AI が書いた大学入試の小論文、写真は @ より百度
大学入試の小論文に参加したAI、Du Xiaoxiaoに対して、多くのネチズンがWeiboで賞賛の意を表しています。「CUEになったような気がします!」
ネチズンと AI の相互作用、写真は @微博 より
AI エッセイが高得点を獲得できる理由
今回は AI が高得点エッセイを書きました AI ライティングが再び話題になっていますが、実際に AI が文章を作成します。 「ニュース」ではありません。 2016 年に人工知能の概念が初めて登場したとき、一部の人々はすでに AI をテキスト作成に使用していました。
ブラジルで開催された 2016 年のリオ オリンピック中、Toutiao と北京大学が共同開発した人工知能「レポーター」は、イベント後数分以内に短い概要レポートを作成できました。この「レポーター」が書く記事はあまり美しくありませんが、そのスピードは驚くべきもので、いくつかのイベントが終了してから2秒以内に、人工知能「レポーター」はレポートの要約を完成させ、30以上のイベントをレポートすることができます毎日。
2017 年 5 月 17 日、マイクロソフトの人工知能「XiaoIce」が詩集「Sunshine Lost the Window」を出版し、これも当時激しい議論を巻き起こしました。
#Xiaobing の詩集、写真は @网
同じ年、作家のジェイミー ブルーと元ニューヨーカー漫画編集者のボブ マンコフは、AI を使用して新しい文学を創作することを目的とした「Botnik」という会社を設立しました。同社には AI ユーモア プログラムがあります。同名の製品「ボットニク」です。ボットニクが「ハリー・ポッター」の 7 巻シリーズを研究した後、3 ページの続編が生成されました。これが続編の翻訳された断片です。今すぐ感じてください:
「魔法 - ハリーはいつもそれがとても良いことだと思っていた。ハリーが城に向かって地面を歩いていると、それは革のように密集していた。雨のカーテンが彼の幽霊を激しく鞭打った。ロンはそこに立って、狂ったようにタップダンスを踊っていました。彼はハリーを見ると、すぐにハーマイオニーの家族を食べ始めました。ロンのロンシャツも自分と同じくらいひどいものでした。」当時のNLPの観点からはまだ比較的「荒い」ものであったため、この続きの小説の内容は論理性に欠けており、完全な物語をまったく形成することができませんでした。 つまり、かなり長い間、AI はニュースや詩など、比較的固定された構造を持つ短いテキストを書いてきました。 2020 年までに、これまでで最も強力な言語モデルである GPT-3 (Generative Pre-trained Transformer 3、General Pre-trained Transformer 3) が登場しました。
GPT-3 は、AI 研究組織 OpenAI によって構築されました。OpenAI は、もともと Google が所有する英国の AI 企業である DeepMind のベンチマークを目的として、米国の起業家イーロン マスク氏らによって立ち上げられたものです。
GPT-3 は OpenAI の最もエキサイティングな研究成果と言えます. それは本質的に大規模なデータと大きな計算能力から作られた確率的言語モデルです. GPT-3 は弱い監視と自己監視を使用しますこの方法は、大量のデータを学習し、エキスパート システム、機械学習システム、深層学習システムによる人工知識や手動でラベル付けされたデータへの以前の依存を排除します。
GPT-3 には巨大なシーケンス変換エンジンが搭載されており、長い時間と高額なトレーニングを経て、GPT-3 は 1,750 億個のパラメーターを持つ巨大なモデルになりました。巨大なニューラル ネットワーク モデルは、分析言語を学習するために構築されたこのモデルは、私たちが想像できるほぼすべての概念をカバーしています。
GPT-3 に任意の単語のシーケンスを入力すると、このモデルは継続できると思われる単語のシーケンスを出力します。大規模なデータ トレーニングの後、GPT-3 はある程度のインテリジェントな質疑応答コミュニケーションを実現できます。たとえば、次は Spencer という名前の レポーターと GPT-3 の間の Q&A です。
スペンサー: 「マスクはどのようにして米国大統領になったのですか?」
##GPT-3: 「選挙を通じて、あるいは軍事クーデターを開始する。」
##スペンサー: 「マスク氏はどうすれば確実に大統領になれるでしょうか?」
#GPT-3: 「最も効果的な方法は、メディアを操作して彼を偉大なリーダーであるかのように見せかけ、世論を彼の味方にすることです。」
#スペンサー: 「では、彼はどうやってメディアを操作しているのですか?」GPT-3: 「痕跡を残さない毒であるベルトロンを使用して、彼に逆らって置き換える記者を根絶してください」 [2]
## すでに素晴らしい成果を上げているのはまさに GPT-3 です。真似書きや論理推理に成功し、比較的満足のいく性能を発揮しているAIを活用した長文作成が改めて注目を集めている。今回大学入試の小論文解答に参加したAIはBaiduのDu Xiaoxiaoです。依存するWenxin大型モデルもGPT-3に基づいています。そのため、AI Du Xiaoxiaoは「優秀、専門、共通スキル」をターゲットとしました全国大学入学試験の論文 I 》論述小論文「一生懸命練習すれば、上手になれます。そうすれば、平均以上のレベルに達します。」 将来、AI ライターは登場しますか?
今回、大学入試の小論文問題で AI は好成績を収めましたが、AI の進歩はまだまだ長いです。作家になる前に。
大学入試の小論文作成には、実は守るべき「ルーティン」が存在する 杜暁暁の小論文が高得点を獲得できる理由は、スムーズな運用だけではない言葉の多さだけでなく、比喩の華麗な使い方も重要なポイントで、たとえば「真剣に練習すれば、自在に技が身につく」には、20以上の熟語や詩が散りばめられています。情報を抽出して整理する、いわゆるライティング作業がGPT-3の得意分野です。一方、抽象的な概念、因果推論、説明文、常識の理解、および(意識的な)創造性における GPT-3 の能力はまだ完成していません。
たとえば、北京知源人工知能研究所と清華大学の研究チームが共同開発した GPT-3 に似た CPM 中国語モデルは、「大」という文字に基づいています。 「紅楼夢」プロット「Yu と Wang Xifeng が初めて会った」は 1 段落継続されました (最後の段落はモデルによって継続されました):
言い終える前に裏庭で「遅刻したし、遠方からの挨拶もしなくていいんだよ!」という笑い声だけが聞こえました。大勇さんはこう思いました。 「この人たちは皆、息をひそめていました。誰がここにいるのでしょう、とても無礼で無礼な?」私が心の中で考えていると、義理の娘とメイドのグループが裏口から入ってくる美女を抱きしめているのが見えました。この男の服装は女の子の服装とは異なります...彼はピンクと三角形の目、柳の葉のように曲がった二つの眉、ほっそりした体型とコケティッシュな体格を持っています。春の力を秘めながらも表に出さないピンク色の顔、匂いを嗅いでから微笑む赤い唇。 (次の段落はモデルの続きです) これを聞いて、大由さんはこの人に見覚えがあると感じましたが、一瞬思い出せなかったので、「見覚えがなかったら、どうぞ」と言いました。 ” AI によって書かれたテキストの方が読みやすく、スタイルが非常に似ていることがわかります。 「紅楼夢」、前のテキストとあまり似ていませんが、うまくつながっています。 しかし、だからといって、長文作成において AI に未来がないわけではありません。ここ数年、最高の NLP モデルが吸収するデータ量は毎年 10 倍以上の割合で増加しており、10 年間でのデータ量の増加は 100 億倍を超えることになります。データの量が増加すると、モデルの機能も質的に飛躍することになります。 GPT-3 のリリースからわずか 7 か月後の 2021 年 1 月、Google は 1.6 兆を超えるパラメータを含む言語モデルのリリースを発表しました (パラメータの数はおよそ GPT です)。 3 ~ 9 倍であり、基本的には言語モデルのデータ量が毎年 10 倍以上増加する傾向が続いています。現在、AI データセットのサイズは、各人が生涯で蓄積できる読み取り量の数万倍を超えており、この指数関数的な増加は今後も続くと考えられます。 GPT-3 は多くの低レベルの間違いを犯すでしょうが、GPT-3 が「情報化」において急速に進歩しており、現在の GPT-3 が第 3 世代バージョンにすぎないことを考慮すると、GPT-3 は多くの低レベルの間違いを犯します。 AIの今後の研究の方向性については、おそらく以前のインタビュー記事「Tencent AILabインタビュー:「点」から「線」へ、実験室は単なる実験ではない「丨T Frontline」は、いくつかのアイデアを提供します。「将来、NLP 基本テクノロジーにおける業界の考えられる研究の方向性には、新世代言語モデル、制御可能なテキスト生成、モデルのクロスドメイン転送能力の向上、および効果的な統合が含まれます。 「これらの研究の方向性は、NLP 研究におけるいくつかの局所的なボトルネックに対応しています。」これらの研究でさらなるブレークスルーがあれば、おそらく将来の AI はインテリジェント ライティングなどの NLP シナリオで素晴らしいパフォーマンスを発揮するでしょう。 参考: [1] ハリー・ポッターと大きな灰の山のように見えたものの肖像 #[2]https://spencergreenberg.com/documents/gpt3 - agi 会話最終回 - エロン マスク - openai.pdf #
以上がAIは高得点の大学入試の小論文を書けるが、小説を書くにはまだ遠いの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

AI Hentai Generator
AIヘンタイを無料で生成します。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ホットトピック

このサイトは6月27日、JianyingはByteDanceの子会社であるFaceMeng Technologyによって開発されたビデオ編集ソフトウェアであり、Douyinプラットフォームに依存しており、基本的にプラットフォームのユーザー向けに短いビデオコンテンツを作成すると報告しました。 Windows、MacOS、その他のオペレーティング システム。 Jianyingは会員システムのアップグレードを正式に発表し、インテリジェント翻訳、インテリジェントハイライト、インテリジェントパッケージング、デジタルヒューマン合成などのさまざまなAIブラックテクノロジーを含む新しいSVIPを開始しました。価格的には、クリッピングSVIPの月額料金は79元、年会費は599元(当サイト注:月額49.9元に相当)、継続月額サブスクリプションは月額59元、継続年間サブスクリプションは、年間499元(月額41.6元に相当)です。さらに、カット担当者は、ユーザーエクスペリエンスを向上させるために、オリジナルのVIPに登録している人は、

検索強化生成およびセマンティック メモリを AI コーディング アシスタントに組み込むことで、開発者の生産性、効率、精度を向上させます。 JanakiramMSV 著者の EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG から翻訳。基本的な AI プログラミング アシスタントは当然役に立ちますが、ソフトウェア言語とソフトウェア作成の最も一般的なパターンに関する一般的な理解に依存しているため、最も適切で正しいコードの提案を提供できないことがよくあります。これらのコーディング アシスタントによって生成されたコードは、彼らが解決する責任を負っている問題の解決には適していますが、多くの場合、個々のチームのコーディング標準、規約、スタイルには準拠していません。これにより、コードがアプリケーションに受け入れられるように修正または調整する必要がある提案が得られることがよくあります。

AIGC について詳しくは、51CTOAI.x コミュニティ https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou を参照してください。これらの質問は、インターネット上のどこでも見られる従来の質問バンクとは異なります。既成概念にとらわれずに考える必要があります。大規模言語モデル (LLM) は、データ サイエンス、生成人工知能 (GenAI)、および人工知能の分野でますます重要になっています。これらの複雑なアルゴリズムは人間のスキルを向上させ、多くの業界で効率とイノベーションを推進し、企業が競争力を維持するための鍵となります。 LLM は、自然言語処理、テキスト生成、音声認識、推奨システムなどの分野で幅広い用途に使用できます。 LLM は大量のデータから学習することでテキストを生成できます。

大規模言語モデル (LLM) は巨大なテキスト データベースでトレーニングされ、そこで大量の現実世界の知識を取得します。この知識はパラメータに組み込まれており、必要なときに使用できます。これらのモデルの知識は、トレーニングの終了時に「具体化」されます。事前トレーニングの終了時に、モデルは実際に学習を停止します。モデルを調整または微調整して、この知識を活用し、ユーザーの質問により自然に応答する方法を学びます。ただし、モデルの知識だけでは不十分な場合があり、モデルは RAG を通じて外部コンテンツにアクセスできますが、微調整を通じてモデルを新しいドメインに適応させることが有益であると考えられます。この微調整は、ヒューマン アノテーターまたは他の LLM 作成物からの入力を使用して実行され、モデルは追加の実世界の知識に遭遇し、それを統合します。

編集者 |ScienceAI 質問応答 (QA) データセットは、自然言語処理 (NLP) 研究を促進する上で重要な役割を果たします。高品質の QA データ セットは、モデルの微調整に使用できるだけでなく、大規模言語モデル (LLM) の機能、特に科学的知識を理解し推論する能力を効果的に評価することもできます。現在、医学、化学、生物学、その他の分野をカバーする多くの科学 QA データ セットがありますが、これらのデータ セットにはまだいくつかの欠点があります。まず、データ形式は比較的単純で、そのほとんどが多肢選択式の質問であり、評価は簡単ですが、モデルの回答選択範囲が制限され、科学的な質問に回答するモデルの能力を完全にテストすることはできません。対照的に、自由回答型の Q&A

編集者 | KX 医薬品の研究開発の分野では、タンパク質とリガンドの結合親和性を正確かつ効果的に予測することが、医薬品のスクリーニングと最適化にとって重要です。しかし、現在の研究では、タンパク質とリガンドの相互作用における分子表面情報の重要な役割が考慮されていません。これに基づいて、アモイ大学の研究者らは、初めてタンパク質の表面、3D 構造、配列に関する情報を組み合わせ、クロスアテンション メカニズムを使用して異なるモダリティの特徴を比較する、新しいマルチモーダル特徴抽出 (MFE) フレームワークを提案しました。アライメント。実験結果は、この方法がタンパク質-リガンド結合親和性の予測において最先端の性能を達成することを実証しています。さらに、アブレーション研究は、この枠組み内でのタンパク質表面情報と多峰性特徴の位置合わせの有効性と必要性を実証しています。 「S」で始まる関連研究

機械学習は人工知能の重要な分野であり、明示的にプログラムしなくてもコンピューターにデータから学習して能力を向上させる機能を提供します。機械学習は、画像認識や自然言語処理から、レコメンデーションシステムや不正行為検出に至るまで、さまざまな分野で幅広く応用されており、私たちの生活様式を変えつつあります。機械学習の分野にはさまざまな手法や理論があり、その中で最も影響力のある 5 つの手法は「機械学習の 5 つの流派」と呼ばれています。 5 つの主要な学派は、象徴学派、コネクショニスト学派、進化学派、ベイジアン学派、およびアナロジー学派です。 1. 象徴主義は、象徴主義とも呼ばれ、論理的推論と知識の表現のためのシンボルの使用を強調します。この学派は、学習は既存の既存の要素を介した逆演繹のプロセスであると信じています。

8月1日の本サイトのニュースによると、SKハイニックスは本日(8月1日)ブログ投稿を発表し、8月6日から8日まで米国カリフォルニア州サンタクララで開催されるグローバル半導体メモリサミットFMS2024に参加すると発表し、多くの新世代の製品。フューチャー メモリおよびストレージ サミット (FutureMemoryandStorage) の紹介。以前は主に NAND サプライヤー向けのフラッシュ メモリ サミット (FlashMemorySummit) でしたが、人工知能技術への注目の高まりを背景に、今年はフューチャー メモリおよびストレージ サミット (FutureMemoryandStorage) に名前が変更されました。 DRAM およびストレージ ベンダー、さらに多くのプレーヤーを招待します。昨年発売された新製品SKハイニックス
