目次
言語の限界
浅い理解
言語を超えて
正しいことをしましょう
ホームページ テクノロジー周辺機器 AI ヤン・ルカン氏、巨大模型では人間の知性に近づくという目標は達成できないと語る

ヤン・ルカン氏、巨大模型では人間の知性に近づくという目標は達成できないと語る

May 06, 2023 pm 09:37 PM
AI モデル

「言語は人間の知識全体のほんの一部しか担っていません。人間の知識のほとんどと動物の知識はすべて非言語です。したがって、大規模な言語モデルは人間レベルの知能に近づくことはできません。」これはチューリング賞受賞者のヤン・ルカン氏の言葉です。人工知能の展望に関する最新の考え方。

Yann LeCun:大模型方向错了,智力无法接近人类

昨日、ニューヨーク大学博士研究員ジェイコブ・ブラウニング氏と共著した彼の新しい論文が「NOEMA」に掲載されました。人々の議論。

この記事の中で、著者は現在普及している大規模言語モデルについて論じており、これには明らかな限界があると考えています。 AI 分野における今後の取り組みの方向性は、現実世界の他のレベルの知識を機械に優先的に理解させることになるかもしれません。

彼らが何を言っているか見てみましょう。

少し前に、元 Google AI 倫理研究者のブレイク・ルモイン氏は、AI チャットボット LaMDA には人間と同じ意識があると主張し、この分野で大騒ぎを引き起こしました。

LaMDA は、実際には、特定のテキストに対して次に考えられる単語を予測するように設計された大規模言語モデル (LLM) です。多くの会話はある程度予測可能であるため、これらのシステムは会話を効率的に保つ方法を推測できます。 LaMDA はこの種のタスクで非常に優れた仕事をするため、Blake Lemoine は AI に「意識」があるのではないかと疑問に思うようになりました。

この問題について、この分野の研究者はさまざまな見解を持っています。機械に意識があるという考えを嘲笑する人もいれば、LaMDA モデルはそうではないかもしれないと考える人もいますが、次のことは次のことです。モデルは意識しているかもしれません。機械が人間を「騙す」のは難しくないと指摘する人もいる。

回答の多様性は、より深刻な問題を浮き彫りにしています。LLM がより一般的かつ強力になるにつれて、これらのモデルに関する私たちの見解に同意することがますます困難になっているように思えます。長年にわたり、これらのシステムは多くの「常識」言語推論ベンチマークを上回ってきましたが、テストするとこれらのシステムはほとんど常識を持っていないように見え、ナンセンスで非論理的で危険な提案をする傾向さえあります。これは厄介な疑問を引き起こします: これらのシステムはなぜこれほどインテリジェントでありながら、機能がこれほど限定されているのでしょうか?

実際、最も根本的な問題は人工知能ではなく、言語の限界です。意識と言語の関係についての仮定を放棄すると、これらのシステムは世界を表面的に理解するだけになり、人間の「総合的思考」には決して近づくことはできません。つまり、これらのモデルはすでに地球上で最も優れた AI システムの一部となっていますが、これらの AI システムが私たち人間ほどインテリジェントになることは決してないのです。

19 世紀から 20 世紀にかけて、哲学と科学の主要なテーマは、「知識は単なる言語である」というものでした。つまり、1 つのことを理解するには、文の内容を理解し、その文を他の文と関連付けるだけで済みます。この論理によれば、理想的な言語形式は、厳密な推論規則によって接続された任意の記号で構成される論理数学形式になります。

哲学者ウィトゲンシュタインは「真の命題の総和が自然科学である」と述べました。この立場は 20 世紀に確立され、その後多くの論争を引き起こしました。

高学歴の知識人の中には、今でも次のような見解を持っている人がいます。「私たちが知ることのできることはすべて百科事典に含まれているので、百科事典の内容をすべて読むだけで、私たちは包括的な理解ができるようになります」この考え方は、シンボリック AI に関する初期の研究の多くにも影響を与え、シンボリック処理をデフォルトのパラダイムにしました。これらの研究者にとって、AI の知識は、手作りのロジックによって相互に接続された実際の文章の大規模なデータベースで構成されており、AI システムの目標は、適切なタイミングで適切な文章を出力すること、つまり、シンボルを適切な方法で処理することです。適切な方法です。

この概念はチューリング テストの基礎です。機械が言うべきことをすべて「言う」場合、それは、機械が正しい文を知っているため、自分が何を話しているのかを知っていることを意味します。そしてそれらをいつ使用するかについては、上記の人工知能の知識を使用します。

しかし、この見解は厳しく批判されており、これに対する反論は、機械が何かを話すことができるからといって、それが何を言っているのかを理解しているわけではないということです。なぜなら、言語は非常に具体的で非常に限定された知識の表現にすぎないからです。プログラミング言語、記号論理言語、日常の話し言葉など、すべての言語は特定の種類の表現モードを可能にしており、離散オブジェクトとプロパティ、およびそれらの間の関係を非常に高い抽象レベルで表現することに優れています。

ただし、すべての表現モードには物事に関する情報の圧縮が含まれますが、圧縮の際に何が残され、何が省略されるかは異なります。言語の表現方法では、不規則な形状、物体の動き、複雑な機構の機能、絵画の細心の注意を払った筆運びなどの記述など、いくつかの特定の情報が失われる可能性があります。一部の非言語表現スキームでは、象徴的な知識、分散された知識など、この情報をわかりやすい方法で表現できます。

言語の限界

言語表現モデルの欠点を理解するには、まず言語がどれほど多くの情報を伝えるかを認識する必要があります。実際、言語は情報を伝達するための非常に低帯域幅の方法であり、特に孤立した単語や文が文脈なしにほとんど情報を伝えない場合にはそう言えます。さらに、同音異義語や代名詞が多いため、多くの文の意味は非常に曖昧です。チョムスキーなどの研究者が指摘しているように、言語は明確で曖昧さのないコミュニケーション ツールではありません。

しかし、人間は非言語言語を理解するシステムを共有しているため、完璧なコミュニケーション ツールは必要ありません。文の理解は、多くの場合、その文が置かれている文脈の深い理解に依存しており、言語表現の意味を推測することができます。私たちはサッカーの試合など、目前にある事柄について直接話すことがよくあります。または、ウェイターに食べ物を注文するなど、状況における社会的役割とコミュニケーションをとることもできます。

同様のことは、テキストの一節を読む場合にも当てはまります。このタスクは、AI による常識へのアクセスを損なうタスクですが、文脈に依存しない読解スキルを子供たちに教える一般的な方法です。このアプローチは、文章を理解するために一般的な読解戦略を使用することに焦点を当てていますが、研究によると、子供がそのトピックについて持っている背景知識の量が、実際には理解の重要な要素であることがわかっています。文や段落が正しいかどうかを理解するには、主題の基本的な把握が必要です。

#「これらのシステムが表面的な理解に囚われており、人間の思考の全範囲に決して近づくことはできないことは明らかです。」

# #Word と文に固有の文脈特性は、LLM の仕事の中核です。ニューラル ネットワークは通常、知識をノウハウとして表します。つまり、文脈に非常に敏感なパターンを把握し、入力を精巧な方法で処理するために必要だが限られた人にしか適さない規則性 (具体的および抽象的) を要約する熟練した能力です。タスク 。

LLM では、既存のテキストの複数のレベルでパターンを識別し、段落内で単語がどのように接続されているか、および文がどのように構成されているかを確認するシステムが重要です。段落。その結果、モデルによる言語の把握は必然的に文脈に依存することになります。それぞれの単語は、辞書の意味に従ってではなく、さまざまな文の中での役割に従って理解されます。 「キャブレター」、「メニュー」、「チューニング」、「エレクトロニクス」などの多くの単語は、ほぼ特定の分野でのみ使用されるため、これらの単語の 1 つが含まれる単独の文であっても、予想どおり文脈から外れてしまいます。

つまり、LLM は各文の背景知識を理解し、周囲の単語や文を見て何が起こっているのかをつなぎ合わせるように訓練されています。これにより、さまざまな文やフレーズを入力として使用し、会話を続けたり、記事の残りを埋めるための合理的な (完璧とは言えませんが) 方法を考え出す無限の可能性が与えられます。日常のコミュニケーションで使用するために人間が書いた段落でトレーニングされたシステムは、高品質の会話を行うために必要な一般的な理解を備えている必要があります。

浅い理解

一部の人々は、この文脈で「理解」という言葉を使用したり、LLM を「インテリジェント」と呼ぶことに抵抗を感じます。意味論はまだ言えません。誰でも納得させます。批評家はこれらのシステムを一種の模倣であると非難しますが、それは当然のことです。これは、LLM の言語理解が印象的ではあるものの、表面的なものであるためです。この表面的な認識は、よく知られたものに感じられます。教室には、自分たちが何を話しているのか全く分からない「専門用語を話す」学生が溢れており、事実上、教授や読んでいるテキストを真似しているのです。それは人生の一部にすぎません。私たちは、特に言語から得られる知識に関して、自分が知っていることについて不明確であることがよくあります。

LLM は、すべてについてこの表面的な理解を獲得します。 GPT-3 のようなシステムは、文の一部をマスクしたり、段落内の次の単語を予測したりして、ギャップを埋める可能性が最も高い単語を機械に推測させ、誤った推測を修正することによってトレーニングされます。このシステムは最終的に、最も可能性の高い単語を推測することに熟達し、効果的な予測システムになります。

これにより、本当の理解がもたらされます。どのような質問やパズルにも、通常、正しい答えはわずか数個しかありませんが、間違った答えは無数にあります。これにより、システムは、この種の質問に対する正しい答えを定期的に予測するために、ジョークの解釈、文章問題の解決、論理パズルの解決など、言語固有のスキルを学習する必要があります。

これらのスキルと関連知識により、機械は複雑な物事がどのように機能するかを説明し、難しい概念を単純化し、ストーリーを書き直して語り直し、その他多くの言語関連の能力を獲得できるようになります。シンボリック AI が主張するように、機械は、論理的なルールによってリンクされた文の膨大なデータベースの代わりに、前の行を考慮して合理的な次の文を思いつくために使用される文脈上のハイライトとして知識を表します。

「すべての知識は言語的であるという考えを放棄すると、私たちの知識のどれだけが非言語的であるかがわかります。」

しかし、概念を言語で説明する能力と、それを実際に使用する能力は異なります。システムは、長い除算を実際には実行できないにもかかわらず、その実行方法を説明することができます。または、システムは、それと矛盾している点を説明しながら、喜んで説明を続けることもできます。文脈知識は、言語の知識を言語化する能力というある形には組み込まれていますが、共感的になることや難しい問題に敏感に対処することなど、物事のやり方に関するスキルとしては別の形には組み込まれません。

後者の専門知識は言語ユーザーにとって不可欠ですが、言語スキルを習得できるわけではありません。言語コンポーネントは主要なものではありません。これは、講義や本から学んだ概念も含め、多くの概念に当てはまります。科学の授業には講義の要素がありますが、学生の得点は主に研究室での作業に基づいています。特に人文科学以外では、何かについて話せることは、物事をうまく進めるために必要な基本的なスキルほど役に立たず、重要でもないことがよくあります。

もう少し深く掘り下げると、これらのシステムが実際にどれほど浅いのかが簡単にわかります。システムの注意持続時間と記憶力は、およそ 1 段落に相当します。会話をしていると、最後の 1 ~ 2 つのコメントに注目して次の返信に取り組む傾向があるため、これを見逃しがちです。

しかし、より複雑な会話のコツ、つまり積極的に聞くこと、前のコメントを思い出して再検討すること、気を散らさずに特定の論点を主張するためにトピックに固執することなど、すべてにさらなる注意が必要です。そして機械が持つ以上の記憶力。

これにより、彼らが理解できる内容の種類はさらに減ります。数分ごとに話題を変えたり、言葉を変えたり、奇妙になったりすることで、彼らをだますのは簡単です。戻りすぎると、システムは最初からやり直し、新しいビューを古いコメントと一緒にまとめたり、チャットの言語を切り替えたり、あなたの言うことを信じたりします。一貫した世界観を構築するために必要な理解は、機械の能力をはるかに超えています。

言語を超えて

すべての知識は言語的なものであるという考えを放棄すると、私たちの知識のかなりの部分が非言語的なものであることがわかります。本には、開梱して利用できる情報がたくさん含まれていますが、他の多くのアイテムにも同じことが当てはまります。IKEA の説明書では、図の横にキャプションをわざわざ書くことさえありませんし、AI 研究者は、ネットワーク アーキテクチャを理解する前に、論文の図をよく見ます。旅行者はテキストを閲覧することで、地図上の赤または緑の線に従って行きたい場所に移動できます。

ここでの知識は、単純なアイコン、チャート、マップを超えています。人類は世界を探索することで多くのことを直接学び、物質や人が表現できるものと表現できないものを示してきました。物質の構造や人間の環境は、ドアノブが手の高さである、ハンマーの柄が柔らかいなど、多くの情報を視覚的に伝えます。動物や人間における非言語的精神シミュレーションは一般的であり、シナリオを計画するのに役立ち、アーティファクトの作成やリバース エンジニアリングに使用できます。

同様に、社会の習慣や儀式を模倣することで、食べ物や薬の準備からストレスの多い時の心を落ち着かせることまで、さまざまなスキルを次世代に教えることができます。私たちの文化的知識の多くは象徴的なもの、または熟練した実践者から見習いに受け継がれる正確な動きの形をしています。これらの情報の微妙なパターンは言葉で表現して伝えるのが難しいですが、それでも他の人には理解できます。これは、ニューラル ネットワークが取得して洗練するのが得意な、正確なタイプのコンテキスト情報でもあります。

「言語のみで訓練されたシステムは、たとえこれから宇宙が熱的に滅亡するまで訓練されたとしても、決して人間の知性に近づくことはできません。」

言語は、小さな形式で大量の情報を伝えることができるため、特に印刷とインターネットの出現によりコンテンツが複製され、広く配布されるようになったために重要です。しかし、言語による情報の圧縮にはコストがかかります。密集した文章を解読するには多大な労力が必要です。人文科学の授業では、授業時間の多くを難しい文章を読むのに費やすなど、外部での広範囲にわたる読書が必要となる場合があります。深い理解を構築するには時間と労力がかかりますが、有益です。

これは、言語訓練を受けた機械が非常に多くのことを知っていながら、何も理解できない理由を説明しています。小さなボトルネックを通じて人間の知識のごく一部にアクセスしているのです。しかし、人間の知識のその小さな断片は、愛であれ天体物理学であれ、あらゆるものに関わることができます。つまり、これは鏡に似ています。奥行きがあるように錯覚させ、ほとんどすべてのものを反射できますが、厚さはわずか 1 センチメートルです。その深さを探ろうとすると壁にぶつかります。

正しいことをしましょう

これは、機械が愚かになるわけではありませんが、機械がどれほど賢くなれるかには本質的に限界があることを示しています。言語だけを訓練したシステムは、たとえ今から宇宙の熱による死まで訓練されたとしても、決して人間の知性に近づくことはできません。これは知識システムを構築する間違った方法です。しかし、ほんの表面をなぞるだけでも、機械は確かに人間に近づいているように見えます。そして多くの場合、表面だけで十分です。実際に他の人にチューリング テストを適用し、積極的に理解の深さを疑問視したり、複数桁の掛け算の問題を強制したりする人はほとんどいません。ほとんどの会話は世間話です。

ただし、LLM が持つ表面的な理解と、人間が世界の驚異を観察し、探索し、実践し、文化と交流することによって獲得する深い理解を混同すべきではありません。と他の人が混在しています。言語は世界の理解を広げるのに役立つ要素かもしれませんが、言語によって知性が枯渇するわけではありません。この点は、カラス、タコ、霊長類などの多くの種の行動から理解できます。

逆に、深い非言語理解は、言語が意味を持つために必要な条件です。人間は世界を深く理解しているからこそ、他人の言っていることがすぐに理解できるのです。このより広範で状況に応じた学習と知識は、物理的な生物学的知覚の出現の基礎となり、生存と繁栄を可能にする、より基本的な古代の知識です。

これは、人工知能研究者が人工知能の常識を探すときに焦点を当てるより重要なタスクでもあります。 LLM には認識できる安定した身体や世界がありません。そのため、彼らの知識は言葉で始まり言葉で終わることが多く、この常識は常に表面的なものです。目標は、AI システムが言葉そのものではなく、話している世界に焦点を当てられるようにすることですが、LLM はその違いを理解していません。この深い理解を言葉だけで表現することはできませんが、それは間違った方向性です。

人間がさまざまな大規模な言語モデルを処理した広範な経験は、音声だけからは得られるものがいかに少ないかを明らかに示しています。

以上がヤン・ルカン氏、巨大模型では人間の知性に近づくという目標は達成できないと語るの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

AI Hentai Generator

AI Hentai Generator

AIヘンタイを無料で生成します。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

Bytedance Cutting が SVIP スーパー メンバーシップを開始: 継続的な年間サブスクリプションは 499 元で、さまざまな AI 機能を提供 Bytedance Cutting が SVIP スーパー メンバーシップを開始: 継続的な年間サブスクリプションは 499 元で、さまざまな AI 機能を提供 Jun 28, 2024 am 03:51 AM

このサイトは6月27日、JianyingはByteDanceの子会社であるFaceMeng Technologyによって開発されたビデオ編集ソフトウェアであり、Douyinプラットフォームに依存しており、基本的にプラットフォームのユーザー向けに短いビデオコンテンツを作成すると報告しました。 Windows、MacOS、その他のオペレーティング システム。 Jianyingは会員システムのアップグレードを正式に発表し、インテリジェント翻訳、インテリジェントハイライト、インテリジェントパッケージング、デジタルヒューマン合成などのさまざまなAIブラックテクノロジーを含む新しいSVIPを開始しました。価格的には、クリッピングSVIPの月額料金は79元、年会費は599元(当サイト注:月額49.9元に相当)、継続月額サブスクリプションは月額59元、継続年間サブスクリプションは、年間499元(月額41.6元に相当)です。さらに、カット担当者は、ユーザーエクスペリエンスを向上させるために、オリジナルのVIPに登録している人は、

Rag と Sem-Rag を使用したコンテキスト拡張 AI コーディング アシスタント Rag と Sem-Rag を使用したコンテキスト拡張 AI コーディング アシスタント Jun 10, 2024 am 11:08 AM

検索強化生成およびセマンティック メモリを AI コーディング アシスタントに組み込むことで、開発者の生産性、効率、精度を向上させます。 JanakiramMSV 著者の EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG から翻訳。基本的な AI プログラミング アシスタントは当然役に立ちますが、ソフトウェア言語とソフトウェア作成の最も一般的なパターンに関する一般的な理解に依存しているため、最も適切で正しいコードの提案を提供できないことがよくあります。これらのコーディング アシスタントによって生成されたコードは、彼らが解決する責任を負っている問題の解決には適していますが、多くの場合、個々のチームのコーディング標準、規約、スタイルには準拠していません。これにより、コードがアプリケーションに受け入れられるように修正または調整する必要がある提案が得られることがよくあります。

微調整によって本当に LLM が新しいことを学習できるようになるのでしょうか: 新しい知識を導入すると、モデルがより多くの幻覚を生成する可能性があります 微調整によって本当に LLM が新しいことを学習できるようになるのでしょうか: 新しい知識を導入すると、モデルがより多くの幻覚を生成する可能性があります Jun 11, 2024 pm 03:57 PM

大規模言語モデル (LLM) は巨大なテキスト データベースでトレーニングされ、そこで大量の現実世界の知識を取得します。この知識はパラメータに組み込まれており、必要なときに使用できます。これらのモデルの知識は、トレーニングの終了時に「具体化」されます。事前トレーニングの終了時に、モデルは実際に学習を停止します。モデルを調整または微調整して、この知識を活用し、ユーザーの質問により自然に応答する方法を学びます。ただし、モデルの知識だけでは不十分な場合があり、モデルは RAG を通じて外部コンテンツにアクセスできますが、微調整を通じてモデルを新しいドメインに適応させることが有益であると考えられます。この微調整は、ヒューマン アノテーターまたは他の LLM 作成物からの入力を使用して実行され、モデルは追加の実世界の知識に遭遇し、それを統合します。

OpenAI データは必要ありません。大規模なコード モデルのリストに加わりましょう。 UIUC が StarCoder-15B-Instruct をリリース OpenAI データは必要ありません。大規模なコード モデルのリストに加わりましょう。 UIUC が StarCoder-15B-Instruct をリリース Jun 13, 2024 pm 01:59 PM

ソフトウェア テクノロジの最前線に立つ UIUC Zhang Lingming のグループは、BigCode 組織の研究者とともに、最近 StarCoder2-15B-Instruct 大規模コード モデルを発表しました。この革新的な成果により、コード生成タスクにおいて大きな進歩が達成され、CodeLlama-70B-Instruct を上回り、コード生成パフォーマンス リストのトップに到達しました。 StarCoder2-15B-Instruct のユニークな特徴は、その純粋な自己調整戦略であり、トレーニング プロセス全体がオープンで透過的で、完全に自律的で制御可能です。このモデルは、高価な手動アノテーションに頼ることなく、StarCoder-15B 基本モデルの微調整に応じて、StarCoder2-15B を介して数千の命令を生成します。

新しい科学的で複雑な質問応答ベンチマークと大規模モデルの評価システムを提供するために、UNSW、アルゴンヌ、シカゴ大学、およびその他の機関が共同で SciQAG フレームワークを立ち上げました。 新しい科学的で複雑な質問応答ベンチマークと大規模モデルの評価システムを提供するために、UNSW、アルゴンヌ、シカゴ大学、およびその他の機関が共同で SciQAG フレームワークを立ち上げました。 Jul 25, 2024 am 06:42 AM

編集者 |ScienceAI 質問応答 (QA) データセットは、自然言語処理 (NLP) 研究を促進する上で重要な役割を果たします。高品質の QA データ セットは、モデルの微調整に使用できるだけでなく、大規模言語モデル (LLM) の機能、特に科学的知識を理解し推論する能力を効果的に評価することもできます。現在、医学、化学、生物学、その他の分野をカバーする多くの科学 QA データ セットがありますが、これらのデータ セットにはまだいくつかの欠点があります。まず、データ形式は比較的単純で、そのほとんどが多肢選択式の質問であり、評価は簡単ですが、モデルの回答選択範囲が制限され、科学的な質問に回答するモデルの能力を完全にテストすることはできません。対照的に、自由回答型の Q&A

Yolov10: 詳細な説明、展開、アプリケーションがすべて 1 か所にまとめられています。 Yolov10: 詳細な説明、展開、アプリケーションがすべて 1 か所にまとめられています。 Jun 07, 2024 pm 12:05 PM

1. はじめに ここ数年、YOLO は、計算コストと検出パフォーマンスの効果的なバランスにより、リアルタイム物体検出の分野で主流のパラダイムとなっています。研究者たちは、YOLO のアーキテクチャ設計、最適化目標、データ拡張戦略などを調査し、大きな進歩を遂げました。同時に、後処理に非最大抑制 (NMS) に依存すると、YOLO のエンドツーエンドの展開が妨げられ、推論レイテンシに悪影響を及ぼします。 YOLO では、さまざまなコンポーネントの設計に包括的かつ徹底的な検査が欠けており、その結果、大幅な計算冗長性が生じ、モデルの機能が制限されます。効率は最適ではありませんが、パフォーマンス向上の可能性は比較的大きくなります。この作業の目標は、後処理とモデル アーキテクチャの両方から YOLO のパフォーマンス効率の境界をさらに改善することです。この目的を達成するために

SOTA パフォーマンス、厦門マルチモーダルタンパク質-リガンド親和性予測 AI 手法、初めて分子表面情報を結合 SOTA パフォーマンス、厦門マルチモーダルタンパク質-リガンド親和性予測 AI 手法、初めて分子表面情報を結合 Jul 17, 2024 pm 06:37 PM

編集者 | KX 医薬品の研究開発の分野では、タンパク質とリガンドの結合親和性を正確かつ効果的に予測することが、医薬品のスクリーニングと最適化にとって重要です。しかし、現在の研究では、タンパク質とリガンドの相互作用における分子表面情報の重要な役割が考慮されていません。これに基づいて、アモイ大学の研究者らは、初めてタンパク質の表面、3D 構造、配列に関する情報を組み合わせ、クロスアテンション メカニズムを使用して異なるモダリティの特徴を比較する、新しいマルチモーダル特徴抽出 (MFE) フレームワークを提案しました。アライメント。実験結果は、この方法がタンパク質-リガンド結合親和性の予測において最先端の性能を達成することを実証しています。さらに、アブレーション研究は、この枠組み内でのタンパク質表面情報と多峰性特徴の位置合わせの有効性と必要性​​を実証しています。 「S」で始まる関連研究

SKハイニックスは8月6日に12層HBM3E、321層NANDなどのAI関連新製品を展示する。 SKハイニックスは8月6日に12層HBM3E、321層NANDなどのAI関連新製品を展示する。 Aug 01, 2024 pm 09:40 PM

8月1日の本サイトのニュースによると、SKハイニックスは本日(8月1日)ブログ投稿を発表し、8月6日から8日まで米国カリフォルニア州サンタクララで開催されるグローバル半導体メモリサミットFMS2024に参加すると発表し、多くの新世代の製品。フューチャー メモリおよびストレージ サミット (FutureMemoryandStorage) の紹介。以前は主に NAND サプライヤー向けのフラッシュ メモリ サミット (FlashMemorySummit) でしたが、人工知能技術への注目の高まりを背景に、今年はフューチャー メモリおよびストレージ サミット (FutureMemoryandStorage) に名前が変更されました。 DRAM およびストレージ ベンダー、さらに多くのプレーヤーを招待します。昨年発売された新製品SKハイニックス

See all articles