データ管理が生成型 AI に与える影響
2023 年は、誰もが話題にしているテクノロジー、ChatGPT によって推進される AI 時代の主流の始まりとして記憶される年となるでしょう。
ChatGPT のような生成 AI 言語モデルは、私たちの想像力をかき立てています。なぜなら、AI が本物の人間のように私たちに話しかけ、エッセイ、詩、その他の新しいコンテンツを生成するのを初めて見ることができるからです。クリエイティブを見つけてください。生成型 AI ソリューションには、イノベーションの速度、生産性、価値提供の効率を向上させる画期的な可能性がある可能性があります。制限があるにもかかわらず、データプライバシーと管理のベストプラクティスに対する認識には改善の余地がたくさんあります。
最近、テクノロジーとセキュリティの分野の多くの人が、人工知能テクノロジーの使用に関する理解と適切な規制のガードレールが欠如していることに警鐘を鳴らしています。 AI ツールの出力の信頼性、知的財産権、機密データの漏洩、プライバシーとセキュリティの問題の侵害について懸念が表明されています。
Samsung の ChatGPT に関する事件は、テクノロジー大手が誤って ChatGPT に秘密を漏洩したため、大きく報道されました。これを行っているのは Samsung だけではありません。Cyberhaven の調査では、従業員の 4% が会社の機密データを大規模な言語モデルに入力していたことが判明しました。多くの人は、企業データを使用してモデルをトレーニングする場合、AI 企業がそのデータを別の機会に再利用する可能性があることに気づいていません。
サイバー犯罪のネタはもう必要ないかのように、サイバーセキュリティ インテリジェンス会社 RecordedFuture は次のように明らかにしました。「ChatGPT のリリースから数日以内に、欠陥はあるものの完全に機能するマルウェアを共有する多くの攻撃者を発見しました。ソーシャル エンジニアリングのチュートリアル、金儲けのスキームなど - すべて ChatGPT を使用することで実現できます。」
プライベート プライバシーの面では、ユーザーが ChatGPT のようなツールを使用してサインアップすると、次の情報にアクセスできます。 IP アドレス、ブラウザ設定、ブラウジング アクティビティは、今日の検索エンジンと同じだとインターネット アクセス エンジニアリング担当ディレクターのホセ ブライア氏は言います。しかし、本人の同意なしに政治的信念や性的指向を明らかにする可能性があり、恥ずかしい情報、さらにはキャリアを台無しにする情報が公開される可能性があるため、リスクはより高くなります。
これらの新しい AI テクノロジーを実装するには、より良い規制と標準が必要であることは明らかです。しかし、企業による人工知能の導入と安全な使用において重要な役割を果たす可能性があるデータ ガバナンスとデータ管理の重要な役割については議論が不足しています。
すべてはデータです
注目すべき 3 つの領域は次のとおりです:
独自の事前トレーニングについてAI モデルまたは大規模言語モデル (LLM)、データ ガバナンスと透明性の中心的な問題はトレーニング データにあります。 llm を使用した機械学習プログラムには、多くのソースからの大規模なデータ セットが含まれています。問題は、LLM がブラック ボックスであり、ソース データに対する透明性がほとんどないことです。私たちは情報源の信頼性について公平かつ公平に判断しますが、違法な個人を特定できる情報や詐欺的なデータを含めることは避けます。たとえば、オープン AI はソース データを共有しません。ワシントン・ポスト紙は、1500万のWebサイトを対象とするGoogleのC4データセットを分析したところ、扇動的な情報データや個人を特定できる情報データ、その他の疑わしいコンテンツを含む数十の不快なサイトを発見した。データ ガバナンスには、データ ソースの透明性が必要であり、これらのデータ ソースから得られる知識の有効性と信頼性が保証されます。たとえば、AI ボットが未検証のソースやフェイク ニュース サイトからのデータに基づいてトレーニングされ、その知識が企業の新しいポリシーや研究開発プログラムの一部となっている可能性があります。
現在、さまざまな人工知能ベンダーが、データ分離やデータ ドメインなど、ユーザー データのプライバシーを処理するためのさまざまな戦略を持っています。従業員は無意識のうちに LLM にデータを提供する可能性がありますが、このデータがモデルのナレッジ ベースに組み込まれることを認識していない可能性があります。企業が意図せずに企業秘密、ソフトウェア コード、個人データを一般に漏洩する可能性があります。一部の AI ソリューションは、事前トレーニングされたモデルからデータを除外することでデータ プライバシーを保護する API などの回避策を提供していますが、データのプライバシーを保ちながら事前トレーニングされたモデルをケース固有のデータで強化することが理想的なユースケースであるため、これでは価値が制限されます。事前トレーニングされた AI ツールにデータの「ドメイン」の概念を理解させることが、この問題に対する 1 つの解決策です。トレーニング データの「共通」フィールドは事前トレーニングに使用され、エンティティ間で共有されますが、「独自データ」に基づくトレーニング モデルの拡張は組織の境界内に安全に制限されます。データ管理により、これらの境界が作成され、維持されることが保証されます。
AI による二次的著作物は、AI プロセスと最終的にはデータ所有者に関連するデータ管理の 3 番目の領域をカバーします。 AI ボットを使用してコーディングの問題を解決するとします。通常、何かが正しく処理されないとバグやエラーが発生するため、誰が調査して修正する責任があるのかを知っています。しかし、AI の場合、たとえプロセスやソース データについて透明性がなかったとしても、AI に実行を依頼したタスクから生じるエラーや悪影響については、私の組織が責任を負います。機械を責めることはできません。どこかで間違いや悪い結果を犯したのは人間です。 IP についてはどうですか? 生成 AI ツールを使用して作成された作品の IP を所有していますか? 法廷でどのように弁護しますか? Harvard Business Review によると、アート界はすでに訴訟を起こし始めています。
今検討すべきデータ管理戦略
これらの初期段階では、不良データ、プライバシー、セキュリティなど、AI について何がわからないのかわかりません。 、知識 財産権およびその他の機密データセットに対するリスク。人工知能は、LLM、ロジックベースの自動化などの複数のアプローチを備えた幅広い分野でもあります。これらは、データ ガバナンス ポリシーとデータ管理の実践を組み合わせて検討されるトピックのほんの一部です:
- #監視戦略、ポリシー、
- 統合データ管理のガイドライン: データがどこに存在するかに関係なく、データをしっかりと理解することから始めます。機密の個人情報や顧客データはどこにありますか?どれくらいの IP データがあり、これらのファイルはどこにありますか?これらの種類のデータが AI ツールに誤って入力されないように使用状況を監視し、セキュリティやプライバシーの侵害を防ぐことができますか?
- AI ツールがデータ ソースに対して透過的になる方法とその有無を理解します。
- ドメイン間でのデータの移植性を確保します。たとえば、チームは IP を売却し、特徴データを特定して、それを共通のデータにフィードすることを希望する場合があります。将来の使用に備えたトレーニング データセット。このプロセスの自動化と追跡が重要です。
- 策定中の業界規制やガイダンスについて常に最新の情報を入手し、同業他社と連携してください。
- 生成 AI プロジェクトに着手する前に、リスクとデータ管理を理解するために法律の専門家に相談してください。データ侵害、プライバシーと知的財産の侵害、悪意のある行為者、または誤った/誤った結果が発生した場合に従うべきプロセス
#企業における人工知能への実践的なアプローチ
人工知能は前例のない速度で発展しており、革新、コスト削減、ユーザー エクスペリエンスの向上に大きな可能性を秘めています。最も強力な Like ツールと同様に、人工知能も適切な環境で慎重に適用され、適切なデータが備えられている必要がありますセキュリティを確保するためのガバナンスおよびデータ管理措置 人工知能データ管理の分野では、明確な基準がなく、継続的な研究が必要です 人工知能を使用する場合、企業は適用する前に注意を払い、データ漏洩やデータ侵害について十分に理解していることを確認する必要がありますおよび潜在的なデータセキュリティリスク。
以上がデータ管理が生成型 AI に与える影響の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

AI Hentai Generator
AIヘンタイを無料で生成します。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ホットトピック









このサイトは6月27日、JianyingはByteDanceの子会社であるFaceMeng Technologyによって開発されたビデオ編集ソフトウェアであり、Douyinプラットフォームに依存しており、基本的にプラットフォームのユーザー向けに短いビデオコンテンツを作成すると報告しました。 Windows、MacOS、その他のオペレーティング システム。 Jianyingは会員システムのアップグレードを正式に発表し、インテリジェント翻訳、インテリジェントハイライト、インテリジェントパッケージング、デジタルヒューマン合成などのさまざまなAIブラックテクノロジーを含む新しいSVIPを開始しました。価格的には、クリッピングSVIPの月額料金は79元、年会費は599元(当サイト注:月額49.9元に相当)、継続月額サブスクリプションは月額59元、継続年間サブスクリプションは、年間499元(月額41.6元に相当)です。さらに、カット担当者は、ユーザーエクスペリエンスを向上させるために、オリジナルのVIPに登録している人は、

検索強化生成およびセマンティック メモリを AI コーディング アシスタントに組み込むことで、開発者の生産性、効率、精度を向上させます。 JanakiramMSV 著者の EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG から翻訳。基本的な AI プログラミング アシスタントは当然役に立ちますが、ソフトウェア言語とソフトウェア作成の最も一般的なパターンに関する一般的な理解に依存しているため、最も適切で正しいコードの提案を提供できないことがよくあります。これらのコーディング アシスタントによって生成されたコードは、彼らが解決する責任を負っている問題の解決には適していますが、多くの場合、個々のチームのコーディング標準、規約、スタイルには準拠していません。これにより、コードがアプリケーションに受け入れられるように修正または調整する必要がある提案が得られることがよくあります。

AIGC について詳しくは、51CTOAI.x コミュニティ https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou を参照してください。これらの質問は、インターネット上のどこでも見られる従来の質問バンクとは異なります。既成概念にとらわれずに考える必要があります。大規模言語モデル (LLM) は、データ サイエンス、生成人工知能 (GenAI)、および人工知能の分野でますます重要になっています。これらの複雑なアルゴリズムは人間のスキルを向上させ、多くの業界で効率とイノベーションを推進し、企業が競争力を維持するための鍵となります。 LLM は、自然言語処理、テキスト生成、音声認識、推奨システムなどの分野で幅広い用途に使用できます。 LLM は大量のデータから学習することでテキストを生成できます。

大規模言語モデル (LLM) は巨大なテキスト データベースでトレーニングされ、そこで大量の現実世界の知識を取得します。この知識はパラメータに組み込まれており、必要なときに使用できます。これらのモデルの知識は、トレーニングの終了時に「具体化」されます。事前トレーニングの終了時に、モデルは実際に学習を停止します。モデルを調整または微調整して、この知識を活用し、ユーザーの質問により自然に応答する方法を学びます。ただし、モデルの知識だけでは不十分な場合があり、モデルは RAG を通じて外部コンテンツにアクセスできますが、微調整を通じてモデルを新しいドメインに適応させることが有益であると考えられます。この微調整は、ヒューマン アノテーターまたは他の LLM 作成物からの入力を使用して実行され、モデルは追加の実世界の知識に遭遇し、それを統合します。

編集者 |ScienceAI 質問応答 (QA) データセットは、自然言語処理 (NLP) 研究を促進する上で重要な役割を果たします。高品質の QA データ セットは、モデルの微調整に使用できるだけでなく、大規模言語モデル (LLM) の機能、特に科学的知識を理解し推論する能力を効果的に評価することもできます。現在、医学、化学、生物学、その他の分野をカバーする多くの科学 QA データ セットがありますが、これらのデータ セットにはまだいくつかの欠点があります。まず、データ形式は比較的単純で、そのほとんどが多肢選択式の質問であり、評価は簡単ですが、モデルの回答選択範囲が制限され、科学的な質問に回答するモデルの能力を完全にテストすることはできません。対照的に、自由回答型の Q&A

機械学習は人工知能の重要な分野であり、明示的にプログラムしなくてもコンピューターにデータから学習して能力を向上させる機能を提供します。機械学習は、画像認識や自然言語処理から、レコメンデーションシステムや不正行為検出に至るまで、さまざまな分野で幅広く応用されており、私たちの生活様式を変えつつあります。機械学習の分野にはさまざまな手法や理論があり、その中で最も影響力のある 5 つの手法は「機械学習の 5 つの流派」と呼ばれています。 5 つの主要な学派は、象徴学派、コネクショニスト学派、進化学派、ベイジアン学派、およびアナロジー学派です。 1. 象徴主義は、象徴主義とも呼ばれ、論理的推論と知識の表現のためのシンボルの使用を強調します。この学派は、学習は既存の既存の要素を介した逆演繹のプロセスであると信じています。

編集者 | KX 医薬品の研究開発の分野では、タンパク質とリガンドの結合親和性を正確かつ効果的に予測することが、医薬品のスクリーニングと最適化にとって重要です。しかし、現在の研究では、タンパク質とリガンドの相互作用における分子表面情報の重要な役割が考慮されていません。これに基づいて、アモイ大学の研究者らは、初めてタンパク質の表面、3D 構造、配列に関する情報を組み合わせ、クロスアテンション メカニズムを使用して異なるモダリティの特徴を比較する、新しいマルチモーダル特徴抽出 (MFE) フレームワークを提案しました。アライメント。実験結果は、この方法がタンパク質-リガンド結合親和性の予測において最先端の性能を達成することを実証しています。さらに、アブレーション研究は、この枠組み内でのタンパク質表面情報と多峰性特徴の位置合わせの有効性と必要性を実証しています。 「S」で始まる関連研究

7月5日のこのウェブサイトのニュースによると、グローバルファウンドリーズは今年7月1日にプレスリリースを発行し、自動車とインターネットでの市場シェア拡大を目指してタゴール・テクノロジーのパワー窒化ガリウム(GaN)技術と知的財産ポートフォリオを買収したことを発表した。モノと人工知能データセンターのアプリケーション分野で、より高い効率とより優れたパフォーマンスを探求します。生成 AI などのテクノロジーがデジタル世界で発展を続ける中、窒化ガリウム (GaN) は、特にデータセンターにおいて、持続可能で効率的な電力管理のための重要なソリューションとなっています。このウェブサイトは、この買収中にタゴール・テクノロジーのエンジニアリングチームがGLOBALFOUNDRIESに加わり、窒化ガリウム技術をさらに開発するという公式発表を引用した。 G
