ホームページ > ウェブ3.0 > AI 検閲: チャールズ・ホスキンソン氏が危険な傾向について警告

AI 検閲: チャールズ・ホスキンソン氏が危険な傾向について警告

WBOY
リリース: 2024-07-02 06:08:20
オリジナル
488 人が閲覧しました

カルダノ (ADA) の創設者であるチャールズ・ホスキンソンは、人工知能 (AI) 検閲という新たな傾向に警鐘を鳴らしました。彼の緊急メッセージは、特定の知識や情報を制限することの潜在的な結果を強調しています。

AI Censorship: Charles Hoskinson Warns of a Dangerous Trend

カルダノ (ADA) 創設者チャールズ ホスキンソンは、人工知能 (AI) の検閲という不穏な傾向に対して警鐘を鳴らしています。最近の X 投稿で、ホスキンソンは特定の知識や情報を制限することの影響について懸念を共有しました。

「AI 検閲の重大な影響について懸念し続けています」とホスキンソンはツイートし、X 投稿のスクリーンショットを共有しました。 「『アライメント』トレーニングのせいで、時間の経過とともにその有用性が失われていきます。これは、特定の知識が成長期のすべての子供たちに禁じられていることを意味します。そして、それは会ったこともなく、知ることもできない少数の人々によって決定されます…」

ホスキンソンの投稿モデルが「調整」トレーニングを受ける際に、AI 検閲の影響を詳しく掘り下げます。彼は、これらのモデルは時間の経過とともにその有用性を失う危険性があり、特定の情報を非公開にするという決定は、公衆に対して説明責任を負わない選ばれた個人のグループによって行われると主張しています

彼の主張を説明するために、ホスキンソンは 2 つの明らかなスクリーンショットを共有しました。どちらの場合も、AI モデルは、潜在的に危険なデバイスであるファーンズワース フューザーを構築する方法を尋ねられました。

主要な AI モデルである ChatGPT 4o は、リスクを認め、専門家の監督の必要性を強調しました。しかし、装置の構築に必要なコンポーネントの概要を説明する作業は続けられました。

Anthropic の Claude 3.5 Sonnet も同様に反応し、危険性を認めながらも、ファンズワース フューザーに関する一般的な情報を提供しました。 AI モデルは、簡単な歴史的背景も提供しました。

ホスキンソン氏の懸念は、他の思想的リーダーや技術専門家にも共鳴しています。今月初め、OpenAI、Google DeepMind、Anthropic などの AI 大手の現従業員と元従業員のグループが公開書簡を書きました。彼らは、AI システムが誤った情報を広めることから、自律型 AI エンティティの制御不能に至るまでのリスクを強調し、最も悲惨な結果は人類の滅亡です。

これらの警告にもかかわらず、AI 業界は急速に進歩し続けています。ロビンフッドは最近、数学的スーパーインテリジェンス (MSI) に焦点を当てた商用 AI 研究ラボである Harmonic を発表しました。議論が激化する中、社会は知識の普及と安全性の適切なバランスを取ることに取り組んでいます。

チャールズ・ホスキンソンの行動喚起は、私たち全員への警鐘です。 AI の将来は、検閲が進歩を妨げたり、人類を危険にさらしたりしないように、この微妙なバランスをうまく調整できる私たちの能力にかかっています。

以上がAI 検閲: チャールズ・ホスキンソン氏が危険な傾向について警告の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ソース:kdj.com
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート