ChatGPT が普及した後、Microsoft、Google、Meta などの大手企業がこのゲームに参入しました。
その結果、人々はその広範な適用についても懸念を表明しています。
元アルファベットエグゼクティブディレクターのエリック・シュミット氏と他の共著者は、WSJに掲載された記事の中で、
生成人工知能は啓蒙主義以来経験したことのない哲学的かつ実践的な課題を提起していると述べた。
つい昨日、OpenAI CEO の Sam Altman 氏は、OpenAI の汎用人工知能 (AGI) に関する現在および今後の計画を共有する記事を発表しました。
この記事では、OpenAI の使命は、AGI が全人類に確実に利益をもたらすことであると強調しています。
OpenAI ビジョン: AGI が全人類に利益をもたらすことを保証する
この記事では、OpenAI が最も懸念している 3 つの原則を提唱します。
AGI が最終的に構築に成功すれば、この技術はより多くの可能性をもたらし、世界経済の発展を促進するだけでなく、新たな科学的知識の発見を変え、人類があらゆる面で生活水準を向上させるのに役立ちます。
AGI は誰にでも驚くべき新しい能力を与えることができます。
AGI が手の届く世界では、誰もがほぼすべての認知能力のサポートを受けることができ、AGI は人間の知性と創造性を高める大きなパワーアンプになる可能性があります。
しかしその一方で、一部の人々が心配しているように、一般的な人工知能は深刻な虐待、事故、社会的混乱を引き起こす可能性もあります。
しかし、AGI の利点は驚くべきものであり、この問題を無視して社会の発展を永久に停止させることはできません。逆に、社会と AGI 開発者はそれをうまく実現する方法を見つけなければなりません。
一般的な人工知能と共存する将来像を予測することは困難です。現在の AI の進歩は新たな課題に直面する可能性がありますが、ChatGPT が成功した時点で、当社が最も懸念している原則をいくつか挙げました。 about:
1. AGI が人類に力を与え、人類が宇宙で最大の繁栄を達成できることが期待されています。私たちは未来が偽りのユートピアになることを望んでいませんが、テクノロジーの良い面を最大限に活用し、悪い面を最小限に抑えて、AGI が人間の善意を増幅させる存在になれることを望んでいます。
2. AGI の利点、アクセス、ガバナンスが公平な方法でより広く共有されることを願っています。
3. 潜在的なリスクに正しく対応します。こうしたリスクに直面すると、理論上は正しいと思われることでも、実際にコントロールするのは予想以上に難しいことがよくあります。私たちは、「復帰不能点」を最小限に抑えるために、テクノロジーの強力ではないバージョンを導入することで学習し、適応し続ける必要があります。
したがって、OpenAI は短期的には次のことを行う予定です。
まず第一に、当社はより強力な AI システムの構築を継続しており、AGI を迅速に展開して、対応するアプリケーション エクスペリエンスを蓄積したいと考えています。
OpenAI の見解では、AGI を慎重に管理する最善の方法は、AGI が遍在する世界に徐々に移行することです。将来的には、強力な人工知能テクノロジーが世界の進歩のペースを加速させることができると私たちは予想しています。
段階的なアプローチにより、国民、政策立案者、研究機関は、AGI テクノロジーによってもたらされる変化を理解し、経験する時間を確保できるようになります。これらの制度のメリットとデメリットを直接理解し、経済組織の形態を調整し、効果的な監督を実施します。
#同時に、段階的開発手法は社会と AI の進歩を促進し、人々が比較的低いリスクで自分自身を理解できるようにすることもできます。
OpenAI は、AI アプリケーションの課題をうまく解決する最善の方法は、迅速な学習と慎重な反復による緊密なフィードバック ループを採用することであると考えています。新しいテクノロジーの影響下で、社会は「人工知能システムに何ができるのか、偏見をどう排除するのか、雇用の喪失にどう対処するのか」といった大きな課題に直面することになる。
AI テクノロジーの使用を増やすことは大きな効果をもたらします。OpenAI は、モデルをサービス API に組み込んでオープンソースにすることで、このテクノロジーの推進に貢献したいと考えています。
OpenAI は、開発するシステムが AGI に近づくにつれて、モデルの作成と展開の両方においてますます慎重になっていると述べました。
OpenAI は、大規模なモデルを使用するメリットとデメリットを比較検討する必要があります。先進的な大規模モデルの使用は重要な科学技術の進歩を示す一方で、企業や機関はモデルの使用後、悪意のある行為者をどのように制限し、悪影響を回避するかなどの問題も考慮する必要があります。社会も経済も。
第二に、OpenAI は、より一貫性があり、制御可能なモデルを作成するために懸命に取り組んでいます。 GPT-3 の最初のバージョンから InstructGPT および ChatGPT まで、この段階的な変換は AI セキュリティにおける OpenAI の取り組みを示しています。
人間社会は、人工知能の使用方法に関して非常に幅広い境界線に到達する必要があることは注目に値します。モデルがより強力になるにつれて、OpenAI は新しい調整技術を開発する必要があります。
OpenAI の短期計画は、AI を使用して、人間がより複雑なモデルの出力を評価し、複雑なシステムを監視できるようにすることであり、長期的には、OpenAI は AI を使用して、より優れたアライメント テクノロジの取得を支援します。
OpenAI は、人工知能の安全性と機能は同様に重要であり、この 2 つを別々に議論すべきではないと考えています。 OpenAI は、最も安全な作業は最も有能なモデルから得られると述べています。つまり、人工知能の安全性を高めることは、AI研究を進める上で非常に重要なのです。
第三に、OpenAI は、人工知能システムのガバナンス、AI システムによって生み出される利益の分配、アクセス権の共有という 3 つの重要な問題を地球規模で解決したいと考えています。
さらに、OpenAI の会社憲章によれば、OpenAI はセキュリティを向上させるために他の組織を支援する必要があり、AGI のその後の開発において競合他社と競合することはできません。
OpenAI の投資ルールは、研究機関自体が壊滅的に危険なテクノロジーを使用して無制限の価値やリスクを獲得しようとする誘惑にかられないように、株主が獲得できる利益に上限を設定しています。
OpenAI は、非営利組織によって管理されており、この組織が人類の利益のために運営され、いかなる営利目的も優先されます。
最後に、OpenAI は、世界中の政府が一定規模を超えた機械学習トレーニングの監督を維持する必要があると考えています。
短期計画と比較すると、OpenAI の AGI の長期開発はより野心的であるように見えます。
OpenAI は、人類の未来は人間自身によって決定されるべきであり、進歩に関する情報を一般の人々と共有することが重要であると考えています。したがって、すべての AGI 開発プロジェクトは厳密に精査され、重要な決定については一般の人々の意見を聞く必要があります。
OpenAI の見解では、最初の AGI は人工知能の継続的な開発における小さなノードにすぎず、新たな進歩はこのノードから引き出され続けるでしょう。同社は、将来の AI の発展は、私たちが過去 10 年間に長い間経験してきた進歩のペースと同様になる可能性があると予測しています。
もしかしたら、いつか世界は激変し、テクノロジーの進歩は人類に大きなリスクをもたらすかもしれません。 「置き場所を間違えた」超インテリジェント AGI は、世界に深刻な危害を引き起こす可能性があります。
したがって、OpenAI は、AGI の開発スピードを遅くしたほうが安全性を確保しやすいと考えています。テクノロジーの進歩により、AGI を急速に開発できるようになりましたが、減速を維持することで社会が適応するのに十分な時間が与えられます。
超知性を備えた世界への移行の成功は、人類の歴史の中で最も重要で、有望で、そして恐ろしいプロジェクトかもしれません。その日がいつ来るかは誰も保証できませんが、賭け金は明らかであり、全員が団結するのに役立ちます。
何があっても、想像を超える豊かな世界になるでしょう。そしてOpenAIは、この繁栄に見合った汎用人工知能を世界に貢献したいと考えています。
最近、ヘンリー・キッシンジャー元米国国務長官、元アルファベット常務取締役エリック・シュミット、そしてMITシュワルツマン・スクール・オブ・コンピューティングの初代学部長ダニエル・ハッテンロッカーは次のように書いた。記事「ChatGPT は知的革命を告げる」。
記事は、現在の生成型人工知能に対する彼らの懸念を明らかにしました:
生成型人工知能は、啓蒙主義以来経験されていない哲学的および実践的な課題をもたらします。
この記事は、ChatGPT が人間に及ぼす現在の影響についての説明から始まります。
新しいテクノロジーは、印刷の発明以来一度も衰えることなく、人間の認知プロセスを変えることを目指しています。
1455 年にグーテンベルクの聖書を印刷するために使用された技術により、人間の抽象的な概念が広く急速に広まりました。しかし、今日の新しいテクノロジーはこのプロセスを逆転させます。
印刷機は現代の人間の思考のほとばしりを引き起こし、新しいテクノロジーによってその洗練と精緻化が可能になりました。
その過程で、人間の知識と人間の理解の間にギャップが生じます。
この移行をうまく乗り切るには、人間の心と機械との相互作用に関する新しい概念を発明する必要があります。これは人工知能の時代における根本的な課題です。
この新しい技術は生成型人工知能と呼ばれるもので、代表的なものはOpenAI研究所が開発したChatGPTです。
その機能がさらに広範になるにつれて、人類の知識を再定義し、現実構造の変化を加速し、政治と社会を再編成するでしょう。
生成人工知能は、人間の合理性への革命的な道を切り開き、知識の統合のための新たな地平を切り開きます。
しかし、この 2 つには明らかな違いもあります。悟りの知識は段階的に達成され、各段階は測定可能であり、教えることが可能です。
ChatGPT などの AI システムは、大量の既存の情報を保存して絞り込むことができ、人間にはできないプロセスを説明することなく結果を出力できます。
さらに、人工知能の能力は静的なものではなく、テクノロジーの進歩とともに指数関数的に増加します。
私たちは、人々が生成型 AI の双方向性に異議を唱え、AI の答えを正当化または説明するだけでなく、質問することもできる洗練された弁証法を開発することを緊急に必要としています。
私たちは、一定の懐疑心を持ちながら、人工知能を系統的に調査し、その答えが信頼できるかどうか、またどの程度信頼できるかを評価する方法を学ぶ必要があります。これには、無意識の偏見を減らすための意識的な努力、厳しいトレーニング、そして多くの練習が必要です。
疑問は残ります: 私たちは従うのではなく挑戦するほど早く学習できるでしょうか?それとも最終的には従わなければならないのでしょうか?私たちがエラーと認識しているものは、意図的な設計の一部なのでしょうか?人工知能に悪意のある要素が存在したらどうなるでしょうか?
もう 1 つの重要なタスクは、どの質問を人間の思考に任せる必要があり、どの質問がリスクを負って自動化に委ねられるかを熟考することです。システム。
しかし、懐疑論と尋問技術が高まったとしても、ChatGPT は生成テクノロジーの魔神が瓶から出てきたことを証明しています。私たちは質問についてよく考えなければなりません。
このテクノロジーがより広く理解されるようになると、国際関係に大きな影響を与えるでしょう。知識の技術が普遍的に共有されない限り、帝国主義は人工知能の最新の進歩を達成するためにデータの取得と独占に焦点を当てるかもしれません。
モデルは、収集されたデータに応じて異なる結果を生成する場合があります。社会のさまざまな進化は、ますます異なる知識ベース、つまり課題に対するさまざまな認識に基づいて進化する可能性があります。
この記事の最後では、人々に深く考えさせる 2 つの質問が提起されています:
このテクノロジーを完全に制御できなかったらどうなるでしょうか?
嘘をつく方法が常に存在し、偽の写真やビデオを作成し、人々が見聞きするものを信じないことを決して学ばないとしたらどうなるでしょうか?
Meta のチーフ AI サイエンティスト、LeCun 氏は次のように答えました。
- 人々はソースをより適切に追跡し、見聞きするものの信頼性を評価する方法を学ぶでしょう。これは最も効果的です。新しいテクノロジーの助けを借りている可能性があります。
- 現在の自己回帰 LLM は制御不可能であることで悪名高いですが、新しい AI システムは必要に応じて制御可能で現実的で無害です。
一部のネチズンは、アンディ・グローブの「選択肢は 2 つある。適応するか、死ぬかだ」という言葉を引用しました。
あなただったらどうしますか?
参考文献:
https://openai.com/blog/planning-for-agi-and-beyond/
https://www.wsj.com / Articles/chatgpt-heralds-an-intellectual-revolution-enlightenment-artificial-intelligence-homo-technicus-technology-cognition-morality-philosophy-774331c6
https://twitter.com/ericschmidt/status/ 1629361652574621701
以上がChatGPT は知的革命を引き起こします! OpenAI が AGI ロードマップをリリース、最終的には超インテリジェントな世界につながるの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。