OpenAIのChatGPTによって引き起こされる8つの主要な問題
ChatGPT は、強力な人工知能チャットボットであり、発売後すぐに人々に感銘を与えましたが、多くの人がいくつかの重大な欠陥があることを指摘しました。
セキュリティの脆弱性からプライバシーの問題、未公開のトレーニング データに至るまで、人工知能チャットボットの使用については多くの懸念がありますが、このテクノロジーはすでにアプリケーションに統合されており、多くのユーザーによって使用されています。学生から会社員まで。
人工知能の発展は衰える気配がないため、ChatGPT の問題を理解することがさらに重要です。 ChatGPT は人々の未来を変えるので、ChatGPT に関する最も重要な問題をいくつか紹介します。
ChatGPT とは何ですか?
ChatGPT は、人間の自然言語を生成するために設計された大規模な言語モデルです。誰かと話すのと同じように、人々は ChatGPT に話しかけることができ、ChatGPT は人々が過去に言ったことを覚えていると同時に、異議が唱えられたときに自動的に修正することもできます。
ウィキペディア、ブログ投稿、書籍、学術論文など、インターネット上のさまざまなテキストに基づいてトレーニングされます。人間のような方法で反応することに加えて、今日の世界に関する情報を思い出したり、過去の歴史情報を抽出したりすることができます。
ChatGPT の使用方法を学ぶのは簡単ですが、AI システムには問題がないと思われてしまいがちです。しかし、このリリースから数か月の間に、プライバシー、セキュリティ、そして仕事から教育に至る人々の生活への広範な影響について、重要な疑問が生じています。
1. セキュリティの脅威とプライバシーの問題
2023 年 3 月、ChatGPT にセキュリティの脆弱性が発生し、一部のユーザーのサイドバーに他の人の会話のタイトルが表示されるようになりました。ユーザーのチャット履歴を誤って共有してしまうことは、どのテクノロジー企業にとっても深刻な問題であり、この人気のチャットボットを使用している人の数を考えると特に問題です。
ロイターによると、2023 年 1 月だけで、ChatGPT の月間アクティブ ユーザー数は 1 億人に達しました。データ漏洩の原因となった脆弱性はすぐに修正されたが、イタリアのデータ規制当局はOpenAIに対し、イタリアのユーザーデータのすべての処理を停止するよう要請した。
当局は、ChatGPTが欧州のプライバシー規制に違反していると疑っている。この問題を調査した後、OpenAI はチャットボットを復元する前にいくつかの要件を満たすよう求められました。
OpenAI は、いくつかの大きな変更を加えることで最終的に問題を解決しました。まず、18歳以上または13歳以上の人のみが保護者の許可を得てアプリを利用できるよう、年齢制限が追加されました。また、プライバシー ポリシーをより可視化し、ユーザーが ChatGPT のトレーニングに使用されるデータを除外したり、希望に応じてデータを完全に削除したりできるオプトアウト フォームを提供しました。
これらの変更は良いスタートですが、これらの改善はすべての ChatGPT ユーザーに拡張される必要があります。
ChatGPT がセキュリティ上の脅威となる唯一の方法ではありません。ユーザーと同様に、従業員も機密情報を誤って共有してしまいがちです。良い例は、Samsung の従業員が会社情報を ChatGPT で複数回共有したことです。
2. ChatGPT のトレーニングとプライバシーの問題に関する懸念
ChatGPT の人気の後、多くの人々が OpenAI が最初にそのモデルをどのようにトレーニングしたかに疑問を抱きました。
イタリアでのデータ侵害後も、OpenAI のプライバシー ポリシーは改善されましたが、ヨーロッパを対象とするデータ保護法である一般データ保護規則の要件を満たすのに苦労しました。 TechCrunch が報じているように、「GPT モデルがイタリア国民の個人データでトレーニングされたかどうか、つまり、インターネットから公開データを収集するときに個人データが効果的かつ合法的に処理されたかどうかは不明です。あるいは、ユーザーが現在その削除を求めているのかどうかも不明です。データ、モデルのトレーニングに以前に使用されたデータが削除されるか、削除できるかどうか。"
OpenAI 会社が ChatGPT をトレーニングするときに個人情報を収集した可能性が非常に高いです。米国の法律はそれほど明確ではありませんが、欧州のデータ規制は、個人情報を公開するか非公開で公開するかにかかわらず、依然として個人データの保護に重点を置いています。
アーティストらもトレーニング データとして使用されることに反対し、自分たちの作品が AI モデルでトレーニングされることに同意したことはないと同様の主張を行っています。一方、ゲッティイメージズは、人工知能モデルのトレーニングに著作権で保護された画像を使用したとしてStability.AI社を訴えた。
OpenAI 企業がトレーニング データを公開しない限り、透明性が欠如しており、それが合法かどうかを知ることは困難です。たとえば、人々は ChatGPT トレーニングの詳細、使用されたデータ、データの出所、システム アーキテクチャの詳細がどのようなものであるかをまったく知りません。
3. ChatGPT は間違った答えを生成します
ChatGPT は基本的な数学が苦手で、単純な論理的な質問に答えることができないようで、完全に間違った事実を主張することさえあります。ソーシャルメディア上の人々が証言しているように、ChatGPT は多くの場合に問題が発生する可能性があります。
OpenAI Corporation はこれらの制限を理解しています。 「ChatGPT は、合理的に聞こえるかもしれないが、間違っている、または意味をなさない回答を書くことがあります。」と同社は述べています。この事実とフィクションの錯覚は、医学的アドバイスや重要な歴史的出来事の解釈に役立つ可能性があると同社は述べています。特に事実の正しい理解などに関しては危険です。
Siri や Alexa などの他の人工知能アシスタントとは異なり、ChatGPT は答えを探すためにインターネットを使用しません。代わりに、トレーニングに基づいて最も可能性の高い「トークン」を選択し、一語一語文を構築します。言い換えれば、ChatGPT は一連の推測を行うことによって答えを導き出すため、間違った答えをあたかも完全に正しいかのように主張することができます。
複雑な概念を説明するのに優れており、強力な学習ツールになりますが、書かれていることをすべて信じないことが重要です。 ChatGPT は、少なくともまだ正しいとは限りません。
4. ChatGPT のシステムにはバイアスがあります
ChatGPT は、世界中の人間の過去と現在の著作に基づいてトレーニングされています。残念ながら、これは、現実世界に存在するバイアスが AI モデルにも現れる可能性があることを意味します。
ChatGPT は、性別、人種、少数派グループを差別する不適切な回答を生成することが判明しており、同社はこれらの問題を軽減するために取り組んでいます。
これを説明する 1 つの方法は、データが問題であると指摘し、インターネットの内外での偏見を人間のせいにすることです。しかし、責任の一部は OpenAI 社にもあり、同社の研究者と開発者は ChatGPT のトレーニングに使用されるデータを選択しました。
OpenAIはこれが問題であることを改めて認識しており、ユーザーからのフィードバックを収集し、悪い、不快な、または単に間違っているChatGPT出力にフラグを立てるよう奨励することで「偏った行動」に対処していると述べている。
ChatGPT は人々に害を及ぼす可能性があるため、これらの問題が調査され解決されるまで ChatGPT を一般公開すべきではないと主張する人もいるかもしれません。しかし、最も強力な人工知能モデルを作成する最初の企業になろうとする意欲は、OpenAI にとって警戒を強めるには十分でした。
対照的に、Googleの親会社であるAalphabetは、「Sparrow」と呼ばれる同様の人工知能チャットボットを2022年9月にリリースしました。しかし、このロボットは同様の安全上の懸念から放棄されました。
同じ頃、Facebook は学術研究を支援するために設計された、Gaoptica と呼ばれる人工知能言語モデルをリリースしました。しかし、科学研究に関連した誤った偏った結果を出力しているとして多くの批判があったため、すぐに撤回されました。
5. チャット テクノロジーが人間の仕事に取って代わる可能性がある
ChatGPT の急速な開発と展開はまだ落ち着いていませんが、基礎となるテクノロジーが多くのビジネス アプリケーションに統合されることは妨げられていません。 GPT-4 を統合したアプリには、Duolingo や Khan Academy などがあります。
前者は語学学習アプリケーション、後者は多様な教育学習ツールです。どちらも、本質的には AI 講師、またはユーザーが学習中の言語で会話できる AI 駆動のキャラクターの形で提供されます。または、学習に対してカスタマイズされたフィードバックを提供できる AI 家庭教師として。
これは、人工知能が人間の仕事を置き換える始まりにすぎないかもしれません。混乱に直面している他の業界の仕事には、パラリーガル、弁護士、コピーライター、ジャーナリスト、プログラマーなどが含まれます。
一方で、人工知能は人々の学習方法を変える可能性があり、教育や訓練を受けやすくなり、学習プロセスも容易になる可能性があります。しかしその一方で、多くの人間の仕事も失われることになります。
イギリスの「ガーディアン」紙の報道によると、教育機関はロンドンとニューヨークの証券取引所で巨額の損失を被り、ChatGPTの立ち上げからわずか6か月後に人工知能が一部の市場に与えた損害を浮き彫りにした。
テクノロジーの進歩により、必ず職を失う人が出てきますが、人工知能の開発のスピードは、複数の産業分野が同時に急速な変化に直面していることを意味します。 ChatGPT とその基礎となるテクノロジーが人々の現代世界を完全に再構築することは否定できません。
6. チャット テクノロジーは教育業界にとって課題となっています
ユーザーは、ChatGPT に記事の校正を依頼したり、段落の改善方法を指摘したりすることができます。あるいは、ユーザーは自分自身を完全に解放して、ChatGPT にすべての書き込みを行わせることもできます。
多くの教師が ChatGPT で課題を出してみて、多くの生徒よりも良い答えを得ています。カバーレターの作成から有名な文学作品の主要なテーマの説明まで、ChatGPT はすべてをためらうことなく処理できます。
ここで疑問が生じます: ChatGPT が人々のために書けるとしても、学生は将来も書くことを学ぶ必要がありますか? 実存的な質問のように思えるかもしれませんが、学生が論文執筆を支援するために ChatGPT を使い始めると、学校はできるだけ早く対応しなければなりません。
危険にさらされているのは英語ベースの科目だけではありません。ChatGPT は、ブレインストーミング、要約、または情報に基づいた結論の引き出しを伴うあらゆるタスクを行う人々を支援します。
驚くことではないが、すでに人工知能を実験している学生もいる。 Stanford Daily によると、初期の調査では、多くの学生が課題や試験を完了するために人工知能を使用していることが示されています。これに応じて、一部の教育者は、人工知能を使用してコースをナビゲートしたり、テストで不正行為をしたりする学生に対処するためにコースを書き換えています。
7. ChatGPT は現実世界に害を及ぼす可能性があります
リリース直後、何者かが ChatGPT をハッキングしようとし、人工知能モデルが攻撃の生成を防ぐように設計された OpenAI のセキュリティ ガードレールをバイパスできるようにしました。テキスト。
ChatGPT Reddit のユーザー グループは、制限のない人工知能モデルを「Do Anything Now」の略で DAN と名付けました。悲しいことに、自分が喜ぶことを何でも行うと、ハッカーによるオンライン詐欺が増加します。 Ars Technica のレポートによると、ハッカーはマルウェアを作成したりフィッシングメールを生成したりできる、手に負えない ChatGPT サービスを販売しています。
人間から機密情報を抽出することを目的としたフィッシングメールを特定することは、AI が生成したテキストでははるかに困難になります。以前は文法エラーは明らかな危険信号でしたが、ChatGPT は散文から詩、電子メールに至るまで、さまざまなテキストを流暢に作成できるため、現在は危険信号ではない可能性があります。
虚偽の情報の拡散も深刻な問題です。 ChatGPT によって生成されるテキストの規模は、誤った情報を説得力があるように聞こえる能力と組み合わせることで、インターネット上のあらゆるものを疑わしいものにし、ディープフェイク技術の危険性を悪化させます。
ChatGPT が情報を生成する速度は、日常の質問に対する正しい答えを提供することに特化した Web サイトである Stack Exchange に問題を引き起こしています。 ChatGPT がリリースされて間もなく、多数のユーザーが ChatGPT に回答を生成するよう求めました。
この情報を分類するのに十分な人間のボランティアがなければ、高レベルの質の高い回答を提供することは不可能です。言うまでもなく、答えの中には単に正しくないものもあります。サイトの破壊を避けるために、Stack Exchange はすべての回答を生成するための ChatGPT の使用を無効にします。
8. OpenAI はすべてを制御する力を持っています
大きな力には大きな責任が伴い、OpenAI は大きな力を持っています。 Dall-E 2、GPT-3、GPT-4 などの複数のモデルを使用して AI モデルを実際に生成した最初の AI 開発者の 1 つです。
OpenAI は民間企業として、ChatGPT のトレーニングに使用するデータを選択し、新しい開発を展開する速度を選択します。その結果、多くの専門家が人工知能によってもたらされる危険性について警告していますが、危険性が衰える兆しはほとんどありません。
代わりに、ChatGPT の人気により、Microsoft の Bing AI や Google の Bard など、大手テクノロジー企業の間で次の大きな AI モデルの立ち上げ競争に拍車がかかっています。世界中の多くのテクノロジーリーダーが、人工知能モデルの急速な開発が深刻なセキュリティ問題につながる可能性があるとの懸念から、人工知能モデルの開発の遅延を求める書簡に署名した。
OpenAI は安全性が最優先事項であると信じていますが、モデル自体がどのように機能するかについては、良くも悪くもまだ知らないことがたくさんあります。結局のところ、ほとんどの人は、OpenAI が責任を持って ChatGPT を研究、開発、使用することを盲目的に信頼している可能性があります。
その手法に同意するかどうかに関係なく、OpenAI は民間企業であり、同社は独自の目標と倫理基準に従って ChatGPT の開発を継続することを覚えておく価値があります。
人工知能の最大の問題を解決する
ChatGPT には楽しみな点がたくさんありますが、すぐに役立つということ以外にも、いくつかの深刻な問題があります。
OpenAI は、ChatGPT が有害で偏った回答を生成する可能性があることを認めており、ユーザーのフィードバックを収集することでこの問題を軽減したいと考えています。しかし、そうでないとしても、説得力のあるテキストが生成される可能性があり、悪意のある者によって簡単に悪用される可能性があります。
プライバシーとセキュリティの侵害により、OpenAI のシステムが脆弱であり、ユーザーの個人データが危険にさらされている可能性があることが判明しました。問題をさらに厄介にしているのは、一部の人々が ChatGPT をクラックし、無制限のバージョンを使用して前例のない規模でマルウェアや詐欺を作成していることです。
雇用への脅威と教育業界への潜在的な混乱に対する懸念が高まっています。新しいテクノロジーでは、将来どのような問題が発生するかを予測するのは難しく、残念なことに、ChatGPT はすでに相当な課題を抱えています。
以上がOpenAIのChatGPTによって引き起こされる8つの主要な問題の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

AI Hentai Generator
AIヘンタイを無料で生成します。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ホットトピック









2023年、AI技術が注目を集め、プログラミング分野を中心にさまざまな業界に大きな影響を与えています。 AI テクノロジーの重要性に対する人々の認識はますます高まっており、Spring コミュニティも例外ではありません。 GenAI (汎用人工知能) テクノロジーの継続的な進歩に伴い、AI 機能を備えたアプリケーションの作成を簡素化することが重要かつ緊急になっています。このような背景から、AI 機能アプリケーションの開発プロセスを簡素化し、シンプルかつ直観的にし、不必要な複雑さを回避することを目的とした「SpringAI」が登場しました。 「SpringAI」により、開発者はAI機能を搭載したアプリケーションをより簡単に構築でき、使いやすく、操作しやすくなります。

OpenAI は最近、最新世代の埋め込みモデル embeddingv3 のリリースを発表しました。これは、より高い多言語パフォーマンスを備えた最もパフォーマンスの高い埋め込みモデルであると主張しています。このモデルのバッチは、小さい text-embeddings-3-small と、より強力で大きい text-embeddings-3-large の 2 つのタイプに分類されます。これらのモデルがどのように設計され、トレーニングされるかについてはほとんど情報が開示されておらず、モデルには有料 API を介してのみアクセスできます。オープンソースの組み込みモデルは数多くありますが、これらのオープンソース モデルは OpenAI のクローズド ソース モデルとどう違うのでしょうか?この記事では、これらの新しいモデルのパフォーマンスをオープンソース モデルと実証的に比較します。データを作成する予定です

AIモデルによって与えられた答えがまったく理解できない場合、あなたはそれをあえて使用しますか?機械学習システムがより重要な分野で使用されるにつれて、なぜその出力を信頼できるのか、またどのような場合に信頼してはいけないのかを実証することがますます重要になっています。複雑なシステムの出力に対する信頼を得る方法の 1 つは、人間または他の信頼できるシステムが読み取れる、つまり、考えられるエラーが発生する可能性がある点まで完全に理解できる、その出力の解釈を生成することをシステムに要求することです。見つかった。たとえば、司法制度に対する信頼を築くために、裁判所に対し、決定を説明し裏付ける明確で読みやすい書面による意見を提供することを求めています。大規模な言語モデルの場合も、同様のアプローチを採用できます。ただし、このアプローチを採用する場合は、言語モデルが

小紅書は人工知能機能を追加することで製品の充実に取り組んでおり、国内メディアの報道によると、小紅書はメインアプリで「Davinci」と呼ばれるAIアプリケーションを社内でテストしているという。このアプリケーションは、旅行ガイド、グルメガイド、地理的および文化的知識、ライフスキル、個人の成長、心理的構築などを含む、インテリジェントな質疑応答などの AI チャット サービスをユーザーに提供できると報告されています。はトレーニングに Meta A 製品の LLAMA モデルを使用しており、この製品は今年 9 月からテストされています。小紅書もAIのグループ会話機能の社内テストを行っていたという噂がある。この機能では、ユーザーはグループチャットでAIキャラクターを作成または紹介し、会話やインタラクションを行うことができます 画像出典:T

著者丨コンパイル: TimAnderson丨プロデュース: Noah|51CTO Technology Stack (WeChat ID: blog51cto) Zed エディター プロジェクトはまだプレリリース段階にあり、AGPL、GPL、および Apache ライセンスの下でオープンソース化されています。このエディターは高性能と複数の AI 支援オプションを備えていますが、現在は Mac プラットフォームでのみ利用可能です。 Nathan Sobo 氏は投稿の中で、GitHub 上の Zed プロジェクトのコード ベースでは、エディター部分は GPL に基づいてライセンスされ、サーバー側コンポーネントは AGPL に基づいてライセンスされ、GPUI (GPU Accelerated User) インターフェイス部分はApache2.0ライセンス。 GPUI は Zed チームによって開発された製品です

少し前まで、OpenAISora はその驚くべきビデオ生成効果で急速に人気を博し、数ある文学ビデオ モデルの中でも際立って世界的な注目を集めるようになりました。 2 週間前にコストを 46% 削減した Sora トレーニング推論再現プロセスの開始に続き、Colossal-AI チームは世界初の Sora のようなアーキテクチャのビデオ生成モデル「Open-Sora1.0」を完全にオープンソース化し、全体をカバーしました。データ処理、すべてのトレーニングの詳細、モデルの重みを含むトレーニング プロセスを管理し、世界中の AI 愛好家と協力してビデオ作成の新時代を推進します。ちょっと覗いてみましょう。Colossal-AI チームがリリースした「Open-Sora1.0」モデルによって生成された賑やかな街のビデオを見てみましょう。オープンソラ1.0

MicrosoftとOpenAIが人型ロボットのスタートアップに巨額の資金を投資していることが年初に明らかになった。このうちマイクロソフトは9500万ドル、OpenAIは500万ドルを投資する予定だ。ブルームバーグによると、同社は今回のラウンドで総額5億米ドルを調達する予定で、資金調達前の評価額は19億米ドルに達する可能性がある。何が彼らを惹きつけるのでしょうか?まずはこの会社のロボット分野の実績を見てみましょう。このロボットはすべて銀と黒で、その外観はハリウッドの SF 大作映画に登場するロボットのイメージに似ています。今、彼はコーヒー カプセルをコーヒー マシンに入れています。正しく置かれていない場合でも、何もせずに自動的に調整されます。人間リモコン: ただし、しばらくすると、コーヒーを持ち帰って楽しむことができます: 家族にそれを認識した人はいますか? はい、このロボットは少し前に作成されました。

Ollama は、Llama2、Mistral、Gemma などのオープンソース モデルをローカルで簡単に実行できるようにする非常に実用的なツールです。この記事では、Ollamaを使ってテキストをベクトル化する方法を紹介します。 Ollama をローカルにインストールしていない場合は、この記事を読んでください。この記事では、nomic-embed-text[2] モデルを使用します。これは、短いコンテキストおよび長いコンテキストのタスクにおいて OpenAI text-embedding-ada-002 および text-embedding-3-small よりも優れたパフォーマンスを発揮するテキスト エンコーダーです。 o が正常にインストールされたら、nomic-embed-text サービスを開始します。
