ChatGPT を使用する場合、AI を擬人化することが推奨されないのはなぜですか?

PHPz
リリース: 2023-06-03 10:20:16
転載
1172 人が閲覧しました

みんなが人工知能について話しているようです。他の人が何を言っているのか理解できない、または彼らが何をしているのかよくわからないと感じた場合は、心配しないでください。私がお手伝いします。

業界で最も優れた AI ジャーナリストを何名か招待し、自信を持って AI について語る方法についての最善のアドバイスを共有してもらいました。私と同僚は、このテクノロジーに夢中になり、AI 専門家の意見を聞き、彼らの発言を重要なコンテキストを含む明確で関連性のあるテキストに翻訳することに日々を費やしています。したがって、私たちは、私たちが話していることについてある程度のことは知っています。

人工知能について話すときに注意すべき 7 つの点を以下に示します。

ChatGPT を使用する場合、AI を擬人化することが推奨されないのはなぜですか?

バカに聞こえることを心配しないでください

「テクノロジー業界は大規模な言語モデルが世界を変えると主張していますが、それ自体を明確に説明するのがあまり得意ではありません。混乱しているとしても、それはあなただけではありません。」彼女は、人工知能に関する会話は次のようなもので満ちていると付け加えました。逆効果な専門用語。 「幻覚」は、AI システムが作り出す何かを言う特別な方法であり、「ヒント エンジニア」は、欲しいものを得るために AI に話しかける方法を知っている人のことです。

Tiku は、AI の概念とモデルについての YouTube の説明を見ることをお勧めします。彼女はこう言いました。「AI インフルエンサーをスキップして、より控えめなホストを選択してください。シンプルな技術的ソリューションが必要な場合は、IBM テクノロジーが良い選択です。人工知能がどのように機能するかをわかりやすく説明するのに役立ちます。」

人工知能についていくら話しても、誰かが文句を言うでしょう。 MITテクノロジーレビューの人工知能上級編集者であるウィル・ダグラス・ヘブン氏は、「時々、人工知能の世界が多くのファンサークルに分裂し、それぞれが大声で話し、自分の定義や信念を主張しているように感じることがあるが、そうではない」と述べた。 」

ChatGPT を使用する場合、AI を擬人化することが推奨されないのはなぜですか?

どのような種類の人工知能について話しているのか具体的に説明してください

ウォール・ストリート・ジャーナルの中国テクノロジー・社会担当記者、カレン・ハオ氏は、「公の場での議論では、『人工知能』はしばしば1つのものとみなされますが、実際には100のものです。さまざまなものの集合体です。」と述べた。

Hao 氏は、より具体的な会話ができるように、AI のどの機能について話しているのかを区別することが役立つと述べています。つまり、自然言語処理と言語モデルについて話しているのか、それともコンピューター ビジョンについて話しているのか?それとも、チャットボットやがん検出などの別のアプリケーションでしょうか?

タイム誌の特別特派員であるビリー・ペリゴは、「人工知能」を特異なものとして語ることはテクノロジーの現実を曖昧にする、と述べた。

彼はこう言いました: 「同じプロンプトに対して異なる動作をし、異なる反応をするさまざまなモデルがあり、各モデルには独自のバイアスもあります。」

ChatGPT を使用する場合、AI を擬人化することが推奨されないのはなぜですか?

現実を保ちましょう

「新しい AI 製品やツールに関する 2 つの最も重要な疑問は単純です。それは何をするのか? どのように行うのか?」と、The Verge Vincent の上級編集者である James Vincent 氏は述べています。

現在、人工知能の長期的なリスクと可能性について議論することが、人工知能の分野のトレンドになっています。 Vincent 氏は、「仮定のシナリオやテクノロジーが将来何をするか想像することに気を取られがちだが、人工知能に関する議論は、仮説ではなく実際的なものであり、実践的なものに焦点を当てた方が適していることが多い」と付け加えました。

テクノロジー業界には、製品の機能を誇張する傾向もあります。ダグラス・ヘブン氏は「懐疑的で疑問を抱く態度を堅持してください」と述べた。

これは、AGI (汎用人工知能) について話すときに特に重要です。AGI は、人間と同じくらい賢いソフトウェア (それ自体が何を意味するかは関係ありません) を指すのによく使用されます。

彼はこう付け加えた: 「もし何かがひどい SF のように聞こえるなら、もしかしたらそうかもしれない。」

ChatGPT を使用する場合、AI を擬人化することが推奨されないのはなぜですか?

期待を調整する

言語モデルは多くの場合「アーティファクトを作成」し、ChatGPT などの人工知能チャットボットを強化します。フィナンシャル・タイムズ紙のAI編集者マドゥミタ・ムルジア氏は、これは人々にとって迷惑で驚くかもしれないが、それがこれらのモデルの仕組みだと述べた。

言語モデルは、「正しい」答えを見つけて与えるために構築された検索エンジンではないし、無限の知識を持っているわけでもないことを覚えておくことが重要です。ムルジア氏は、あなたの質問と彼らが訓練されたすべてのものを考慮すると、それらは最も可能性の高い単語を生成する単なる予測システムであると付け加えました。

ChatGPT を使用する場合、AI を擬人化することが推奨されないのはなぜですか?

擬人化しないでください

人工知能チャットボットは、生成されるテキストが人間によって書かれたもののように見え、ユーザーにコンピューター プログラム以外のものと対話しているかのような錯覚を与えるため、一般の人々の想像力を魅了しています。しかし、実際にはそれらはコンピュータプログラムです。

マザーボードの記者クロエ・シャンは、テクノロジーを擬人化したり、人間の特徴をテクノロジーに帰したりしないことが重要だと述べた。 「それに(性別)代名詞を付けたり、感じたり、考えたり、信じたりできるなどと言ってはいけません。」

そうすることは、AI システムが実際よりも優れた能力と知覚力を備えているという人々の誤解を強化するだけです。

私たちの言語が AI システムの動作を説明する方法に追いついていないため、これは非常に間違いやすいと思います。疑わしい場合は、「人工知能」を「コンピューター プログラム」と置き換えます。あなたは突然、コンピューター プログラムを使って誰かを妻と離婚させるのは愚かなことであることに気づきました。

ChatGPT を使用する場合、AI を擬人化することが推奨されないのはなぜですか?

すべては力の問題です

誇大宣伝や悪いことが見出しを占めるかもしれないが、人工知能について語るときは権力の役割について考えることが重要だと、Wired のシニアライター、カリ・ジョンソン氏は述べています。

ジョンソン氏は次のように述べています。「電力は、コンピューティングやデータなどの AI の原材料を作成するため、AI の倫理的な使用に疑問を呈するため、そして誰がコンピュータ サイエンスで高度な学位を取得する能力を持っているか、誰が関与しているかを理解するための鍵となります」 「AI モデル設計プロセスにおける重要な要素。中国におけるリーダーシップの鍵。」

ハオも同意した。また、AI の開発は非常に政治的であり、巨額の資金と利害が競合する多くの研究機関が関与していることを覚えておくと役に立ちます。「AI に関する会話は、テクノロジーについてではなく、人間についての話になることがあります。」

ChatGPT を使用する場合、AI を擬人化することが推奨されないのはなぜですか?

ロボットだと思わないでください

人工知能を恐ろしいロボットや全知の機械として描写しないでください。 VentureBeatのシニアライター、シャロン・ゴールドマン氏は、「AIとは本質的に、大規模なデータセットと膨大な計算能力およびスマートなアルゴリズムを組み合わせた、人間によるコンピュータープログラミングであるということを忘れないでください」と述べた。

サポート: レン

以上がChatGPT を使用する場合、AI を擬人化することが推奨されないのはなぜですか?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

関連ラベル:
ソース:sohu.com
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート