10月12日のニュース、ブルームバーグは昨夜、GoogleとDiscordが共同で自社のAIチャットボットBardの忠実なユーザーをチャットルームの開設に招待したと報じた。その中で、Bard のプロダクト マネージャー、デザイナー、エンジニアはチャット ルームで AI の有効性と実用性について議論しましたが、一部の人々はそれに疑問を持ち始めました。
Discord の吟遊詩人コミュニティの参加者 2 人が、7 月から 10 月にかけてチャット ルームで行われたディスカッションの詳細をブルームバーグに共有しました。 Bard のシニア プロダクト マネージャーである Dominik Rabiej 氏はディスカッションの中で、大規模な言語モデルによって生成される応答を「信頼していない」と述べ、Bard を「創造的」および「ブレインストーミング」の目的でのみ使用することを推奨しました。 Rabiej 氏はまた、Bard をプログラミングに使用することも「良い選択」であると述べました。なぜなら、人々はコードが機能することを必然的に検証したいからです。また今月、ラビエジ氏は、Bard の新しい「返信のダブルチェック」ボタンの重要性を強調しました。この機能は「間違っている可能性がある」コンテンツをオレンジ色で強調表示するという。同氏はまた、Bard は受け取ったテキストを実際には理解しておらず、単にユーザーのプロンプトに基づいて追加のテキストで応答しているだけだと繰り返しました。 「他の大きなモデルと同様、Bard は生成的であることを覚えておいてください。情報を検索したり要約したりするのではなく、テキストを生成します。
」この名前は、かつてプロダクト マネージャーが率直に言いました。 7 月のチャットで、(ユーザー自身が) 独自に検証できない限り、大規模言語モデルの出力結果を信頼しないでください。 「我々も皆さんの期待に応えたいと思っていますが、まだそうなっていません。」
別のプロダクト マネージャーの Warkentin 氏はディスカッションの中で次のように書いています。 「象牙の塔のような製品は必要ありません。誰もが機能できる製品が必要です。そうしないと、ユーザーは製品の機能を判断する能力がなくなり、それは大きな間違いになると思います。」便利な製品です!」
このサイトでは、Google が今年 7 月に Bard AI ツールの導入を拡大した際に、「会話リンクの共有」機能を追加したことを以前に報告しました。ユーザーは、自分と Bard の間の会話を Web リンクとしてエクスポートして他の人と共有し、他の人が Bard との会話を続けることができます。 分析コンサルタントの Gagan Ghotra は、Gagan Ghotra でこの問題を発見しました。バードと話すときは「プライベート コンテンツ」を共有しないようにユーザーに警告しました。そうしないと、関連情報が漏洩する可能性があります。
以上がGoogle内部関係者、Bardチャットボットの有用性に疑問の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。