ホームページ > テクノロジー周辺機器 > AI > ブルームバーグ:Google内部関係者がBardチャットボットの有用性を疑問視

ブルームバーグ:Google内部関係者がBardチャットボットの有用性を疑問視

WBOY
リリース: 2023-10-12 11:49:01
転載
883 人が閲覧しました

10月12日のIT House Newsによると、昨夜のブルームバーグによると、GoogleとDiscordは共同で、自社のAIチャットボットBardの忠実なユーザーをチャットルームの開設に招待したという。その中で、Bard のプロダクト マネージャー、デザイナー、エンジニアはチャット ルームで AI の有効性と実用性について議論しましたが、一部の人々はそれに疑問を持ち始めました。

ブルームバーグ:Google内部関係者がBardチャットボットの有用性を疑問視

Discord の吟遊詩人コミュニティの参加者 2 人が、7 月から 10 月にかけてチャット ルームで行われた議論の詳細をブルームバーグに共有しました。 Bard のシニア プロダクト マネージャーである Dominik Rabiej 氏はディスカッションの中で、大規模な言語モデルによって生成される応答を「信頼していない」と述べ、Bard を「創造的」および「ブレインストーミング」の目的でのみ使用することを推奨しました。 Rabiej 氏はまた、Bard をプログラミングに使用することも「良い選択」であると述べました。なぜなら、人々はコードが機能することを必然的に検証したいからです。

さらに、ラビエジ氏は今月、Bard の新しい「返信をダブルチェック」ボタンの重要性を強調しました。この機能は「間違っている可能性がある」コンテンツをオレンジ色で強調表示するという。同氏はまた、Bard は受け取ったテキストを実際には理解しておらず、ユーザーのプロンプトに基づいて追加のテキストで応答しているだけだと繰り返しました。 "Bard は、他の大きなモデルと同様、生成的であることを覚えておいてください。情報を検索したり要約したりするのではなく、テキストを生成します。

"

このプロダクト マネージャーは、7 月のチャットで率直にこう言いました。(ユーザー自身が)独自に検証できない限り、大規模な言語モデルの出力結果を信頼しないでください。 「私たちも皆さんの期待に応えたいと思っていますが、まだ実現していません。」

別のプロダクト マネージャーの Warkentin 氏もディスカッションの中で次のように書いています。「人間味のある改善が重要です。この方法でのみ、Bard がすべての人に適した製品になることができます。そうでないと、ユーザーは製品の機能を判断する能力がなくなると思います。」 「これは大きな間違いです。」 「象牙の塔の製品は必要ありません。誰もが使用できる製品が必要です!」

IT House は以前、Google が今年 7 月に Bard AI ツールの導入を拡大した際に、「会話リンクの共有」機能を追加したと報じました。ユーザーは、自分と Bard の間の会話を Web リンクとしてエクスポートして他の人と共有し、他の人が Bard との会話を続けることができます。

分析コンサルタントの Gagan Ghotra が、

Gagan Ghotra はそれに応じて、Bard と会話する際には「プライベート コンテンツ」を共有しないようユーザーに警告しました。そうしないと、関連情報が漏洩する可能性があります。

以上がブルームバーグ:Google内部関係者がBardチャットボットの有用性を疑問視の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ソース:sohu.com
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート