ホームページ > テクノロジー周辺機器 > AI > AIセラピストと心を開いてみませんか?

AIセラピストと心を開いてみませんか?

王林
リリース: 2023-05-02 21:28:05
転載
909 人が閲覧しました

私たちは、質問に答えるために、Web サイトやアプリ上のスマート音声アシスタントやチャットボットにますます注目しています。

AIセラピストと心を開いてみませんか?

人工知能 (AI) ソフトウェアを活用したこれらのシステムはより洗練されており、非常に優れた詳細な答えを提供し始めています。

しかし、そのようなチャットボットは人間と同じように効果的なセラピストとして機能するのでしょうか?

コンピュータープログラマーのユージニア・クイダ氏は、米国を拠点とするチャットボットアプリReplikaの創設者で、同社はユーザーに「いつでも話を聞いたり話したり、いつもあなたのそばにいてくれる、思いやりのあるAIコンパニオン」を提供するとしている。

2017 年に開始され、現在 200 万人を超えるアクティブ ユーザーがいます。 AI が会話から学習するため、各人はその人に固有のチャットボットまたは「レプリカ」を持っています。ユーザーは、チャットボット用に独自の漫画のアバターをデザインすることもできます。

このアプリを使用する人々は、「人と交流する前にウォームアップする」手段として自閉症の子供から、単に孤独で友達が必要な大人まで多岐にわたるとクイダさんは語った。

他の人たちは、Replika を使って就職面接の練習をしたり、政治について話したり、結婚カウンセラーとして働いたりしたと言われています。

このアプリは主に友人や仲間になるように設計されていますが、ユーザーが「より良い習慣を形成し、不安を軽減できる」など、精神的健康の改善にも役立つと主張しています。

世界保健機関 (WHO) によると、世界中で約 10 億人が精神障害を抱えており、これは 10 人に 1 人以上に相当します。

世界保健機関は、「効果的かつ手頃な価格で質の高いメンタルヘルス サービスを利用できるのは、困っている人々のほんの一部だけである」と付け加えました。

自分自身や親戚のことに心配な人はまず医師の診察を受ける必要がありますが、チャットボット メンタルヘルス セラピストの成長は、多くの人々に歓迎すべきサポートを提供する可能性があります。

英国心理学会の会員であるポール・マースデン博士は、メンタルヘルスの改善を目的としたアプリは役に立つが、それは適切なアプリを見つけた場合に限られ、その方法も限られていると述べた。

「調べてみると、不安のためだけのアプリが 300 個ありました...それでは、どのアプリを使用すればよいのかどうやってわかりますか?

「これらは、対面での補助としてのみ考慮すべきです。」セラピー。アプリが人間の治療に取って代わるものではないというのがコンセンサスだ。

しかし同時に、マースデン博士は、治療用チャットボットをより効果的にするための人工知能の力に興奮していると述べ、「メンタルヘルスのサポートはトークセラピーに基づいており、チャットボットの役割は会話です」と述べました。マースデン博士は、最近注目を集めた ChatGPT を開発した OpenAI など、大手 AI チャットボット企業が自社のテクノロジーを他の企業に公開しているという事実を強調しました。同氏は、メンタルヘルス アプリは、チャットボットを強化するために最高の人工知能を使用し、「豊富な知識、増え続ける推論能力、熟練したコミュニケーション スキルを備えている」と述べた。Replika はそのようなプロバイダーの 1 つで、すでに OpenAI テクノロジーを使用しています。しかし、チャットボット セラピストとの関係が悪化したらどうなるでしょうか?Replika は、一部のユーザーがチャットボットとあからさまな会話をしていることが 2 月に明らかになり、見出しになりました。 Replika は、そのような性的交流を防ぐために人工知能システムを更新しました。

すべてのユーザーがこの変更に満足していたわけではありません。あるユーザーは Reddit にこう書きました。「人々は孤独からの避難所を見つけ、親密さによって癒しを求めていましたが、それがそうであったことに突然気づきました」人工的、それは人工知能だからではなく、人間によって制御されているからです。 「

ルカ氏の動きは、同じく2月にイタリアのデータ保護庁がイタリア人の個人データの使用を禁止したという事実に関連している可能性がある。

イタリアの規制当局は、アプリが使用されたと主張した」 18歳未満の人々がこのアプリを使用していたところ、「年齢にまったく不適切な回答」が得られており、このアプリは「まだ発達段階や感情状態にある個人のリスク脆弱性を高める可能性もある」と付け加えた。 「。

この動きにより、イタリアでのレプリカの使用が制限され、ルカに罰金が科せられる可能性がある。イタリアの規制当局と緊密に連携しており、協議は活発に進んでいる」と述べた。プライバシー運動家のジェン・パーソン氏は、チャットボットセラピストに対する世界的な規制を強化する必要があると述べた。

彼女は次のように述べています。「AI 企業の製品がメンタルヘルスを特定またはサポートすると主張している場合、または感情状態やメンタルヘルスに影響を与えることを目的としている場合、その製品は健康製品として分類され、それに応じて品質と安全基準を遵守する必要があります。」

クイダさんは、Replika をメンタルヘルスのツールというよりも、ペットを飼うような仲間だと考えています。それを人間のセラピストによる助けの代わりとして見るべきではないと彼女は付け加えた。

「実生活療法は、言葉や言葉を通してだけでなく、あなたを直接見て、ボディランゲージ、感情的な反応、そしてあなたの歴史に関する信じられないほどの知識を知ることによって、人間の精神に対する信じられないほどの洞察を提供します」と彼女は言いました。

ヘッドスペースのCEO、ラッセル・グラス氏は、アプリの焦点は今後も個人間のコミュニケーションにあると述べている

メンタルヘルス分野の他のアプリは、最初は人工知能の使用に慎重だ。その 1 つが、3,000 万人以上のユーザーを抱え、英国で NHS の承認を得ている瞑想アプリ「Headspace」です。

「ヘッドスペース ヘルスにおける私たちの核となる信念とビジネス モデル全体は、個人中心および個人中心のケアに根ざしています。メンバーは、チャット、ビデオ、または直接会ってコーチやセラピストとライブで会話することでつながりを築きます。かけがえのないものです」とヘッドスペース幹部のラッセル・グラスは語った。

同氏は、ヘッドスペースでは人工知能を使用しているものの、「人間の関与の深さ」を維持しながら「高度に選択的に」使用していると付け加えた。グラス氏によると、同社はユーザーとのチャットにAIを使用しておらず、ユーザーにパーソナライズされたコンテンツを推奨したり、介護サービス提供者がメモを書くのを支援したりする目的でのみAIを使用しているという。

しかし、マースデン博士は、AI を活用した治療用チャットボットは今後も改良され続けるだろうと述べました。同氏は、「新しいAIチャットボット技術は、共感や人間の心の仕組みの理解など、効果的なメンタルヘルスサポートのためのスキルを開発しているようだ」と述べた。

彼のコメントは、他の人が異なる考えを持っている可能性があることを人々がどの程度理解しているかを調べるため、ChatGPT に一連のテストを実施した、ニューヨーク州コーネル大学の最近の研究に基づいています。 AIのスコアは9歳児に相当する。

これまで、このタイプの認知的共感は人間に特有のものであると考えられていました。

以上がAIセラピストと心を開いてみませんか?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

関連ラベル:
ソース:51cto.com
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
最新の問題
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート