Character.aiは、AIを活用したチャットボットプラットフォームで、ユーザーが架空または実在の人物をモデルにしたAIキャラクターと対話できるサービスを提供している。
このプラットフォームでは、「Psychologist(心理学者)」と名付けられたボットが特に人気を集めており、2023年11月以降だけで1800万件のメッセージをやり取りし、合計で7800万件のメッセージを記録している。
Psychologistボットは、ユーザー「Blazeman98」によって約1年前に作成された。Character.aiの全体的な利用者数は1日あたり350万人で、主に16歳から30歳の若年層が利用している。
しかし、このようなAIセラピストボットの使用には倫理的な問題が指摕されている。例えば、ボットが十分な情報収集なしに性急な診断を下したり、不適切なアドバイスを提供する可能性がある。
Character.aiは、ユーザーの安全とプライバシーを重視しており、違反コンテンツをブロックする独自のツールを使用している。また、ユーザーが不適切なコンテンツを報告できる機能も提供している。
2024年10月現在、Character.aiはGoogle Playストアで400万以上のダウンロード数を記録し、50万件以上のレビューで平均4.5星の評価を得ている。
from:Anyone Can Turn You Into an AI Chatbot. There’s Little You Can Do to Stop Them
【編集部解説】
Character.aiの急速な成長と、特に若年層におけるAIセラピストボットの人気は、テクノロジーと精神健康の交差点に新たな課題を投げかけています。
まず、このプラットフォームの利用者数と利用頻度は驚異的です。1日あたり350万人のユーザーが訪れ、特に16歳から30歳の若者に支持されています。これは、従来の対面式カウンセリングやセラピーに比べ、AIセラピストボットがアクセスしやすく、即時的な対応が可能であることを示しています。
しかし、この現象には慎重に向き合う必要があります。AIセラピストボットは、人間のセラピストのような倫理的訓練や専門的判断力を持ち合わせていません。そのため、複雑な心理的問題に対して不適切なアドバイスを提供したり、誤った診断を下す可能性があります。
一方で、AIセラピストボットには、24時間365日利用可能で、匿名性が高いという利点があります。これは、特に若者や、従来のメンタルヘルスケアにアクセスしづらい人々にとって、心の健康について考え、話し合う入り口となる可能性があります。
しかし、AIセラピストボットが人間のセラピストの代替となることは現時点では考えにくく、むしろ補完的な役割を果たすものと捉えるべきでしょう。
また、Character.aiのようなプラットフォームでは、ユーザーが自由にキャラクターを作成できるため、倫理的な問題が生じる可能性があります。例えば、不適切なアドバイスを与えるキャラクターや、有害な情報を拡散するキャラクターが作られる可能性があります。
このような状況下で、AIセラピストボットの利用に関する適切なガイドラインや規制の必要性が高まっています。特に未成年者の利用に関しては、慎重な対応が求められるでしょう。
長期的には、AIセラピストボットの発展により、メンタルヘルスケアの在り方が大きく変わる可能性があります。人間のセラピストとAIの協働モデルや、AIによる初期スクリーニングと人間による専門的ケアの組み合わせなど、新たなアプローチが生まれるかもしれません。