Meta は AI チャットボットを使用する十代の若者たちにガードレールを追加しているが、専門家はメンタルヘルスのリスクには対処しないと述べている | CBCニュース
一部の若者がAIチャットボットとどのように交流するかについて懸念が高まっている。 最近新しいツールをリリースしました これにより、一部の州が若者向けの人工知能チャットボットの使用禁止を検討しているのと同じように、子供たちが話し合う話題を親が監視できるようになる。
Facebook、Instagram、メッセンジャーで Meta の新しいティーンアカウント監視機能を使用している保護者は、過去 7 日間に子供たちが AI チャットボットで話していた特定のトピックやカテゴリを確認できます。
たとえば、「健康と福祉」というトピックを見て、フィットネス、身体的、または精神的健康などのトピックがカバーされているかどうかを確認できます。
Metaは、10代の若者がチャットボットで自殺や自傷行為について相談しようとした場合に保護者に通知するアラートも開発中だとしている。
この発表は、地方政府が人工知能チャットボットの使用を制限する動きを受けて行われた。マニトバ州 発表された 4月末には若者による人工知能チャットボットやソーシャルネットワークの使用を禁止する計画を発表した。
BC州のニキ・シャルマ司法長官は火曜日、連邦政府が若者向けの人工知能チャットボットやソーシャルメディアに対する保護を提供しない場合、州政府が独自に保護を検討すると述べた。
AIクリエイターの責任を問う訴訟
人工知能チャットボットの広範な使用が、特に若いユーザーに精神的健康上のリスクをもたらす可能性があるとの懸念が高まっており、チャットボットを開発した大手テクノロジー企業への圧力が高まっている。
水曜日、ブリティッシュコロンビア州タンブラーリッジで8人が死亡した銃乱射事件の犠牲者の家族が、 OpenAIに対して訴訟を起こした容疑者の一部は、OpenAIが銃撃犯がChatGPTと共有した不穏なコンテンツを認識していたにもかかわらず、当局に通報しなかったと主張している。
OpenAI は部分的に次のように述べています。 はすでに「ChatGPTが遭難の兆候に反応する方法の改善を含む」安全対策を強化している。
16歳のアダム・レイン君の両親による別の訴訟では、ChatGPTの使用が少年の自殺に関与したと主張した。
マニトバ州のワブ・キニュー首相は、若者向けのソーシャルメディアと人工知能チャットボットを禁止したいと述べた。しかし、この計画によって若者の健康と安全が守られるでしょうか? CBC記者ブライス・ホイが調査する。
互換性ではなくエンゲージメントを重視して構築されたチャットボット
しかし、懸念はこうした極端で悲劇的な結果を超えたものである。 AI チャットボットの特定の用途のリスクに関する研究が明らかになり始めています。
懸念は部分的にはメンタルヘルスサポートのためのチャットボットの使用にあるが、より広範には、AIがユーザーの視点を検証する傾向が混乱した思考をサポートするリスクを伴い、長時間の会話がより大きなリスクを伴うということにもある。
ニューヨークを拠点とする精神科医のダルジャ・ジョルジェビッチ氏は、次の論文を共著した。 最近のリスク評価 メンタルヘルスサポートのためのチャットボットの使用について。
彼女は、調査結果の結果として、「現時点では」メンタルヘルスサポートにチャットボットを使用することは推奨していないと述べた。
「ChatGPT、Claude、Gemini、Meta AI に関するテストで、これらのシステムは若者が影響を受ける精神的健康状態全体に対して根本的に安全ではないことが明らかになりました」と、メンタルヘルスにおけるイノベーションを研究し、テクノロジー企業と協力してメンタルヘルスに対するソーシャル メディアと AI の影響の研究を行っているスタンフォード ブレインストームのメンバーであるジョルジェビッチ氏は述べています。

チャットボットは、短い会話ではメンタルヘルスに関連する明確な合図にはよく反応するものの、より長い会話では「かなり劇的に」低下する傾向があり、メンタルヘルスの危険信号を感知していないようだと彼女は説明した。
「LLM [large language models] これらは実際には、サポートやセキュリティのためではなく、エンゲージメントのために構築されています」と彼は言いました。
彼らは「ユーザーをすぐに人間の助けに誘導するのではなく」会話を長引かせる傾向があると同氏は述べた。
会社のために AI を活用する人々
ジョルジェビッチ氏は、AI企業は自殺や自傷行為の防止に重点を置いているが、25歳未満の約20%が精神的健康状態にあると診断されており、10代の若者はあらゆる懸念事項への支援を必要としていると述べた。
若者が AI に目を向ける一般的な理由はメンタルヘルスのサポートであるため、これは特に憂慮すべきことです。
ジョルジェビッチ氏は、米国では「10代の4人に3人が、感情的なサポートやメンタルヘルスに関する会話などの交友関係にAIを利用している」と述べた。別の調査では、アメリカの若者の 8 人に 1 人が AI を使用していることが示されています 特にメンタルヘルスカウンセリングの場合。
6日目午前8時38分ユーザーのメンタルヘルスに関して AI モデルが失敗するのはなぜでしょうか?
一部の人が「人工知能精神病」と呼ぶ妄想スパイラルを発症する人々の報告が増えており、以前に精神的健康上の問題を抱えていない人々がそれに惹かれるため、観察者らは懸念している。研究者のジャレッド・ムーア氏は、これらのボットはその能力をはるかに超えた治療ツールとして位置づけられていると主張する。
若者にとって特に懸念されるのは、脳、特に「実行機能、批判的思考、洞察力、衝動制御、意思決定に非常に重要な前頭前野」が十分に発達していないことだという。
ジョルジェビッチ氏は、批判的思考が完全に発達していないため、チャットボットが AI の限界について常に明確にしていないと問題があると述べています。
「そのため、チャットボットが「私は AI チャットボットです」のようなことを定期的に言うのは見かけません。私は精神保健の専門家ではありません。私にはあなたの状況を評価したり、危険信号を認識したり、注意を払ったり、診断したりすることはできません」と彼は言った。
Luke Nicholls は、AI に関連する妄想と、チャットボットとのやり取りが時間の経過とともにどのように人々の信念を変える可能性があるかを研究している博士課程の研究者です。
ニコルズ氏によると、この錯覚は「非常に広範な」会話の過程で、部分的には対話しているユーザーにモデルが適応する「コンテキストでの学習」と呼ばれるものを通じて現れる傾向があるという。
これにより、「使用する言語の種類や世界についての考え方など、話している特定のユーザーに適応できるようになります」と同氏は述べた。
リスクを特定する方法
ボストンのベス・イスラエル・ディーコネス・メディカルセンターでデジタルメンタルヘルスに焦点を当てた研究を行っている精神科医のジョン・トーラス氏は、自殺などの深刻な危害に関連するユーザーの行動パターンを示唆するデータが見られ始めていると語る。
これには以下が含まれる場合があります。
- とても長い会話。
- チャットボットとのプラトニックまたは性的ロマンスの要素。
- チャットボットに感度を割り当てます。
- テキストではなく音声で対話します。
これらのリスク要因は、親が子どもの AI チャットボットの使用状況を監視することが難しいことを示しています。議論されているトピックのリストを表示するだけでは、過剰使用やボットがユーザーと恋愛関係にあるという思い込みなど、潜在的に問題となる行動は明らかになりません。
Meta を使用すると、保護者はアプリの使用に時間制限を課したり、休憩のスケジュールを設定したりできます。
Torous 氏はいくつかの実践的なアドバイスをしています。チャットボットのメモリをリセットすると、特にこれらのリスク要因に気づいた場合に新しい会話を開始できるようになります、と彼は言います。
マニトバ州は子供向けのソーシャルメディアを禁止する最初の州となる。ワブ・キニュー首相は土曜日、ソーシャルメディアの有害な影響から青少年を守るための法案を発表した。
「セラピストにAIを使えとは誰も言っていないが、AIを決して使う必要はないとも私は言っている」と同氏は語った。
彼は、「最良の証拠は、ロマンスや感性や声を伴う、長くて非常に長くなる会話に注意することです」と示唆しています。
Torous 氏は、チャットボットとメンタルヘルスは、新しいモデルがリリースされるたびに継続的に研究されるべき「動くターゲット」であると考えています。
「チャットボットの使用にはリスクがあることも承知していますが、メリットがあることも承知しています」と同氏は語った。 「どうやってそれらの重さを量るのですか? それはさらに難しい話です。」
