wチキンOpenAIが発表 襲撃の数カ月前にタンブラー・リッジのシューター、ジェシー・ヴァン・ルーツセラーがゴールを決めていたが、世間は困惑したままだった。この悲劇は防ぐことができたのだろうか? 8人が死亡し、そのうち6人は子供であった。 OpenAIにはこの犯罪の責任はないが、警察に通報していれば違った結果があったのではないかと思わずにはいられない。
ただし、同社を非難する前に、注目に値する 2 つの事実があります。第一に、銃撃犯は警察によく知られていたこと、第二に、警官が何度か彼女の自宅にメンタルヘルスの電話をかけ、彼女は何度も強制的に入院させられたことだ。警察は自宅から銃器も押収したが、法的所有者(銃撃犯ではない)が返還を要求した。
言い換えれば、状況に最も近い専門家は、それに伴うリスクについてすでによく知っていたということです。一方、OpenAI は、チャットボットとの会話に表示される内容しか知りませんでした。
しかし、その後の議論は、政府がAI企業に暴力の脅威を警察に報告するよう強制すべきかどうかが焦点となった。こうした決定を営利企業に任せるのはリスクが高すぎると主張する人もいる。 AIプロバイダーが、誰かが他人に危害を加えようとしている可能性があると判断した場合、当局に通知する必要がある、という主張だ。このような義務により、企業は責任を回避するために曖昧なシグナルを過剰報告する可能性があり、その結果、プライバシーとこれらのツールに対する信頼が損なわれることになると警告する人もいる。
どちらの懸念も妥当です。そして、法律の他の箇所でも同様のトレードオフに直面していると考えたくなります。医師が児童虐待を疑う場合、銀行が不審な金融取引を検知した場合、インターネットサービスプロバイダーが自社のシステムが児童ポルノのホストに使用されていることを発見した場合、カナダの法律は通報するよう義務付けている。
同じアプローチをここにも適用してみてはいかがでしょうか?答えは、AI 企業は同様の立場にないということです。チャットボットの会話で暴力的な意図を検出することは、他の状況で潜在的な犯罪を検出することとは異なります。言語を解釈し、将来の行動を予測する必要がありますが、扱う情報ははるかに少なくなります。
AI システムは毎日大量の暴力的な言葉に遭遇します。人々はチャットボットに、推理小説を書いたり、ビデオゲームのシナリオを解釈したり、架空のプロットを作成したり、人生のフラストレーションを発散したりするのを手伝ってもらいます。 AI は暴力的な言葉を検出できますが、それらの言葉が誰かに害を及ぼす本当の危険をいつ示すかを判断するのは簡単ではありません。
これは医療専門家が苦労している課題です。脅威の評価は、多くの場合、意図、能力、傾向などの一連の要素に基づいて行われます。彼らは患者の発言だけでなく、精神病歴や犯罪歴、武器へのアクセスの可能性など、患者の生活について知られている情報も信頼します。
AI 企業には、このコンテキストがほぼすべて欠けている傾向があります。彼らが手にするのは言語の断片であり、多くの場合、言語を解釈するために必要な現実世界の情報から切り離されています。タンブラーリッジ事件では、警察は銃撃犯の精神的健康上の問題と自宅に銃器が存在することを知っていた。これに対し、OpenAI にはチャット ウィンドウのコンテンツしかありませんでした。
暴力的な脅威を報告する法的義務があれば、AI企業は警戒心を誤る強い動機を与えることになる。その結果、警察はオンライン会話におけるあいまいな信号に基づいて大量の紹介を受けることになる可能性がある。警察はすでに、増加するサイバー犯罪や大量のデジタル証拠の分析を必要とする捜査に直面している。 AI プロバイダーに報告義務が義務付けられると、脅威が本物かどうかを判断し、真実と誤検知を区別するために必要なコンテキスト情報を収集する法執行機関の負担が増大します。
コストもさらに広くなるでしょう。会話型 AI を使用して、難しい感情を探ったり、プライベートで問題を考えたりする人が増えています。ユーザーがチャットボットに何を言ったとしても警察に通報される可能性があると信じている場合、それらの会話は必然的に変化するか、行われなくなるでしょう。
一部の評論家は、妥協策を提案している。AI企業は、警察に直接報告する代わりに、資格のある脅威評価専門家で構成される格付け機関として機能する独立した「デジタルセキュリティ委員会」に自らの活動を報告することもできるだろう。このアイデアには前例があります。銀行は疑わしい取引をカナダ金融取引報告分析センターに報告し、同センターが情報を法執行機関に渡すかどうかを決定します。同様の仲介機関はデジタル規制の他の分野にも存在しており、その中には主要なプラットフォームを管理する規則の遵守を監督する欧州連合法の「デジタルサービスコーディネーター」も含まれる。
トリアージ機関は、民間企業に決定を完全に任せるよりも過剰報告のリスクを軽減し、より明確な説明責任を生み出す可能性がある。しかし、それは根本的な問題の解決にはなりません。政府機関は依然として数百万のプライベートな会話の自動分析によって生成された信号を受信することになります。言い換えれば、システムは依然として AI ベンダーに依存して、ユーザーの音声を継続的にスキャンして解釈し、潜在的な脅威を最初に特定することになります。それは、その人の現実世界の状況から切り離された言語の断片から依然として機能しているでしょう。
3月初旬、カナダのAI・デジタルイノベーション大臣エヴァン・ソロモン氏はOpenAIの最高経営責任者(CEO)サム・アルトマン氏と会談し、タンブラーリッジでの銃乱射事件を受けて同社がいくつかの措置を講じるとの確約を得た。 OpenAIは王立カナダ騎馬警察とホットラインを確立し、プライバシー、メンタルヘルス、法執行の専門家と協力して「高リスク事件」を特定し審査するプロセスを改善する予定だ。新しいプロトコルに照らして過去の症例をもう一度調べて、報告すべきことがあるかどうかを確認する必要があります。同大臣はまた、カナダ人工知能セキュリティ研究所に対し「OpenAIモデルを調査」して報告するよう要請する予定だ。
より良いアプローチは、政府が AI ベンダーと協力して、法執行機関や医療専門家と連携して自主基準を策定することです。同氏は、厳格な報告義務を課すことで、AI企業が技術プロバイダーから別のもの、つまり暴力犯罪を予測する任務を負った民間企業に変わることになると認めているが、彼らにはその役割を果たす能力が十分ではない。
連邦レベルと州レベルの当局は、OpenAIと同様に、他の主要なAIプロバイダーと協定を交渉する必要がある。危機予防に関わる医療提供者と利害関係者との間のより緊密なつながりを促進する必要があります。より大きな目的は、効果的に従うために必要なガイダンスなしに企業に義務を課すのではなく、メンタルヘルスと警察の取り締まりに関する知識をより多く危害検出プロトコルの策定に組み込むことであるべきである。
タンブラーリッジから本当に得られたことは、AI規制が失敗したということではなく、私たちのメンタルヘルスと危機管理システムが失敗したということかもしれない。次の悲劇を防ぐためには、それが私たちの対応の焦点となるべきかもしれません。
許可を得て、Center for International Governance Innovation から転載。