テクノロジーは常に、市民が情報と対話する方法を形作ってきました。しかし、間もなく新たな問題が人工知能パーソナルエージェントの形で現れるでしょう。それは人々が情報を受け取る方法だけでなく、情報に基づいて行動する方法を変える可能性があります。これらのシステムは、ユーザーに代わって調査を実施し、コミュニケーションを発展させ、原因を明らかにし、ロビー活動を行います。彼らは、投票法案への投票方法、どの組織を支援する価値があるか、または政府通知にどのように対応するかなどの決定を通知します。重要な意味で、個人と個人を統治する組織との関係を仲介し始めるだろう。
アルゴリズムが理解よりもエンゲージメントを最適化すると何が起こるかをソーシャル メディアですでに見てきました。プラットフォームは、二極化や急進化を生み出すために明確な政治的アジェンダを持っている必要はありません。あなたの好みや不安を知っているエージェント(あなたとの関わりを保つ方法)にも同じリスクが伴います。そしてこの場合、エージェントは自らを擁護者として振る舞うため、リスクを検出することはさらに困難になる可能性があります。彼はあなたのために話し、あなたの代わりに行動し、まさにその親密さを通して信頼を得ることができます。
今すぐグループから離れてください。 AI エージェントと人間が近いうちに同じフォーラムに参加するようになるかもしれませんが、そこでは両者を区別することが不可能になるかもしれません。たとえ個々の AI エージェントが適切に設計され、ユーザーの利益に合わせていたとしても、何百万ものエージェントの相互作用により、個人が望んでいなかったり選択したりしない結果が生じる可能性があります。たとえば、研究によると、個人ではバイアスを示さないエージェントでも、大規模に集団的なバイアスを生成する可能性があることがわかっています。エージェントがお互いのために何をするかはさておき、エージェントがユーザーのために何をするかがあります。誰もが自分の既存の見解に従って個人化されたエージェントを持っている公共圏は、全体としては公共圏ではありません。それはプライベートな世界の集合体であり、それぞれが内部的には一貫性を持っていますが、集合的には民主主義に必要な種類の共有審議には適していません。
総合すると、私たちがどのように知り、どのように行動し、集団統治にどのように参加するかというこれら 3 つの変化は、市民権の構造における根本的な変化を表しています。近い将来、人々は AI フィルターを通じて政治的意見を形成し、AI エージェントを通じて市民主体性を行使し、何百万ものそのようなエージェントの相互作用によって形成される制度や公開討論に参加するようになるでしょう。
今日の民主主義はその準備ができていません。私たちの組織は、権力が目に見えて行使され、情報が答えられるほどゆっくりと伝わり、不完全ではあるが現実がより共有されていると感じられる世界を目指して設計されています。こうしたことはすべて、生成 AI が登場するずっと前から消え去っていました。それでも、これは退廃の物語である必要はありません。そのような結果を回避するには、より良いものを設計する必要があります。
情報レイヤーでは、AI 企業はモデルの出力が真実であることを保証するために既存の取り組みを強化する必要があります。また、AI モデルが二極化の軽減に役立つ可能性があるといういくつかの有望な初期の発見も調査する必要があります。 AI が生成した X に関するファクトチェックの最近の現場評価では、さまざまな政治的見解を持つ人々が、人間が書いたメモよりも AI が書いたメモの方が役立つと感じていることがわかりました。この論文はまだ査読されていませんが、これは革命的な発見となる可能性があります。AI を活用したファクトチェックは、人間の手作業ではほとんど実現できなかった、党派を超えた信頼性を実現できるということです。モデルがどのようにこれらの主張を行い、その過程で情報源に優先順位を付けるかについての理解と透明性が高まると、国民の信頼が高まる可能性があります。