博報堂DYホールディングスは生成AIがもたらす変化の見立てを、「人間・社会の変化」、「産業・経済の変化」、「AI の変化」の 3つのテーマに分類。
各専門分野に精通した有識者との対談を通して、生成AIの可能性や未来を探求していく連載企画をお送りします。
第4回は、憲法学の立場からAIを研究する慶應義塾大学大学院法務研究科の山本 龍彦教授に登場いただきます。 「人間・社会の変化」をテーマに、生成AIがもたらす人間の価値観の変化や社会的に与える影響、課題との向き合い方について、生成AIも含めた先進技術普及における社会的枠組みの整備・事業活用に多くの知見を持つクロサカ タツヤ氏とともに、博報堂DYホールディングスのマーケティング・テクノロジー・センター室長代理の西村が話を伺いました。
山本 龍彦氏
慶應義塾大学大学院法務研究科 教授
クロサカ タツヤ氏
慶應義塾大学大学院政策・メディア研究科 特任准教授
株式会社 企(くわだて) 代表取締役
西村 啓太
博報堂DYホールディングス
マーケティング・テクノロジー・センター 室長代理
株式会社Data EX Platform 取締役COO
西村
生成AIが社会に大きな変革をもたらしているなか、まずは生成AIが個人の価値観や生活に与える影響についてお聞きできればと思います。
山本
私の専門は憲法学で、とりわけ憲法13条のプライバシー権や個人の尊重を中心に研究を行ってきました。
日本における個人データ保護やプライバシーは、主に「個人情報の“漏洩”に関する問題」という認識が強いですが、ヨーロッパでは個人の情報や閲覧、購買データが分析され、人の“選別”に使われること自体も「人間の尊厳に関わる重大な問題」という捉え方をしています。
生成AIの登場以前からAI全般の技術発展がめざましいですが、AIを使って個人の属性や能力をプロファイリングし、予測や分析を行うことで人を自動的に選別していくことに対しては、尊厳にかかわる問題として、ヨーロッパ諸国は非常に警戒心を強めているのが現状です。
またAIによる情報や商品・サービスのパーソナライズやレコメンデーションは、そのアルゴリズムによって自分が興味ある情報だけしか見えなくなる「フィルターバブル」という現象や、ソーシャルメディアなどで、自分と似た政治的傾向を持つユーザーとばかりコミュニケーションをとるようになり、自分の意見が極端に増幅・強化される「エコーチェンバー」といった現象の引き金となっており、社会的な問題につながっています。こうした「フィルターバブル」「エコーチェンバー」といった現象は、生活者の「注目=アテンション」を得ることが広告やインフルエンサーのビジネスにつながり、「注目=アテンション」そのものがあたかも金銭そのものであるかのように取り引きされる経済環境「アテンションエコノミー」を背景としています。アテンションエコノミーは、偽情報の増幅の構造的な要因にもなっています。偽情報は、インプレッションを稼ぎやすいからです。
こうした経済環境では、ユーザーの認知システムを刺激するようなコンテンツを、ピンポイントでAIがレコメンドしていくことが決定的に重要になります。バズを狙うショート動画や、釣り見出しをつけるWebの記事など、ユーザーの認知システムを刺激し、アテンションを取るためのコンテンツに大きくシフトしているため、現在の言論空間は非常に混沌としてきていると感じています。
西村
山本先生は、憲法13条にある「個人の尊重」の観点から、AIの社会的リスクについて提言されています。生成AIの登場によって、どのような局面へと変わっていくのでしょうか。
山本
今までの憲法学では、思想の説得力や言論の質、信頼性を自由に競い合う「思想の自由市場」が成立すると考えられてきました。それが現在、コンテンツの中身よりも、いかにユーザーの興味・関心を引いて反射を得るかという「刺激の競争」に変わってきていると考えられます。AI×アテンションエコノミーが作ってきた“混沌”は、生成AIによってさらに深刻化していく恐れがあると捉えています。
私は生成AIのことを“おいしい毒リンゴ”と表現することがあります。生成AIにおいては学習データの偏りや、“調律”(アラインメント)段階で含まれる人間の偏見のために出力が歪んだり、ハルシネーション(幻覚による虚偽の回答)が生じたりします。そういう意味では、生成AIの回答には必然的に“毒”が含まれるのだけれど、もっともらしい味がするといいますか、のどごしが非常にスムーズであるために、すっと飲み込めてしまう。このように、毒を含んだ“おいしい”リンゴを抵抗感なく食べ続けると、個人の「認知プロセス」が次第に侵されていく危険があると思います。生成AIを活用するのが当たり前になるにつれ、人間の主体的かつ自律的な意思決定を歪めてしまうかもしれません。