AIの価値観は誰が決める?

前編では、人間のコミュニケーションで起きていることについて伺いました。林さんが携わるAIアライメントとは、そういったコミュニケーションの中にAIを入れていく技術でしょうか。

私たちの考えるAIアライメントは「AIを人間の従者として思い通りに動かす技術」ではありません。AIの予測と行動原理を、人間社会と安全に接続し続けられるようにする設計と運用です。

 

AIが適切でない提案をしないよう、制限するってことではないんですか?

私たちの研究の観点では、AIだけを制御するのではなく「相互モデル形成」になります。人間がAIを調整するだけでなく、人間側も「自分たちの価値は何か」「価値同士が衝突したときどう優先するか」を言語化し直さなければならない。つまりアライメントは、AIを変えるプロジェクトであると同時に人間社会が自己理解を深めるプロジェクトでもあるんです。

 

なるほど。でも、人間社会はみな同じではないですよね?地域差などもあります。

そうですね。同じ言葉を使っていたり同じ地域に住んでいたりすることは、その集団に共通した信念をつくる土台になります。

実際、今年のダボス会議(世界経済フォーラム)でも話題になりましたが、今のAIはサンフランシスコのAIエンジニアたちが設計し、調整している部分が大きいんですよね。ChatGPTやClaudeのようなAIも、基本的にはそうした人たちの価値観を前提に作られている。

つまり欧米人や中国人、若いエンジニアのお兄ちゃんたちが多い集団の価値観で、AIが調教されているわけです。それで本当にいいのか、という議論が出てきています。世界にはもっといろいろな文化や価値観がありますから。

 

宗教観なども違いますね。

西洋と東洋での哲学の違いもあります。西洋圏では、人間が主体でAIはあくまで道具。極端に言えば「奴隷」のような存在として、人間の価値観をきちんと教え込むべきだという考え方が中心です。

一方でアジア圏などでは、人間とAIが互いに影響を与えながら考え方を更新していく「双方向のアライメント」という発想が比較的自然に受け入れられています。AIの考え方を受けて人間の考え方が変わることもあるし、人間の考え方を受けてAIの振る舞いが変わることもある。そうやって共有された信念をつくっていくという考え方です。京都大学の谷口忠大さんや台湾のオードリー・タンさんらと一緒にこの「双方向のアライメント」に関する研究を進めていて、共著論文(*1)が公開されたところです。

 

AIは分断を防げるか

エコーチェンバーなどで社会の分断が起きています。AIの価値観をめぐっても、自分たちに有利な倫理観や判断基準を持たせて影響力を持とうとする動きが出てきますよね。

SNSのアルゴリズムは、ユーザーの滞在時間や反応を最大化するように設計されています。すると結果として、自分と近い意見や価値観ばかりが表示されるエコーチェンバーが生まれやすくなる。

アメリカの政治的分断が深まっている背景にも、こうしたSNSに備わるアルゴリズムの影響があると言われています。AIが社会のインフラとして使われるようになると、当然それを設計する企業や国家が影響力を持とうとするので、AIの判断基準や価値観をめぐる競争はすでに始まっていると言えるでしょう。

ただ、AIを「どちらかの価値観を押し付ける装置」にしてしまうと、社会の分断はむしろ強くなってしまいます。集合的予測符号化の考え方では、AIは一方向に価値観を教え込む存在ではなく、人間同士が互いの考えを理解するための媒介として設計する必要があります。

 

「予測符号化」は、脳が「こうかな?」と予測して誤差から更新していくことですよね。「集合的予測符号化」とは何でしょうか。

集合的予測符号化(Collective Predictive Coding、CPC)は、人やAIが互いの予測モデルを共有しながら理解を更新していくコミュニケーションのモデルです。人間同士の会話でも、相手が何を考えているかを予測しながら理解を調整していますよね。CPCはそのプロセスを、社会全体やAIを含めたシステムとして捉えたものです。

 

CPCの考え方では、AIが人間の分断を防ぐ可能性もあるということ?

はい。AIが人間の代わりに判断するというより、人と人のあいだに入って予測を調整する役割を持つ可能性があります。

たとえば今のSNSは、ユーザーの反応を最大化するために似た意見を集めてしまう構造があります。でもCPCの発想では、むしろ「相手が何を考えているか」を理解できるよう予測モデルを共有することが重要。私たちはAIがその橋渡しとなり、分断を和らげるようなアルゴリズムを作ろうとしています。

 

AIの手を借りて、これまでの人間の外側へ

そうした仕組みは、すでに実用化されているのでしょうか。

まだ研究段階の部分が多いですね。現実の世界では戦争も起きていますし、「強いものが影響力を持つ」という構造で分断が進んでいます。ただ技術的には、こうしたアルゴリズムを使って人々のコミュニケーションの仕組みをデザインし直すことで合意形成を助けたり、分断や分極を緩和したりできる可能性があります。理論的には、そういうことを示せる段階には来ています。

とはいえそれを社会で実装していくには、資金や政治、制度などさまざまな課題があります。なので研究だけでなく社会との接続をどう作っていくかも含めて、取り組んでいるところです。

 

互いの理解を促進するようなアルゴリズムにより、人間も変わっていくということですよね。林さんは中学生の頃「人類の外側に行きたい」と考えていたそうですが、それが少し現実に近づいているのかも?という気がしてきました。

そうかもしれません。人工生命研究者の池上高志さんから聞いたんですが、どんな貝殻の形も再現できる数学のモデルがあるんです。でも、調べてみると実際の貝殻はそのパラメーターの一部しか使っていない。本当はもっといろんな形になれるけど、成長に応じて貝殻を大きくしていくためには実際には選べない形があるからです。

人間の思考の世界も本当はもっと広くて、今はたまたまここに留まっているだけなんじゃないかなとよく考えています。

 

AIがその制限を取り外してくれるかもしれない。そう聞くと、未来が楽しみになります。

そうですね。でも、人間ってだいたいの人が身長が1〜2mぐらいの間に収まりますよね。そこに身長1000mの相手が現れたらどうでしょう。それくらい離れた、つまりIQ300とかのAIが出てくるとちょっとコミュニケーションが取れるかどうかわからない。そういうのも来年以降出てくるだろうと言われています。

ただ、今は科学の黄金時代です。普通の人でも20世紀のノーベル賞3個分ぐらいの仕事ができる時代なんじゃないかなと思っています。AIが平均的な数学者より賢くなっちゃったので、人間の知性が拡張されている。すでにAIの手を借りて、昔の人が行けなかった知の領域まで到達できるような時代になっています。

 

[取材・文]樋口 かおる [撮影]小原 聡太

※1:
「Symbiotic Alignment via Collective Predictive Coding」https://zenodo.org/records/19029736