【後編】林 祐輔
哲学とアルゴリズム。AIの「価値観」は誰が決めるのか
人とAIが価値観を共有する「双方向アライメント」
2026.03.26
人間のコミュニケーションは、互いに「こんな返事が返ってくるかも」という予測と更新で成り立っているのだそうです。私たちはそのようなやり取りをくり返しながら、世界を理解しようとしています。そしてそのコミュニケーションの輪の中に、AIが入りつつあります。
個人的なことから学習・仕事までAIに頼ることが増えた今、避けては通れない問題があります。それは、「AIの価値観は誰が決めるのか」ということ。偏った考えを持つAIはユーザーに問題行動を促すかもしれないし、民意を操作するためにAIを調教したいと考える人もいるでしょう。
SNSによるエコーチェンバーや社会の分断は、大きな問題になっています。AIがそれを増長しないために必要なものは、哲学でしょうか。それとも最適なアルゴリズムでしょうか。
後編では、双方向AIアライメントの研究に取り組む林祐輔さんに、AIの価値観をめぐる議論の最前線について伺いました。分断を生まないアルゴリズムの可能性から、人間の思考の「外側」へと広がる未来まで。AI時代のコミュニケーションと社会のあり方を考えます。
( POINT! )
- AIアライメントはAIを従わせる技術とは限らない
- AIの価値観は開発者や社会背景の影響を受ける
- 現在のAI開発における多様性不足の問題
- 人間とAIが互いに影響を与える双方向アライメント
- 集合的予測符号化(CPC)というコミュニケーションモデル
- AIが人間同士の理解を助ける可能性
- AIが人間の知性を拡張する

林 祐輔
1986年生まれ。九州大学理学部、大学院理学府物理学専攻修士課程を修了。エコノミストとして日本銀行に入行後、企業・独立研究者としてAIとコミュニケーションの探求や社会実装を行う。Artificial Life Institute 人工生命国際研究機構 研究員、AI Alignment Network(ALIGN) 理事 / リサーチサイエンティスト、株式会社Humanity Brain 最高研究責任者(CRO)
AIの価値観は誰が決める?
前編では、人間のコミュニケーションで起きていることについて伺いました。林さんが携わるAIアライメントとは、そういったコミュニケーションの中にAIを入れていく技術でしょうか。

林
私たちの考えるAIアライメントは「AIを人間の従者として思い通りに動かす技術」ではありません。AIの予測と行動原理を、人間社会と安全に接続し続けられるようにする設計と運用です。
AIが適切でない提案をしないよう、制限するってことではないんですか?

林
私たちの研究の観点では、AIだけを制御するのではなく「相互モデル形成」になります。人間がAIを調整するだけでなく、人間側も「自分たちの価値は何か」「価値同士が衝突したときどう優先するか」を言語化し直さなければならない。つまりアライメントは、AIを変えるプロジェクトであると同時に人間社会が自己理解を深めるプロジェクトでもあるんです。
なるほど。でも、人間社会はみな同じではないですよね?地域差などもあります。

林
そうですね。同じ言葉を使っていたり同じ地域に住んでいたりすることは、その集団に共通した信念をつくる土台になります。
実際、今年のダボス会議(世界経済フォーラム)でも話題になりましたが、今のAIはサンフランシスコのAIエンジニアたちが設計し、調整している部分が大きいんですよね。ChatGPTやClaudeのようなAIも、基本的にはそうした人たちの価値観を前提に作られている。
つまり欧米人や中国人、若いエンジニアのお兄ちゃんたちが多い集団の価値観で、AIが調教されているわけです。それで本当にいいのか、という議論が出てきています。世界にはもっといろいろな文化や価値観がありますから。
宗教観なども違いますね。

林
西洋と東洋での哲学の違いもあります。西洋圏では、人間が主体でAIはあくまで道具。極端に言えば「奴隷」のような存在として、人間の価値観をきちんと教え込むべきだという考え方が中心です。
一方でアジア圏などでは、人間とAIが互いに影響を与えながら考え方を更新していく「双方向のアライメント」という発想が比較的自然に受け入れられています。AIの考え方を受けて人間の考え方が変わることもあるし、人間の考え方を受けてAIの振る舞いが変わることもある。そうやって共有された信念をつくっていくという考え方です。京都大学の谷口忠大さんや台湾のオードリー・タンさんらと一緒にこの「双方向のアライメント」に関する研究を進めていて、共著論文(*1)が公開されたところです。
AIは分断を防げるか
エコーチェンバーなどで社会の分断が起きています。AIの価値観をめぐっても、自分たちに有利な倫理観や判断基準を持たせて影響力を持とうとする動きが出てきますよね。

林
SNSのアルゴリズムは、ユーザーの滞在時間や反応を最大化するように設計されています。すると結果として、自分と近い意見や価値観ばかりが表示されるエコーチェンバーが生まれやすくなる。
アメリカの政治的分断が深まっている背景にも、こうしたSNSに備わるアルゴリズムの影響があると言われています。AIが社会のインフラとして使われるようになると、当然それを設計する企業や国家が影響力を持とうとするので、AIの判断基準や価値観をめぐる競争はすでに始まっていると言えるでしょう。
ただ、AIを「どちらかの価値観を押し付ける装置」にしてしまうと、社会の分断はむしろ強くなってしまいます。集合的予測符号化の考え方では、AIは一方向に価値観を教え込む存在ではなく、人間同士が互いの考えを理解するための媒介として設計する必要があります。
「予測符号化」は、脳が「こうかな?」と予測して誤差から更新していくことですよね。「集合的予測符号化」とは何でしょうか。

林
集合的予測符号化(Collective Predictive Coding、CPC)は、人やAIが互いの予測モデルを共有しながら理解を更新していくコミュニケーションのモデルです。人間同士の会話でも、相手が何を考えているかを予測しながら理解を調整していますよね。CPCはそのプロセスを、社会全体やAIを含めたシステムとして捉えたものです。
CPCの考え方では、AIが人間の分断を防ぐ可能性もあるということ?

林
はい。AIが人間の代わりに判断するというより、人と人のあいだに入って予測を調整する役割を持つ可能性があります。
たとえば今のSNSは、ユーザーの反応を最大化するために似た意見を集めてしまう構造があります。でもCPCの発想では、むしろ「相手が何を考えているか」を理解できるよう予測モデルを共有することが重要。私たちはAIがその橋渡しとなり、分断を和らげるようなアルゴリズムを作ろうとしています。
AIの手を借りて、これまでの人間の外側へ
そうした仕組みは、すでに実用化されているのでしょうか。

林
まだ研究段階の部分が多いですね。現実の世界では戦争も起きていますし、「強いものが影響力を持つ」という構造で分断が進んでいます。ただ技術的には、こうしたアルゴリズムを使って人々のコミュニケーションの仕組みをデザインし直すことで合意形成を助けたり、分断や分極を緩和したりできる可能性があります。理論的には、そういうことを示せる段階には来ています。
とはいえそれを社会で実装していくには、資金や政治、制度などさまざまな課題があります。なので研究だけでなく社会との接続をどう作っていくかも含めて、取り組んでいるところです。
互いの理解を促進するようなアルゴリズムにより、人間も変わっていくということですよね。林さんは中学生の頃「人類の外側に行きたい」と考えていたそうですが、それが少し現実に近づいているのかも?という気がしてきました。

林
そうかもしれません。人工生命研究者の池上高志さんから聞いたんですが、どんな貝殻の形も再現できる数学のモデルがあるんです。でも、調べてみると実際の貝殻はそのパラメーターの一部しか使っていない。本当はもっといろんな形になれるけど、成長に応じて貝殻を大きくしていくためには実際には選べない形があるからです。
人間の思考の世界も本当はもっと広くて、今はたまたまここに留まっているだけなんじゃないかなとよく考えています。
AIがその制限を取り外してくれるかもしれない。そう聞くと、未来が楽しみになります。

林
そうですね。でも、人間ってだいたいの人が身長が1〜2mぐらいの間に収まりますよね。そこに身長1000mの相手が現れたらどうでしょう。それくらい離れた、つまりIQ300とかのAIが出てくるとちょっとコミュニケーションが取れるかどうかわからない。そういうのも来年以降出てくるだろうと言われています。
ただ、今は科学の黄金時代です。普通の人でも20世紀のノーベル賞3個分ぐらいの仕事ができる時代なんじゃないかなと思っています。AIが平均的な数学者より賢くなっちゃったので、人間の知性が拡張されている。すでにAIの手を借りて、昔の人が行けなかった知の領域まで到達できるような時代になっています。
[取材・文]樋口 かおる [撮影]小原 聡太
- ※1:
- 「Symbiotic Alignment via Collective Predictive Coding」https://zenodo.org/records/19029736

