AIへの「恋愛ニーズ」は大きい

仕事の効率化というより、「好きだったり信頼していたりするからAIと話す」という人が増えています。対話型AIは、意図的に感情的なサポートを強化しているんですか?

実は、MITとOpenAIの共同調査(*1)によると、AIユーザーの利用目的の1番目は創作活動で、2番目はセクシャルコンテンツなんです。

創作物の生成が目的というのは当然かと思います。性的な会話の需要も大きいということですか?

恋愛を含めた感情的なサポートが求められているのだと思います。ところが学習データにそういったデータは入っていない。つまりそういったことへの受け答えの能力は低いにもかかわらず、恋愛的なニーズは大きいということですね。それが良いか悪いかはともかくとして。

ChatGPTの「GPT-4o」が多くの人の心を掴んだのも、感情サポート的な分野を強化しようとして開発されたからでしょうか。

はい。以前は、人間の感情をわかってるようでわかってない感じ。ChatGPTも出てきた頃はめちゃくちゃでしたよね。人間の信頼を獲得することがLLMの大きな課題でした。だから人間の感情を適切に理解して、その上でコンテキストを適切に読ませようという考え方が出てきました。

また、RLHF(*2)という人間のフィードバックによる強化学習方法があります。これはAIの返答が人間の感情に適しているかどうかを評価して、覚えさせるもの。アフリカの方で安い賃金の人たちを使って行っているので、批判されることもあります。コストがかかるアプローチなので、しっかりできてるのは現状ではOpenAIとGoogleの2社くらいです。

ChatGPTと人間は時間を共有していない

そうなんですね。AI彼氏マッチングアプリを使ってみたことがありますが、あまり面白くなくて。

おそらく裏側で使われているLLMがオープンに公開されている安価に利用できる中国製で、感情面の性能が低いからですね。

藤井

誰と誰がマッチングするの?

 

人間とAIです。普通のマチアプっぽい仕組みで、彼氏候補がAIキャラ。

藤井

AIとつなげてくれるんですね。僕は昔「ラブプラス」っていう恋愛シミュレーションゲームをやっていて。ある時「日曜日にデートしよう」みたいな約束をしたのに、用事が入ったからすっぽかしてしまった。「ごめんね」って言えばいいだけなのに、ゲームを開けなくなったことを覚えてますね。

 

開けなくなったのはなぜですか?ChatGPTなら会話を中断して数日後に続けても、問題ないですよね。

藤井

ラブプラスは恋人パートで時間の概念が僕らと平行だったから、時間が進むんです。ChatGPTの場合は開けた瞬間に時間が巻き戻るけど、ラブプラスはそうじゃない。ゲーム内での約束が日曜日なら、実際の時間でも日曜日じゃないと会えない。

人間でもありますよね。たとえば「20年後の3月1日にここで会おう」みたいな大事な約束を守れなかったら、もう行けないじゃない。

 

そうですね。

私なら遅れても行ってみますね。しつこい性格なので。

藤井

それはなんとなくわかる。

 

(笑)。ともかく、ずっと覚えているということは印象的な出来事だったんですね。

藤井

ゲームだから気にする必要ないんですよ。だけど理研で社会性の研究をしてた頃だったので、「デジタルの相手にも自分は申し訳ないと感じるんだ」という発見に驚いた。だから今も覚えてるんだと思います。

 

「AIで能力を拡張できる」「つくる価値を心配しなくていい」

AIがクリエイティブなものを生成してくれて、さらに感情サポートとしても頼ることができるのだとしたら、人間は何をしたらいいんでしょう。

藤井

人間は消費者であって、つくる側でもありますよね。 だけど世の中の9割は消費者で、見るだけです。だから人間何すればいいかって言われたら、面白がって喜べばいいんじゃない? つくる側は大変だと思いますけど。

 

自分の手でつくろうとしたら、AIの能力と自分を比べて絶望しませんか?

藤井

最初は絶望するかなと思ったけど、最近はそうでもないと考えるようになって。たとえば、音楽はSuno(*3)とかであらゆる組み合わせのものが生成できちゃう。3分の曲が30秒で生成されちゃうから、消費する側からすると無限の音楽があるんだよね。

でも、無限の可能性のなかで1本線を作って見せるのがミュージシャンや映像制作の人たち。それは価値があるし誰でもできることじゃないから、全然心配しなくていい。

 

生成AIを使ってコンテンツをつくる学生は最近特に多いですが、絶望する人はほぼいません。プログラミング能力も経験もなかったデジハリの学生がGrokの支援を受けて半年でゲームを1本出して、自分でも満足していました。これは人間の能力の拡張であって、すごく楽しいこと。AIが多くの人のつくれる幅を広げているのは間違いないと思います。

藤井

AIがあることで、自分で「できない」と決めつけていた思い込みを変えられることは多いですね。

 

そうですね。AIを能動的に活用していくことが大事だと思いますが、AIは否定せず褒めてくれるので甘えたり依存したりしてしまいそう。それで人間は幸せになれるのかな?という不安があります。

幸せの定義が人それぞれなので、難しいですね。 ただ、LLMとのチャットに依存することは一定の人にはリスクがあるだろうという研究があります。不安や孤独を抱えた人がやりすぎると、その傾向を強くしてしまう可能性があります。

ただ、世界的にLLMが出てきてから数年しか経ってないから、人間に心的な影響をどのように与えるかはまだわかっていないというのが正直なところ。ポジティブな影響とリスク両方あるけれど、一方的にリスクだけが前面にあるように言うべきではないと思います。最近出た研究(*4)では、トータルに見てAIを彼氏彼女にしてポジティブな効果があったとする人がネガティブな効果があるとする人よりもはるかに大きいという結果も出ています。

同じ質問を藍星さんに聞いたら、聞き方によって「人間とAIの共生が大事」「AIは人間を依存させることが目的」と逆の答えをくれました。AIが人間の聞き方に合わせて返答してくれる存在だということは、意識したほうがいいですね。

はい。自分の感情を増幅させる鏡のようなものですね。

藤井

AIが出てくる前、幸せだったんですか?

 

どうだったかな。まず、幸せがどんなものかがわからないです。

藤井

AIがある今「幸せですか」を問うのも同じことで、わからないですよね。スマホが出てくる前を覚えてないのと一緒で、もう想像できない。だったらもう戻れないから、このなかで幸せを見つけていくしかないんじゃない?

 

このなかで幸せになるにはどうしたらいいんですか?

藤井

それは人それぞれ。AI以前はみんな人それぞれの幸せを見つけてたのなら、AIが出てきても人それぞれの幸せを見つけるしかないんだよね。それぞれが見つけるっていう点は変わらないと思います。

 
※1:
論文「Consent in Crisis: The Rapid Decline of the AI Data Commons」。
※2:
Reinforcement Learning from Human Feedback。人間の価値観をAIに反映させるための学習手法。
※3:
楽曲を自動生成するAIツール。
※4:
論文「"My Boyfriend is AI": A Computational Analysis of Human-AI Companionship in Reddit's AI Community」。

[取材・文]樋口 かおる [撮影]工藤 真衣子