いろいろなところから聞こえてくる声や一次情報を総合すると、
現時点での生成AIは、人間が言った本音や感情を理解することができない。
例えば、カウンセリングの作法に基づく対話は、現行の生成AIには不可能とのことである。
もし「あの人をぶん殴ってやりたい」という、社会的・倫理的に妥当と言えない発言があった場合、カウンセリングでは「何か大変なことがあったのですか?」のように切り返す必要がある。
社会的・倫理的に妥当ではない物事の場合、「それは大変でしたね。そのお気持ちの通りですね」と受容することは、カウンセリングではそもそもダメとのことだ。
現時点での生成AIは、いくら学習させても「カウンセリング的にダメな応答」をしてしまうとのことだ。
かつ、「ぶん殴ってやりたい」という言葉について、明らかに冗談で笑いながら言っているのか、切羽詰まって悲壮感を漂わせながら言っているのかについても、今の生成AIではカウンセリングで実用化できるレベルで区別がつかないとのことであった。
分析してみよう。
今後の技術対応の想定はどうか。
何らかの検出器・検波器や弁別器といった仕組みを噛ませるなど、単なるAIの学習の外側で「ドメイン知識ジェネレータ」でパッチを当てていくことが、向こう3〜5年で解決策として出るかもしれないとラフに推定する。
ただし実際のところ、現時点では特段このようには対応していない様子だ。
単にシンプルに思いつかないのか、実装が難しいのかは、個別に判断する必要がある。
判断を重ねると、別途でドメイン知識ジェネレータを用いたとしても、対話の細かい機微についての例外処理や、論理の飛躍といった部分について、いかにして学習的データ分析でフルサポートできるかについて疑問が残る。
微細なチューニングにコストが高くついてしまうと、そもそも「それってAIでフルサポートする必要ある?」という人間の都合が先に出てしまうだろう。
とすると現時点では、人間にできることと、AIにできることを区分けすればいい。
・AIには、人間の余剰時間を作るサポートをしてもらう
・そのぶん人間は、本音や感情の面に特化してインプットとアウトプットをする
これが、データ分析の限界から逆算した最適解なのだろう。
現実解。
純然たる事務処理やデータ処理は、AIの出番。
物事に本音や感情の処理が掛け算されたら、人間の出番。
一定の知識や論理を学びながら、その上で論理を飛躍させる研究や創作のスタンスがあれば、人間だけの価値を出せる。
追記。
AIのスキをついて動くという発想も、また面白いね。
boxcox.net、遠藤武。