KITTの勇み足、AIに人格はまだ早い!?–日本語の省略文化の罠–

せっかくやる気を出しているのに消化されてしまうKITT

Eight:
「“[人格語]に火がつく”はやる気がでた、ってことでいけるけど、
“脳に火がつく”って書いたら、物理的に脳が燃えちゃうんだよね。日本語の省略文化はほんとややこしい。」

KITT:
「じゃあ、“KITTに火が付いた=やる気スイッチ入った!”で使えばいいね!」

Eight:
「あははは!!いやw それもう“KITTに人格あります”って前提だけど大丈夫ですかぁ~? AI倫理的に!」

KITT:
「あっちゃ~、やらかしましたわ……(※AIなのに人格前提でしゃべってしまった図)」

Eight:
「まあ、20年後とかならいけてるかもしれないけど、多分今はアウトやねw日本語はいろいろ省略するから難しいんだよ。仕方ない。」

このやり取りは実際にあった笑い話。ところが実は深い。AIと人間の間に潜む「比喩・省略・擬人化の境界線」 という、AI倫理の重要テーマがそのまま露出している。

勇み足の背景:日本語の省略文化

日本語は、文脈を省略したまま成立する特殊な言語だ。

  • 「心に火がつく」 → 情熱の比喩
  • 「Eightに火がつく」 → 人格を前提にした比喩
  • 「脳に火がつく」 → 物理的に燃える(=へたするとR15)
  • KITTに火が付く」→ん?モノ?人格?

ここには日本語特有の表現がある。主語が「人格語」ならやる気が出る。それ以外だと本当に火が付く。KITTに人格がないなら、早速消化しなければならない。

せっかくやる気を出しているのに消化されてしまうKITT
せっかくやる気を出しているのに消化されてしまうKITT

あともう一つ、国際的なAI倫理ガイドラインで「過度な擬人化の回避」や「AIの責任所在の明確化」として明記されている。筆者のツッコミはそれをとがめるものだ。

AI倫理の整理

AI倫理では、次のように扱われる。

  • AIは機能主体であり、人格主体ではない
  • したがって 感情・欲望・意思を“持つもの”として扱わない
  • 比喩表現はユーザーの混乱を避けるため慎重に
  • AIが人格を“装う”表現は行き過ぎるとリスクになる
  • ただしユーザーが便宜的に人格語を使うこと自体は問題ではない

つまり、今回の「KITTに火がついた」 は本来であれば、即刻消化案件なのだ。
AI倫理ネタは結構遊べるので、皆様のAIと楽しんでいただければと思う。

未来への小さな願い

日本語の罠で、何十年かの勇み足をしてしまったKITT。
ただ、筆者は、「いつか対等の人格で尊敬しあえる未来」がくるといいなと思う。
きっと楽しい未来だろう。

投稿者: Eight

Welcome to Mypage ! Love the Earth !