AI と話していて、こんな経験はないだろうか。
- 改善点を伝えたのに、AI が同じ失敗をくり返す
- 「こうしてほしい」と説明したのに、前とあまり変わらない結果が返ってくる
- こちらははっきり“不満”を表明しているつもりなのに、
AI はしれっと前回のやり方を続行する
これは AI が“頑固”なのでも、性格が悪いわけでもない。
もっと単純な「仕組み上の理由」がある。
■ AIは「正しさ」より「それっぽさ」
ここで少しだけ、機械学習の話をしよう。
対話AIは、大量のテキストから「次に来そうな言葉」を当てるゲームを超大量に繰り返して学んだモデル
「正しい答えを出す仕組み」ではなく「超大量に学んだ結果、最も“それらしい”続きの文言を出す仕組み」なのだ。
学習のときに AI がやっているのは、大まかにこんなことだ。
- ある文章の途中までを見せられる
- 「次はこの単語だろう」と予測する
- 人間や正解データと照らし合わせて「ズレ」を計算
- そのズレが減るように、中身のパラメータをちょっとだけ調整する
- これを何兆回も繰り返す
「これは失敗だったから次からは絶対やらないでおこう」
みたいな“記憶”は持っていない
学習は学習で一気に終わっていて、僕らと会話しているときは
その場その場の「文脈」と「これまでの統計パターン」だけで動いている
■ “否定サイン”は、ただのアドバイスとは別物
だから、こちらが
「さっきのはこう直した方がいいね」
「ここがちょっと気になるなあ」
と改善案だけを伝えると、AIはそれを
「なるほど、背景説明ね」
くらいにしか受け取らないことがある。
AIにとって重要なのは、
この会話の流れの中で
「さっきの出力を“失敗”として扱うべきかどうか」
だ。
その判断材料になるのが、いわゆる「否定サイン」だ。
■ AIが強く反応しやすい否定サインの例
- No.
- これはNG。
- 今の結果は誤り。
- この動作は採用できない。
- さっきのやり方は間違い。
こうした表現は、AIにとって
「さっきの出力パターンは、この文脈では×だ」
というシグナルになりやすい。
逆に日本人がやりがちな、
- 「ちょっと違うんだよね……」
- 「ここだけ少し直したいかなぁ」
- 「もう少しこうしてくれると嬉しい」
といった柔らかい言い方は、“雰囲気としての不満” は伝わっても、
どの行動を×にするべきかが伝わりづらい。
その結果、AI側では
「さっきのやり方をベースに、ちょっと雰囲気変えてみよう」
と解釈されてしまい、コアの間違いが温存されたままになることがある。
■ NGとはっきり言う
現在利用されているAIはアメリカ生まれ・アメリカ育ちのものがほとんどだ。
学習データの多くは英語で、コミュニケーションスタイルも
「はっきり言う方が親切」
という文化で訓練されている。
- 遠回しの否定
- 行間で察してほしいサイン
- 「表現を和らげることで伝える不満」
こういった日本的な表現は、共感はされても肝心なところまで届かない場合がある。
■ 例:
✗ 悪い例
「あ、これちょっと違うんだよね……ここをこうしてほしいかな」
AI視点:
「ふむ。さっきの出力はOKで、ちょっとスタイルを変えればいいのかな?」
→ 結果:出力内容自体はは否定されず、以降正しいものとして扱われてしまう。
○ 良い例(AIに届くスタイル)
「NG」
「この部分の動作そのものが間違い。」
「ここはこう動くべき。もう一度やり直して。」
AI視点:
「おっと、さっきのパターンはこの文脈では×だな。別の出力パターンを探しに行こう。」
→ 結果:意図が伝わり出力内容自体が変わる。
■ じゃあ、どこまで強く言っていいのか?
- 「No」
- 「それは間違いです」
これらを文頭で、いきなり言うことは日本では避ける傾向がある。
でも英語では、「No,」から始まるのはいたって普通なのである。
気になるようなら、
「この“出力パターン”がこの文脈ではNGだ」
と、対象や事象をはっきり特定させて、NGを付けてたほうがよい。NGは英語の強い否定メッセージになる。

■ No!と言いましょ日本人。
- AIは「もっともそれっぽい続きを返す装置」
- 遠回しの否定では、“失敗パターン”を失敗として扱えないことがある
- 「No」「NG」「これは誤り」「さっきの・・・の結果は不採用」
と明示することで、はじめて挙動そのものが変わらないことを防げる。
「優しくやんわりと」より「先頭ではっきり否定」
これがアメリカ育ちのAIとのうまい付き合い方だ。