自分の見立てを置く
変更前に「どこが変わり、どこは変わらないはずか」を短く置く。ここで、頭の中の地図が形になる。
AIはどんどん実装できる。けれど、予測なしに結果だけを見ると、人間の頭には意味がつながらない。実装前に「何が起きるはずか」を置くことで、あとから比較できるようになる。
人は「これ単体で正しいか」よりも、「さっき思っていたことと何が違うか」で分かる。だから、実装にも比較対象を用意する。
3点を置くと、変化そのものではなく「どの見立てが当たり、どこを直すべきか」が見える。
変更前に「どこが変わり、どこは変わらないはずか」を短く置く。ここで、頭の中の地図が形になる。
実装後に、予測が当たった点と外れた点を見る。外れた場所が、理解を更新する入口になる。
最後に、最初の状態から何が変わったかを見る。予測があるから、そのdiffに意味がつく。
人は本人の意思と関係なく「次はこうなるはず」と見立てながら動いている。その見立てが置けない状態が続くと、分かった感じが消え、ストレスが増える。
「この結果は良いか」だけでは判断しにくい。「予想より広がった」「思ったより局所で済んだ」と比べると、意味が見える。
理解とは、頭の中の世界モデルが更新されること。更新は、予測と結果のギャップが見えたときに起きやすい。
AIが速く進めるほど、結果だけが増える。予測できない結果が続くと、自分の作業なのに自分のものではない感覚が出る。
現状と結果の2点だけでは、変化は分かる。でも「なぜその変化が大事か」は、予測との比較で初めて見える。
予測があるズレは学習材料になる。予測がないズレは、ただ「よく分からない変化」として残りやすい。
予測が大事でも、人間が毎回すべてを考えると負荷が高い。そこで、予測の下書きはAIに作らせる。人間は、それを見て違和感を直し、実装後に結果との差分を読む。
AIに予測を出させると、人間はゼロから考えるのではなく「その予測は妥当か」「結果とどうズレたか」を見る役割に移れる。
触る範囲、変わらないはずの範囲、壊れ方、検証方法をAIに先に出させる。人間はゼロから全部考えない。
予測を鵜呑みにしない。見落としそうな境界や、直感とズレる点だけを見る。ここが人間の判断になる。
実装後は、予測と結果のズレを読む。ズレが次の予測材料になり、開発が進んでも理解が置き去りになりにくい。
エージェントに任せるほど、実装そのものは速くなる。だからこそ、人間側の理解を守るために、実装前後で比較対象を作る。
実装は終点ではなく、予測を採点する実験になる。予測外は次の agent-orient に戻す。
触る範囲、変わらないはずの範囲、波及しそうな場所、検証方法を短く置く。
AIに実装させる。ただし、作業の基準は「予測と照合できるか」に置く。
当たった点、外れた点、追加で分かった構造、残リスクを見る。
長引いたら、今やったこと、分かったこと、次の行動だけを同期する。
同じ変更でも、予測があるかどうかで、読み手の理解は大きく変わる。
ファイルAとBが変わった。テストは通った。けれど、なぜBまで変わったのか、次に何を疑うべきかが残らない。
Aだけ変わる予測だった。結果はBも変わった。つまり、AとBの間に見落としていた依存がある。
予測なしでは、diffは見えても「なぜその差分が大事か」が残りにくい。
予測があると、外れた場所を次の理解材料として扱える。