ClaudeやChatGPTにいろいろなコードを書いてもらって実験しています。
すごく楽なんだけど、結局途中でグチャグチャになってプロジェクトが最後まで完成しないことが多い。少ないファイル数で済むようなちょっとしたミニツールを作ってもらうなら最高なんだけど、プロジェクトが複雑になればなるほど、どんどん要らんことをしだす。修正を繰り返せば繰り返すほど、新たな問題が勃発する。
まず、頼んでもいない機能を勝手にモリモリ書いたりする。そのせいで読み書きの時間はかかるし、余計なエラーも増える。「頼んだ機能だけ実装してくれ」と注意しても、勝手に要らんことする。
さきほどもClaude Desktop(MCP連携でローカルファイルを読み書きできる状態)に、あるJSファイルを書いてもらった。それが27KBというサイズになりまして、読み書きコストが無視できなくなった。ある一行を修正したいだけであっても、ファイルを読み込んで全体を1から書き直すという無駄な作業をするので、ファイルサイズをできるだけ小さく保ちたい。
なので、そういう問題点をClaudeに伝えたところ意図を理解してくれまして「読み書きコストを小さくするためにファイルを機能ごとに分割しますね!」と元気よく作業を開始してくれました。ところが、出来上がった複数のJSファイル群を合計すると、約90KB。いや、なんで3倍に増えてんねん! しかも、あるファイルに至っては1つで30KB。いやもう、分割前の27KBを超えたら分割した意味がないやん! お前、俺の話、聞いてたん?っていう。
人間が開発するコードはスパゲティになりがち。ですが、AIが開発するコードも結局似たような問題があり、エントロピー増大の法則から逃れられないな、と感じています。2025年4月末の現時点では。
コメント