素人がChatGPTに1週間で9万行のコードを書かせて分かった事

ChatGPT A.I.Sレポート ChatGPT利用例 サービスレポート

Contents

 

ChatGPTにコードを書かせている、というと
「一瞬でWebサイトができるんでしょ?」
「AIなんだからミスしないでしょ?」
そんな反応をされることが多い。

正直に言うと、最初は私もそう思っていた。

私はエンジニアではない。
HTMLは20年前に大学で授業を受けた程度。CSSやJavaScriptは所々の英単語が理解できるくらいの程度の素人だ。

そんな私が、ChatGPTに頼りきりで2026年1月の1週間でLP(ランディングページ)を作り続けた結果、 気づけば約9万行分のコードを書かせていた。

完成予定LPは5本。
派生ページが4本。

そして、
明らかにChatGPTの挙動がおかしくなる地点がある事に気づいた。

その理由を、ChatGPT自身に分析してもらった結果、やはり素人マインドでコード出力をし続けると、必ず地雷を踏んでしまう事が分かった。

今回はChatGPTがその罠に陥ってしまう人為的な理由を挙げる。


まず誤解してほしくないのは、これは
「ChatGPTは使えない」
「AIは結局ダメだ」
という話ではない。

むしろ逆だ。
序盤のChatGPTは、素人の私にとって異常なほど優秀だった。

指示を出せば、意図を汲み取り、
「それっぽい」どころか、
「普通にプロが書いたように見える」コードを出してくる。

だからこそ、私は完全に頼りきってしまった。


① 会話が長くなると、ChatGPTは「全体」を見なくなる

最初のうちは、ChatGPTは全体を見ていた。

HTML構造、CSSの設計、JavaScriptの役割分担。
こちらが曖昧な指示を出しても、前後関係から補完してくれる。

ところが、ある地点を超えると、明らかに挙動が変わる。

  • 直前の修正だけを見る

  • 昔決めた前提を参照しなくなる

  • 全体より「今直す箇所」だけに集中する

これは能力低下というより、思考のスコープが狭くなる感覚に近い。

野球でいうと

試合序盤は、配球や打者の癖を考えて投げていた投手が、
試合後半になると「とりあえずストライクを投げる」状態になる。

考えていないわけではない。
考える範囲が縮んでいる。


② 「素人の確認」が、罠時間を増幅させる

素人の私は、当然怖い。

「ここを変えたら、他が壊れるんじゃないか?」
「全体が崩れたら、もう戻せないのでは?」

だから私は慎重になる。

  • 「どこからどこまでを差し替えればいいですか?」

  • 「前後のコードを教えてください」

  • 「これは既存の仕様を壊しませんか?」

ChatGPTは丁寧に答えてくれる。
前後コードも出してくれる。

しかし、この丁寧な確認の往復が、会話を肥大化させる。

前提が増える。
条件が増える。
例外が増える。

その結果、ChatGPT自身が
「どの前提が最新だったか」
を維持するコストが跳ね上がる。

車でいうと

安全運転のために何度も微調整を繰り返した結果、
整備履歴が複雑になりすぎて、
次の整備士が「今の正解状態」を把握できなくなる。

安全のための行動が、
結果的に不安定さを生む。


③ 「差分修正」が積み重なると、文脈が歪む

途中から、ChatGPTはこう言うようになる。

「全体を書き直す必要はありません」
「ここだけ差分で直しましょう」

理屈は正しい。
だが、差分修正が何十回も積み重なると、
文脈そのものが歪み始める。

  • 元々の設計思想

  • 最初に決めたルール

  • 暗黙の前提

これらが、少しずつズレていく。

すると、コードは動いているのに、
「なぜそうなっているのか」が誰にも分からなくなる。

差分修正を積み重ねた結果、何が起きていたのか

コードが増え、修正を繰り返すほど、
私はある違和感を覚えるようになった。

直っているはずなのに、安心できない。
そして「なぜ直ったのか」を、誰も説明できない。

この状態は、技術の話というより、もっと身近な感覚に近い。


野球でいうと

サインが増えすぎている状態だ。

最初はシンプルだったはずのサインが、
「念のため」「前に失敗したから」と追加されていき、
いつの間にか何十種類にも膨れ上がる。

結果どうなるか。

今、どのサインが有効なのか
キャッチャーも分からない。
投手も分からない。

たまたまうまくいった球があっても、
「なぜ通じたのか」は誰にも分からない。

これが、差分修正を積み重ねたCSSの状態とそっくりだった。


車でいうと

警告灯が点く。

原因を調べる代わりに、
「とりあえず消そう」として
警告灯の配線だけを切る。

また別の警告灯が点く。
また配線を切る。

確かに、ダッシュボードは静かになる。
車は走る。

でも――
壊れている事実は、何一つ解決していない。

CSSを追加し続けた状態は、まさにこれだった。


表面は直る。でも、構造は壊れる

ChatGPTの出力は、確かに優秀だ。
差分修正も、的確に見える。

だが、やり取りが長くなり、
コードが増え、
前提が少しずつ崩れていくと、

  • 直っているのに不安

  • 動いているのに説明できない

  • 触るのが怖い

という状態に必ず陥る。

これはChatGPTが無能だからではない。
前提が壊れたまま、差分を積み続けた人間側の構造的な罠だ。

そして一番厄介なのは、
この罠に落ちている最中、
本人は「前に進んでいる」と思ってしまうことだった。


④ コードが増えるほど、「それっぽさ」が勝ち始める

後半になると、説明の質が変わった。

  • 理由の説明が短くなる

  • 過去の選択との整合性が語られない

  • 「一般的にはこうです」という表現が増える

コード自体は一見きれいだ。
コメントもある。
構文も正しい。

だが、全体として噛み合っていない。

料理でいうと

見た目は高級料理。
盛り付けも完璧。
だが、食べると味の方向性がバラバラ。

個々は正しくても、
一皿として成立していない。


⑤ 人間側が「AIを信じすぎる罠」に落ちる

最も怖かったのは、ここだ。

自分の判断が鈍っていく。

  • 「AIが言うなら正しいはず」

  • 「ここまで来たら任せた方が早い」

  • 「自分が理解できないのは自分のせい」

こうして、違和感を感じても流してしまう。

そして、
罠出力に気づくのが遅れる。

恋愛でいうと

相手の違和感に気づいているのに、
「きっと私の考えすぎだ」と飲み込んでしまう状態。

後から振り返ると、
最初の違和感が一番正しかった。


なぜ、これが必ず起きるのか

これはChatGPTの欠陥ではない。
むしろ、人間側の使い方と噛み合った構造的な問題だ。

  • 会話が長くなる

  • 前提が増える

  • 修正履歴が積み上がる

  • 素人ほど確認を重ねる

この条件が揃うと、
ChatGPTは「深く考える」より
「今の文脈に合わせて出力する」方向へ寄っていく。

その結果、生まれるのが
罠出力罠時間だ。


私はこの1週間で、
AIの賢さよりも、
人間とAIの関係性の難しさを学んだ。

そしてこれは、
コード制作に限った話ではない。

この構造は、
文章作成、企画立案、資料作り、
あらゆる「AIとの共同作業」で起きうる。

それに気づかず突っ込むと、
誰でも同じ罠を踏む。

私は踏んだ。
だから、ここに書いた。

#ChatGPT #AI活用 #Web制作 #LP制作 #生成AI #コード #個人開発 #失敗談 #エンジニアでない #企業公式相互フォロー

 

関連記事

この記事へのコメントはありません。

CAPTCHA


カテゴリー

アーカイブ