AI初心者が体験した「バイブコーディング」の真実:ゼロから作るSNS監視Webページの失敗と成功
ビジネスインサイダーの記者、カatherine リ氏は、AIによる「バイブコーディング」に挑戦し、自身の嫌な業務を自動化しようと試みた。彼女の最も苦手な仕事は、テクノロジー業界のトップ10人以上を追うソーシャルメディアの監視だった。そこで、トランプ元大統領、エロン・マスク氏、サム・アルトマン氏の投稿を一度に確認できるウェブページを作成することを目標にした。 初回の試みでは、コード経験ゼロの状態でChatGPTに自然言語で指示。AIはソフトウェアのインストールからファイル作成、コード生成まで一連の手順を提示。しかし、実行時にエラーが発生。AIは次々に修正案を提示するが、それぞれ別のエラーを引き起こし、最終的に「ゲートウェイタイムアウト」という切断エラーで作業が中断。AIが「人間の理解を超える操作」を求め、ユーザーを困惑させた。 深夜7時、パートナー(コンピュータ科学の博士課程在籍)に相談。彼は「AIを検索エンジンのように扱わず、『知識ある子ども』のように接するべき」と助言。具体的には、まず仮想の投稿でテスト用のフィードを作成し、本番データに移行する前に動作確認を行うべきだと指摘。 このアドバイスをもとに、リ氏は再挑戦。AIに「仮の投稿でテストする」方法を尋ねると、順序立てた手順を提示。Mockフィードが成功し、本番データへの移行も段階的に進めた。最終的に、ChromeではなくSafariで実行したところ、30秒で正しく表示。実際のTruth Socialの投稿を非ログインでリアルタイムで確認できるウェブページが完成した。 この経験から、リ氏は「AIは即効性を期待して使うものではなく、理解と段階的アプローチが不可欠」と結論づけた。AIは「理解力のない子ども」に近い。正しいプロンプトで、小さなステップを積み重ね、エラーを学びの機会に変えることが成功の鍵。AIが自動化するにしても、ユーザーの「知的リーダーシップ」が最終的に決定的だという教訓を得た。
