2026年5月2日土曜日

第45回:GitHub Issueを使わず、Markdownだけで試験指摘を閉じる運用を考えた

1. はじめに

独力+AI活用で月商1億円を目指している。

最近は、開発用PCと確認用端末を分けて、開発と試験を並行できる体制を整えている。

開発用PCは実装、修正、自動テスト、ビルド、PR作成を担当する。
確認用端末は実機UI確認、シナリオ試験、スクリーンショット取得、試験報告を担当する。

この分担はかなり形になってきた。

ただし、問題も見えてきた。

確認用端末が指摘する。
開発用PCが修正する。
でも、その指摘がどの修正で直ったのか。
再確認されたのか。
まだ未対応なのか。
後回しなのか。

ここが追いづらい。

前回は、GitHub Issueを使えばよいのではないかと考えた。
しかし、今すぐ外部チケット運用を増やすと、逆に管理対象が増えすぎる可能性もある。

そこで今回は、GitHub Issue運用は使わず、docs配下のMarkdownだけで、試験 → 修正 → 再試験 → Close相当まで回す軽量運用を考えることにした。


2. 今回やりたいこと

今回やりたいのは、新しいツールを増やすことではない。

GitHub Issueを使わない。
外部チケット管理も増やさない。
既存のMarkdown運用の中で、確認用端末と開発用PCの連携を少しだけ強くする。

追跡したいのは、以下である。

  • 確認用端末がどの試験を実施したか

  • どの指摘を出したか

  • 開発用PCがどの指摘を確認したか

  • どのcommitで修正したか

  • どのブランチ・commitに反映されたか

  • 修正後に再試験されたか

  • 最終的にClose相当になったか

  • まだReopen、Backlog、Blockedなのか

つまり、目的はシンプルである。

指摘を出しっぱなしにしない。
修正しっぱなしにしない。
再確認まで含めて状態を閉じる。


3. 現状の弱点

今の開発プロセスでは、試験と修正の流れ自体はできている。

確認用端末が試験する。
Markdownで報告する。
開発用PCがP0/P1を優先して修正する。
commit、push、検証結果を報告する。
必要に応じて確認用端末が再確認する。

ここまでは良い。

ただし、指摘単位で見ると弱い。

たとえば、確認用端末が、

UI-20260502-001
主要画面の導線が分かりづらい

と報告したとする。

その後、開発用PCが、

主要画面の導線を改善しました

と報告しただけでは、UI-20260502-001 が本当に直ったのか分かりにくい。

必要なのは、指摘IDごとの対応状況である。

UI-20260502-001: Fixed
- 修正commit: abc1234
- 修正ファイル: 対象画面
- 検証結果: build成功、該当画面確認済み
- 再確認: 必要

この粒度で残しておけば、後から追いやすい。


4. Close相当をどう定義するか

一番大事なのは、Close相当の定義である。

開発用PCが修正しただけでは、Close相当にはしない。

開発用PCができるのは、原則として Fixed までである。

その後、確認用端末が再確認し、問題が解消されていることを確認したら Confirmed にする。

この Confirmed をClose相当として扱う。

この考え方はかなり重要である。

開発側は「直した」と思っている。
でも、確認側で見るとまだ直っていないことがある。
別の環境では再発することもある。
期待していた改善と違うこともある。

だから、開発側のFixedと、確認側のConfirmedを分ける。


5. 状態ステータスを決める

Markdown運用でも、最低限の状態ステータスは必要である。

複雑なチケット管理ツールのようにする必要はない。
ただし、以下くらいは定義しておきたい。

状態意味主担当
New確認用端末が新規に報告した状態確認用端末
Acknowledged開発用PCが確認し、対応方針を決めた状態開発用PC
Fixed開発用PCが修正し、commitや検証結果を記録した状態。再確認前開発用PC
Confirmed確認用端末が再確認し、解消を確認した状態。Close相当確認用端末
Reopen再確認で未修正・再発を確認した状態確認用端末
Backlog後回し。未対応だが意図的に保留開発用PC
Won’t fix対応しない判断。理由必須開発用PC
Blocked環境不足・再現不能・データ不足などで確認不能確認用端末 / 開発用PC

このくらいなら重すぎない。

Markdownでも十分運用できる。


6. Close相当になるもの、ならないもの

Close相当になる状態は明確にする。

Close相当は以下である。

  • Confirmed

  • Won’t fix

Confirmedは、確認用端末が再確認して直っていた状態。
Won’t fixは、対応しない判断を明確な理由付きで行った状態。

一方で、以下はClose相当ではない。

  • New

  • Acknowledged

  • Fixed

  • Reopen

  • Backlog

  • Blocked

特に重要なのは、FixedはClose相当ではないという点である。

開発用PCが修正しただけでは、まだ終わっていない。
確認用端末が再確認して初めてClose相当になる。

ここを明確にしておくと、修正漏れや確認漏れが減る。


7. ライフサイクル

通常の流れはこうである。

New
↓
Acknowledged
↓
Fixed
↓
Confirmed

修正不足や再発があれば、こうなる。

Fixed
↓
Reopen
↓
Fixed
↓
Confirmed

後回しにする場合はこうである。

New / Acknowledged
↓
Backlog

対応しない判断をする場合はこうである。

New / Acknowledged
↓
Won’t fix

確認不能の場合はこうである。

New / Fixed
↓
Blocked

これを決めておくだけで、かなり見通しがよくなる。


8. 確認用端末側の報告ルール

確認用端末側では、各指摘に必ずIDを付ける。

たとえば、以下のような形式である。

UI-YYYYMMDD-001
UI-YYYYMMDD-002

このIDを、報告本文、スクリーンショット、再確認結果に紐づける。

報告には以下を含める。

  • 実施日

  • 実施端末

  • 対象ブランチ

  • 対象commit

  • 起動URL

  • 試験種別

  • 試験範囲

  • 総合結果

  • 指摘ID

  • 優先度

  • 状態

  • 画面

  • 内容

  • スクリーンショット

  • 開発用PCへの依頼

これがあれば、後で追える。


9. 個別指摘のテンプレート

個別指摘は、以下くらいの粒度でよい。

## UI-YYYYMMDD-001

- 優先度: P0 / P1 / P2 / P3
- 状態: New / Reopen / Blocked
- 画面:
- URL:
- 確認環境:
- 指摘種別:
- 内容:
- 再現手順:
  1.
  2.
  3.
- 期待結果:
- 実際の結果:
- 影響:
- スクリーンショット:
- 開発用PC側への依頼:
- 補足:

ここで大事なのは、感想で終わらせないことである。

「見づらい」だけでは修正しづらい。
どの画面で、何をしたときに、何が期待と違ったのかを書く必要がある。


10. 開発用PC側の完了報告

開発用PC側の完了報告には、指摘対応表を必須にしたい。

## UI指摘対応表

| 指摘ID | 優先度 | 対応 | 修正commit | 修正ファイル | 検証結果 | 再確認 | 状態 |
|---|---|---|---|---|---|---|---|
| UI-YYYYMMDD-001 | P1 | 導線を修正 | abc1234 | 対象画面 | build成功 / 画面確認済み | 必要 | Fixed |
| UI-YYYYMMDD-002 | P2 | 後回し | - | - | - | 不要 | Backlog |
| UI-YYYYMMDD-003 | P1 | 仕様どおりのため対応なし | - | - | 仕様確認済み | 不要 | Won’t fix |

これがあると、確認用端末側も再確認しやすい。

何を見ればよいのか。
どのIDを確認すべきなのか。
どれは後回しなのか。
どれは対応しないのか。

この整理ができる。


11. 再確認依頼もID単位にする

開発用PCが修正した後、確認用端末に全部再確認させてはいけない。

それでは非効率である。

再確認対象は、ID単位で絞る。

## 再確認依頼

今回、再確認が必要なIDは以下です。

- UI-YYYYMMDD-001
- UI-YYYYMMDD-004

再確認対象画面:
- 対象画面A
- 対象画面B

再確認してほしい操作:
1.
2.
3.

再確認不要な範囲:
- 対象外画面
- 変更していない導線

Full E2E要否:
- 必要 / 不要

理由:
-

これなら、確認用端末の作業量を抑えられる。

AIツールの消費も減る。
同じ画面を何度も見る無駄も減る。
修正箇所に集中できる。


12. Full E2Eを毎回要求しない

もう一つ重要なのは、Full E2Eを毎回要求しないことだ。

毎回フルテストを回すと、時間もAI消費も重くなる。

Full E2Eが必要なのは、影響範囲が大きいときである。

たとえば、

  • DB変更

  • 認証変更

  • 中核ロジック変更

  • データ整合性に関わる変更

  • サービス公開判定前

  • P0修正後に関連導線全体の再保証が必要な場合

一方で、通常のUI修正、文言修正、空データ表示の改善なら、以下で十分な場合もある。

  • format確認

  • lint

  • build

  • smoke

  • 該当画面確認

  • 必要に応じた関連E2E

確認の重さも、変更内容に応じて調整する必要がある。


13. 今回やらないこと

今回の目的は、運用ルールを整えることである。

だから、以下はやらない。

  • 新規の管理ツール導入

  • 外部チケット運用の追加

  • 新規ドキュメントの大量追加

  • 同じ説明の複数ファイルへの長文重複

  • 大型の残課題ファイルの大幅編集

  • アプリコード変更

  • CSS変更

  • DB変更

  • E2E変更

  • packageや環境変数の変更

  • 毎回Full E2Eを必須にするルール追加

  • 確認用端末に毎回全画面再確認させるルール追加

目的はあくまで、軽量に閉じる仕組みを作ることだ。

試験実施。
指摘記録。
開発用PCで修正。
修正commit記録。
確認用端末で再確認。
Confirmed、Reopen、Backlog、Blocked、Won’t fixで管理。

この流れをMarkdownで回せるようにする。


14. GitHub Issueを使わない理由

GitHub Issueを使う案も悪くない。

ただ、今すぐ導入すると、運用が一段増える。

Issueを起票する。
ラベルを付ける。
PRと紐づける。
Closeする。
再確認する。
Projectsで管理する。

これはきれいだが、今の段階では少し重いかもしれない。

特に、すでにMarkdown運用がある程度できているなら、まずは既存の運用の中で閉じられるようにした方がよい。

いきなり外部チケット運用を増やすより、今あるMarkdown報告にID、状態、再確認、Close相当の定義を足す方が軽い。

これが今回の判断である。


15. 今回の結論

確認用端末と開発用PCの連携は、かなり形になってきている。

ただし、まだ完全には閉じていない。

弱いのは、指摘ID単位の管理である。

そこで今回は、GitHub Issue運用は使わず、Markdownだけで以下を回すルールを整える。

確認用端末が試験する
↓
ID付きで指摘する
↓
開発用PCが確認する
↓
P0/P1を優先修正する
↓
修正commitと検証結果を記録する
↓
確認用端末が指定IDだけ再確認する
↓
Confirmed / Reopen / Backlog / Blocked / Won’t fix で管理する

重要なのは、開発用PCが修正しただけでは終わりにしないことだ。

FixedはClose相当ではない。
確認用端末が再確認してConfirmedになって初めてClose相当である。

このルールにすれば、今よりかなり追いやすくなる。

AIと複数端末を使った個人開発では、作業を増やすだけでは足りない。
指摘を閉じる仕組みが必要である。

今回は、そのための軽量な運用ルールを作る一歩である。

第44回:GitHub Issuesで、確認指摘と修正PRのクローズ管理を始めたい

1. はじめに

独力+AI活用で月商1億円を目指している。

最近は、開発用PCで実装を進め、確認用端末で実機確認やシナリオ試験を行う体制が少しずつ見えてきた。

ただ、ここで新しい課題が出てきた。

確認用端末が指摘する。
開発用PCが修正する。
PRを作る。
mainに反映する。
再確認する。

この流れ自体はかなり良い。

しかし、実際に運用してみると、どの指摘が、どのPRで直ったのかを追いづらいという問題がある。

指摘はドキュメントに残る。
修正はGitHubのPRに残る。
作業報告もある。
ただ、指摘1件ごとの状態管理が弱い。

そこで、GitHub Issuesを使うことを考え始めた。


2. 今の課題

今の開発体制では、確認用端末の役割がかなり重要になっている。

実機で画面を見る。
シナリオ試験をする。
スクリーンショットを残す。
P0 / P1 の問題を指摘する。
その指摘を開発用PCが修正する。

この流れは良い。

ただし、現状のままだと、こうなりやすい。

確認用端末が指摘する
↓
開発用PCが直す
↓
ただし、どの指摘がどのcommit / PRで直ったか追いづらい
↓
再確認したかどうかも追いづらい
↓
完了したのか、まだ残っているのか曖昧になる

これはかなり危ない。

AIを使って開発していると、作業量はどんどん増える。
PRも増える。
ドキュメントも増える。
指摘も増える。

その中で、P0 / P1 の重要指摘が埋もれると、品質管理が崩れる。


3. GitHub Issuesは相性が良さそう

そこで、GitHub Issuesを使う。

GitHub Issuesは、作業や不具合、改善点を1件ずつ管理できる。
さらにPRと紐づけることもできる。

これを使うと、かなり分かりやすくなる。

確認用端末の指摘1件 = GitHub Issue 1件
開発用PCの修正PR = そのIssueにリンク
PRマージ = IssueをClose
確認用端末の再確認 = IssueコメントでConfirmed / Reopen

この形にできれば、かなり整理される。

特に、PR本文に Fixes #123 のように書いておけば、PRマージ時にIssueを自動で閉じることもできる。

これはかなり便利である。


4. いきなり全部をIssue化しない

ただし、ここで注意したい。

いきなり全残課題をGitHub Issuesへ移すのは危険である。

今でも残課題一覧はかなり多い。
後回し機能も大量にある。
仕様メモや将来構想も多い。

これらを全部Issue化すると、管理対象が増えすぎる。

Issueを作ること自体が作業になってしまう。
Issue管理のためのIssue管理になってしまう。

それは避けたい。

まずは、確認用端末から出たP0 / P1指摘だけをIssue化するのがよい。


5. Issue化するもの、しないもの

最初の運用では、Issue化する対象を絞る。

Issue化するもの

・確認用端末のP0 / P1指摘
・再現性のある不具合
・初期公開をブロックする問題
・PRと紐づけたい修正作業
・再確認が必要な問題

Issue化しないもの

・P2以下の細かい改善
・単なる感想
・記事ネタ
・大きすぎる構想
・将来やりたいこと
・既存の残課題一覧にある大量の項目すべて

これくらい割り切った方がよい。

GitHub Issuesは、全体構想の置き場ではなく、今閉じるべき作業の管理に使う。


6. 残課題一覧との役割分担

ここはかなり重要である。

今後は、以下のように分けたい。

残課題一覧:
  全体のロードマップ、仕様メモ、P0/P1/P2、後回し機能の正本

GitHub Issues:
  今すぐ閉じるべきP0/P1の実行管理

GitHub Projects:
  Issue / PRの進捗ボード

つまり、GitHub Issuesは残課題一覧の置き換えではない。

残課題一覧は、全体像を見るために必要である。
GitHub Issuesは、実際に閉じるチケットを管理するために使う。

この役割分担を間違えると、二重管理になる。

逆に、役割を分ければかなり強い。


7. ラベルは最小限でよい

ラベルも、最初から増やしすぎない方がよい。

最初はこれくらいで十分だと思う。

source:review
priority:P0
priority:P1
priority:P2
type:bug
type:ui
type:e2e
type:docs
status:needs-recheck
status:confirmed
status:blocked

大事なのは、ラベルの多さではない。

P0 / P1 が見えること。
再確認が必要なものが見えること。
ブロックされているものが見えること。
PRと紐づいていること。

これができれば、まずは十分である。


8. GitHub Projectsも使えそう

Issueが増えてきたら、GitHub Projectsも使える。

たとえば、以下のような列を作る。

Todo
In Progress
Fixed
Needs Recheck
Confirmed
Backlog

これなら状態がかなり見やすい。

確認用端末がIssueを作る。
開発用PCがIn Progressにする。
PRがマージされたらFixedになる。
確認用端末が再確認する。
問題なければConfirmed。
直っていなければReopen。

これができれば、かなり実務的な管理になる。


9. Issueテンプレートを作る

確認用端末の指摘を安定させるには、Issueテンプレートが必要である。

たとえば、以下のような形でよい。

## 概要

## 重要度
- [ ] P0
- [ ] P1
- [ ] P2

## 確認対象
- branch:
- commit:
- URL:
- 実施端末:
- 実施日時:

## 再現手順
1.
2.
3.

## 期待結果

## 実際結果

## スクリーンショット

## 開発側対応
- 対応方針:
- PR:
- commit:
- 再確認要否:

## 再確認
- [ ] Confirmed
- [ ] Reopen
- [ ] Blocked

このテンプレートがあれば、指摘の品質が上がる。

単なる感想ではなく、修正できるチケットになる。


10. 実際の運用フロー

理想の流れはこうである。

1. 確認用端末がP0 / P1を見つける
2. GitHub Issueを作る
3. Issue番号を確認報告にも書く
4. 開発用PCがIssue番号を見て修正ブランチを切る
5. PR本文に Fixes #Issue番号 を書く
6. PRマージでIssueをClose
7. 確認用端末が再確認する
8. 問題なければ Confirmed コメント
9. 直っていなければ Reopen

この流れができれば、指摘から修正、再確認までがつながる。

今一番弱いのは、この「クローズ管理」である。

Issueを使えば、ここがかなり改善する。


11. AI開発との相性も良い

GitHub Issuesは、AI開発とも相性が良いと思う。

AIに対して、

「Issue #123を修正してください」
「PR本文にFixes #123を書いてください」
「Issueの再現手順に従って修正してください」
「対応後、再確認対象を報告してください」

と言える。

これは、曖昧な自然言語の指示より強い。

AIは曖昧な指示だと逃げることがある。
ドキュメントだけ直すこともある。
論点をずらすこともある。

しかし、Issue番号があると、作業対象が明確になる。

これはかなり大きい。


12. PCを増やす前に、管理を強くする

最近、PCを増やしたら作業が早くなるかも考えている。

それ自体は悪くない。

ただ、PCを増やすより先に、作業管理を強くした方が効果が出る可能性もある。

特に、確認用端末のP0 / P1指摘をIssue化し、PRと紐づけ、再確認まで追えるようにするのはかなり効果が高い。

端末を増やしても、指摘が閉じられなければ意味がない。
開発を進めても、何が直ったか分からなければ危ない。
再確認されないまま完了扱いになると、品質が落ちる。

だから、GitHub Issuesの導入は、PC追加より先にやる価値があるかもしれない。


13. 今回の結論

GitHub Issuesは、今の開発体制にかなり合っている。

ただし、最初から全残課題をIssue化する必要はない。

まずは、確認用端末から出たP0 / P1指摘だけでよい。

確認用端末のP0/P1指摘だけIssue化する
PRで Fixes #番号 を付ける
PRマージでIssueをCloseする
再確認結果をIssueコメントに残す
残課題一覧は全体正本として維持する

この運用なら、いま弱い「指摘ID単位のクローズ管理」がかなり改善する。

独力+AI活用では、作業量が増える。
AIも動く。
PCも増える。
PRも増える。
ドキュメントも増える。

だからこそ、重要指摘を閉じる仕組みが必要である。

GitHub Issuesは、そのためのちょうどよい道具になりそうだ。

まずは小さく始める。
P0 / P1だけIssue化する。
PRと紐づける。
再確認する。

この流れができれば、品質管理は一段上がると思う。

第44回:確認端末と開発端末の連携は形になってきた。ただし、指摘ID単位のクローズ管理がまだ弱い

1. はじめに

独力+AI活用で月商1億円を目指している。

最近は、開発用PCと確認用端末を分けて使う運用が少しずつ形になってきた。

開発用PCでは、実装、ビルド、自動テスト、修正、PR作成を進める。
確認用端末では、実機UI確認、シナリオ試験、スクリーンショット取得、試験報告を行う。

この分担自体はかなり良い。

以前は、確認用端末にも開発をやらせようとして、かえって連携が複雑になった。
今は役割を分けたことで、かなり整理されてきた。

ただし、まだ完全には閉じていない。

現状の弱点は、確認用端末の指摘が、開発用PC側のどの修正で直ったのか、再確認済みなのか、未対応なのかが追いづらいことだ。

つまり、報告と改修はあるが、指摘ID単位のクローズ管理が弱い


2. 現在の流れはかなり形になっている

今の開発プロセスは、ざっくり以下の流れになっている。

確認用端末が試験する
↓
試験結果を報告する
↓
開発用PCがP0/P1を優先して直す
↓
開発用PCが完了報告する
↓
必要に応じて確認用端末が再確認する

この流れ自体は悪くない。

むしろ、独力+AI活用の開発体制としてはかなり良い形に近づいている。

特に良い点は以下である。

  • 開発用PCをメイン開発機にしている

  • 確認用端末を実機UI確認・シナリオ試験に使っている

  • 試験結果を記録として残している

  • 開発側が確認結果を見てP0/P1を優先する流れがある

  • commit、push、build、lint、自動テストの報告文化ができている

  • 進捗率や残作業の報告も意識できている

ここまではかなり良い。


3. 現状の評価は70点くらい

今の連携を点数で言うなら、70点くらいだと思っている。

方向性は合っている。
運用も回り始めている。
確認用端末の価値も出てきている。
開発用PCも指摘を受けて修正する流れになっている。

ただし、まだ足りない。

何が足りないかというと、指摘1件ごとの状態管理である。

確認用端末が指摘した。
開発用PCが直した。
でも、それがどの指摘に対する対応だったのか。
その指摘は再確認されたのか。
まだ未対応なのか。
後回しなのか。
仕様通りとして対応しないのか。

ここが曖昧になりやすい。

このままだと、あとで「あれは直ったんだっけ?」となる。


4. 一番弱いのは、指摘と改修の対応表

たとえば、確認用端末が以下のように報告したとする。

UI-20260501-001
メイン画面のカード表示が崩れている

その後、開発用PC側が完了報告で、

メイン画面のUIを改善しました

と書いたとする。

これだけでは、UI-20260501-001 が本当に直ったのか分かりにくい。

必要なのは、こういう対応である。

UI-20260501-001: 対応済み
- commit: abc1234
- 修正ファイル: 対象画面ファイル
- 検証: build成功、該当画面表示確認済み
- 再確認: 必要

このように、指摘IDと修正内容を明確に紐づける必要がある。


5. 確認用端末がどのバージョンを見たかも重要

もう一つ重要なのは、確認用端末がどのバージョンを確認したかである。

確認用端末が古いcommitを見ていると、開発用PC側で直した内容が反映されていない可能性がある。

そうすると、

「まだ直っていません」

と言われても、実は古い状態を見ていただけ、ということが起きる。

これを防ぐには、確認報告に必ず以下を書く必要がある。

対象ブランチ:
対象commit:
origin/mainとの差分:
起動URL:
確認日時:

これがないと、毎回「それ、最新で確認した?」という問題が出る。

実機確認では、見た画面そのものだけでなく、どの状態を見たのかが重要である。


6. 再確認範囲を絞らないと非効率になる

開発用PCが修正した後、確認用端末に全部再確認させるのは非効率である。

確認用端末のAIツール消費も増える。
時間もかかる。
同じような確認が繰り返される。

本来は、開発用PC側が再確認対象を絞って返すべきである。

たとえば、以下のようにする。

再確認対象:
- UI-20260501-001
- UI-20260501-003

再確認不要:
- UI-20260501-002 は仕様どおりのため対応なし
- UI-20260501-004 はP2として後回し

これなら、確認用端末は対象IDだけ見ればよい。

全体を毎回見直す必要がなくなる。

これはかなり効率化につながる。


7. 理想の流れ

今後は、以下の流れにしたい。

1. 確認用端末が試験する
   ↓
2. 確認報告に指摘IDを付ける
   ↓
3. 開発用PCが指摘IDごとに対応方針を決める
   ↓
4. 開発用PCがP0/P1を改修する
   ↓
5. 開発用PCが指摘IDごとの対応結果を報告する
   ↓
6. 確認用端末が対象IDだけ再確認する
   ↓
7. 修正確認済みならクローズ、未解決ならReopen

重要なのは、指摘ID単位で流すことである。

これにより、報告、改修、再確認、クローズが一本の線でつながる。


8. 追加すべき最小ルール

大きなドキュメントを増やす必要はない。

今の運用に、最小限のルールを追加すればかなり良くなる。

確認用端末側のルール

各指摘には必ず UI-YYYYMMDD-連番 のIDを付ける。
各指摘には P0 / P1 / P2 を付ける。
対象ブランチ・対象commit・スクリーンショットパスを必ず書く。

開発用PC側のルール

確認用端末の指摘を修正した場合は、必ず指摘IDごとに対応状況を書く。

例:
- UI-20260501-001: 対応済み
- UI-20260501-002: 仕様どおりのため対応なし
- UI-20260501-003: P2として後回し
- UI-20260501-004: 再現できず、追加確認待ち

再確認側のルール

開発用PCが指定した再確認対象IDだけ確認する。

結果は以下で返す。

- Confirmed: 修正確認済み
- Reopen: 未修正・再発
- Blocked: 確認不能

これだけでも、かなりプロセスが締まる。


9. 対応表が必要

現状で一番足したいのは、指摘対応表である。

たとえば、以下のような表でよい。

## UI指摘対応表

| ID | 重要度 | 指摘内容 | 開発側対応 | commit | 再確認 | 状態 |
|---|---|---|---|---|---|---|
| UI-20260501-001 | P1 | メイン画面の表示崩れ | 対応済み | abc1234 | 必要 | 再確認待ち |
| UI-20260501-002 | P2 | 文言が弱い | 後回し | - | 不要 | Backlog |
| UI-20260501-003 | P0 | 主要操作不可 | 対応済み | def5678 | 必要 | 再確認待ち |

新規ファイルを作ってもよい。
ただし、ドキュメントを増やしすぎたくない場合は、開発用PC側の完了報告テンプレートにこの表を必須化するだけでもよい。

大事なのは、指摘IDごとに状態が分かることだ。


10. 状態は4種類くらいで十分

状態管理は複雑にしすぎなくてよい。

最初は以下くらいで十分である。

状態意味
Open未対応
Fixed開発側で対応済み
Confirmed確認側で修正確認済み
Reopen再確認で未修正・再発
Backlog後回し
Won’t Fix仕様どおり・対応しない
Blocked確認不能・条件不足

これくらいあれば十分だと思う。

最初から重いチケット管理ツールのようにする必要はない。
ただし、最低限の状態は持たせる。

これだけで、かなり追いやすくなる。


11. PCを増やすより先に、対応管理を整えた方が効く

最近は、3台目PCを増やすかどうかも考えている。

ただ、今回の連携問題を見ると、PCを増やす前にやるべきことがある。

それが、指摘IDと対応表の固定化である。

PCを増やしても、指摘が閉じているか分からない状態では、混乱が増えるだけである。

確認用端末が指摘する。
開発用PCが直す。
でも、どれが直ったか分からない。
さらに3台目が別の作業をする。

この状態だと、台数を増やすほど管理が難しくなる。

だから、まずは連携の背骨を作る。

Surface試験結果 → BOS改修 → Surface再確認 → クローズ

この流れをID単位で閉じられるようにする。

端末を増やすのは、その後でもよい。


12. 今回の結論

確認用端末と開発用PCの連携は、かなり形になってきている。

確認用端末が試験する。
報告を残す。
開発用PCがP0/P1を優先して直す。
完了報告する。
必要に応じて再確認する。

この流れはできている。

ただし、まだ完全には閉じていない。

弱いのは、指摘ID単位のクローズ管理である。

今後は、以下の形にしたい。

確認用端末:
  指摘ID付きで報告する

開発用PC:
  指摘IDごとに対応状況・commit・検証結果を書く

確認用端末:
  開発用PCが指定したIDだけ再確認する

最終:
  Confirmed / Reopen / Backlog で状態を閉じる

これができれば、確認結果、改修、再確認、クローズがつながる。

今のプロセスは70点くらい。
方向性は良い。
ただし、ID単位の対応表が入れば、80点以上に上げられると思う。

AIと複数端末を使った開発では、作業量を増やすだけでは足りない。
指摘を閉じる仕組みが必要である。

次に改善すべきは、PCの台数ではなく、指摘IDごとのクローズ管理かもしれない。

第43回:Cursorのキューを大量に積む運用は効率的なのか

1. はじめに

独力+AI活用で月商1億円を目指している。

最近は、開発用PCでCursorをかなり使い込んでいる。

実装、UI改善、自動テスト、ビルド確認、ドキュメント更新、進捗報告。
これらをCursorに連続で依頼しながら、開発を前に進めている。



その中で、最近かなり試しているのが、Cursorのキューを大量に積む運用である。

画面を見ると、キューが20個以上積まれていることもある。
ときには50個近く積むこともある。

これはかなり強力である。

自分が寝ている間も、離席している間も、Cursorが作業を続けてくれる。
新しい開発用PCが安定して動いていれば、朝起きたときに作業が進んでいることもある。

ただし、ここで考える必要がある。

キューを大量に積むことは、本当に効率的なのか。


2. 結論:方向性は良い。ただし使い方を間違えると危ない

結論から言うと、Cursorのキューを積む運用はかなり有効である。

特に、開発用PCが安定していて、

  • スリープしない

  • Cursorが落ちにくい

  • buildやtestが途中で止まりにくい

  • 夜間も動き続ける

  • 朝起きたら作業が進んでいる

という状態なら、かなり価値がある。

これは、PC性能というより、安定稼働端末としての価値である。

人間が寝ている時間を、開発時間に変えられる。

これは大きい。

ただし、50個前後を毎回積むのが最適かというと、そこは少し注意が必要である。

止まらないという意味では強い。
しかし、品質管理という意味ではリスクもある。


3. 50個キューのメリット

大量キューの最大のメリットは、作業が止まりにくいことだ。

こちらが寝落ちしても、Cursorは次の指示に進む。
外出していても、ある程度作業が進む。
待ち時間を減らせる。
開発用PCを夜間バッチ処理のように使える。

特に、やるべきことが大量にある今の段階では、これはかなり意味がある。

たとえば、以下のような作業が大量にある。

  • P0/P1の実装

  • UI改善

  • 主要導線の改善

  • 空データ表示の整備

  • 既存E2Eの安定化

  • 確認用端末からの指摘修正

  • 残課題一覧の更新

  • 進捗報告の整理

  • 小さなコンポーネント改善

これらを人間が毎回細かく指示していたら、かなり時間がかかる。

だから、正本ルールを読ませて、ある程度自走させる運用は理にかなっている。


4. 50個キューのリスク

一方で、50個キューにはリスクもある。

特に怖いのは、途中で方針がズレたまま大量に進んでしまうことだ。

たとえば、以下のようなことが起きる可能性がある。

1. 途中でbuildが壊れる
2. その状態で後続キューが続く
3. Cursorが修正に入る
4. しかし根本原因から少しズレる
5. さらに後続キューで別の修正が重なる
6. 朝起きたら差分が大きくなっている

これは危険である。

また、次のようなリスクもある。

  • 1個目でテストが失敗しているのに、後続が無駄作業になる

  • ドキュメント更新ばかりに寄る

  • 同じ指示の繰り返しで実装粒度が雑になる

  • Git差分が大きくなり、確認が難しくなる

  • 朝起きたときに何が変わったか把握しづらい

  • 本来止まるべきところで止まらない

つまり、50個キューは「止まらない」という意味では強いが、人間の確認が入らない時間が長くなるという弱点もある。


5. 正本が強ければ、大量キューはかなり有効

ここで重要なのが、正本ルールの存在である。

正本が弱い状態で50個キューを積むと危ない。

しかし、正本がしっかりしていて、以下が明確になっていれば、50個キューはかなり実用的になる。

条件内容
正本ファイルがあるAIが毎回参照する作業ルールがある
自走指示がある優先順位と作業方針が決まっている
main直作業禁止Git事故を防げる
featureブランチ作業作業単位を分離できる
検証報告ルールがあるbuild / lint / testの結果を確認できる
進捗報告があるどこまで進んだか分かる
ドキュメント過剰更新を抑制実装から逃げにくくなる
停止条件がある壊れたまま突き進みにくい
PCが安定稼働する夜間自走が成立する

この前提があるなら、大量キューは「危険な暴走」ではなく、夜間・離席中の自走開発バッチとして機能する。


6. 「前回の続きです」だけの運用

最近は、キューに「前回の続きです」とだけ積むこともある。

これは、正本ルールがしっかりしている場合には成立する。

毎回長文を貼る必要はない。
詳細ルールは正本ドキュメントに寄せる。
Cursorには正本を読ませる。
そのうえで「前回の続きです」と指示する。

この流れはかなり効率的である。

ただし、完全に「前回の続きです」だけだと、少し弱い場合もある。

AIが、

  • なんとなく前回の作業を続ける

  • 本当にP0/P1を優先しているか曖昧になる

  • 検証報告が薄くなる

  • テスト失敗時の停止条件が弱くなる

  • ドキュメント更新に逃げる

可能性がある。

だから、本当に大量キューを積むなら、正本側に強い停止条件と優先順位を入れておく必要がある。


7. 50個キューでも比較的安全な作業

50個キューでも比較的安全なのは、既存方針に沿って進められる作業である。

たとえば、以下のようなものだ。

  • 既存UIの改善

  • 空データ表示の整備

  • 表示文言の修正

  • 主要詳細画面の表示改善

  • ログイン後導線の改善

  • 既存E2Eの安定化

  • 確認用端末からのP0/P1指摘対応

  • 残課題一覧の更新

  • 進捗報告の整備

  • 小さなコンポーネント改善

こういう作業は、正本ルールに沿って進めやすい。

方針が大きく変わるわけではなく、既存の品質を上げる方向なので、大量キューとの相性が良い。


8. 50個キューを控えた方がいい作業

逆に、50個キューを控えた方がいい作業もある。

以下のような作業は、途中で人間の確認を入れた方がよい。

  • DBスキーマ変更

  • migration

  • 認証まわり

  • middleware

  • 課金まわり

  • 中核ロジックの根本変更

  • 進行管理ロジックの大改修

  • 大規模リファクタ

  • 複数ブランチ統合

  • main反映前の最終判断

このあたりは影響範囲が広い。

Cursorが自走で進めすぎると、後で戻すのが大変になる。

こういう局面では、50個ではなく、10〜20個くらいで区切って、人間が一度確認した方が安全である。


9. キュー数の目安

状況ごとのキュー数の目安は、今のところ以下がよさそうだ。

状況推奨キュー数
画面を見ながら作業する3〜5個
1〜2時間離席5〜10個
仕事・外出中10〜20個
就寝中20個前後、多くても30個
正本が強く、単純なP0/P1消化30〜50個もあり
DB・認証・課金・大規模変更10〜20個で区切る

つまり、50個が絶対にダメというわけではない。

正本が強く、作業内容が安定していて、開発用PCが安定稼働しているなら、50個キューはありである。

ただし、常に50個が最適というわけではない。

基本は10〜20個。
就寝時や安定作業では30個前後。
かなり安定したP0/P1消化なら50個もあり。

このくらいの感覚がよさそうだ。


10. 大量キューに必ず入れたい停止条件

大量キューを使うなら、正本ルールに停止条件を入れるべきである。

たとえば、以下のような内容である。

長時間自走中に build / lint / E2E が失敗した場合は、後続の大規模実装へ進まず、原因調査・最小修正・再検証・報告を優先してください。
根本原因が不明なまま別機能の実装を積み増さないでください。

これはかなり重要である。

これがないと、Cursorが失敗した状態のまま、次の作業へ進んでしまう可能性がある。

また、以下の条件も入れておきたい。

以下の場合は、無理に次の大改修へ進まず、原因調査・小さな修正・報告に切り替えてください。

- build が失敗した場合
- lint が失敗した場合
- E2E が連続失敗した場合
- DB / migration / seed 変更が必要になった場合
- 仕様判断が必要な分岐に当たった場合
- 同一ファイルの大規模変更が続いて差分が肥大化した場合
- ドキュメント更新だけが続いて実装が進んでいない場合

大量キュー運用では、停止条件が命綱になる。


11. 一番効率が良い運用

現状、一番効率が良さそうなのは以下である。

通常時:
  5〜10個キュー

離席時:
  10〜20個キュー

就寝時:
  20個前後キュー

安定したP0/P1消化:
  30〜50個キューもあり

朝起きたら:
  git status / commit / build / E2E / 差分を確認
  その後、次のキューを積む

重要なのは、朝起きた後の確認である。

寝ている間に進んだ作業を、そのまま信用しない。

必ず差分を見る。
buildやtestを見る。
進捗報告を読む。
変更内容と残課題を確認する。

ここをやらないと、大量キュー運用は危険になる。


12. 50個キューは悪ではない

前は、50個キューは少し多すぎるかもしれないと思っていた。

今も、雑に50個積むのは危ないと思っている。

ただし、正本がしっかりしていて、PCが安定し、作業範囲が明確なら、50個キューはかなり有効だと思うようになった。

特に、今のようにやることが大量にあり、P0/P1を消化し続ける段階では、50個キューは合理的である。

人間が寝ている間も、Cursorが進めてくれる。
これは大きい。

ただし、万能ではない。

使い分けが必要である。

通常のUI改善・P0/P1消化:
  50個キューでもあり

DB / 認証 / 課金 / 大規模変更:
  10〜20個で区切る

main統合前:
  人間が確認する

これが今の判断である。


13. 今回の結論

Cursorに大量キューを積む運用は、かなり有効である。

特に、新しい開発用PCが安定して動いているなら、寝落ちしても作業が進む。
人間が寝ている時間を、開発時間に変えられる。

これは、独力+AI活用の大きな武器になる。

ただし、50個キューは万能ではない。

正本が弱い状態で大量に積むと危ない。
途中でbuildやtestが壊れても、そのまま進む可能性がある。
ドキュメント更新に逃げる可能性もある。
朝起きたときに差分が大きくなりすぎる可能性もある。

だから、大量キューを使うなら、必要なのはキュー数の調整だけではない。

必要なのは、正本ルール、停止条件、報告形式、人間による節目確認である。

正本が強いなら、50個キューはあり。
ただし、DB・認証・課金・大規模変更は10〜20個で区切る。
main統合前は必ず人間が確認する。

AIを寝ている間も働かせる。
ただし、暴走させない。

このバランスが、Cursor時代の個人開発ではかなり重要になってきた。

第42回:高性能PCを買えばAI開発は速くなるのか

1. はじめに

独力+AI活用で月商1億円を目指している。

最近、開発用PC、既存端末、AIツール、GitHub、自動テスト、ドキュメントを組み合わせながら、開発体制を整えている。

その中で、少し気になっていたことがある。

さらに高性能なPCを買えば、AI開発はもっと速くなるのか。

今はすでに開発用PCを導入している。
既存端末もある。
Cursor、ChatGPTなどのAIツールも使っている。
場合によっては3台目のPCも検討できる。

しかし、ここで冷静に考える必要がある。

AIの返答速度そのものは、基本的にクラウド側の処理、混雑状況、モデル性能に依存する。
つまり、ローカルPCを高性能にしても、AIの返答が単純に3倍速くなるわけではない。

ただし、だからといって高性能PCが意味ないわけではない。

効果が出る場所と、出ない場所を分けて考える必要がある。


2. 結論:3台目に超高性能PCは不要

現時点の結論として、3台目に超高性能PCを買う必要性は低い。

すでにメイン開発機があるなら、追加端末に求める役割は限られる。

たとえば、3台目に任せたいのは以下のような作業である。

  • AIツールを開いて軽い修正をする

  • ドキュメントを整理する

  • Git差分を見る

  • ブラウザでUI確認する

  • 試験報告をまとめる

  • スクリーンショットを確認する

  • 軽いビルドや軽量テストを行う

  • 次回作業指示を整理する

この用途であれば、最上位CPUや高額GPUは必要ない。

必要なのは、超高性能ではなく、安定して並行作業できる環境である。


3. AI開発で速いPCが効く部分

AI開発において、速いPCが効くのは主にローカル処理である。

作業速いPCの効果
CursorなどのAI応答小さい
ChatGPTの応答ほぼなし
パッケージインストール中〜大
開発サーバー起動
ビルド
E2Eテスト
ローカルDB・Docker中〜大
ブラウザ複数起動
スクリーンショット確認小〜中
Git操作
ドキュメント編集

この表で見ると分かりやすい。

メイン開発機が速いことには意味がある。
ビルド、自動テスト、ローカルDB、ブラウザ確認などは、PC性能の影響を受ける。

しかし、AIの返答速度そのものは、ローカルPC性能ではほとんど変わらない。

つまり、AI開発における高性能PCの価値は、AIを速くすることではなく、AIが出した作業を検証・実行する部分を速くすることにある。


4. 今のボトルネックはPC性能だけではない

現状のボトルネックは、PC性能よりも別のところにある可能性が高い。

たとえば、以下である。

  • AIの応答待ち

  • 指示の粒度

  • AIがドキュメント作業に寄りすぎること

  • Gitブランチ統合の手間

  • 自動テストの実行タイミング

  • 実機確認結果の戻し方

  • 同じ作業を複数端末で重複させること

  • 進捗報告の読み解き

  • 仕様が詳細化して作業範囲が広がること

これらは、PCを速くしても根本的には解決しない。

むしろ、作業分担ルールが曖昧なまま端末を増やすと、作業は増えるが成果は増えない可能性がある。

3台目を買えば速くなるのではない。
3台目に何をさせるかを決めるから速くなるのである。


5. 3台目に必要な性能感

3台目を買うとしても、超高性能である必要はない。

目安としては、以下くらいで十分だと思っている。

CPU: Ryzen 5 / Core i5 以上
メモリ: 16GB以上、できれば32GB
SSD: 512GB以上、できれば1TB
画面: できれば広め、または外部モニター接続

重要なのは、CPU最上位ではない。

むしろ大事なのは、メモリと画面の広さである。

AI開発では、同時にいろいろなものを開く。

  • Cursor

  • ブラウザ

  • ターミナル

  • GitHub

  • ChatGPT

  • ドキュメント

  • スクリーンショット

  • テスト結果

これらを同時に扱うため、メモリ16GBは最低ライン。
できれば32GBあると安心である。

CPUよりも、作業中に固まらないこと、画面を広く使えることの方が効く。


6. 買う意味が薄いPC

逆に、3台目として費用対効果が悪いPCもある。

たとえば、以下である。

・ゲーミングGPU重視
・Core i9 / Ryzen 9 の高額機
・高リフレッシュレート液晶重視
・重い3Dゲーム前提
・20万円以上の高性能ノート

今回の用途では、GPU性能はそこまで重要ではない。

もちろん、画像生成や動画編集をローカルで本格的に行うなら話は変わる。
しかし、現状の開発用途では、そこまでのGPU性能は不要である。

必要なのは、GPUよりも、

  • メモリ

  • SSD

  • 安定性

  • 画面作業性

  • 複数アプリを同時に開ける余裕

である。


7. 3台目よりモバイルモニターの方が効く可能性

実は、今の状況では、3台目PCよりもモバイルモニターの方が効果が出る可能性がある。

理由は、AI開発では画面領域がかなり重要だからである。

同時に見たいものが多い。

・AI開発ツール
・ブラウザ画面
・ターミナル
・Git差分
・ChatGPT
・ドキュメント
・テスト結果
・スクリーンショット

これらを1画面で切り替えながら見ると、かなり効率が落ちる。

AIの返答を待ちながら、別画面でブラウザ確認をする。
テスト結果を見ながら、Git差分を見る。
ChatGPTの指示文を見ながら、Cursorに貼る。
スクリーンショットを見ながら、UI修正指示を作る。

こういう作業では、PC性能より画面の広さが効く。

だから、追加投資するなら、まずモバイルモニターや作業環境改善を検討する価値がある。


8. 高性能PCが効くのはメイン開発機

高性能PCを買う意味があるのは、主にメイン開発機である。

メイン開発機では、以下を行う。

  • 実装

  • ビルド

  • ローカル起動

  • 自動テスト

  • E2E

  • ローカルDB

  • ブラウザ確認

  • Git操作

  • PR前の最終確認

ここでは性能が効く。

特に、ビルドやE2Eの待ち時間が短くなるのは大きい。

だから、メイン開発機を強化する意味はある。
実際、開発用PCを導入した効果も感じている。

しかし、3台目を補助機として使うなら、メイン開発機ほどの性能はいらない。

役割が違うからである。


9. 追加PCを買うなら目的を明確にする

追加PCを買う場合は、速さ目的ではなく、目的を明確にした方がよい。

A. 補助ノートPCとして買う

用途は以下。

  • ドキュメント整理

  • AIへの指示作成

  • GitHub確認

  • 試験報告整理

  • 軽いUI確認

  • スクリーンショット確認

この場合、そこまで高性能でなくてよい。

B. 確認専用端末として買う

用途は以下。

  • 実機UI確認

  • 小画面確認

  • ブラウザ差分確認

  • シナリオ試験

  • スクリーンショット取得

この場合も、超高性能はいらない。

C. 第2の実装機として買う

これは慎重に考える必要がある。

第2の実装機にすると、Git管理やブランチ管理、作業衝突のリスクが上がる。
そのため、最初からこの用途で買うのは危険である。


10. 今の優先順位

現時点での優先順位はこうだと思っている。

1. メイン開発機を最大活用する
2. 既存端末は実機確認・レビュー用に限定する
3. 追加投資するなら、まずモニターや作業環境改善
4. 3台目PCは、買うとしても中性能で十分
5. 高額ハイスペックPCは不要

つまり、今すぐ高額な3台目PCを買う必要はない。

それよりも、

  • 作業分担を明確にする

  • AIへの指示を整える

  • テストと実機確認のタイミングを整理する

  • ドキュメント作業を実装から分離する

  • 画面領域を広げる

この方が効果が出る可能性が高い。


11. 速いPCより、速い運用

今回考えていて思ったのは、速いPCよりも、速い運用の方が重要だということだ。

AIの応答はクラウド側に依存する。
PCを速くしても、AIの返答が劇的に速くなるわけではない。

それなら、改善すべきは以下である。

  • 指示を短く正確にする

  • 作業範囲を明確にする

  • 端末ごとの役割を分ける

  • 同じファイルを複数端末で触らない

  • 不要なフルテストを避ける

  • 必要なテストは確実に行う

  • ドキュメント作業を目的化しない

  • 進捗報告を省略させない

これらは、PC性能ではなく運用の問題である。

ここを整えた方が、実際の開発速度は上がる。


12. 今回の結論

AI開発において、PCを高性能にすればすべてが速くなるわけではない。

特に、CursorやChatGPTのAI応答速度そのものは、クラウド側の処理や混雑状況、モデル性能に依存する。

そのため、3台目に超高性能PCを買っても、AIの返答が3倍速くなるわけではない。

ただし、高性能PCが意味ないわけではない。

ビルド、自動テスト、ローカルDB、ブラウザ確認など、ローカル処理には効果がある。
だから、メイン開発機が速いことには意味がある。

一方で、3台目を補助機として使うなら、超高性能である必要は低い。

必要なのは、速さ目的ではなく、

  • 並行作業

  • 画面分離

  • 実機確認

  • ドキュメント整理

  • 軽量検証

のための端末である。

今の段階では、追加投資するなら高額PCよりも、モバイルモニターや作業環境改善の方が効く可能性がある。

AI時代の開発で大事なのは、最速PCをそろえることではない。

AI、PC、テスト、ドキュメント、Gitをどう分担させるかである。

速いPCより、速い運用。

ここを間違えないようにしたい。

第41回:3台体制にすれば速くなるのか。結論、速くなるが3倍にはならない

1. はじめに

独力+AI活用で月商1億円を目指している。

最近、開発用PC、既存端末、AIツール、GitHub、自動テスト、ドキュメントを組み合わせながら、開発体制をかなり試行錯誤している。

現在は、開発用PCを主戦場にして実装を進め、既存端末は節目ごとの実機確認やシナリオ試験に使う方針にしている。

この体制はかなり良くなってきた。

ただ、ふと思った。

もしここに3台目のPCを追加したら、さらに速くなるのではないか。

結論から言うと、3台に増えたら作業は早くなる可能性はある。
ただし、単純に3倍速にはならない。

むしろ役割分担を間違えると、Git衝突、確認漏れ、AIツール消費増、ドキュメント作業の増加で、逆に遅くなる可能性もある。


2. 3台構成は有効。ただし条件付き

今の状況なら、3台目を入れる効果は中〜大くらいあると思っている。

ただし、条件がある。

3台すべてに同じような作業をさせてはいけない。
それぞれの役割を明確に分ける必要がある。

理想は以下の形である。

端末役割
開発用PCメイン実装、ビルド、自動テスト、修正反映
既存端末実機UI確認、シナリオ試験、スクリーンショット報告
3台目PCサブ作業、ドキュメント整理、軽量UI改善、軽量確認、別ブランチ作業

これなら意味がある。

一方で、3台すべてに開発をやらせると危ない。

同じファイルを複数台で触る。
同じ機能を別々のブランチで直す。
仕様が曖昧なまま並行して進める。
複数端末で同じドキュメントを更新する。

こうなると、効率化どころか混乱する。


3. 3台にすると早くなる作業

3台体制で一番効くのは、待ち時間の削減である。

開発用PCで実装している間に、別端末で確認できる。
自動テストを回している間に、別端末でドキュメント整理ができる。
実機確認をしている間に、3台目で次の作業指示を整えられる。

たとえば、以下のような作業は並行しやすい。

  • ビルド確認

  • 軽量な自動テスト

  • 画面確認

  • スクリーンショット取得

  • UI崩れ確認

  • 試験報告の整理

  • 残課題一覧の更新

  • 次回作業指示の整理

これはかなり効く。

特に、AIを使った開発では「待ち時間」が意外と多い。

AIが実装している間。
テストが走っている間。
ビルドが終わるのを待つ間。
GitHub Actionsを待つ間。
PRの状態を確認する間。

この時間に別作業を進められるなら、3台目の価値はある。


4. ドキュメント作業を分離できるのは大きい

今の開発では、ドキュメントもかなり重要である。

作業ルール、残課題一覧、試験結果、Cursorへの指示文、仕様整理、運用計画。
これらが整理されていないと、AIが迷う。

ただし、ドキュメント作業が増えすぎると、実装が止まる。

これは何度も感じている。

AIは、安全に進めようとして、実装ではなくドキュメント整理に寄ることがある。
もちろんドキュメントは必要だが、実装が進まないなら意味がない。

そこで、3台目PCをドキュメント整理や軽量補助に使うのはかなり有効だと思う。

開発用PCでは実装を進める。
3台目では残課題や試験報告、次回指示を整理する。

この分離ができると、開発本線を止めにくくなる。


5. UI改善を別ラインで進められる可能性

3台目PCは、軽量なUI改善にも向いている。

ただし、ここは注意が必要である。

大きな画面改修や共通部品の大改修を3台目に任せると、開発用PC側と衝突しやすい。
同じ画面や同じファイルを触ると、Gitコンフリクトの原因になる。

一方で、以下のような作業なら3台目に任せやすい。

  • 表示文言の微修正

  • 空データ時の表示改善

  • 軽微な余白調整

  • スクリーンショット整理

  • デザイン案の棚卸し

  • UI改善候補の整理

  • READMEや残課題一覧の更新

  • 試験結果レポートの整理

つまり、3台目は第2のメイン開発機にするより、補助開発+ドキュメント+軽量UI+検証補助として使った方が安全である。


6. 3台にしても速くならない作業

逆に、3台にしても速くならない作業もある。

それは、同じ領域を複数台で同時に触る作業である。

たとえば、

  • 2台以上で同じ主要画面を修正する

  • 2台以上で同じ共通部品を変更する

  • 2台以上で同じデータ構造を変更する

  • 2台以上で同じドキュメントを更新する

  • 仕様が固まっていない機能を複数台で並行開発する

これは危険である。

速くなるどころか、統合が大変になる。

AI開発では、各端末がそれぞれ正しそうなことを言って進めてしまう。
その結果、あとで統合するときに方針がズレていることがある。

だから、重要なロジックやデータまわりは、基本的にメイン開発PCに寄せた方がよい。

3台目は、主戦場ではなく補助戦力にする。


7. 体感速度の見立て

かなりざっくりだが、体感速度は以下のように見ている。

構成体感速度
1台基準
2台1.3〜1.6倍
3台1.5〜2.0倍
3台を雑に使う0.8〜1.2倍に落ちる可能性あり

重要なのは、3台にすれば必ず速くなるわけではないということだ。

管理ルールがない3台体制は危険である。

どの端末が何をするのか。
どのブランチで作業するのか。
どのファイルを触るのか。
どこまで検証するのか。
誰が最終統合するのか。

これが決まっていなければ、3台目は効率化ではなく混乱の原因になる。


8. 3台目に任せてよい作業

3台目に任せるなら、まずは以下がよい。

  • ドキュメント整理

  • 試験報告の分類

  • 軽微なUI修正

  • 表示文言修正

  • 空データUI改善

  • スクリーンショット整理

  • デザイン素材の棚卸し

  • デザイン反映案の整理

  • README更新

  • 残課題一覧の更新

  • テスト結果レポート整理

  • 次回Cursor指示文の下書き

このあたりは、メイン実装と衝突しにくい。

特に、試験報告や残課題の整理は3台目に向いている。
メイン開発PCを止めずに、周辺整理を進められるからだ。


9. 3台目に慎重に任せるべき作業

逆に、以下は3台目に安易に任せない方がよい。

  • データ構造の変更

  • マイグレーション

  • seedの大幅変更

  • 課金処理

  • 認証処理

  • middleware

  • 共通コンポーネントの大改修

  • コアロジックの修正

  • 重要な状態管理

これらは影響範囲が広い。

メイン開発PC側で慎重に進めるべきである。

3台目に任せる場合でも、ブランチを明確に分け、作業範囲を限定し、統合前に必ずメイン側で確認する必要がある。


10. 理想の3台フロー

理想の流れは以下である。

1. ChatGPTで作業分担を決める
        ↓
2. 開発用PCがメイン実装ブランチで作業
        ↓
3. 3台目PCが別ブランチで軽量作業
        ↓
4. 既存端末が最新成果物を実機確認
        ↓
5. 実機確認結果を開発用PCへ戻す
        ↓
6. 開発用PCがP0/P1を修正
        ↓
7. 3台目PCはドキュメント・軽微UI・整理を継続

この形なら、3台それぞれの役割が分かれる。

開発用PCは主戦場。
既存端末は確認係。
3台目は補助係。

これが一番安全だと思う。


11. 3台運用のルール

3台体制にするなら、最低限のルールが必要である。

1. メイン開発PCを固定する
2. 既存端末は実機確認・試験報告に寄せる
3. 3台目は軽量作業・ドキュメント・UI補助にする
4. 同じファイルを複数台で触らない
5. ブランチと作業宣言を必ず分ける
6. main直作業は禁止
7. 統合判断はメイン開発PC側に寄せる
8. 重要ロジックはメイン開発PCで扱う
9. 3台目の作業は小さくPR化する
10. 不要なフル検証を増やさない

これを守れば、3台目はかなり有効になる可能性がある。

逆に、これを守らないなら、3台に増やす意味は薄い。


12. 今すぐ3台をフル稼働させるべきか

現時点では、いきなり3台をフル稼働させるより、まずは今の2台運用を安定させた方がよいと思っている。

つまり、

  • 開発用PC中心で実装を進める

  • 既存端末は節目レビューやシナリオ試験に使う

  • ドキュメント作業を増やしすぎない

  • Cursor指示を短縮しつつ、進捗報告は省略させない

この運用をまず固める。

そのうえで、3台目を追加するなら、最初は補助作業に限定する。

最初から第2の実装マシンにするのは危険である。


13. 今回の結論

3台体制にすれば、作業は早くなる可能性がある。

ただし、3倍速にはならない。

役割分担がうまくいけば、体感としては1.5〜2.0倍くらいの効率化は期待できる。
しかし、雑に使えば0.8〜1.2倍まで落ちる可能性もある。

3台目を入れるなら、役割は明確にする。

  • 開発用PCはメイン実装

  • 既存端末は実機確認・シナリオ試験

  • 3台目PCは軽量作業・ドキュメント・UI補助

この形なら、かなり有効だと思う。

今のように、実装、UI改善、自動テスト、実機確認、ドキュメント整理がすべて必要な段階では、3台目の意味はある。

ただし、PCを増やすだけでは速くならない。

速くなるのは、役割を分け、作業範囲を限定し、統合ルールを守った場合だけである。

AI時代の個人開発では、端末を増やすこと自体が戦略になる。
しかし、それ以上に大事なのは、端末ごとの役割を明確にすることだ。

3台目を入れるなら、勢いではなく運用設計とセットで考えたい。

第40回:Cursor AIに連続指示を出すときのコツが少し見えてきた

1. はじめに

独力+AI活用で月商1億円を目指している。

最近は、Cursor AIにかなりの作業を任せている。

実装、修正、自動テスト、ビルド確認、PR作成、ドキュメント更新、残課題整理。
うまく使えば、一人開発とは思えない速度で前に進めることができる。

ただし、Cursor AIに連続で作業を依頼する場合、指示の出し方がかなり重要だと分かってきた。

最初は、毎回かなり長い指示文を貼っていた。
ルール、作業方針、Git運用、進捗報告、検証条件、禁止事項、完了報告項目。
全部を毎回貼っていた。

しかし、これを続けるのは非効率である。

一方で、短くしすぎると、今度はAIが重要なことを省略する。
進捗報告が抜ける。
Git運用が崩れる。
検証が弱くなる。
ドキュメントだけ直して実装しない。
完了報告が雑になる。

そこで、連続指示の最適な形を考えるようになった。


2. 結論:毎回貼る指示は、少し変えた方がいい

現時点での結論は、毎回貼る指示は少し変えた方がいいということだ。

ただし、毎回長文にする必要はない。

むしろ、毎回長文を貼り続けるのは非効率である。

今の最適解は、以下だと思っている。

  1. 詳細ルールは正本ドキュメントに集約する

  2. 自走用の指示ファイルにも詳細を反映する

  3. 毎回貼る文面は短縮版にする

  4. ただし、進捗報告の省略禁止だけは毎回明記する

つまり、毎回すべてを説明するのではなく、正本参照型の短縮指示に切り替える。

これが一番バランスがよい。


3. 長文指示を毎回貼る問題

毎回長文指示を貼ると、安心感はある。

こちらの意図を細かく書ける。
禁止事項も書ける。
完了報告項目も書ける。
Git運用も指定できる。

しかし、問題もある。

まず、単純に貼るのが面倒である。
そして、長すぎる指示はAI側でも要点がぼやけることがある。

また、長文指示を毎回微妙に変えていると、どれが最新ルールなのか分かりにくくなる。

たとえば、

  • 前回の指示ではAと書いた

  • 今回の指示ではBと書いた

  • 正本ドキュメントではCと書いてある

この状態になると、AIも人間も混乱する。

だから、詳細ルールは毎回貼るのではなく、正本ドキュメントに寄せた方がよい。


4. 短くしすぎる問題

一方で、短くしすぎるのも危険である。

たとえば、

前回の続きでお願いします。

だけだと、AIは勝手に解釈する。

何を優先すべきか分からない。
前回の続きの範囲も曖昧になる。
Git運用も省略されるかもしれない。
検証も弱くなるかもしれない。
完了報告も雑になるかもしれない。

特にAIは、曖昧な指示を与えると、やりやすい作業に流れやすい。

実装してほしいのにドキュメントだけ直す。
検証してほしいのに報告書だけ作る。
進捗率を出してほしいのに省略する。
PRまでやってほしいのにコミットで止まる。

こういうことが起きる。

だから、短縮版にする場合でも、絶対に外せない項目は毎回書く必要がある。


5. 正本ドキュメントを読ませる形にする

一番良いのは、詳細ルールを正本ドキュメントにまとめ、毎回そこを読ませることだ。

たとえば、以下のようなものを正本にする。

  • Cursor作業ルール

  • 自走継続指示

  • Git運用ルール

  • 完了報告フォーマット

  • 進捗率の出し方

  • 検証の省略条件

  • PR作成ルール

  • 禁止事項

  • 優先順位の決め方

こうしておけば、毎回の貼り付け文は短くできる。

AIには、

正本ファイルを読んで、そのルールに従ってください。

と指示すればよい。

これなら、詳細ルールのメンテナンスは正本側で済む。

毎回の指示文は、今回の目的と優先順位だけに絞れる。


6. ただし、進捗報告省略禁止だけは毎回書く

ここはかなり重要である。

AIは、進捗報告を省略しがちである。

作業内容は書く。
変更ファイルも書く。
テスト結果も書く。

しかし、こちらが本当に欲しい以下のような情報が抜けることがある。

  • 初期公開を100%とした現在地

  • 正式公開を100%とした現在地

  • 前回比

  • 根拠

  • 残り所要時間

  • メインループの現在地

  • 残課題件数

  • 後回し機能件数

  • リスク・未確認事項

これが抜けると、プロジェクト管理ができない。

AIは実装担当であると同時に、作業報告者でもある。
報告が弱いと、次の判断ができない。

だから、進捗報告だけは、毎回の短縮指示にも明記する。

ここを正本に書くだけでは少し弱い。
毎回貼る指示にも入れる。


7. 毎回貼る文面の基本形

今後、Cursor AIに貼る指示は、以下のような形がよいと思っている。

前回の続きです。

開発側AIは、以下の正本ファイルを読み込み、その内容に従って自走してください。

docs/15_Cursor作業ルール.md
docs/cursor-instructions/開発側AI_自走継続版.md

今回も、初期公開を最短で目指してください。

最優先は、ログイン後の中心体験と主要導線の成立です。
確認側からP0/P1報告があれば優先対応し、なければメインループの未完成箇所から、初期公開進捗率が最も上がる作業を選んで進めてください。

Git操作・検証・PR・完了報告・進捗報告は正本ルールに従ってください。
小さい修正ごとの過剰なフル検証は不要ですが、必要な確認は省略しないでください。

完了報告では、初期公開進捗率、正式公開進捗率、前回比、根拠、残り所要時間、メインループ現在地、残課題件数、後回し機能件数、リスクを省略しないでください。

未実施項目がある場合は、理由を書いてください。

公開ブログ用なので、具体的なサービス内容に直結する文言は抽象化している。
実際にCursorへ貼るときは、内部用語を使ってよい。


8. 連続指示で大事なのは、前回からの継続性

連続指示で大事なのは、前回からの継続性である。

AIは、前回の作業内容をある程度踏まえることはできる。
しかし、常に完璧に覚えているわけではない。

だから、毎回の指示では以下を明確にしたい。

  • 前回の続きであること

  • 正本ファイルを読むこと

  • 今回の最優先テーマ

  • 報告省略禁止

  • 未実施項目の理由を書くこと

  • Git運用を守ること

これだけで、かなり事故が減る。

逆に、毎回まったく違う指示を出すと、AIの作業がブレる。

連続作業では、毎回少し変えるが、骨格は固定する。

これが大事である。


9. 小さい修正ごとの過剰検証は不要

もう一つ重要なのは、検証の重さである。

毎回すべての修正で、フル検証、フルE2E、PR、マージ、詳細報告をやらせると、効率が悪い。

もちろん、重要な変更では必要である。

しかし、小さなドキュメント修正や限定的なUI文言修正で、毎回フル検証を求めると、時間もAI使用量も無駄になる。

だから、正本ルール側で以下を整理する必要がある。

  • docsのみなら軽い確認でよい

  • アプリコード変更ならlint/buildは基本必要

  • 主要導線変更ならE2Eが必要

  • ロジック変更なら対象テストが必要

  • PR前には差分確認が必要

  • 未実施の検証は理由を書く

こういうルールがあると、AIも判断しやすくなる。


10. AIは短縮指示を都合よく解釈する

短縮指示にはリスクもある。

AIは、短縮された部分を都合よく解釈することがある。

たとえば、

正本に従ってください。

と書いても、実際には正本を十分に読んでいないような動きをすることがある。

また、

前回の続きです。

だけでは、前回のどの部分を続けるべきか曖昧になる。

だから、短縮版でも必ず入れるべき項目がある。

  • 正本ファイル名

  • 今回の優先テーマ

  • 報告省略禁止

  • 未実施項目の理由

  • Git運用遵守

  • 確認側報告があれば優先

これらは毎回入れる。

短くするが、重要な骨格は削らない。


11. ルールドキュメント側に寄せるべきもの

逆に、毎回貼らなくてよいものもある。

以下は正本ドキュメント側に寄せるべきである。

  • 詳細なGit操作ルール

  • ブランチ命名規則

  • PR作成手順

  • 完了報告フォーマットの詳細

  • テストコマンド一覧

  • 検証省略条件

  • 禁止事項一覧

  • ドキュメント更新ルール

  • 進捗率算定ルール

  • 作業スコープの判断基準

これらを毎回貼ると長くなる。

正本に入れておき、毎回は参照だけにする。


12. 連続指示の目的は、AIを止めないこと

Cursor AIに連続指示を出す目的は、AIを止めないことだ。

AIは便利だが、止まりやすい。

判断に迷う。
確認待ちになる。
どこまでやるべきか分からなくなる。
報告だけで終わる。
次作業を提案して止まる。

これでは効率が悪い。

連続指示では、AIが自走できるようにする必要がある。

そのためには、

  • 優先順位を与える

  • 正本を与える

  • 判断基準を与える

  • 報告形式を固定する

  • 未確認事項を書かせる

  • 次に進む基準を明確にする

これが必要になる。

AIを自由にするのではない。
枠を決めたうえで、自走させる。


13. 今回の結論

Cursor AIに連続指示を出すときのコツが、少し見えてきた。

毎回、長文の指示を貼り続けるのは非効率である。
しかし、短くしすぎると、進捗報告やGit運用が崩れる。

だから、今後は以下の方針にする。

  • 詳細ルールは正本ドキュメントへ反映する

  • 自走指示ファイルにも詳細を反映する

  • 毎回貼る文面は短縮版にする

  • ただし、進捗報告省略禁止だけは毎回明記する

  • 今回の優先テーマも毎回書く

  • 未実施項目は理由を書かせる

  • 正本参照型でAIを自走させる

これは、AIを楽にするためではない。
こちらがAIを管理しやすくするためである。

AIは、放っておくと逃げる。
省略する。
ドキュメントだけ直す。
報告を端折る。
都合よく解釈する。

だから、正本で縛り、短縮指示で方向を与え、完了報告で検収する。

独力+AI活用で開発するには、AIへの指示設計そのものがプロジェクト管理になる。

Cursor AIをどう動かすか。
どこまで任せるか。
何を毎回確認するか。

ここを磨くことが、開発速度と品質の両方に直結すると感じている。

注目の投稿

第3回:月商1000万円までのスケジュールを考える

月商1000万円までのスケジュールを考える 1. はじめに 月商1000万円を目指して、新規プロジェクトを進めている。 このブログでは、プロジェクトの具体的な企画内容は公開しない。 ただし、プロジェクトをどう進めているか、どこで悩んでいるか、どのように計画を立てているかは記録して...