メインコンテンツへスキップ

マジかよ!GitHubのコードがAIで激変!誰でも理解できる神チュートリアル爆誕!

·2 分
2025/04 AI GitHub チュートリアル プログラミング ドキュメント生成

マジかよ!GitHubのコードがAIで激変!誰でも理解できる神チュートリアル爆誕!

引用元:https://news.ycombinator.com/item?id=43739456

bilalq 2025-04-20T04:48:40

これマジですごいじゃん!AI studio APIキーで試したら結構感動したわ。ただ、説明がちょいと初心者向けすぎるかも。「APIってレストランのアナロジーで言うと…」みたいな説明はいらん気がする。GraphQLの説明も長すぎ。全体的に、ソフトエンジニアよりちょっとテクニカルなPM向けな感じ。プロンプトを調整すれば改善できるかもね。あと、図の種類も増やしてほしいな。例えば、AWS Step Functionsで書かれたステートマシンには、シーケンス図よりフローチャートの方が合うと思う。

cushychicken 2025-04-20T12:12:27

こういうコメント見ると、AIの価値が分からんエンジニアは何を吸ってんだ?って思うわ。AIを全否定するのは賢くないし(OP、別にあんたのこと言ってるんじゃないよ、一般論ね)。あと、こういう批判するやつに限って、マジモンのLLMを使ったことないんじゃない?知ってるコードベースをLLMに突っ込んで、コールドリードで目的とか実装について良い回答が返ってくるのはマジですごい。コード書けなくても、ソフトの理解が早くなるってことは、ソフト開発も早くなるってことじゃん。

linotype 2025-04-21T01:08:26

まだ多くの開発者は、コードを書くことが仕事で、ビジネスに必要なプロダクトを作ることが仕事じゃないと思ってるんだな。俺はLLMをめっちゃ使ってて、仕事が早く、質も良くなった。

grugagag 2025-04-21T02:36:16

LLMが得意なことと苦手なことってあるよね。人によって違う問題を扱ってるから、LLMに対する評価も真逆だったりする。

danieldk 2025-04-21T08:47:02

LLMで生産性が10倍とか100倍になるって言ってる人は、LLMが得意な作業をしてるんだと思う。単純なCRUD処理とかはLLMはマジで強いから。でも、新しいアルゴリズムやデータ構造を設計したり、既存のものを拡張したりするのは苦手。新しいハードウェアのドライバを不完全な仕様から実装するとかも無理ゲー。こういうタスクだと、LLMはむしろ邪魔になる。だから、生産性が上がるとか下がるとかっていうのは、両方とも正しいんだよね(LLMを使いこなせてないだけってわけじゃない)。LLMが得意なことと苦手なことを理解するのが一番重要だと思う。もちろん、LLMは常に進化してるから、これは継続的なプロセスだね。個人的にはLLMに満足してるよ。俺の代わりにはなれないけど、退屈な作業は任せられるから、面白い問題に集中できる。OpenSCADをClaudeで学ぶのも簡単になった。

kaycebasques 2025-04-21T11:40:08

OpenSCADの経験談は、生産性議論で忘れられがちな重要な点だね。今まで不可能だったプロジェクトが、今は実現可能になった。10年前ならOpenSCADのドキュメントを検索したり、ビデオを見たりして、必要な情報が見つからなくて諦めてたかも。Claudeみたいなツールのおかげで、最初の壁を乗り越えられたことが何度もあったよ。0から1を生み出すことは、1から10や1から100を生み出すことと同じくらい(あるいはそれ以上に)重要だと思う。

iteria 2025-04-21T12:06:37

そんなすごい例を持ち出さなくても、10年以上前のコードとか、色んなパラダイムが混ざってて、ドキュメント化されてない暗黙の了解が多いコードベースなんていくらでもあるじゃん。そういうところでAIは役に立たない。意味のある変更は無理。あと、フロントエンドとか、古いコードじゃなくてもAIは使えないことが多い。NPMパッケージとか、スタイルの衝突とか、AIは全然役に立たない。AIはオートコンプリートの強化版って感じ。成熟したコードベースでマジなことは無理。ビジネスルールとか技術的負債が絡んでくると、AIは信用できなくなるから、自分で書いた方が早い。index.tsファイルのエクスポートリストを自動生成できないAIに、何を期待すればいいんだ?

simonw 2025-04-21T12:28:10

最後に大規模で古くてドキュメント化されていないコードベースに対してLLMを使用したのいつ?
ここ6週間で状況はマジで変わったぞ。
Gemini 2.5 Proは100万トークンを受け入れて、それらを使って「推論」できる。つまり、数十万行のコードを投入すれば驚くほど物事を理解できる可能性があるってことだ。
OpenAIはGPT 4.1シリーズで最初の100万トークンモデルをリリースした。
OpenAI o3とo4-miniはどちらも20万トークンの入力制限を持つ非常に強力な推論コードモデルだ。
これらのモデルはすべて過去6週間以内に新しく登場した。彼らは大量の古くてドキュメント化されていないコードを扱うのが非常に得意だ。

grugagag 2025-04-22T00:42:33

結局、LLMはコードがランタイムで何をするのか理解してないんだよね。コードベースを解析するだけでも良い推測はできるけど、複雑なコードベースだと、誰もドキュメント化してない変な部分があるから、LLMの変更を信用するのは難しい。あと1~2世代したら、人間が手作業で書くことが減って、コードベースがもっと均一になるかもね。自動運転車も同じで、人間のドライバーがいなくなれば、問題は簡単に解決できる。

simonw 2025-04-22T02:14:58

それは6週間前よりも当てはまらなくなってきている。「推論」モデルは、コードの実行方法に関する質問に答えたり、バグの原因を特定したりするのが不気味なほど得意だ。まだ間違いも犯すし、基本的には次のトークンを予測する機械だけど、「コードがどのように実行されるか予測できない」っていう先入観はアップデートした方がいいかも。

simonw 2025-04-22T14:08:05

そりゃ、モデル名にまだ”preview”とか”experimental”って付いてるくらいだし、そういうことだよね。

kaycebasques 2025-04-21T11:29:59

>LLMが目的とか実装についてコールドリーディングで良い答えを出すって話だけど
このツールでコールドリーディングできるかはまだ疑問だよね。チュートリアルが有名コードベースばかりで、LLMの学習データにめっちゃ含まれてる可能性あるし。個人的には自分の非公開リポジトリで試してみるつもり。

tossandthrow 2025-04-21T06:25:33

>たとえLLMが一行もコード書かなくても、ソフトウェアの理解が早くなるってことは、ソフトウェア開発も早くなるってことだから価値はあるよね。
AIが生成した文章ってマジで価値ないと思ってる。AI製品って一見すごいけど、結局役に立たずに潰れるスタートアップをいっぱい見てきたし。コードを消しても動くAIが出てきたら impressするわ。

jonahx 2025-04-21T07:01:59

>コードを消しても動くAIが出てきたら impressするわ。
今のAIでもそれなりにできるよ。もちろん、ミスとか見落としのリスクはあるけどね。

otabdeveloper4 2025-04-23T05:49:58

要約はLLMが得意なことの一つだよね。(今は違うものがhypeになってるけど)

panny 2025-04-21T04:00:19

>こういう意見を聞くと、AIの価値が分かってないエンジニアは何吸ってんだろって思うわ。
俺は勝者が現れるまで待つわ。色々試してガッカリするのもう疲れたし。

CodeMage 2025-04-21T02:16:31

>AIは価値がないって言うエンジニアは何吸ってんだって意見があるけど
マジでパラレルワールドに住んでるのかと思うわ。周りのエンジニアは「AIこそ未来!」か「AIには問題がある」って意見ばっかりだよ。AI hypeを批判してるだけじゃない?
GitHubのPRの要約botを試したけど、良い面も悪い面もあった。良い点は詳細を正確に捉えること。悪い点はPRの目的を真逆にとらえること。怖い点はAIに頼りすぎること。効率化のためにAIを盲信してミスが積み重なり、大惨事になる未来が見える。

doug_durham 2025-04-21T06:11:23

細かいところまで正確なのが価値だって認めてるじゃん。それだけでも使う価値あるよ。修正が必要でも時間は節約できるし、PRの質も上がる。大事なのはAccountability。エンジニアは自分の仕事に責任を持つべき。ツールに頼ってもそれは変わらない。PRツールが間違ってても、それを提出するのはエンジニアの責任。責任感のある文化なら、怖がることはない。最近のツールはPRとかcommit messageの作成マジで優秀だよ。

svieira 2025-04-21T14:32:16

新しいKubernetesクラスタのCPUバグの責任は誰が取るの?信頼できる”誰か”がいないと、trusting-trust問題は解決しないよね。

voidUpdate 2025-04-21T14:07:55

結局、企業は最先端のLLMを有料化するんだよねー。でも、役に立つかどうか分からないものにお金払いたくないじゃん?

もっとコメントを表示(1)
GaggiX 2025-04-21T14:14:24

Gemini 2.5 Pro Experimental(最先端モデル)は5 RPM、25 RPDだってさ。Gemini 2.5 Flash Preview 04-17も強力で、10と500。OpenAIもトークン共有に同意すればAPIを無料で使えるよ。

voidUpdate 2025-04-21T14:16:18

RPMとRPDって何?まさかRevolutions Per Minuteじゃないよね?

GaggiX 2025-04-21T14:19:09

Requestsのこと。

kaycebasques 2025-04-20T21:56:21

APIをレストランのアナロジーで説明するのはちょっとくどいかなー。GraphQLの説明も長すぎだし。このツール、チュートリアルコンテンツ作成には向いてないかもね。チュートリアルは実践重視で、特定のスタート地点からゴールまで導いてくれるものじゃん?理論は不要って言う人もいるし。でも、プロンプト調整でアクション重視にできると思うよ。

neop1x 2025-04-22T17:03:54

>プロンプトを改善すれば解決できるかもね
子供向けの説明になったり、逆に説明不足だったりするんだよねー。プロンプト変更だけじゃ解決しない気がする。特定のケースには有効でも、汎用的なプロンプトは難しい。LLMは“私の意図を理解してない”感じ。プロンプトの要求には従うけど、すべての状況に対応できないんだよね。もうLLMに疲れちゃった。

hackernewds 2025-04-20T04:51:12

まさにそれな。エンジニアが対象なんだから、ある程度技術的な内容でも良いんじゃない?VPにETLパイプラインの説明をする必要なんてないと思うし。

trcf21 2025-04-20T07:24:38

flow.pyから引用
“口調は歓迎的で、初心者にわかりやすく{tone_note}。”
“Markdownコンテンツのみを出力。”
“超初心者向けのMarkdownを出力(markdownタグ不要)”
だから、ここを変えるだけでも効果あるかも。でも、Geminiでレベル調整って難しいよね。教育系だと、極端な回答になりがち。何かアドバイスある?

porridgeraisin 2025-04-20T08:09:25

“シンプルで厳密な記述を、第一原理から始めて、論理的な結論に導くように。箇条書きや要約はせず、率直な文章で。自明の理や抽象的な表現は避ける。(オプション)読者を{元のプロンプト}と仮定”
同じ意味の文章を何度か書いたり、短くしたりもするけど、大体OK。たまに小さな変更で良い結果が出るけど、パターンは見つからない。モデルは頻繁に変わるし、小さな変更の影響範囲は大きいから、無駄な努力かもね。

trcf21 2025-04-20T09:00:49

ありがとう、試してみるよ!

swashbuck1r 2025-04-21T11:17:56

doc generatorは便利な例だけど、Cursorを使ってPocketFlowの設計ドキュメントを作ったのがマジですごいね!PocketFlowの実行グラフとかユーティリティに合わせて設計を調整して、doc generatorのコードもCursorに生成させたんだって。PocketFlowのパターンが、AIが設計をコードに変換するのに役立つってことだね。マジで感動!設計ドキュメントは[https://github.com/The-Pocket/Tutorial-Codebase-Knowledge/bl…]、動画は[https://m.youtube.com/watch?v=AFY67zOpbSo]を見てね!

mooreds 2025-04-20T14:45:07

gemini初めて使ったから、APIアクセスとかGoogle projectの設定で時間かかっちゃった。APIキーはOpenAPIの持ってるんだけど、使い方がわからなくて。
api_key=os.getenv(”GEMINI_API_KEY”, “your-api_key”)って書いた方がいいかも。
あと、モデルも変更したよ。
model = os.getenv(”GEMINI_MODEL”, “gemini-2.5-pro-preview-03-25”)
rate limitに引っかかったから、previewモデルを使ってみた。
会社のプロジェクトで試してみたよ。
[https://github.com/prime-framework/prime-mvc]
[https://github.com/FusionAuth/fusionauth-quickstart-ruby-on-…]とか。
全体的な感想としては、びっくりマーク多すぎ(笑)
すごい詳しいし、例えも上手い。でも、ちょっと使いすぎかも。
チュートリアルに間違いはなかったよ。マジですごい!

mooreds 2025-04-20T16:02:57

出力結果が見たい人向け!mooredsのGitHubにチュートリアルをいくつか投稿したよ。
[https://github.com/mooreds/prime-mvc-tutorial]
[https://github.com/mooreds/railsquickstart-tutorial]
[https://github.com/mooreds/fusionauth-jwt-tutorial/]
index.mdをREADME.mdにリネームして、ちょっと修正しただけだよ。

mooreds 2025-04-21T01:24:50

請求が遅れたけど、チュートリアル4つで約5ドルかかったよ。

manofmanysmiles 2025-04-20T00:32:49

マジ最高!Cursorに質問しまくって、同じような結果を得てるよ!口調を少し変えたいなー。スタイルテンプレートみたいな機能があると嬉しいかも。PR出すかもだけど、時間かかるならやめとく。

zh2408 2025-04-20T00:37:47

PR待ってるよー!

TheTaytay 2025-04-20T01:33:01

マジで neat だね!新しいライブラリを使う時、まずリポジトリをcloneしてClaude codeにドキュメントを書かせてるんだ。これがあれば、手間が省けるね!

randomcatuser 2025-04-21T04:09:38

まさに今日やったわ!(Codexで!)出力結果はこっちの方がちょっと良いかも!数ヶ月後には、すべてのライブラリで動的なドキュメントが手に入るかもね!

Too 2025-04-21T05:32:51

未知のコードベースだとどうなるの?requestsのチュートリアルが、事前知識なしで生成されたにしては不気味なほど正確なんだよね。具体的なユースケースとか例が多すぎるし。「functional api」とか「hooks checkpoints」みたいな用語は、リポジトリに一度も出てこないのに。requestsのチュートリアルはネットにたくさんあるから、AIがそれらを使ってないとは言い切れないよね?

fforflo 2025-04-20T16:05:42

Ollamaを使ってローカルモデルを実行したい場合は、こんな感じだよ。
>from ollama import chat, ChatResponse
>def call_llm(prompt, use_cache: bool = True, model=”phi4”) -> str:
> response: ChatResponse = chat(
> model=model,
> messages=[{
> ‘role’: ‘user’,
> ‘content’: prompt,
> }]
> )
> return response.message.content

mooreds 2025-04-20T16:09:01

アウトプットの質はどうかな?
ローカルでLLMを動かせたら、公開されてないコードでも使いやすいからマジで欲しい。

もっとコメントを表示(2)
fforflo 2025-04-20T16:38:19

まあまあ使えるレベルだよ。でもllama2みたいなモデルを使うと、GPUが燃えちゃうかもね。

chairhairair 2025-04-19T23:49:48

mutable aiって会社が去年Googleに買収されたんだけど、似たようなことやってて、チュートリアルじゃなくてwikiを出力してたんだよね。

kaycebasques 2025-04-21T11:22:20

mutable.aiについてのブログを書こうと思ってたんだけど、サービスが終わっちゃった。
前に仕事で使った時に生成されたwikiをアーカイブしたから見てみて!
https://web.archive.org/web/20240815184418/wiki.mutable.ai/g
(画像は表示されないけど、自動生成されたクラスの継承図とか依存関係の図だったと思う)
>最初の段落はかなり良い感じ。
>2番目の段落でpw_rpcをPigweedの”コア”と呼ぶのは間違い。pw_rpcが必須で、他のモジュールがそれに依存してるみたいな印象を与えるけど、そうじゃないから。
>その後のモジュールの説明はまあまあ良かったと思う。
大きな問題は、wikiがコードベースのいろんな部分の寄せ集めになってるってこと。まとまりがないんだよね。それに、Pigweedのコードベースにある他の100以上のモジュールについては何も触れてない。
大きなコードベースで作業するときは、mutable.aiとかPocket Flowみたいなツールに、コードベースのどの部分をドキュメント化するか具体的に指示する必要があると思う。

zh2408 2025-04-20T00:01:26

サイト落ちてるみたい。結果が見れないや。

codetrotter 2025-04-20T00:15:56

買収されたの?それとも諦めてCEOがGoogleで仕事を見つけただけ?
https://news.ycombinator.com/item?id=42542512
このスレッドだと後者っぽい。

chairhairair 2025-04-20T13:28:39

買収の詳細は知らないけど、YCのプロフィールには買収されたって書いてあるよ。

cowsandmilk 2025-04-20T18:55:32

会社の状況を知らないで、LinkedInを見て勝手に結論を出した人の言うことを信じるの?

nxobject 2025-04-20T09:40:34

GoogleのNotebookLMのポートフォリオにぴったりだと思うんだけどなー。スケールアップしたいなら。

gregpr07 2025-04-20T06:10:47

ブラウザで使ってみたよ。うちのライブラリの結果がマジですごいんだけど、全く修正してないの?
ドキュメントを最新のコードベースに合わせてメンテするのが大変なんだよね(コード例が動かなくなったりする)。Pocketの一部を使って改善できないかな。

cehrlich 2025-04-20T06:27:32

別のライブラリのメンテナーだけど、これマジであるかも。ドキュメントも学習させて、不正確なところを見つけるようにしたら最高じゃね?多少の間違いがあっても、人間が最終判断するから今よりマシになるっしょ。

zh2408 2025-04-20T12:39:47

ありがとね!出力はそのままなのよ。小さい変更なら、コミット履歴をLLMに食わせてドキュメント修正させればOK。大規模な変更なら、古いドキュメントを書き直す方が楽かも。10分もかからないし。

remoquete 2025-04-21T06:13:53

手っ取り早くコードベースを知るには良いけど、人が書いたドキュメントの代わりにはならないよね。
https://passo.uno/whats-wrong-ai-generated-docs/

kaycebasques 2025-04-21T12:00:29

人間とLLMの組み合わせが最強だと思うな。機械によるドキュメント作成ツールを取り入れることで、最終的にドキュメントの質が向上するはず。例えば、コードベースの要約ツールを試したんだけど、いくつか不正確な点があったの。原因もわかったから修正して、再度実行したら正確な要約になったよ。でも、テクニカルライターは必要だよね。

remoquete 2025-04-21T12:26:26

マジそれ。強化していくしかないっしょ。

iamsaitam 2025-04-25T05:53:28

肥大化しすぎ。コード自体は100行程度なのに、コード以外の部分がガス惑星みたいに膨張してる。テキストも動画もLLMが書いてるし。量より質ってことを理解して、もっと簡潔にした方が良いと思う。生成された“設計ドキュメント”が2000行以上あるし。Quota超えそう。

esjeon 2025-04-20T03:14:40

最初は良い感じだけど、すぐにコードを人間語にしただけになるんだよね。関連する単体テストを調べれば、もっと便利な使用パターンが見つかるはず。チュートリアルを読む人が知りたいのは使い方でしょ。

mattfrommars 2025-04-20T19:33:21

マジかよ。
一日で作ったの?マジですごいな。
数週間前に同じことを考えたけど、実装方法がわからなかったんだよね。
マジGJ

fforflo 2025-04-20T16:39:37

$GEMINI_MODE=gemini-2.0-flash で simonw/llm と pgcli みたいなライブラリでも良い結果が出たよ。
simonw はドキュメントをしっかり書いているし、ロジックもわかりやすいからモデルも助かるよね!
https://github.com/Florents-Tselai/Tutorial-Codebase-Knowled
https://github.com/Florents-Tselai/Tutorial-Codebase-Knowled

3abiton 2025-04-21T09:13:55

ドキュメントがないリポジトリだとどうなるの?

amelius 2025-04-20T13:33:16

HNで何度か言ってるんだけど、LLMを使ってドキュメントを自動生成すればいいのにって思うんだよね。でも、反対する人が出てくるんだよな…

もっとコメントを表示(3)
runeks 2025-04-20T16:28:48

役に立つドキュメントって、コードがなぜそうなってるのかを説明するものだよね。つまり、なぜこのコードが存在するのかってこと。LLMは、君がそう書いた動機を魔法のように理解することはできないんだ。

bonzini 2025-04-21T06:21:05

APIの「なぜ」をLLMに教えて、個々の関数やクラスのドキュメントを書かせればいいじゃん。

johnnyyyy 2025-04-20T17:23:25

コードを書いた人だけがドキュメントを書けるって言いたいの?

oblio 2025-04-20T19:08:13

いや、LLM(と他の多くの人間)は最高のドキュメントを書けないって言ってるんだよ。正直、ほとんどのドキュメントは役に立たないものばかり。LLMなら、そういうのを大量に書けるだろうね(笑)。

remoquete 2025-04-21T12:29:39

できないからだよ。前のコメントを見て。
https://news.ycombinator.com/item?id=43748908

tdy_err 2025-04-20T15:26:00

代わりに、コードをちゃんとドキュメント化しろってこと。

cushychicken 2025-04-20T15:29:05

チームにドキュメントを作るように働きかけて、いつも「他の優先順位と比べてどうなの?」って議論になることが多すぎて、ランチをおごってもらいまくったかも。それって、賢い人が面倒で重要度の高いタスクから逃れるための常套手段なんだよね。AIは文句言わないし、ただ書くだけ。人間が著者じゃなくて、レビュー担当になることで、作業がすごく早くなるんだ。

mvATM99 2025-04-20T07:31:27

これマジですごいし、めっちゃ実用的じゃん。近いうちにいくつかのプロジェクトで試してみるよ。生成後に微調整が必要になるかもしれないけど、自分のコードベースを知ってれば問題ないよね。

citizenpaul 2025-04-21T04:01:40

マジですごい。ここ2年で見たAI関連の物の中で一番良いかも。

kaycebasques 2025-04-20T19:37:39

めっちゃクールじゃん!シェアありがとね。これ、うちのテクニカルライター仲間が将来についてもっと不安になるかもなー。でも実際は、今まで多くのコードベースでちゃんとしたチュートリアルを作るのが難しかったんだよね。例えば、サイドプロジェクトだと時間もエネルギーもないし、チュートリアルなんて一番手間がかかるドキュメントだし。企業もテクニカルライターを雇うのを渋るし、仕事が売上に繋がりにくいから。でも、これからは色んなプロジェクトでちゃんとしたドキュメントが当たり前になって、テクニカルライターの需要が増えるかもよ?これからはMLツールを使いこなしてドキュメントを作るのが大事になると思う。まあ、テクニカルライターが滅びる可能性もゼロじゃないけどね。このツールを評価する方法があるから、数日後にhttps://technicalwriting.devに感想を投稿するね。最近、ドキュメント自動化のスタートアップが多いけど、競争が激しい分野だと思う。ドキュメントのニーズは広いから、ベストプラクティスはコモディティ化されてオープンソースになると思うよ(Pocket Flowみたいに)。

kaycebasques 2025-04-22T04:13:16

記事書いたよ!
https://technicalwriting.dev/ml/pocketflow/index.html

wg0 2025-04-20T06:07:40

これは新しいオープンソースの貢献者にとってマジで最高のオンボーディングだね!PostgresとかRedisのコードベースを突っ込んで、理解を深めて貢献できるようになるじゃん。

tgv 2025-04-20T08:21:52

それって楽観的すぎじゃない?Postgresのソースコードってマジで複雑だし、簡単なチュートリアル読んだだけでデータベースエンジンのニンジャになれるわけないじゃん。そんな簡単なチュートリアルで理解できるなら、その分野の本読んだらどうなるんだよ。

wg0 2025-04-20T16:07:45

いやいや、そんなにLLMに期待してないって。ただ、何もないよりマシってことよ。理解するのはエンジニアの仕事だし。得られるのは、どこを見ればいいかの概要だけだよ(しかもちょっと不正確な部分もある)。

nitinram 2025-04-23T01:00:54

これめっちゃクール!プロジェクトで使ってみようとしたら、「This model’s maximum context length is 200000 tokens. However, your messages resulted in 459974 tokens. Please reduce the length of the messages.」ってエラーが出ちゃった。Open ai o4-miniを使ったんだけど、どうすればいい感じに処理できるかな?大きいコードベースやプロジェクトディレクトリでチュートリアルを作る方法について何か考えある?

zh2408 2025-04-23T01:53:54

Gemini 2.5 proを試してみてはどうかな?最初は毎日25回まで無料で、1Mのトークンを扱えるよ。

potamic 2025-04-20T08:34:45

実行するのにどれくらいのコストがかかったか測った?自分のリポジトリで実行するのにいくらかかるか知りたい。

pitched 2025-04-20T11:40:30

プロンプトが4つあって、最後のやつは章の内容に応じて最大10回実行されるみたい。無料枠の25回で、2~3個チュートリアル作れるんじゃない?章の数にもよるけど。

1899-12-30 2025-04-21T17:15:43

このアイデアの拡張として、AIが生成するソフトウェアのインタラクティブなチュートリアルは良い製品になるかも。コード内の定義された使用パスで学習されていれば、ユーザーをガイドできるはず。

Retr0id 2025-04-19T23:44:36

生成された概要図は結構面白いけど、AIが生成した文章の口調とかスタイルがマジで無理だわー。例えば、https://the-pocket.github.io/Tutorial-Codebase-Knowledge/Req…を見てみなよ。ちょっとこれはキツイっしょ。

記事一覧へ

海外テックの反応まとめ
著者
海外テックの反応まとめ
暇つぶしがてらに読むだけで海外のテックニュースに詳しくなれるまとめサイトです。