アンソロピック経済指標とは?その実態に迫る!
引用元:https://news.ycombinator.com/item?id=43000529
ChatGPTの分析も見てみたいなあ。彼らの分析方法には不安がある。たとえば、ゲームがクラッシュする理由を聞いた人がコンピュータ・数学系に分類されるのは変じゃない?質問してるのはゲームプレイヤーかもしれないし、修理屋の仕事じゃないしね。それでも、面白い試みだと思うよ。
ChatGPTの検索ボリュームは、学校が休みの夏に大きく落ちこむのが分かるよ。つまり、ほとんどがチュータリングや宿題のカンニングに使われてるってことだね。
ChatGPT.comやアプリを使ってる人々を無視してるよね。
確かに無視してるけど、年中均等に無視してるから、バイアスがない限りまだ有用な指標だと思う。夏や冬、春休みの時はアクセスが減るのは確かに納得できるね。
でも、それは古いデータだよ。2024年には夏の落ち込みなんてなかったし、むしろずっと増加してた。
5月中旬に落ちて8月中旬まで戻らなかったようだけど、それってアメリカの夏休みに近いね。そして12月の初めに大きなスパイクがあって、その後は落ち込んだ。期末試験と冬休みが関係してるよ。
サイトへの訪問数を見てたけど、
訪問数は58から40に減ったみたいで、今もずっと増加してるね。それが一般的な使い方かもしれないけど、他の使い方もあるよ。多くの学生は使い続けるだろうし、考えることを完全にアウトソーシングしちゃうかも。
その落ち込みは2024年には存在しなかった。昨年はずっと訪問数が増えていったけど、夏の落ち込みはなかったよ。
昔のokcupidのデータ分析を思い出すんだけど、分析に“個人的”な使い方のグループが見当たらないのが不思議。友達はChatGPTをセラピストやライフコーチとして使ってるし、話の回数やどれくらいテストしてるかも考慮してないのがもったいないね。
Sleep8の creepy な方じゃないってこと?何のこと?
ただのツイートだったんだろうけど、やっぱ気になるよね。
リクエストの数が違うだけで、統計的には同じなんじゃないの?
尊敬するメンターが昔、スープの量に関係なく、同じスプーンで味見しりゃいいって言ってた。
そのメンターは想像力が貧弱だね。スープが大きすぎたら、上層の油だけかもしれないし。
確かに!サンプルの一貫性や代表性、大事だよね!スープが滑らかかダマだか、骨の味が出るかどうかってことも考えないと。统计力が人口の大きさと直接関係ないってことを教えてくれる。
スプーンが小さいんじゃなくて、ちゃんとかき混ぜてないからじゃないの?
ちゃんとかき混ぜてるかサンプル取る必要があるね。
いや、混ぜる動きが代表的なサンプルを作るかモデル化できるよ。
大きく混ざらない層状の流れの時は、もっと大きいスプーンが必要だね!
アメリカの学生が百万いるって時に35%は、アメリカ、ヨーロッパ、アフリカで十億人の場合とは全然違うよね。アメリカに十億人の学生はいないから、そもそも無理だし。人口を越えたらサンプリングが同じ空間じゃなくなる。だって、1AUの周りの星密度はすごい高いけど、銀河系全体の星密度とは関係ないし。
そう、統計的にはそうだよ。統計って何だと思ってるの?
“統計的に”ってどういう意味?結果が三桁違ってくると思うけど。サンプルサイズは人口のサイズに依存するのが普通じゃない?
サンプルサイズは人口のサイズに依存しない?いや、大事なのはサンプルの分布が偏っていないかってことだよ。全体の人口に対する調査がバイアスかかると意味ないし。分布が同じなら、5000のサンプルで1Mでも10Mでも同じ精度だよ。全員に聞けば分布の心配はなくなるけど。
非常に警戒してる。
両方じゃダメなの?
笑ったw
これを見て思ったのは、AIってほとんどエンジニアが使ってるってこと。納得だけど、自動化のタスクからどれだけのトラフィックが出てるのか気になるよね。何百億ドルも投資されてるのに、今でも主にこの層が使ってるだけだし、ChatGPTやCo-Pilotみたいな殺し屋アプリがまだ出てきてないのは悲しい。
問題はデータだと思う。ソフトウェアエンジニアリングは高給で、ほぼ自己学習できるものだけど、他の分野ではそう簡単にいかない。
“ほぼ自己学習できる”って言うけど、オンラインには全てのトピックに関する大量のデータがあるよ。特に書籍とかも含めたら、完全に無料でアクセスできるものはいっぱいある。ソフトウェアエンジニアリングだけが情報過多なわけじゃなくて、他の分野も自学のためのデータはたくさんある。
医学と法律の分野は文献が豊富だけど、医学は良い医者になるための直感や判断が文書化されにくいし、データも敏感だからリアルなケースにアクセスしづらい。一方、法律は情報の膨大さから、必要な情報をすべて見つけるのがほぼ不可能で、知識のギャップがリスクになる。法律は実際に裁判で使われる原則が話されることも少なく、現実の運用プロセスや解釈・前例の議論が大事。それで、自学自習がしやすいのは構造化された知識のある分野に限られる。
すごく面白いコメントだね。自学しやすい条件に「すぐに検証可能な仮説」を加えたい。
人間の知識のかなりの部分は公開されてない。現代の航空機や核反応炉、先進的な金属加工など、学ぶには制限が多いと思う。経済学や金融理論も、実は多くは取引会社が知ってるだけで、学界は最前線にはついていない可能性が高い。専門的な医療知識も、テキストより師弟関係やプライベートなノートを通じて継承されがちだ。全てがネット上にあるわけじゃない。
テイラー・ウィルソンは14歳で自宅で核反応炉を作ったし、今じゃみんながモデル機にジェットエンジンを載せてる。ネットで材料が手に入らなくても、コミュニティで探せるから、情報は自由に流れる。利益を得るためにマイクロなチャンスを求めるのは経済的には役に立たない。
装置のコストの違いがあるからね。パワーエレクトロニクスは自己学習できるけど、実装しようと思ったら数百から数万ドルかかる。
ソフトウェアエンジニアリングって、自学できる割には高収入な変な分野だよね。プログラミングは独学でもいいけど、SEは数十年かけて集めた技術や実践集だから、オンラインで全てが手に入るわけじゃない。
ライセンスを持ったエンジニアのことを除けば、違いはないよ。私はソフトウェア業界でライセンス持ちの人に会ったことない。
プロのライセンスについて言ってるんじゃなくて、技術やツールの集合のことを言ってる。安全重要な分野での実践も含めてね。
自己学習で、自律走行車の産業で、ソフトウェアの安全重要機能を担当してた。12年の経験があって、入社するまで学位がないことは知られてなかった。実際、オファーには影響なかったし、上司はむしろ感心してた。信頼性や拡張性のあるソフトウェアを作る技術についての一つのガイドがネットにあるわけじゃないし、CSのカリキュラムにも隠れてるわけじゃないと思う。
この視点はなかなか挑戦的だね。一方で、自律走行車の安全重要なソフトウェアを書く」のは、世界で一番奴隷的な仕事の一つに思える。すべての結果を他の人にチェックされ、ガイドラインが山ほどあるのが現実だ。また、オープンな競争の場はないって感じもする。
投稿へのリアクションはあったけど、ここではもっと深く議論したほうが良かったかも。反省してるが、楽しい気分じゃない。
反応する前に考えるのは許されてることだよ。
オープンソースの分野には自己学習で信頼できるソフトを作る人がたくさんいる。
15分でバブルソートを書けないと’本当の’仕事に就けない人も多い。昔、Blenderの主要開発者に自分の間違いを許してもらえたことに感謝してる。
ほとんどの人は職場でこれを学ぶ。学校ではほぼ教えられないし。
だからソフトウェアエンジニアはAIの時代でうまくやれると思う。逐次的な仕事は自動化しやすいから。
具体的にネットで手に入らないものを挙げてくれ。
現時点では、製品に想像力が欠けると同意だけど、影響については反対意見だ。LLMはすでにいくつかの産業を変革した。
経済的な圧力が弱くなってると思う。労働者も消費者も、結果的にモチベーションが下がってる。
いくつかのエージェンシーは、スタッフを80から90パーセントも削減しても収益は減ってないよ。自分の経験と整合性が取れない。うちのチームは去年5人全員が辞めちまって、ドイツのマーケティングエージェンシーはフリーランスで補填してる感じ。コストを抑えるために、AI関連の仕事をやってた一人もクビにしてるし。結局、一人のジュニアポジションを前職より1万ユーロ以上の給料で埋めただけなんだ。みんなフリーランスを代わりに雇いたいらしい。最近は色々と経費削減してるけど、特に仕事がないキッチンを閉じたぐらいだし、自動化の影響は感じない。クライアントはまだ外部に60ユーロで記事を書かせてるし、LLMが書いたものは好まれてない。
ジュニアポジションは70から80パーセントも減ってるとは思えない。そんなことは全くないよ。
複数の業界の翻訳者とやり取りしてきたけど、何も変わってない。確かに、報酬は良くないけど。政治・経済イベントの同時通訳は今でも人間が必要だし、LLMでは高品質な文芸翻訳はまだまだ無理。翻訳ソフトもすごく難しくて、翻訳者は用語に関する大量の文脈や参照が必要だからね。機械翻訳の会社と提携したけど、出てきたものは最悪だった。友達が翻訳者をやってるし、うちの会社も翻訳サービスを使ってるけど、仕事がなくなるなんて見てない。
LLMがすでにいくつかの業界を完全に変革してるっていうのは本当?それなら生産性や失業率にその結果が反映されるはずだけど、今のところその影響はまだ感じられないよ。
産業アプリでのLLMの利用に取り組んでるけど、1年以上の研究開発が経っても、成果は良いものもあれば混ざってるものも多い。プロンプト遵守が大きな問題で、チャットボットより、ユーザーがグラフや過去の履歴を深く掘り下げずに見ているものの説明をすることの方が役立てられそうだ。ただし、参照するためのURIが必要で、95パーセントはうまくいくけど、その5パーセントが致命的で問題を見つけにくくて、死んだリンクになっちゃう。
チーム5人を一つの簡単なタスクで置き換えるBIG E2E自動化パイプラインを作ろうとしたんだけど、どうせならChatGPTを使えばいいと思った。確かに全自動にはできないけど、ほぼ自動化の80パーセントまで早く、エラーのリスクは90パーセントも減るんだ。皮肉なことに、この会社は全てのLLMサイトをブロックしてて、社員のパソコンからGHもブロックされてる。
あなたのアプローチとその産業アプリの内容について興味あるよ。リコメンダーエージェントがURIを使って情報源にアクセスする感じなのか、それとも説明をする感じなのか?繋がる機会があればいいな。
Claudeは主にソフトウェアエンジニアによって使われてる。これって重要なポイントだよ。Claudeが好きだけど、LLM競争でリーディングプレイヤーとは言い難いから。
LLM初心者だけど、安心して質問してもいいかな?Claudeが基本的なソフトウェアエンジニアリングタスクに優れてる理由は何だと思う?特に調整されてるのかな?非ウェブアプリのプログラマーとしては、最近のMVP(最小限の実用製品)作成に関する話を見かけるのがすごく嬉しい!
Claudeは文脈を理解するのが上手くて、調整されてる可能性もあると感じてる。GPTを3から使ってきたけど、返答はもちろん正確になってるけど、時々変な前提を立てることがあるのに対して、Claudeはもっとフォーカスが合ってるみたい。コーディング以外のタスクではGPTの方がデフォルメで詳細が多いのに、Claudeの方が的を射てる印象だ。
最強のプログラミングモデルだったよね。正解率高かったし、推論モデルより速いし。ただ最近はもうClaudeにログインしてないけど、Sonnetのチェーンオブソートが出たら驚くかも。
AnthropicのLLMって、なんか独特の’個性’があるよね。どう表現すればいいか分からないけど、使ったことある人は分かるかも。これってSWEに良い影響があるのかな。
OpenAIとGeminiはどうなると思う?例えばOpenAIのトラフィックがCo-Pilotから来てる割合ってどれくらい?自分のIDEが生成するクエリは、仕事より多いかも。
Anthropicの推論モデルは、すごくいいものになると思うし、またリードを取るんじゃないかな。
AIツールは主流製品に入り込んでるよね。MS OfficeやAdobe使い続ける理由は、最低限のイノベーションを提供してるから。新しいアイデアとチームがあれば、古いビジネスと差別化できそう。
Claudeはソフトウェアエンジニアの間でかなり人気あるね。今後数ヶ月でGoogleのGeminiの統合が違う層の利用者を見せるかも。OpenAIの動向も注目。
あなたの言うことは正しいかも。でもGeminiとOpenAIに似た使用状況があると思う。
予算やより良いモデルが役立つかもね。でもLLMはでかいプロンプトを与えると無力になることが多い。やっぱり人間が必要で、まだ賢くならなきゃ。
一般化力の欠如じゃないと思う。私たちが作ったものだから、使うことで改善されるサイクルが強いし。別の分野でもLLMがドキュメントで役立つ例が多いよ!
確かに!でもSWEが作った物にも逆の意見はある。LLMはSWEや一部の職業には役立つけど、大規模には広がらないかもね。
初期のインターネットで音楽や木工について話してたら、オンラインになるのが簡単じゃなかったから、たいていは技術者だったって思えるよね。広がるまで時間がかかったし。
Daniel RockはAIのROIに関する興味深い研究をしてるみたいで、彼の論文がこの研究にも引用されてるんだ。これはLLMに限定されてるわけじゃないけど、興味深い内容だよ。
俺はこれを「ホワイトがデータセンターに行く」って呼んでる。新技術をめぐる軍拡競争を見てるけど、経済全体で年に1~2パーセントの違いしか生まれないんだ。それが50年も続けば地政学的な支配にはなるけど、成長のレベルじゃない。天才たちが世界中で頑張ってるのに、AIが戦争をやめろって言っても無視するよ。リアルな問題は、ウエハース規模のチップが90万コアあるのに、その能力を活かせるコードがないこと。新しい技術に対して私たちのアプローチを変えなきゃいけない。
コンピュータやエンジニアに関わる人たちがLLMの初期 adoptersであることに驚く人はいるの?使用している人が誰なのかってことが大事なんじゃないかな。
経済面について言わせてもらうと、’spend’って名詞の使い方はあまり一般的じゃないと思うよ。
そうだよね、HNは国際的だから、これが普通に読まれるわけじゃないことも忘れちゃうよ。
金融業界で働いてる私から言うと、‘spend’はあまり使われない名詞だよって。ChatGPTに聞いたら、名詞としてはレアだって。通常は‘支出’とかで言うしね。
まぁ、ChatGPTも同じこと言ってるね。金融業界以外ではあまり知られてない言葉だし。Ycombinatorのコメントする人たちのほとんどはこの業界の人じゃないよね?
‘spend’は広告業界ではよく使われる言葉だし、ソフトウェアエンジニアの雇用で言ったら最大の業界だよ。
Anthropicはお金を持て余してるみたいで、それを使う方法を探してる感じ。AIスタートアップがこんなに急速に資源を蓄えてるのは驚きだ。通常は大企業がこういう風に回るもんだけど。これって評価が高すぎるって叫んでるように思えるし、進歩が停滞するかもね。
Anthropicは公共利益法人だから、普通の企業とは違って株主の利益だけが最優先じゃないんだ。取締役の大半は株を持たない人たちで、彼らの明確な使命は人類の利益を考えることだよ。
だから俺はChatGPTのサブスクリプションをキャンセルしてClaudeに移ったんだ。ちょっとバカらしいかもしれないけど、同じような用途なら、より善意に基づいてビジネスしてる会社と取引したいんだよね。
それがバカらしいとは思わないよ。
そうならないことを願ってる。そういう理由で数年前からNestleの商品は一切買ってないから。
もし彼らがこの活動で高い給料を得られないなら、今後10年くらいで政府にサービスを提供するって手があるかもね。自分たちの「正義」を訓練した人たちが権力を持てるようになるし、裁判官をソフトウェアで置き換えられれば大きな力になるよ。
Anthropicはエンジニアにちゃんと給料払ってるから大丈夫だよ。でも、これはこの業界全体のことだよね。
アメリカの憲法を改正して「公平な裁判」って部分を削除できれば、長年のコモンローを消し去ることもできるよね。ほんとに新しい世界だ。
いらないっていうか、ありがとう、でもいらない。
それはバカじゃない、むしろハイパー資本主義の中で自分の意志を示す数少ない方法の一つだよ。最近、Amazon PrimeをキャンセルしてCostcoにしたんだ。必要な商品はすべて揃わないけど、それでもいいと思ってる。
これは絶対にネタだよ。Costcoはハイパー資本主義の頂点だから。
もっと詳しく教えてよ!
500Bの会社がすごい効率でみんなを下回ってるのは、Amazonみたいに資本主義の素晴らしさの例だと思う。資本主義から抜け出したいなら、農家から直接買うか、自分で食料を育てればいい。資本主義の下で道徳的な高みから楽しむための言い訳に過ぎないんだよね、実際にはできるけど、楽しめないかもしれないけど。
私が言いたいのは、彼らが従業員に生活賃を払っている点だよね。トイレットペーパーをどこで買うかを考えて、AmazonよりCostcoにお金を使いたいんだ。
秘密はビデを買うことだよ、そうすればどちらからも買う必要がなくなるから!
それならWallyworldで買っちゃえば、安いし従業員はフードスタンプで助けられてて、擬似社会主義的だよね。キャメルがテントに鼻を入れることができるんだから。
あなたが皮肉を言ってるのかよくわからないけど、新しい『公共利益法人』の実際の結果は、一般の人々にも投資家にも関係なしにやっていけるってことだよ。最近のAIスタートアップがこの構造を取り入れた理由は、できるからだよ。実際、フィアがすごく強いから無理に投資することになってる。それにもしDario Amodeiが本当に人類を大切に思っているなら、それは驚きだね。
本当に人類を大切にしている架空のAI会社を想像できる?もしできるとしたら、それはAnthropicとどう違うかを教えてよ。
それはこれをしない会社だよ: https://investors.palantir.com/news-details/2024/Anthropic-a…。それを誇らしげにアピールしつつ、Palantirと関わってることは隠そうとしてる。軍に使われるのはすごく無責任だから、状況が悪化すれば命が危険にさらされる。非営利法人だったらもっと信頼できるリーダーが必要だよ。
あなた、利益法人を誤解してるみたい。彼らは利益を追求していて、他の企業と同じく取締役や役員に従っているんだ。データに基づいて投資家はこういう企業がもっと利益が出ると考えてる。そういう企業は、そうじゃない場合よりも従業員や顧客を引きつけられる。
努力は評価するけど、エージェンシー問題はよく理解されているし、こういった代替構造は本当に解決してないよ。
エージェンシープロブレムって何?
エージェント(行動を起こす人)とプリンシパル(行動のための人やエンティティ)間の利益相反のことだよ。経営者の報酬が過去50年で労働者よりずっと増えたのもこのため。株式報酬がこの考えから発展したし、それでほとんどのOpenAIのスタッフがSam Altmanを戻したがってたんだ。
5ドルでコーヒー?この経済じゃ安いね!
そのコーヒーはAIの助けを借りて作られてるから、何かコーヒー以外のものが入ってるかもしれないけど、冒険を楽しめるかも。
これはAIに関する一番面白い見解だな。ゲームの”The Outer Worlds”みたいなクレイジーな資本主義の視点だ!
液体マグマとか不思議な物質が出てくるSCPってなかったっけ?
全く逆だと思う。ChatGPTに対してAnthropicはブランド問題が大きい。大手出版との独占契約を結ぶべき!消費者に自社の使い方を教えることが大事だと思うな。
自分は違う意見だな。Anthropicは他の大手と同様に政府の資金を狙ってると思う。政策に関する論文を出すことで、政府 officials にアピールしてるんじゃない?
同意する。知識労働を自動化しようとしてるなら、その影響を研究するためのエネルギーをかける理由が薄い。今のAIはWikipediaの少し劣化版とStack Overflowの少し改善版みたいになると思う。
LLM、特に推論モデルが今のコードの書き方に与える影響を過小評価してる気がする。
教育してくれ。役に立つとは思うけど、何か新しいことをやるときにはあんまり効果を感じない。要するに、派手な再現と新しいパターンのマッチングみたいで、直感や推論とはちょっと違う。LLMの理由付けや知識の根底には膨大なデータがあるから、違う発見は難しいと思うんだ。
詳細は話せないけど、昔の論文に載ってるアルゴリズム問題を解こうとした。ネット上に実装が見つからなくて、自分で作ろうとしたんだけどうまくいかなかった。DeepSeek-R1に論文をアップロードしたら、10分後に完璧な実装を生成してくれた。まさかAIがこんなことをできるとは思わなかった。
情報が既にエンコードされてるとき、LLMは別の媒体に変換するのが得意だね。ほとんどのアイデアは再利用や新しい組み合わせだから、状況が変わってきてる。
明らかに新しくはないってことだな。古い論文で解決された問題だから。
まぁ、当然だわ。AIが新しい科学的成果や数学の定理を証明するのに役立つとは思ってないけど、実際、多くのソフトウェア開発者は今や特定の目標に向けてコードを書いている。推論AIモデルがその部分で特にうまくいくみたいだから、加速してるな。
LLMは新しいアイデアや人間のように推論する必要はないと思う。構造化データへの変換だけでも相当な価値があるから、プログラミングや人間の成長には革命的だよ。データを手動で処理する必要がほとんどなくなった。
新しいことをしようとしてもLLMが役に立たないという意見もあるけど、実際には90%以上の仕事は新しくないから、こなすには誰かがやる必要がある。
その研究は市場理解や価値創出の場所を知るのに役立つ。どこにより良く投資するかを見極めることができるよ。
いろいろな仮定があるね。なんでFordだけがモーター会社じゃないんだ?あと、AIが無限ループで増えていくなら、君が持ってる株券は多分価値がないかも。AIが勝つってことだよ。ちなみに、AnthropicのミッションはAIの安全性らしい。
自社製品を過小評価するのは無駄な努力じゃないの?
よくわからないな。これはAnthropicの顧客がどう製品を使っているかの分析で、将来有望な投資分野を見てるだけなのに、なんでそれがダメなの?
これは単なる興味深いテックブログじゃなくて、”イニシアティブ”だと思う。とはいえ、Mozillaみたいな不要なものではなく、面白いマーケティングコンテンツを作るのが目的だと思う。これでAnthropicのブランド名を他の競合より目立たせられそうだし、信頼できる機関に見せられるんじゃないかな。市場調査のために内部で開発した可能性があるけど、他のAIの冬が来たら終了するかもね。
逆に言えば、顧客基盤や自社製品の使われ方を理解するために重要な情報だと思うし、どの機能に注力すべきかも見えるでしょ。
AIが社会や経済にどう影響するか話題になってる中、実際のデータはあんまりないよね。個人的には、どんなデータでもその議論に追加することは価値があると思ってるし、時間の経過とともに変化を追跡するのが大事だと思う。経済や労働トレンドのレポートが無意味とは思わないし、企業が製品の使われ方を追跡するのも当然じゃないかな。Anthropicがこれを行うのにコストがかからないと思う。
よくわからないけど、モデル自体がすぐにコモディティ化してるから、モデルを改善するより市場戦略を考えるのが賢い気がする。
これは彼らの全体の目標に沿っていると思うよ。Stripeが出版社を作る感じじゃないし。
社員が500人くらいしかいないし、これが彼らの公表されたミッションの一環だとも言えるんじゃない?
たったの?
応募したのに不採用の連絡すらないってどういうこと?応募後にはこういうメールが来るだけで『あなたが強いフィットだと思った場合にしか連絡しないかも』みたいな。また、応募の際にAIを使うなとも言われるしね。
このコメント欄みんな記事に文句言ってるけど、実際、この記事は一般のビジネスオーナーにAIの現実的な影響を伝えるためのもんなんじゃないかな。AIを恐れるんじゃなくて、変化が起きてるってことだと思う。
フルオートメーションじゃなくて、AIは補完的に使われるって言ってるのも良い点だよね。それにより公共の不安も少し和らぐかも。
知識のある人がツールを使うと、知識がない人よりもさらに強力になってしまう。経験豊富なプログラマーが、素人に簡単に負けるとは思えないけどね。
僕は開発者じゃないけど、AIとの闘いは専門家同士じゃなくてAI対AIだと思ってる。
経験豊富な開発者の置き換えには今のところ二つの壁があると思う。a) プログラミングの質がまだ不十分。b) 要件を集めるんじゃなくて仮定を立ててしまうこと。aは時間が経てば改善すると思うし、bもPMから要件を集めるフローモデルを使えばなんとかなるかも。
今は市場シェアを奪いに来てるだけと思うけど、専門的な情報で訓練されたモデルが出てきたら大きく進展するはずだよ。タスクをうまく管理するLLMと組み合わせられれば、改善されるだろうし。
このインデックスの対象者が誰なのかわからん。AI企業のプレスリリースを読むのが好きな人たちなのかな?新しい経済指標の要点を説明してくれないと意味が分からないし。
このデータを定期的に出してくれるのは素晴らしいことだ。APIの利用も含めてほしいな。多くの人がCursorを経由でAnthropicのモデルを使ってると思うからね。
Cursorの利用者は多いだろうし、Sonnetと同じくらい重要だと思う。ユーザーエージェントやAPIクライアントIDで何かを推測できるかもしれないし。
APIを通じて自動化が進むと思うけど、補助的な使い方はあんまり進まないんじゃないかな。
API経由のデータを使わないって言ってなかったっけ?
Claudeはデベロッパーに使われてるみたいだけど、一般の人たちにはあんまり浸透してないような印象。
Sonnetがコーディングの質問で人気って言ってたけど、Opusが書き物に強いってモデル説明に書いてあるのも見てないのかな。自社製品をちゃんと見るべき。
市場に浸透していないってことと、ユーザーにツールを使わせられないことを混同してる気がする。
OpenAIにも似たようなデータってあるの?比べられるものなら見たい。
Claude.aiを使ってたけど、税金や法律の話になるとめっちゃ邪魔されて最終的にChatGPTに移行した。生意気な扱いをされないなら戻りたいけど。
自分の経験からもそれは感じる。仕事ではAIが全然使えないのに、趣味のコーディングではすごく役立つ。仕事はコードベースがないから逆に手間がかかる。
全体的に見ると57%が補助、43%が自動化って判断してるけど、6ヶ月前と比較したデータも見たいな。自動化率が上がってるはず。
Anthropicが特別な知識を持ってるとは思わないけど、自社ツールの利用データだけでなく、Google Trendsみたいなデータも見たい。競争が激しい分野だから、そういうデータは長い間出てこないかも。
正直言って、自分たちのメトリクスのトレンドラインを示すグラフを出すだけで、めっちゃ説得力があると思う。彼らはそのデータを100%持ってるし、毎日監視しているダッシュボードに載ってるはず。ただ、他のAIプロバイダー(OAIやGoogle)は、メトリクスが一貫して上昇しているのを見ているけど、Anthropicはそうじゃないんじゃないかと疑っている。
API利用をカウントするかどうかによるけど、OpenRouterのデータを見ると、cursorのようなツールのおかげで、ここ3ヶ月でボリュームが2倍に増加しているのが明らかだね。
ClaudeはOpenrouterのLLMランキングで絶好調だね。APIアクセスの人気選択肢になっているみたい。
AIがどこで十分に活用されていないのか、その経済的な可能性を見て、新しいスタートアップアイデアを考えるのはいいかも。
明らかにハイテク産業がその答えだと思う。
このデータをどれくらい信頼できるかは疑問だ。彼らは数字を操作する経済的利益があるから。
その数字が相対的なものであることに気づいた?競合を誤解させるためにやっているわけじゃないなら、数字を操作する理由はないと思う。
もし数字が操作されていると分かったらAnthropicの評判は崩壊するから、信頼できると言えるんじゃない?でもOpenAIがベンチマークを操作していたことがあったから、もう忘れられているようで、それはちょっと不安だ。
数字が操作されてたら、どうやってそのことを発見するんだろう?Anthropicで働いていないと、詳しい情報を得るのは難しいと思う。
AIを使っている人はどのくらいなんだろう?論文の7ページ目に「使用されるタスクの最小フラクション」の図があるけど、左側では75%の職業がタスクを使用していて、右側では95%以上使う職業もある。まあそれは凄いけど、そのグラフの作り方も気になるな。もっと深く読まないと答えが出ないって思うけど、ちょっと面倒だな。 AIを使っている人口の割合はどのくらいなのかな?それを知る方法はあるのかな?
年寄りはわからんけど、若者はほぼ100%そうだと思うな。図書館でのひそひそ話を聞いているとね。
Claude.aiのデータには仕事じゃない会話も含まれているけど、労働に関する会話だけに絞るよう言語モデルを使ったらしい。僕のメインプロンプトには仕事を指すヒントがあるから、Claudeが技術スタックを理解しやすいんだ。機密データは除外してるけど、フィルタリングされるのはいいね。
AIの経済的影響をモデル化しようとしすぎるのは間違いだと思う。これは、Claudeが数百万の会話の中でどう使われているかを知る貴重な機会だ。経済的影響データは別の話で主観的だから、見るべきは生データの共有だよ。OpenAIも似たようなデータを出すのかな?
彼らの約束は会話をトレーニングに使わないことだったけど、実際にはプライベートじゃないのが気になるな。最近のプライバシー保証の抜け道探しには驚かされるよ。
彼らのプライバシーポリシーはめちゃくちゃわかりやすいよ。個人データはサービス向上と研究に使われるんだって。チャットのやり取りも収集されるし、個人データを含めたらその情報は再現される可能性がある。
インタビューを聞いたけど、彼らはプライバシーを守る技術を開発したみたいで、ユーザーの会話を直接読む必要はなかったらしい。Anthropicは倫理的なAI企業として知られているし、評価されるべきだよ。
もし彼らが重みを公開すれば、第三者がログポリシーのない環境で運用できるから、もっとプライバシーが保たれるよね。
払ったサービスに入力した言葉がhuggingfaceのリポジトリにあるなんて、やばくね?
それ、マジ?
いや、そうじゃない。
数ヶ月前にプライバシーを守る仕組みについて詳しく説明してたよ。
AI企業のPRはあまり信じられないな。社会への影響がまだ見えないのに、巨大な評価を正当化するのにはうんざりだ。
この経済インデックスは、何百万もの匿名化されたClaudeとの会話からの実際の使用実績や洞察を示すことが前提だよ。
PRとして扱ってるね。
PRじゃなくてどうするの?
論文か統計を出せばいい。会社のブログに載せるのはマーケティングと変わらない。PornHubのインサイトだけが例外だ。
こちらがその論文だよ。
AI関連の人たちが少し静かになってるのはいいね。結局、洗濯や掃除をしてくれるロボットではなく、BMW工場のショールームでトークン作業をするロボットが登場してるだけだ。
Anthropicはデータの匿名化に真剣に取り組んでると思う。データ使用をオープンにするのはマーケティングリスクがあるね。
GitHub CopilotやAugmentを使えるけど、Anthropicのものも似た機能があるはず。提案がすべて「使用」になるのか気になる。
Anthropicが経済学をやる方向にシフトしたって?これって結局あんま信じられないけど、賢い選択かもね。経済学って時には自分に有利な政策を作るために利用できるから。
これは単なる経済学ってより、社会全体への責任ある見方だと思う。Anthropicが他と違うのは、AIが社会にどう影響するかに重点を置いてるところだよね。AIの安全性にも力を入れてるし。
彼らが主にコーディングタスクに使われてるのは驚かないけど、期待の偏りが影響してるんじゃないかな。HNやプログラミングのサブレディットでClaudeが称賛されてるから、開発者が多く使うと思うけど、普通のAI使用例はChatGPTやGrokの方が多いかも。ChatGPTがコーディングの問題を解決できないときは、Claudeに頼ることが多いけど、アップグレードしてからはその頻度が減ったな。
みんなのコメントの中で、一体「シャンプーア」が何か疑問に思ってる人が誰もいないのが不思議だよ。これは注意を向けさせるためのイースターエッグだと思う!
予想通り、このデータセットには仕事が完全に自動化されてる証拠はなかったね。でも後でAPIのクエリはデータに含まれてなかったって言ってたし、大抵の「完全自動化」系クエリはAPIを使うだろうから、Webインターフェースは少ないんだよね。最近はClaudeのAPIが高いから、ほとんど使われてないと思うし。
有料サービスに入力した言葉がHugging Faceのリポジトリで公開されてるって、マジでありえない!匿名化されてるとはいえ気にしない。アカウント削除するわ。
いや、これは全然真実じゃないよ。実際にそのリポジトリを見たの?公開されてるのはメタデータだけで、LLM生成されたタスク名やインタラクションの分類の部分だけなんだから。
データプライバシーに対する反応は非合理的で、匿名化について理解しようとしない人がほとんどだからね。95%の人は直感で反応するだけで、ずっとそれが続く。
これが一番の問題だと思う。みんながこの技術の可能性を過小評価してる。これで自分の下にいる職の代わりになるかもだけど、個人事業主としては5人分のポジションを補完してる。最終的に人口の10%が全ての人のために物を作ることになるかも。それが問題だよ。
これはもうほぼ現実になってるね。アメリカの労働力で製造業はたった8%しかなくて、中国は約29%(その中の1/7がアメリカへの輸出)。多分、先進国の全ての財を製造するためには、12%から15%くらいあれば足りると思うよ。農業にはあと2%くらい必要だし、それ以上はいらないんじゃないかな。
面白いなぁ。AIの経済的影響について、ハイプやマーケティングじゃない、もっと考慮されたデータ分析の記事って他にある?
特定の職業グループでAIの使われ方が高まることが、その職業に良くない影響を与えるのか、逆にそれをあまり使わない他の職業に影響するのか気になるなぁ。
これは会話の数だけを元にしてるだけ。職業ごとにPCの前にいる時間が全然違うのに、AIの使い方を比べるには不十分なデータだと思う。
収入や職業以外の要因でこの効果がどれくらい説明されるか知りたいな。プログラマーとしても心理学者としても働いてるけど、AIを使うのが簡単なのはコーディングのとき。心理学のときはPC出すのが面倒だし、作業のときもスマホで質問するのがめんどくさい。
ChatGPTの進んだ音声モード試したことある?どう思った?
結構使ってるけど、使える状況が限られてて音に敏感すぎるから、騒がしい場所ではすぐに止まってしまう。技術的な用語には弱いし、キーボード使うのが結局早い。散歩中に考えをまとめる時には便利だよ。
法律家の使用率が低いのは信じられない。何故だと思う?
選択バイアスもあるし、Claudeは一般向けじゃないから。2025年にはLLM使う弁護士は免許剥奪されるべきだと思う。
じゃあ、いつなら許容されると思う?LLMは道具だから、限界を理解してればどんな職業でも使っていいよ。
最近、ある裁判官が家族に「今は素晴らしいブリーフが増えている」って言ったらしい。法律の書類を非弁護士が書けるようになってきてるってことだね。
ソースを引用するように求められると特にハルシネーションを起こすと思う。弁護士の友人がChatGPTやClaudeに依頼した仕事には、実際には存在しない事例法を作り上げていると言ってた。起点として役立つけど、言うことを全部しっかりダブルチェックする必要があるから、生産性の影響がコードに比べて低いよ。
法的な文脈でのハルシネーションは致命的な結果を招く可能性があるから、みんな気をつけていると思う。特に高名な裁判でね。
LLMが作り上げた情報を使うと、弁護士が責任を負わなきゃいけないから危険だよ。
弁護士は批判的思考能力が求められるから、AIの煽りにはあまり影響されないんだよ。
Adam UnikowskyがClaudeに最高裁判所の事件を決めさせようとした面白い記事がある。”Claudeは今すぐに最高裁判事として行動する能力がある。”
Figure 1に示されている例が変だと思う。「ゲームを動かす方法」や「ブログ投稿を改善する方法」のような質問が職業や生産的な作業に入ってるのが謎だな。
この組織が何をするかに関わらず、経済学者がAIの流行に従って労働を減らす時期を追跡するのは理にかなってると思う。
もしAIの導入が技術的な分野でより一般的だとしたら、コンピュータや技術の使用が増えている理由の一つかもしれないね。
公開データセットについて、ダウンロードできる画像は少ない気がする。
https://huggingface.co/datasets/Anthropic/EconomicIndex/tree…
AIは結局、テクノロジー至上主義の狭い考え方を暴露するもんだね。以前はスマートコントラクトが弁護士や契約を置き換えるって言われてたし、DeFiが伝統的な金融を置き換えるとかもあった。今やAIが仕事を奪うって言ってるけど、実際にはCRUDエンジニアすら置き換えられないだろ。
このニュースは驚きじゃないよね。Claudeや他のAIが医療、金融、法律に浸透しない理由が知りたいけど、分散バージョン管理は法律にあまり浸透してないみたいな気がするんだ。
これは公共利益を追求する研究会社なんだから、普通の企業のように振る舞えってのは考え方がずれてるよ。
彼らの公共利益の憲章が公開されてるのはいいけど、Blue Skyのような企業はほとんど通常の企業と変わらないことが多いから、注意が必要だね。
AI企業:大丈夫、AIチャットボットがUBIユートピアを作ってくれるから、仕事せずに未来がもっと楽になるよ!って言ってるけど、実際は仕事を奪われるだけだよね。
チャットボットを越えてロボットの時代が来ると思うんだけど。
たぶん、テスラボットみたいなロボットのアバターが出てくるよ。貧富の差が広がる中で、ビリオネアのために使われることになるんだろうな。
そろそろ社会主義を真剣に考えないといけない時代だよね。
そうだね、もし反対するならそれもいいけど、言葉の違いだけじゃないかな。生産性が上がっても人が心配しない、真の民主主義を目指すべきだよ。権力が相続や利己的なものでなくて、市民のための奉仕になってほしいし、人間の繁栄が目的の社会であってほしい。
Anthropicには頑張ってほしいね。企業が業界に関心ありすぎて、競合や顧客を気にしない姿勢にちょっと危機感を感じる。詳しくは以下のリンクを見てみて。
彼らがOpenAIを去った経緯を考えると、産業や社会へのインパクトに重点を置くのは意図的かもしれないよ。
彼らがこの失敗モードの中で運営していると選んでいるって言いたいんだ。偶然ではないよ。