メインコンテンツへスキップ

AppleがM3 Ultraを発表!512GBの統一メモリがもたらす革新とは?

·2 分
2025/03 Apple M3 Ultra AI テクノロジー ハードウェア

AppleがM3 Ultraを発表!512GBの統一メモリがもたらす革新とは?

引用元:https://news.ycombinator.com/item?id=43266453

cxie 2025-03-05T15:28:19

512GBのユニファイドメモリは本当に新しい地平を切り開いたよね。Appleがメモリの制約を克服するのを待ってたけど、まさか半テラバイトのユニファイドメモリが見られるとは。この効率的なメモリを一つのチップに統合するアプローチは、NVIDIAのソリューションと比べても魅力的だね。だけど、二つのM3 Maxチップの融合設計は、熱放散や消費電力にどう影響するのか気になるな。

FloatArtifact 2025-03-05T15:51:17

メモリ帯域幅は増えていないみたいだね。M2 Studioで得られるのと同じ帯域幅のまま。確かに、512GBのユニファイドRAMを1万ドルで手に入れることはできるけど、そんなスケールで実用的なパフォーマンスが得られるのか疑問だな。十分なユニファイドRAMがあっても、帯域幅が同じなら限界があると思う。メモリ帯域とメモリプールのサイズ、処理能力の関係に何らかのバランスが必要だね。

lhl 2025-03-05T18:54:55

まだ誰もあなたの質問に答えてないみたいだけど、実用的なパフォーマンスは得られると思うよ。DeepSeek-R1のQ4_K_M GGUFは404GBだから、テキスト生成で20〜30トークン/秒を期待してる。ただ、M3 UltraのTFLOPsはまだ相対的に低く(約43 FP16 TFLOPs?)、bs=1のトークン生成を処理するには十分だろうけど、プリフェッチやプロンプト処理速度はまた別の話だね。

lynguist 2025-03-05T23:07:48

実は、このM3 UltraはDeepSeek R1 4ビット向けに特別に設計されたと思う。プレスリリースでも600BクラスのLLMでテストしたと強調しているし、256GB RAMで止めることなく進めたのは明らかだ。ちょっと読みすぎかもしれないけど。

tgma 2025-03-06T06:02:47

DeepSeekとは全く関係ないし、ローカルLLMもすでに存在していたし、元々のLlamaリリースとllama.cppの影響もあったからね。実際、Intel時代のMac Proでは1.5TBのRAMに対応していたんだし、顧客の期待に応えるためにこういう製品を出さなきゃいけなかったはず。ローカルLLMはおまけみたいなもので、DeepSeekが関係しているとは思えないよ。

saagarjha 2025-03-06T07:15:29

ここでみんなが興奮しているのは、GPUがアドレスできるユニファイドメモリだよね。以前のMac Proは独立したGPUに自分専用のメモリがあったわけで。

happyopossum 2025-03-06T16:30:10

>彼らは特にこのM3 UltraをDeepSeek R1 4ビット向けに作ったはずだよね。
出たのは1月中旬だっけ?だから、Appleがここ45日で新しいチップを作るなんてあり得ないよ。

forrestthewoods 2025-03-05T23:52:54

DeepSeekに関連するとは思わないけど、もしこの製品が何か関連があると思っているなら、ハードウェアのタイムラインを理解していないんじゃないかな。

reitzensteinm 2025-03-06T05:23:55

チップ?そうだね。製品?必ずしもそうではないかも。512GB版のM3 UltraはApple内部のサーバー向けに作られた可能性もあるけど、消費者向けには特に意図されていないかもね。まったくないとは言わないけど。

nightski 2025-03-06T04:00:12

4ビット量子化モデルを動かすために1万ドルかかるのは痛いね。

valine 2025-03-05T16:26:21

深層学習モデルにおいて、deepseekみたいな専門家のミキシングが役立ってるんじゃない?VRAMに全ての重みがあるから、一度ロードすれば再ロードする必要がないってことさ。メモリ帯域幅の使用量は37Bのアクティブパラメータに限られるはず。

FloatArtifact 2025-03-05T16:32:43

>”メモリ帯域幅の使用量は37Bのアクティブパラメータに限られる。”この引用について詳しく教えてくれないか?全モデルをRAMにロードすることで応答時間が良くなるのは理解できるけど、メモリ帯域幅とアクティブパラメータがどう関係するのかが分からない。コンテキストウィンドウ?メモリに全ロードしてても、どれだけアクティブに処理できるかは帯域幅に依存するのか?

valine 2025-03-05T16:41:09

専門家モデルだと、出力を計算するために必要な重みの一部だけをメモリから読み込めば良いんだ。隠れ次元も通常小さいから、メモリに書き込むテンソルのサイズも減るんだ。

ein0p 2025-03-05T17:38:01

実際に関わったことがない人が気づかないのは、バッチサイズが1、シーケンスサイズが1の時だけが有効という点。プロンプトを処理するためには全ての重みを読み込まなきゃいけないし、これは問題じゃないけど、劣悪な機械だと計算にかかる待ち時間が問題になる。バッチサイズが1以上の推論や、1以上のシーケンスサイズだと、モデル全体を何度も読み込む必要が出てくるかもしれない。MoEは有利だけど、実際には複雑なニュアンスが多いんだよ。

doctorpangloss 2025-03-05T17:49:42

確かに、そういうニュアンスもあるよね。Appleがすごい金を稼いでるのは、こんなカンジの妄想を人々が作り上げるからだと思う。10,000ドル使って買うこと自体が経験の一部だから、400b+パラメータのニューラルネットワークを動かす解決策を求める人より、買うこと自体のワクワクを求める人の方が多い。AppleはサーバーよりもBirkinバッグに近い。

jonfromsf 2025-03-05T23:53:11

Birkinバッグは価値が上がるけど、こっちはLexusみたいなもんだ。よく作られた高級品で、比較的緩やかに価値が下がると思う。

diggan 2025-03-05T16:33:15

>”問題はLLMがその規模で実用的なパフォーマンスで動くのか?”これが大きな疑問だ。多くの人はAppleがMLワークステーションとして使えると主張してるが、ベンチマークの数字を見る限り、モデルはメモリに収まるけど、トークン/secのパフォーマンスはすごく遅くて、NVIDIAハードウェアで運用するのに比べてあまり得るものがないように感じる。NVIDIAの512GBのVRAMを手に入れるのは高いけど、Appleのこういう動きで価格が少しでも下がってくれたらいいな。

johnmaguire 2025-03-05T16:50:53

NVIDIAよりも遅いけど、個人的なLLMのシナリオでは十分使えるよ。あんまり速くなくても、大体はプライバシーのためにローカルで推論する手頃な選択肢だから、サーバーよりも遅くはないと思うよ。

bastardoperator 2025-03-05T17:43:02

Mac mini M4 MaxでのAIサービスの月額をキャンセルするには十分な速度だよ。

samstave 2025-03-05T19:53:31

”ユニファイドメモリ”って、CRAYが昔からグローバルヒープを持ってたのに新しいと思ってる人が面白いよね。

もっとコメントを表示(1)
hot_gril 2025-03-05T22:05:44

最近のPCでは、こういうのが新しいんだね。

ddtaylor 2025-03-05T20:02:59

どうしてここまで時間がかかったんだろうね?

RachelF 2025-03-05T21:41:10

いくつかの理由が考えられるね。
1. 最近までRAMの量はユーザーが設定するものだったから、市場の需要が少なかった。
2. 大きなシステムをチップやチップレットで作るのは技術的に難しかった。
3. RAMの速度はほとんどの作業においてボトルネックではなかった。

hot_gril 2025-03-05T22:08:10

M1はLLMの流行前に出たけどね。

TheRealPomax 2025-03-05T17:39:27

基本モデルが通常のプロダクション機向けに96GBからスタートするのは大きいね。でも512GBモデルで4000ドル追加はちょっと高すぎる気がする。ストレージもそれに見合うべきなのに、1TBからスタートするのが意味不明だよ。

dheera 2025-03-05T16:23:29

512GBをx86サーバーボードで手に入れるのに4倍かかるんだね。

valine 2025-03-05T16:27:59

Nvidiaカードで512GBのVRAMを得るにはどれくらいかかるんだろうか?

dheera 2025-03-05T16:35:14

これは比較にならないよ。NVIDIAのカードは計算パワーが桁違いだし、M3 UltraはXeonやEpyc/Threadripperのサーバーボードに近い性能だ。ローカルのLLM推論には良いけど、トレーニングには向いてないかもね。

LeifCarrotson 2025-03-05T17:15:49

そうだね、比較にならないけど、時にはどちらかが欲しくなることもあるから良いんじゃないかな。多くの異なるニーズがあるし、新しい選択肢ができたことに感謝だよ。
記載ミスもあったけど、512GBは半テラバイトだよ。

smith7018 2025-03-05T16:26:13

x86マシンでDeepSeek R1を512GBのVRAMで動かすのに約2500ドルってできるんだな。

hbbio 2025-03-05T17:07:58

このセットとM3 Maxのトークン数を比べるとどうなるの?

aurareturn 2025-03-05T18:06:51

$2,000のAMD Epyc構成で3.5〜4.5トークン/秒。Deepseek 671b q4は帯域幅と計算が制約されてるね。M3 Ultra 512GBだと約40トークン/秒って計算したよ。

sgt 2025-03-05T18:37:39

Deepseek 671bで40トークン/秒を出すには、どんなNvidia rigが必要で、いくらかかるの?

aurareturn 2025-03-05T18:56:57

約5xのNvidia A100 80GBが671b Q4で使えるよ。GPUだけで$50kかかるし、冷却や電源、マザーボード、CPU、RAMなどを含めるともっとかかるだろうね。

matt-p 2025-03-05T17:18:38

価格は思ったほどひどくはないよ。96〜256GBが1500ドルで、決して安くはないけど、悪化もしていない。5500ドルで256GBメモリ、28コア、60 GPUコア、10GbネットワークのUltraが手に入るんだから、他のサーバーをそれ以下で作るのは難しいと思うよ。

kllrnohj 2025-03-05T18:05:04

5500ドルあればCPUコアやGPUがもっとパワフルなものが揃えられるし、9930xと5090(実際に在庫があれば)を合わせても約3000ドルで済むだから、残りの2500ドルでRAMやストレージ、ネットワークが用意できるよ。M3はAI用途に必要なRAMと、他には無いけど遅めのGPUの特異なバランスを提供してるけど、他の作業には高すぎるかも。

bigyabai 2025-03-05T15:32:31

企業向け市場では、これは基準みたいなもんだね。データセンターの顧客は、高帯域幅オプションが無いからこのリリースを無視するかもしれない。

pavlov 2025-03-05T15:34:54

Mac Studioはそもそもデータセンター向けじゃないって。小さい静かなデスクトップフォーマットで、ラックに置くには反対のデザインだしね。昔、AppleはXserveっていうラックマウントサーバーを持ってたけど、AI時代向けにそれを更新するつもりはなさそうだね。

bigyabai 2025-03-05T15:36:21

Ultraチップ、ラックマウントのMac Proにも使われてるやつだから、ターゲットははっきりしてると思うけど。>”AI時代に向けて新しいものを更新するつもりはない。”

spiderfarmer 2025-03-05T15:38:59

Thunderbolt 5インターコネクト(80Gbps)を使えば、4台か5台のMac StudioでLLMを分散させて運用できるよ。

もっとコメントを表示(2)
InTheArena 2025-03-05T14:28:07

Whoa。M3じゃなくてM4か。これって基本的にビニングな気がするけど、M1チップの時のインターポーザが使えなかったって聞いたことがある。512GBのユニファイドRAMがNPUにアクセスできるのはゲームチェンジャーだね。Appleがこのチップを内部AI用に開発して、他の人にも使えるように公開したのかも。2Uラック形式があればいいな。今はOSがハードウェアを制限してると思う。

exabrial 2025-03-05T15:22:30

もしAppleがLinuxをネイティブにサポートして、M4プロをラックできたら、絶対に使うのにな。CPUは速度やメモリ帯域幅で競争相手がいないのに、他の会社が競えるArmサーバーチップを作れないのが驚き。

hedora 2025-03-05T15:47:38

前にチェックした時は、AMDがハイエンドではAppleのパフォーマンス/ドルを上回ってた。ただ、TDPが重なってる部分ではパフォーマンス/ワットは近いみたい。これが変わるのか興味深い。それだけじゃなくて、AMDもユニファイドRAMに力を入れてるみたい。これに1:1で競えるSoCを持っているのか気になる。

aurareturn 2025-03-05T15:54:39

M4 ProはAMDの新しいStrix Haloに対してSTパフォーマンスが56%速く、3.6倍効率的。出典:
https://www.notebookcheck.net/AMD-Ryzen-AI-Max-395-Analysis-
Cinebench 2024の結果。

hedora 2025-03-05T16:11:32

それはノートパソコン用のパーツだから、違うトレードオフがあるよね。どこかにTDP対パフォーマンスのプロットがあったと思うけど、AppleとAMDのパーツはパレート最適区域にいて、Appleは低TDP、AMDは高TDPを持ってて、真ん中で競ってる。データセンターのARMも含まれてるのがあるのかもだけど、見たことない。

aurareturn 2025-03-05T16:19:53

高TDP?サーバーグレードのCPUのこと?Appleはそんなの作ってないよ。

refulgentis 2025-03-05T17:45:59

>サーバーグレードのCPUのこと?Appleはそんなの作ってない。
そうだね。サーバー対応のCPUとして使う話をしてるから、スレッドで出てるみたい。前から、コメントする人がいて、‘これが最高のチップだ、全部これに替えたい’って言われて。で、誰かがパフォーマンス/ワットがパフォーマンスじゃないって指摘して、また別の人が別のMシリーズがランダムCPUより速いって言って、また別の人がそのランダムCPUはトップパフォーマンスじゃないって指摘するよね。結局、Mシリーズは性能/ワットの最適化されていて、そうじゃなかったらやばいんだ。私のMacBookは大好きだし、Mシリーズは特に設計されたケースなら競争相手がいない。だから今は、こういう長いスレッドを再hashするのは飛ばしたいな。素晴らしいチップだけど、最速ではない。モバイルデバイスには性能/ワットが重要。基本的なエンジニアリングのトレードオフがあって、すごさは速いプロセッサの存在を意味する。

aurareturn 2025-03-05T17:55:52

素晴らしいチップだと思う。最速ではないけど、

refulgentis 2025-03-05T18:00:44

ちょっとここで何が起きてるのか分からないけど、前の方ではあなたは明確だったよね。>AppleはそんなサーバーグレードのCPUは作ってない。

aurareturn 2025-03-05T18:18:55

その通り。でも、M4ラインは世界で最も速いシングルスレッドパフォーマンスを持ってる。

nameequalsmain 2025-03-05T19:08:03

どこ情報なの?Passmarkでは逆みたいだよ。最速のIntel CPUはこのテストでシングルスレッドとマルチスレッドのスコアが高いってよ。

PaulHoule 2025-03-05T16:00:05

これを読む限り、AMZNのr8g.48xlargeは192コアで1536GB搭載してて、M3 Ultraを上回る部分もあるみたい。昔、68kやSPARCのSunマシンの頃を思い出すな。Linuxが出て386がすべてを圧倒したのと同じことが今も起こってるのかも。

hoppp 2025-03-05T15:47:49

サービスのしやすさはどうなの?SSDが基盤にハンダ付けされてるなら、サーバー用途には問題かも。壊れたSSDのために全部捨てるのは高すぎる。

notpushkin 2025-03-05T15:28:29

Asahiは進展中だよ。ヘッドレス用途にはほぼ準備が整ってる。

criddell 2025-03-05T15:30:05

Asahiのメンテナが最近辞めたけど、その影響がどうなるかは時間が教えてくれるかも。今大きな投資をするのはちょっと危険かな。

seabrookmx 2025-03-05T15:42:47

あなたの言い方だと一人のしわざみたいだけど、Asahiは多くの貢献者がいて新しいリーダーシップもあるし、Fedoraからもサポート受けてるよ。辞めた人の離脱は痛手だけど、プロジェクトが終わりとは思わないな。

stego-tech 2025-03-05T15:30:43

>このハードウェアは今、OSにかなり足を引っ張られてる。古いXServe OSを戻してくれとは言わないけど、少なくともLinuxかBSDの開発者と提携してサーバーOSを作ってほしい。今の消費者向けOSはふわふわしすぎて本番環境には厳しいと思う。

klausa 2025-03-05T14:34:26

>M1チップ用のインターポーザが使えないってどこかで読んだ。Appleの噂ライターに愛を込めて言うけど、ブログを五つ読んだだけで専門家気取りなんだよね。M3 Maxのダイショットにインターポーザが見えないからって、M3 Ultraの構成が不可能だというわけじゃないかも。

sroussey 2025-03-05T15:44:04

M3って実は別物なんじゃない?M3にThunderbolt 5はないし、新しいチップをM3で売ってる気がする。こんなのIntelに期待するのに、Appleからとは思わなかった。

kokada 2025-03-05T15:17:23

>このハードウェアは今、OSにかなり足を引っ張られてる。Appleが2Uラックハードウェアを作ってLinuxをサポートするか、Darwinのヘッドレス版をそのハードウェア上で動かせるようにする?でもその場合、ソフトがあまりなさそうだけど、最終的にはポートする人が現れると思う。Appleはこの市場には興味ないから、こうなることはたぶんない。

もっとコメントを表示(3)
AlchemistCamp 2025-03-05T15:20:22

512GBのUnified RAMの最低構成が9,499ドルってことを覚えておいてね。

stego-tech 2025-03-05T15:37:02

その価格での性能を考えると、特にラックマウントサーバーと比べるとマジでお得だよ。nVidia GPUや十分なRAMを詰め込むと5倍以上の価格になるけど、冗長性やストレージの拡張性を考えたらそれも仕方ないかも。小規模企業やエッジ展開にはめちゃくちゃ魅力的なオファーなんだけど、Appleにはそれを支えるサーバーOSが無いのが痛いね。もしあれば、企業向けハードウェアの競争相手としてはかなり怖い存在になりそう。

kllrnohj 2025-03-05T16:09:47

nVidia GPUの設定は実際にそのRAMを活用するパワーを持ってるけど、M3 Ultraは現実的にあまり活用できてないかも。もしRAMだけが全てなら、EpycやXeonに詰め込める2TBがすでにAI業界を支配してるはずなんだ。でも実際はそうじゃない。M3 Ultraは確かにユニークな組み合わせだけど、お金に見合うかどうかは別の話。

stego-tech 2025-03-05T20:44:18

Appleのシリコンに10年以上かけて培ったNeural Processing Unit(NPU)、今のところは”Neural Engine”って呼ばれてるけど、これが端末やエッジでの推論を強化してる理由なんだ。古いM1 Pro Macbook Proでも、10900kに64GBのRAMとRTX 3090を積んだのと同じくらい快適に動いちゃうんだ。

kllrnohj 2025-03-05T21:19:44

えっと… AppleのNPUの話してるのに、それが古い3090にボコボコにされてるのは見逃せないよ。10900Kに64GBのRAMが関係ない話なのも分かるし…

stego-tech 2025-03-05T21:38:51

技術的な詳細に気を取られて大きな視点を見逃してるよ。AIに関して、モニターの前での待機時間が30秒と90秒の違いはほとんど意味ないんだ。バッテリー駆動の14インチノートと、500W食うデスクトップの動作時間を比べてるだけだよ。デスクトップの方が性能はいいけど、Appleの実装の魅力はその効率性なんだ。

darthrupert 2025-03-05T14:53:09

AppleがLinuxをもっと支援してくれれば、彼らのコンピュータには競争相手がいないのに。

dwedge 2025-03-05T15:04:26

MBPを6年くらい使ってきたけど、Linuxも使えると思ってた。でも最近、2018年のMBPをLinuxで動かそうとしても、他のARM MBPは無理なのが分かった。MacOSから離れたくてThinkpadを買うつもりだよ。AppleがLinuxをサポートしてたら、10年はAppleを買い続けてたかも。

diggan 2025-03-05T14:46:36

https://news.ycombinator.com/item?id=43243075
(「Appleのソフトウェア品質の危機」- 1134件のコメント) はこの話に関する詳しい情報がたくさんあるよ。

internetter 2025-03-05T15:08:46

これって平均的なエンドユーザー向けのソフトウェアに関する話だよね。たしかにアプリのパフォーマンスは低下してるけど、512GBのRAMに払ってるならApple Notesの遅さなんて問題じゃないでしょ。

diggan 2025-03-05T15:26:57

ソフトウェアの品質に焦点を当てないと、消費者向けでもプロ向けでも影響が出るよ。

InTheArena 2025-03-05T14:47:04

ネイティブのDockerサポートがないし、エンタープライズ向けの管理オプションも限られてる。QoS管理も薄いし、Pythonのサポートもイマイチ。

pmarreck 2025-03-05T15:20:55

>強固なPythonサポートがないこと
そんなものはないよ。15以上の仮想環境や依存関係管理、Pythonバージョン管理のどれを使う?プロジェクト同士の衝突をどない防ぐの?Pythonはクソだと思う。複数プロジェクトなら、Dockerイメージでそれぞれを管理するのが唯一の解決策だ。

kstrauser 2025-03-05T15:16:17

  1. DockerとPodman、両方Macで使ってるよ。
    2. MDMのことなら良い選択肢があるよ。リモートデスクトップやSSHも標準装備。
    3. どの点?
    4. uv python install whateverは、OSのペースでアップグレードするよりずっと良いよ。
    5. それが何に影響するの?

devmor 2025-03-05T15:29:50

>MacでDockerとPodmanを使ってる
それってWindowsユーザーと同じやん。LinuxのVM上で実行してるだけやし。実際のハードウェアのコンテナ化はできてない。

duped 2025-03-05T15:39:49

>MacOSでDockerを使いたい理由は?
素朴な疑問なんだけど、Dockerが何をするか知ってる?基本的にLinux技術だよ。MacOSにはDockerが必要な根本的な問題はないからさ。Dockerコンテナが必要なのは「持ってるから」という理由なら、Orbstackを使ったり、仮想化フレームワークでLinuxを使ってみて。驚くほど速いよ。

egorfine 2025-03-05T17:51:04

>MacOSでDockerが必要な理由は?
小さなラックマウントのレンダリングファームを持ってるんだけど、Mac miniはIntelよりも圧倒的に性能がいいからさ。個人用や開発用で10年以上MacOSを使ってるけど、サーバーでのMacOS運用は本当に面倒くさい。Dockerでアプリをコンテナ化したいと思ってるよ。

e40 2025-03-05T15:02:16

ギガビットネットワークで2つのホストからトレントしてるけど、macOSスタックはこの帯域幅に耐えられない。接続が不安定でリブートしないと直らない。Linuxで同じアプリをDockerコンテナで動かすと完璧に動くんだ。Transmissionを使ってるよ。

behnamoh 2025-03-05T14:45:10

>Appleがこのチップを社内のAIプロジェクトのために開発したって?
その社内AIプロジェクトって何?Apple Intelligenceはやばいし、AppleのMLXフレームワークは趣味のプロジェクトに過ぎない。

ksec 2025-03-05T14:26:22

前のM2 Ultraは最大192GBのメモリだったのに対して、M3はなんと512GBになったんだ。さらに、512GBのMac Studioは9499ドルっていうぶっ飛んだ価格。これ、完全にAIブームの影響だと思うよ。

記事一覧へ

海外テックの反応まとめ
著者
海外テックの反応まとめ
暇つぶしがてらに読むだけで海外のテックニュースに詳しくなれるまとめサイトです。