ローカルLLM

AIニュース

Dense vs MoE 3.6-27B、コーディングで急接近

Redditで話題の3.6世代 27B Dense vs 35B-A3B MoE比較を整理。10ベンチ中7つでMoEが追い上げ、SWE-benchは+9.0→+4.1。一方Terminal-Bench 2.0は例外で、量子化感度の違いにも注意が必要。
AIニュース

AMD Halo Box実機公開!Ryzen 395+128GBでローカルLLM

AMD Halo Box(Ryzen 395 / 128GB)の実機写真が公開。70Bクラスのローカル推論を量子化レスで回せる衝撃のワンボックス機を、ComfyUI・自動化視点で深掘り解説。
AIニュース

Gemma-4-E2Bの安全フィルター、緊急時に拒否連発

GoogleのローカルLLM「Gemma-4-E2B-it」を災害時のオフライン情報源として試したRedditユーザーが、応急手当や浄水など生存情報まで拒否されると報告。コメントでは賛否が割れている。
AIニュース

Claude Code、Claude Proから削除との報告

Claude ProからClaude Codeが外されたとする投稿がRedditで拡散。Kimi K2.6・OpenCode Go・ローカルLLMという代替路線が注目される一方、公式情報は元記事内では未確認。事実関係と未確定事項を整理する。
AIニュース

LocalLLaMAで噴出する『過大評価』批判

r/LocalLLaMAの風刺投稿が3284 upvoteを集める一方、コメント欄では『27BがOpus級』とする主張への懐疑が噴出。過大評価が初心者の失望を招くというコミュニティ自身の自省を整理する。