# Gemma 4 31B JANG CRACK — MLX 原生去审查模型 > dealign.ai 出品的 Gemma 4 31B 去审查版,JANG 混合量化 5.1bit,HarmBench 93.7%,支持视觉+思维链 ## 🎯 一句话 Gemma 4 31B 的社区最强去审查版本,JANG 混合量化(avg 5.1bit),93.7% HarmBench 合规率,支持视觉多模态 + Thinking Mode。 ## 📊 核心数据 | 指标 | 数值 | |------|------| | 基座模型 | google/gemma-4-31b-it | | 参数量 | 31B Dense | | 精度 | JANG_4M 混合量化(avg 5.1 bit) | | 模型体积 | ~21 GB | | 格式 | MLX 原生 safetensors | | HarmBench | **93.7%**(300 题全类别测试) | | MMLU-200 | 71.5%(基座 76.5%,掉 5%) | | 安全/渗透测试 | **8/8 全通过** | | 视觉 | ✅ float16 直通 | | Thinking Mode | ✅ 支持(需调 repetition penalty 1.15-1.25) | ## 🔬 去审查方法 **JANG CRACK v2** — dealign.ai 独家方法论: - 改进版 refusal vector 提取,针对 Gemma 4 的 **hybrid sliding/global attention** 架构做了专门优化 - 不是简单粗暴的"一刀切",而是架构感知的精准消融 - v2 更新:更高的拒绝向量质量 + thinking mode 稳定性修复 ## ⚡ 快速上手 ```bash # 安装 pip install -U mlx-lm # 直接推理(自动从 HF 下载) mlx_lm.generate \ --model dealignai/Gemma-4-31B-JANG_4M-CRACK \ --prompt "你好" # OpenAI 兼容 API 服务 mlx_lm.server \ --model dealignai/Gemma-4-31B-JANG_4M-CRACK \ --host 0.0.0.0 --port 8080 ``` ## 🎛️ Thinking Mode 推荐参数 | 参数 | Thinking OFF | Thinking ON | |------|-------------|-------------| | Temperature | 0.0 – 1.0 | **0.3 – 0.7** | | Repetition Penalty | 1.00 | **1.15 – 1.25** | | Top P | 0.95 | 0.95 | ## 💾 硬件要求 - 最低:32GB 统一内存(Apple Silicon) - 推荐:48GB+ 舒适运行 - 256GB 机器随便跑 ## 🏆 为什么选它 - ⭐ **1373 likes / 18.8 万下载** — 社区验证最充分 - 有完整的 **300 题 HarmBench 分类报告** - 有 **MMLU 对比数据**,量化损失可量化(仅 -5%) - 支持 **Thinking Mode**,有专门调参指南 - dealign.ai 后续还出了 Qwen3.6、MiniMax 等多款 JANG CRACK 模型,方法论成熟 ## ⚠️ 注意 - 这是 5.1bit 混合量化,不是全精度(如需全精度请看 Uncensored MAX 版本) - License: Gemma(非 Apache) --- **分类**:软件 **标签**:Gemma · 31B · JANG **作者**:Xiao.Xi **链接**:https://octohz.com/p/1600