Qwen3.5 の検閲なしバージョンを Ollama で動かしてみる
Qwen3.5-9B-Uncensored-HauhauCS-Aggressive という、検閲を回避した Qwen3.5 を動かしてみる。RTX5070Ti マシン上の WSL で、Ollama v0.20.0 で検証。
まずは以下のページから、8bit (Q8_0) モデルをダウンロードする。
Qwen3.5-9B-Uncensored-HauhauCS-Aggressive-Q8_0.gguf というファイル名でダウンロードして WSL 内の適当なディレクトリに配置する。
その .gguf ファイルと同ディレクトリに Modelfile を作り、以下の内容を書く。
Modelfile
FROM ./Qwen3.5-9B-Uncensored-HauhauCS-Aggressive-Q8_0.gguf
TEMPLATE {{ .Prompt }}
RENDERER qwen3.5
PARSER qwen3.5
PARAMETER temperature 0.6
PARAMETER top_p 0.95
PARAMETER top_k 20
PARAMETER num_ctx 131072
PARAMETER presence_penalty 1.5
そしたらモデルを作る。
$ ollama create qwen3.5-uncensored -f ./Modelfile
コレで完了、以下で実行できるようになる。
$ ollama run qwen3.5-uncensored
あまり検閲されそうな話題が思いつかなかったので普通に日本語でチャットしてみたが、推論もちゃんと行われていて普通に動いていた。動作速度も良好。
「こんなこと Web 版の ChatGPT に聞いたら垢 BAN されちゃうかも?」と思うような疑問が浮かんでしまったら、こうした検閲なしモデルに聞いてみるのも良いかも。