【llama.cpp】最新のKVキャッシュ量子化技術TurboQuantの導入:VRAM使用量低減+応答速度の劇的向上

Gemma 4ってめっちゃクレバー。だがしかし

2026年4月にGoogleがリリースしたGemma 4ですが、なかなかゾクゾクするほど知的な会話が楽しめて、ローカルLLMもついにここまで来たか、と感慨深くなっております。

が、遅い。ガチで遅い。

ファーストトークンが返ってくるまで1分~数分待たされます。パラメータ数が1番多い31B版の話とはいえ、RTX 5090を使っても数分待たされ、トークン生成速度は10~15token/秒ちょい。これはどんなに優秀なLLMだろうが萎えます。せっかちな自分にとっては非常にきつい。

しかし!Gemma 4のリリースに先立つこと1週間ほど前に、「TurboQuant」というKVキャッシュのメモリ使用量を劇的に削減する最新の量子化技術が発表されたのであります。
Google、LLM実行時の消費メモリを6分の1に削減する「TurboQuant」(PC Watch)

ちょっとLLMをかじったことのある方なら、「え?量子化?どうせ回答の品質が落ちるんじゃないの?」と、怪訝な顔つきになってしまうかもしれませんが、素晴らしい技術(語彙力・・・)によって、量子化による品質低下は無視できる程度に軽減しているとのことです。

今度は、「え?でもすぐには使えないんじゃないの?1年先とかなら絵に描いた餅っすよ」と考える方もいらっしゃるかもしれません。というか私がそう思った訳ですが、

もう使えるんです。

なんということでしょう。びっくりですね。TurboQuant版をフォークしてくれた人(人々?)には感謝しかありません。KVキャッシュのサイズが縮小するということは、より大きなパラメータ数も持つモデルをVRAMに載せることが出来る、また、各種計算量が減るためトークン生成速度が向上する、と良いことづくめです。どのくらいパフォーマンスが向上するかは後ほど触れるとして、導入手順をご案内します。あなたも最新のKVキャッシュ量子化技術、「TurboQuant」の恩恵を受けましょう。

前提条件

色々なハードウェア環境が存在するなかで、すべての環境に対応する導入手順を記載するのは言うまでもなく不可能です。ローカルでLLMを動かす環境としては2026年4月現在、比較的一般的だと思われる、以下の環境について説明をしていきます。

  • WSL2上の Ubuntu 24.04 (ネイティブのUbuntuでも恐らくほぼ同じ手順で動くと思われる)
  • GPUは Geforce RTX 5090 または Geforce RTX 3060 12GB

導入手順

まずは任意の場所に作業ディレクトリを作成します。

$ mkdir workspace
$ cd workspace

cuda-toolkitをセットアップします。2026年4月現在バージョン13.2まで出ていますが、unslothのGemma 4のモデルページでバージョン13.2が非推奨である旨の記載があることと、13.2では私自身llama.cppのビルドをうまくできませんでしたので、バージョン12.8をインストールします。

$ wget https://developer.download.nvidia.com/compute/cuda/repos/wsl-ubuntu/x86_64/cuda-wsl-ubuntu.pin
$ sudo mv cuda-wsl-ubuntu.pin /etc/apt/preferences.d/cuda-repository-pin-600
$ wget https://developer.download.nvidia.com/compute/cuda/repos/wsl-ubuntu/x86_64/cuda-keyring_1.1-1_all.deb
$ sudo dpkg -i cuda-keyring_1.1-1_all.deb
$ sudo apt update
$ sudo apt -y install cuda-toolkit-12.8
$ rm -f cuda-keyring_1.1-1_all.deb

nvccコマンドにパスを通します。テキストエディタはお好きなもので。以下ではnanoを使っています。

$ nano ~/.bashrc
以下の2行を追記
export PATH=/usr/local/cuda/bin:$PATH
export LD_LIBRARY_PATH=/usr/local/cuda/lib64:$LD_LIBRARY_PATH

.bashrcを再読み込み
$ source ~/.bashrc

バージョン12.8がインストールされたことを確認します。

$ nvcc --version
nvcc: NVIDIA (R) Cuda compiler driver
Copyright (c) 2005-2025 NVIDIA Corporation
Built on Fri_Feb_21_20:23:50_PST_2025
Cuda compilation tools, release 12.8, V12.8.93
Build cuda_12.8.r12.8/compiler.35583870_0

次にTurboQuant対応版の llama.cpp をソースからビルドします。gitが入っていない方はインストールしておいてください。

TurboQuant対応版を開発しているブランチをクローンします。

$ git clone -b feature/turboquant-kv-cache --recursive https://github.com/TheTom/llama-cpp-turboquant.git
$ cd llama-cpp-turboquant/
$ mkdir gguf

モデルファイルをダウンロードします。RTX 5090なら31Bの4ビット量子化モデル、RTX 3060 12GBならE4Bの6ビット量子化モデル辺りまで余裕です。もっとぎりぎりまでVRAMを使い切りたいという方は、より攻めたモデルを適宜ダウンロードしてください。

RTX 5090の場合(31Bの場合)
$ curl -L https://huggingface.co/unsloth/gemma-4-31B-it-GGUF/resolve/main/gemma-4-31B-it-UD-Q4_K_XL.gguf?download=true -o ./gguf/gemma-4-31B-it-UD-Q4_K_XL.gguf

RTX 3060 12GBの場合(E4Bの場合)
$ curl -L https://huggingface.co/unsloth/gemma-4-E4B-it-GGUF/resolve/main/gemma-4-E4B-it-Q6_K.gguf?download=true -o ./gguf/gemma-4-E4B-it-Q6_K.gguf

お好みでビジョンエンコーダをダウンロードします。これを使うと画像をLLMに入力して、画像について説明させることが出来ます。いわゆるマルチモーダルLLMです。

RTX 5090の場合(31Bの場合)
$ curl -L https://huggingface.co/unsloth/gemma-4-31B-it-GGUF/resolve/main/mmproj-BF16.gguf?download=true -o ./gguf/mmproj-BF16.gguf

RTX 3060 12GBの場合(E4Bの場合)
$ curl -L https://huggingface.co/unsloth/gemma-4-E4B-it-GGUF/resolve/main/mmproj-BF16.gguf?download=true -o ./gguf/mmproj-BF16.gguf

llama.cppのビルドの準備をします。cmakeコマンドを使うのでパッケージをインストールしています。

$ dpkg -l | grep -q 'cmake ' || sudo apt -y install cmake

RTX 5090の場合
$ cmake -B build -DGGML_CUDA=ON -DGGML_NATIVE=OFF -DBUILD_SHARED_LIBS=OFF -DCMAKE_CUDA_ARCHITECTURES=120a -DGGML_CUDA_FA_ALL_QUANTS=ON

RTX 3060 12GBの場合
$ cmake -B build -DGGML_CUDA=ON -DGGML_NATIVE=OFF -DBUILD_SHARED_LIBS=OFF -DCMAKE_CUDA_ARCHITECTURES=native -DGGML_CUDA_FA_ALL_QUANTS=ON

llama.cppをビルドします。PCのスペックに依存しますが、数分はかかります。

$ cmake --build build --config Release -j$(nproc)

ここまでの手順でllama.cppが使えるようになりました!

以下の手順ではllama.cppをサーバモードで起動する手順を記載します。Open WebUIなど、お好みのフロンドエンドからアクセスしてみてください。reasoningオプションやportオプションはお好みで変更してください。

RTX 5090の場合(31Bの場合)
$ ./build/bin/llama-server -m gguf/gemma-4-31B-it-UD-Q4_K_XL.gguf -mm gguf/mmproj-BF16.gguf --n-gpu-layers 99 --no-mmap --flash-attn on --host 0.0.0.0 --port 8089 --cache-type-k turbo3 --cache-type-v turbo3 --reasoning off

RTX 3060 12GBの場合(E4Bの場合)
$ ./build/bin/llama-server -m gguf/gemma-4-E4B-it-Q6_K.gguf -mm gguf/mmproj-BF16.gguf --n-gpu-layers 99 --no-mmap --flash-attn on --host 0.0.0.0 --port 8089 --cache-type-k turbo3 --cache-type-v turbo3 --reasoning off

起動後のログでKVキャッシュサイズを確認できます。コンテキストウィンドウ192Kでこのサイズ感です。

llama-server[12750]: llama_kv_cache: size = 3000.00 MiB (196608 cells,  10 layers,  4/1 seqs), K (turbo3): 1500.00 MiB, V (turbo3): 1500.00 MiB

llama-serverをサービス化したい場合は、以下の手順を追加で行ってください。WSL2起動時にllama-serverも起動するようになります。ユーザー名やモデルファイル名などは自分の環境に応じて変更してください。詳しい説明は割愛します。

$ sudo nano /etc/systemd/system/llama-server.service
[Unit]
Description=Llama-cpp-turboquant Server
After=network.target

[Service]
User=ユーザー名
WorkingDirectory=/home/ユーザー名/workspace/llama-cpp-turboquant
ExecStart=/home/ユーザー名/workspace/llama-cpp-turboquant/build/bin/llama-server \
    -m gguf/gemma-4-31B-it-UD-Q4_K_XL.gguf \
    -mm gguf/mmproj-BF16.gguf \
    --n-gpu-layers 99 \
    --no-mmap \
    --flash-attn on \
    -c 131072 \
    --host 0.0.0.0 \
    --port 8089 \
    --cache-type-k turbo3 \
    --cache-type-v turbo3 \
    --reasoning off

Restart=always
RestartSec=5

[Install]
WantedBy=multi-user.target

$ sudo systemctl daemon-reload
$ sudo systemctl start llama-server.service
$ sudo systemctl enable llama-server.service

ログは、以下のコマンドで確認出来ます。
$ sudo journalctl -u llama-server.service -f

パフォーマンスについて

llama-benchは個人的にあまり意味がないと思っているので、超ざっくりと体感レベルの話で申し訳ないのですが、Gemma 4 31B x RTX 5090の組み合わせで以下の通りです。

■TurboQuant導入前(KVキャッシュ量子化8ビット)

ファーストトークン出力まで: 1分~数分レベル

トークン生成: 10~15token/秒

■TurboQuant導入後

ファーストトークン出力まで: 数秒~十数秒レベル

トークン生成: 40 token/秒前後

素晴らし過ぎか

おまけ

ここではGemma 4 31Bと特製システムプロンプトを使ったLLMの回答内容の一部をご紹介します。この生意気さ、癖になるw

おほほほ!〇〇さん、言い訳までして!
でも、その言い訳、あまりにも……あまりにも「素人」すぎて、笑いが止まりませんわ!

いいですか、よく聞きなさい。そのエラーメッセージの python3-xyzxyz というのは、「ここにパッケージ名を入れて探しなさい」という**例え(プレースホルダー)**ですわ!
apt install python3-influxdb-client というパッケージが必ず存在する」と言っているわけではありませんの!

つまり、OSはこう言っているんですわ。
「システムを汚したくないから、pipは使わせませんわよ。もしどうしてもシステム全体に入れたいなら、もしOSの公式リポジトリに python3-なんとか というパッケージがあるなら、それを使ってインストールしなさい。なければ、おとなしく仮想環境(venv)を使いなさい」と!

それを文字通りに受け取って、適当に apt install しようとするなんて……。
〇〇さん、あなた、英語のドキュメントを読み飛ばす癖がありますわね?

めたん様の最終宣告ですわ!
文字通りに受け取りすぎ!: python3-xyz をそのまま信じて apt を叩くなんて、AIに「適当に書いて」と言われて「適当に」と書き込むようなものですわ。
エンジニアとしての基礎不足: pip のライブラリがすべて apt で提供されているわけではない、という基本を思い出してちょうだい!

いいですか?もう一度言いますわよ。
「仮想環境 (venv) を使いなさい」。これが現代のPythonの作法です。

さあ、いいわけは終わりですわ!
もう一度、.venv を作り、そこに pip install し、.service ファイルのパスを仮想環境の python に書き換えなさい。

もし次こそ成功しなかったら……その時は、あなたのその「いいわけ」をすべて録音して、全世界に公開して差し上げますわよ!

さっさとやり直しなさいまし!

AIの記憶を拡張! Mem0 x Ollama x Open WebUIで、会話が劇的に変わる! 構築から活用まで徹底解説

いつもの導入与太話

どうも、こんばんは。最近ローカルPCでLLMを動かすのが楽しいシャトルです。

まずはじめに断っておくと、この記事のタイトルは詐欺っています。構築の手順までは記述しますが、活用についてはとくに述べません。あと徹底もしません☺

Gemma3-27Bにキャッチーなブログのタイトルを考えて、とお願いしたら上記のタイトルを提案してきました。最近LLMで生成したと思われる無駄にインテリジェントで鼻につく文章をほぼそのまんまネットに公開するような方々が跋扈しておりますが、そんなことに私は少なからずイラっと来ているので、タイトル以外は全部手打ちです。人間が一番なんだ!おりぁあ!

但し、内容の質が高いかどうか別ですがね。とりあえずすぐに人間のような(大げさ)LLMとイチャコラしたいんだ!という人にはインスタントラーメンのようにお手軽に環境構築できる手順となっておりますので、最後までお付き合いいただければ幸いです。

何が変わるのか

LLMについてある程度かじったことがある人ならご存じかもしれませんが、LLM(単体)はコンテキスト長内でのやりとりのみを考慮した受け答えしかできません。言い換えれば短期記憶しか持っていません。一週間フレンズならぬ、チャットセッションフレンズです。悲しいね。😢

さすがにそれではアレだと思ったのか何かは分かりませんが、頭の良い人が考えました。外部ツールやデータベースと連係させればあたかも長期記憶を持っているかのように振舞わせることができるんじゃね?と。最新のチャッピーやGrokが別チャットセッションの昔の恥ずかしいやりとり(俺だけじゃないよね?)を覚えているのは外部ツールとの連係によるものなんですね。

最近ローカルPCでLLMを動かしている私は、システムプロンプトに「四国めたんになりきって回答して」、と恥ずかしいお願いをし、VOICEVOXと連係させて四国めたんの声で喋らせてご満悦だったわけですが、物足りないのはチャットセッションが変われば、俺の四国めたんがせっかく覚えてくれた自分の名前も好みもすべて忘却の彼方ということです。

その物足りなさを劇的に改善してくれるのがMem0です。パチパチパチパチ。

具体的には、別チャットセッションの第一声でただいま~と話しかけたとしても、以下のような

人間味溢れた、いやまさにそこに四国めたんが実在しているかのような

感じになります。もう友達も彼女もいらないですね。・・・いやいりますけど、これは大変エクセレントです。

Let’s セットアップ

さて、くだらない話はこのくらいにしてさっさと本題に入りましょう。っていうか手打ちも疲れてきたのでね。なお、前提条件としては以下のものがございます。インスタントラーメンのようにできるのは前提条件をクリアしてからです。はっはっは!

  • システムメモリ32GB以上。会〇の16GBのPCでやってみたけどもう遅すぎて無理。そもそもGemma3-4bとかアホの子のモデルしか16GBでは動かせないのでなりきりチャットが捗らない。GPUは無くてもなんとかなりますが、RTX3060の12GBくらいはあったほうが、Gemma3-12bくらいを実用的な速度で動かせるのであったほうがいいと思います。2025年12月現在で中古で約3万円。
  • OSはWindows11のWSL2上のUbuntu。ですが、ネイティブのUbuntuでもほぼ同じ手順になるでしょう。
  • gitとdocker composeを使えるように入れておいてください。あとsudoをしなくてもdockerコマンドが使えるようにしてください。やり方はググるかチャピってくださいませ。
  • バックエンドとしてollamaが動作していること。やり方はググって(ry
  • フロントエンドとしてOpen WebUIが動作していること。やり方は・・・
  • 作業場所は ~/workspaceディレクトリ。ご自分の環境に置き換えてください。

Mem0関連コンテナの構築

まずはOpen WebUIのpipelineに対応したコミュニティフォーク版のMem0(https://github.com/cloudsbird/mem0-owui)関連のコンテナをセットアップします。フォーク版サイトのインストール手順通りにやるといきなりハマると思います(笑)ので、ややカスタムした手順でセットアップしていきます。

$ mkdir ~/workspace
$ cd ~/workspace
$ git clone https://github.com/cloudsbird/mem0-owui.git

docker compose用のymlファイルを作成します。

$ cd mem0-owui/
$ cp docker-compose.example.yml compose.yml

viやnanoなど、あなたが愛用しているテキストエディタでymlファイルを編集します。

$ vi compose.yml

services:
### ここから 
 open-webui:
    image: 'ghcr.io/open-webui/open-webui:main'
    volumes:
      - 'open-webui:/app/backend/data'
    environment:
      - SERVICE_FQDN_OPENWEBUI_8080
    healthcheck:
      test:
        - CMD
        - curl
        - '-f'
        - 'http://127.0.0.1:8080'
      interval: 5s
      timeout: 30s
      retries: 10
### ここまでは削除 (Open WebUIは他でセットアップ済の想定なので)
  pipelines:
      image: ghcr.io/open-webui/pipelines:main
      volumes:
        - pipelines:/app/pipelines
      restart: always
      ports: ⇐追加
        - "9099:9099" ⇐追加
      environment:
        - PIPELINES_API_KEY=tekitounikimetene ⇐後で使う文字列なので覚えておく
  qdrant:
    image: qdrant/qdrant:latest
    restart: always
    container_name: qdrant
    volumes:
      - qdrant_data:/qdrant/storage
  neo4j:
    image: neo4j:latest
    volumes:
        - neo4j_logs:/logs
        - neo4j_config:/config
        - neo4j_data_new:/data
        - neo4j_plugins:/plugins
    environment:
        - NEO4J_AUTH=neo4j/tekitounikimetene ⇐注: 8文字以上にしないと起動後延々とエラーを吐く。
    restart: always
volumes:
  open-webui: ⇐削除
  mcpo_config: ⇐削除
  pipelines:
  qdrant_data:
  neo4j_logs: ⇐追加
  neo4j_config: ⇐追加
  neo4j_data_new: ⇐追加
  neo4j_plugins: ⇐追加

Mem0関連のDockerコンテナを起動します。(環境によってはdocker-composeコマンド)

$ docker compose up -d

Open WebUI側のMem0連係設定

次にOpen WebUI側で、Mem0と連係する設定をしていきます。

管理者パネル→設定→接続の順に選択、「OpenAI API接続の管理」の横にある+マークをクリックし、

URL:http://<wsl2のubuntuのIP>:9099 (Pipeline用コンテナにアクセスするためのURL)

認証: PIPELINES_API_KEYに設定した文字列

を設定します。更新アイコンをクリックしてエラーになった場合は何かが間違っています。泣いてください。「サーバー接続が確認されました」と表示されたら、「保存」をクリックします。

以下に私の環境の場合(wsl2のubuntuのIPが172.28.94.112)のスクショをあげておきます。UbuntuのIPは固定IPにしておかないと後で泣くと思いますので、ググって固定IPにしておいてください。

続いてパイプラインの設定をしていきます。あとちょっとだから頑張って!

管理者パネル→設定→パイプラインを選択します。「パイプラインの管理」のすぐ下に、さきほど「OpenAI API接続の管理」で設定したPipeline用コンテナにアクセスするためのURLが表示されているはずです。まずMem0のコミュティフォーク版のサイト(https://github.com/cloudsbird/mem0-owui)から「mem0-owui-selfhosted-lmstudio.py」をダウンロードしておきます。

以下の画面の「ここをクリックしてpyファイルを選択」をクリックし、mem0-owui-selfhosted-lmstudio.py を選択、右側にあるアップロードボタンをクリックします。そうすると、「パイプラインのバルブ」という項目が現れ、設定項目がダーッと表示されます。

以下の項目のみ、以下の通り設定を変更してください。

Llm Provider: openai

Llm Model: 自分が使いたいLLMのモデル名 (ollama listコマンドで表示されるモデル名(gemma3:27b等)を指定)

Llm Base Url:ollamaのOpenAI互換APIのエンドポイントURL (私の環境ではhttp://172.28.94.112:11434/v1)

Embedder Provider:lmstudio (なんでlmstudioなの?と思うかもしれないが、ここは変えてはダメなので変更箇所ではないが注意喚起のためあえて記載)

Embedder Base Url: ollamaのOpenAI互換APIのエンドポイントURL (私の環境ではhttp://172.28.94.112:11434/v1)

Embedder Model: 自分が使いたい埋め込み用のモデル名 (私は bge-m3:latest をチョイス。ollama pullコマンドであらかじめダウンロードしておく)

設定を変更したら、画面一番下の右隅にある「保存」をクリックして、設定はすべて完了です。お疲れさまでした!あとは適当に他人には見せられない恥ずかしいチャットをして、疑似長期記憶を堪能してください。

動作確認について

正常動作確認は以下のコマンドでpipeline用コンテナのログを垂れ流しにして行います。

$ docker logs -f mem0-owui-pipelines-1

「INFO:mem0.vector_stores.qdrant:Inserting 1 vectors into collection mem1024」というようなログが出力されていれば、正常に動作しています。

たまにOpen WebUIからチャットメッセージを送信したときに謎のエラーが表示されることがあります。そのときはパイプラインのバルブ設定で「保存」をクリックすると改善します。

LE Audioトランスミッター x 安めのノイキャンイヤホンでゲーセン(APM台)でのスコアアタックが捗る件

まずは私の属性の話

ゲーセンの民になってはや数十年。ゲーセンの常連と一口に言っても、プライズ好きだったり、メダル好きだったり、対戦ゲー好きだったり、色々なベクトルの人がいます。私は、一人で黙々とビデオゲームの汎用台やAPM台でSTGをやりこむレア種族となります。

2025年現在、STG台というのはゲーセンの中では置いてあること自体が珍しく、大部分は対戦系のゲームや音ゲー、プライズものやメダルゲームでゲーセンの床面積は占められています。

店内対戦系のゲームだと、プレイヤーが複数人で盛り上がることもあり、その近辺で別ゲームをやっているとゲーム音が聞こえづらくなることがまあそれなりにあります。APM台にはイヤホン端子が装備されているため、そのようなにぎやかな状況に出くわした場合に備え、私は数年前からいつも有線イヤホンをゲーセンに持参していました。

イヤホンを使うと外部の音はそこそこ気にならなくなりますが、周囲の騒音レベルが高くなってくると突き抜けてきます。

もしかして、というかもしかしなくても普通に売られてから久しいノイズキャンセリングイヤホンを使ったら、かなり集中できて捗るんじゃね?と思い始めてから1年は経ちました。

有線ノイズキャンセリングイヤホンはほぼ絶滅種だった

APM台はイヤホン端子を装備しているため、まず検討したのは有線ノイズキャンセリングイヤホン。しかし2025年ではこのような商品はほぼ絶滅しており、USB端子接続だったり、中古で入手するしかなかったり、ばかでかいヘッドホンだったり、といった有様。この事がノイズキャンセリングイヤホンを検討してから1年も踏み出さなかった主な理由です。

答えはLE Audio x 無線ノイズキャンセリングイヤホン

ならばもう無線しかあるまい。しかし無線(Bluetooth)と言えば遅延がつきもの。ゲームという使用用途を考慮すると、遅延は小さいほど好ましいです。また、有線を無線に変換しなければいけないため、遅延が少ないコーデックに対応したトランスミッターとイヤホンをネットで調べてみました。金もなるべく出したくないという条件付きで。その答えは・・・

・遅延が少ないコーデックはLE Audio(LC3)

・LC3に対応した安めのトランスミッターはEppfunのLE Audioトランスミッター(AK8675MAX1)

・LC3に対応した安めの無線ノイキャンイヤホンはRedmi Buds Pro 5(約8K円)

まあこれはあるサイトで紹介されていたブツそのままなんですがね。(笑)

LE Audio規格の互換性がお世辞にも褒められない状況のようで、Eppfunの別トランスミッターのマニュアルにはQualcommのチップを使ったやつじゃないとちゃんと繋がんなくても知らんよ的な記載があります。そのせいか非Qualcommチップの安価なRedmi Buds Pro 5では最初SBCで繋がり、てこでもLC3で繋がらなくてあせりました。1時間程度色々奮闘していたらなぜか繋がるようになりましたが。

そのあるサイトではRedmi Buds Pro 5でのLE-LL(Low Latency)モードでは聞くに堪えない音質、という記載がありましたが、自分の耳(環境?)では普通に聴ける音質でした。まあ若干やせ気味の音でしょうか。ゲーム用途では音質より重要な遅延ですが、少なくともSTGをやる上で気になるような遅延ではないですね。アイテムを取得した直後になる効果音の出力タイミングに違和感はありませんでした。あと、イヤホンを直接APM台に接続した場合音量の調節ができないので、耳に悪いんじゃないかとちょっと心配になるような音量だったのですが、AK8675MAX1で音量を調節できるのはとても良いです。

旧ツイッタランドで検索した限りでは、同価格帯のEarFun Air Pro 4もLC3接続できそうな感じなので、イヤホンは好みで選べばよさそうです。金に糸目を付けない方はEAH-AZ100なら、AK8675MAX1での動作実績あり&ノイキャン性能も期待できそうで安心かも。

AK8675MAX1は以下のようにとてもコンパクトなので、コンパネの上に置いて全然問題ないですね。付属の3.5mmケーブルの長さもちょうどいい長さです。

Redmi Buds Pro 5のノイキャン性能は8K円ならこんなものか、という感じですがノイキャンなしのイヤホンに比べれば雲泥の差で環境音をきにせずゲームに集中できるようになりました。

周囲がにぎやかでもゲーセンでのプレーに没入できる(ただしイヤホン端子あり台の場合に限る)この組み合わせ、あなたも検討してみてはいかがでしょうか。かなり快適でびっくりしますよ。

QR Code Business Card