【1.2B】LFM2.5-1.2B-JPを使ってみた話【LM-Studio】
はじめに
小さい規模なのに日本語性能が凄いと話題のLFM2.5-1.2B-JPを使ってみました。ollamaは非対応なので、LM-Studioでの動作です。
ダウンロードと設定
LM Studioの画面からダウンロードします。
動作テスト(パフォーマンス)
※ Ryzen7 5700x(64GBシステムRAM)+RTX 3060✕2(24GB VRAM)
さすが1.2Bなので速いですね。
※ Qwen3 4B(Q4_K_M):80 token/s gpt-oss-20b:83 token/s
論理問題
ただし、規模相応の性能で、悪いわけではないと思います。
数学
東大の入試問題(文系)
同じく規模相応だと思います。むしろ正解するとびっくりします。
100%CPUで動作させると
超軽量モデルなので、CPUのみでも十分以上に実用的です。
現状ではまだollamaやComfyUIで利用できないかもしれませんが、VRAM資源を節約するためにGPUをあえて利用せずに、CPUだけで画像生成AI等のプロンプト編集処理で利用するという使い方もあります。
※ CPUのみの利用にする事で、1台のパソコンでも、時間の必要なGPUを利用する画像や動画生成中に、CPU側でLLMを平行して利用できます
翻訳用途はかなり優秀
処理が高速なので、シンプルな処理に対しての用途は多いと思います。
まとめ
1〜4Bパラメータモデルでの日本語性能はトップだと思います。Qwen3 4Bでは、まれに簡体字(中国語)やハングルが混ざりますから。
しかし、Qwen3 4Bは本記事の問題を正解できるので、規模相応感があるのは否めません。
直訳翻訳用途や、正確性が必要のない画像生成用のプロンプト作成には十分実用的な性能だと思います。
以下、関連する記事の【PR】です




コメント