AI 支援開発の急速に進化する環境において、プログラマーたちは組み込み AI ツールの制限を克服する創造的な方法を見つけています。 ProxyAsLocalModel という新しいオープンソースプロジェクトが、 JetBrains の AI アシスタントで好みの大規模言語モデル(LLM)を使用したい開発者向けのソリューションとして登場し、プラットフォームの制限的な無料枠を回避できるようになりました。
JetBrains AI アシスタントをデフォルトオプション以上に拡張
ProxyAsLocalModel は、サードパーティの LLM API と JetBrains IDE の間のブリッジとして機能し、これらのサービスを AI アシスタントと互換性のあるローカルモデルとしてプロキシします。このツールは開発者の一般的な不満に対処しています:JetBrains AI アシスタントは限られた無料枠を提供し、それはすぐに枯渇してしまう一方で、 LM Studio と Ollama からのローカルモデルのみをサポートしています。サポートされているローカルエンドポイントを模倣するプロキシを作成することで、開発者は OpenAI 、 Claude 、 Gemini 、 Qwen 、 Deepseek 、 Mistral 、 SiliconFlow など、すでに購入済みの代替 LLM サービスを活用できるようになります。
このプロジェクトは、 Kotlin 、 Ktor 、 kotlinx.serialization を使用した技術的な実装が特に注目されており、 GraalVM ネイティブイメージコンパイルによるクロスプラットフォーム互換性を実現しています。このアプローチは、ネイティブイメージコンパイルを困難にするリフレクションを多用する公式 SDK を回避し、起動時間の短縮とメモリ使用量の削減を実現しています。
ProxyAsLocalModelでサポートされているLLMプロバイダー
- プロキシ元: OpenAI, Claude, DashScope (Alibaba Qwen), Gemini, Deepseek, Mistral, SiliconFlow
- プロキシ先: LM Studio, Ollama
- APIサポート: ストリーミングチャット補完APIのみ
JetBrains AIアシスタントの改善点(2025年リリース)
- プロジェクトレベルの有効/無効オプション
- ローカルモデルとオンラインモデルの設定オプション
- 主要LLMプロバイダーのサポート( OpenAI, Claude, Gemini )
- IDE統合の全体的な改善
JetBrains AI アシスタントの進化とユーザーエクスペリエンス
コミュニティの議論から、 JetBrains の AI アシスタントに対する評価は様々ながらも改善していることがわかります。初期バージョンは、その制限と特定の関数やコードブロックに焦点を当てるのではなく、ファイル全体を書き直す傾向があるとして批判されていました。
「AI アシスタントが出たときに使ってみましたが、正しく使う方法を理解するには私が頭が悪すぎたようです。単一の関数や短いコードブロックを書いてもらおうとしましたが、常にファイル全体を最初から書き直し始めるため、あまりにも遅すぎました。」
しかし、最近のアップデートでツールの機能は大幅に向上しています。2025年リリースでは、プロジェクトレベルのコントロールの改善、 OpenAI 、 Claude 、 Gemini などの主要 LLM プロバイダーのサポート、IDE ワークフローとの統合強化が提供されています。ユーザーはコードレビュー、REST エンドポイントの生成、テストの作成、未知のライブラリの探索などで成功を報告しています。 JetBrains の新しいシステムである Junie の導入も、他の LLM が苦戦した複雑な問題を解決するという点で肯定的なフィードバックを受けています。
代替ソリューションと法的考慮事項
ProxyAsLocalModel が JetBrains AI アシスタント機能を拡張する一つのアプローチを提供する一方で、コミュニティメンバーは OpenRouter のような代替案を提案しています。これはプロバイダーの公開価格以外の追加コストなしで、単一のエンドポイントを通じて何百ものモデルへのアクセスを提供します。他の類似プロジェクトとしては、 enchanted-ollama-openrouter-proxy や LiteLLM Gateway が挙げられています。
議論で提起された重要な考慮事項の一つは、開発のための商用 AI サービスの使用に関する法的影響です。一部のユーザーは、多くの AI サービスプロバイダーが利用規約に競合禁止条項を含んでおり、これらのサービスを競合製品の開発に使用すると企業が法的リスクにさらされる可能性があると指摘しています。これにより、プロフェッショナルな環境でのこれらの AI ツールの適切な使用例について疑問が生じています。
AI 支援開発が成熟し続ける中、 ProxyAsLocalModel のようなツールは、基盤となるプラットフォームが進化する中でも、ワークフローをカスタマイズし最適化するコミュニティの取り組みを表しています。 JetBrains IDE での生産性を最大化したい開発者にとって、これらのプロキシソリューションは、プラットフォーム固有の実装の制約をナビゲートしながら、好みの LLM サービスを活用する方法を提供します。