Jump to content
Main menu
Main menu
move to sidebar
hide
Navigation
Main page
Recent changes
Random page
freem
Search
Search
Appearance
Create account
Log in
Personal tools
Create account
Log in
Pages for logged out editors
learn more
Contributions
Talk
Editing
Openai/692aba85-5b10-8006-817a-d5a83b020f8e
(section)
Add languages
Page
Discussion
English
Read
Edit
Edit source
View history
Tools
Tools
move to sidebar
hide
Actions
Read
Edit
Edit source
View history
General
What links here
Related changes
Special pages
Page information
Appearance
move to sidebar
hide
Warning:
You are not logged in. Your IP address will be publicly visible if you make any edits. If you
log in
or
create an account
, your edits will be attributed to your username, along with other benefits.
Anti-spam check. Do
not
fill this in!
=== Assistant: INTELLECT-3 の「使い方」は、ざっくり言うとこの 4 パターンです。 === INTELLECT-3 の「使い方」は、ざっくり言うとこの 4 パターンです。 # ブラウザで触る(お試し) # API 経由でアプリから呼ぶ # ローカル or 自前サーバで推論サーバとして動かす # prime-rl / verifiers を使って自分のモデルをポストトレーニングする 順番に整理します。 ==== 公式サイトからそのままチャットできます。 ==== * Prime Intellect のトップに “CHAT WITH INTELLECT-3” へのリンクがあり、ブラウザ上のチャット UI で対話可能。primeintellect.ai<ref>{{cite web|title=primeintellect.ai|url=https://www.primeintellect.ai/|publisher=primeintellect.ai|access-date=2025-11-29}}</ref> これは単に「使い心地を見る」「数学・コード・推論の感触を確かめる」用途向けです。 ==== ### ==== Prime Intellect 自身が API を提供しており、 OpenAI 互換のエンドポイント形式 で叩けるようになっています(メソッドや JSON 形式がほぼ同じ)。apidog<ref>{{cite web|title=apidog|url=https://apidog.com/blog/intellect-3-api/|publisher=apidog.com|access-date=2025-11-29}}</ref> 典型的な使い方の流れ: # Prime Intellect のアカウントを作成し API キーを取得 # OpenAI 互換のクライアント(公式 SDK や openai パッケージなど)で base_url と api_key だけ Prime Intellect 用に差し替える # model: "intellect-3" のように指定して messages を投げる 例(疑似コード): <syntaxhighlight lang="python">from openai import OpenAI client = OpenAI( base_url="https://api.primeintellect.ai/v1", # 仮の例 api_key="YOUR_PRIME_INTELLECT_API_KEY", ) resp = client.chat.completions.create( model="intellect-3", messages=[ {"role": "user", "content": "整数論のこの証明を手伝って"}, ], max_tokens=2048, temperature=0.2, ) print(resp.choices[0].message.content) </syntaxhighlight> ※ 正確な base_url やモデル名は Prime Intellect 側のドキュメント/ダッシュボードで確認する必要があります。apidog<ref>{{cite web|title=apidog|url=https://apidog.com/blog/intellect-3-api/|publisher=apidog.com|access-date=2025-11-29}}</ref> ===== - OpenRouter に <code>prime-intellect/intellect-3</code> として登録されており、 OpenRouter の API キーで他モデルと同様に呼べます。OpenRouter<ref>{{cite web|title=OpenRouter|url=https://openrouter.ai/prime-intellect/intellect-3|publisher=openrouter.ai|access-date=2025-11-29}}</ref> ===== 特徴: * 既に OpenRouter を使っている場合、同じエンドポイントでモデル名だけ差し替えればよい。 * いろいろなモデルを横断して比較するときに便利。 ==== ### ==== * モデルカード:PrimeIntellect/INTELLECT-3Hugging Face<ref>{{cite web|title=Hugging Face|url=https://huggingface.co/PrimeIntellect/INTELLECT-3|publisher=Hugging Face|access-date=2025-11-29}}</ref> * BF16 版と FP8 版があり、さらに 8bit/4bit など複数の量子化モデルもコレクションとして公開されています。Hugging Face<ref>{{cite web|title=Hugging Face|url=https://huggingface.co/collections/PrimeIntellect/intellect-3|publisher=Hugging Face|access-date=2025-11-29}}</ref> ライセンスは MIT / Apache2 系で、商用利用を含めかなり緩い条件。Hugging Face<ref>{{cite web|title=Hugging Face|url=https://huggingface.co/PrimeIntellect/INTELLECT-3|publisher=Hugging Face|access-date=2025-11-29}}</ref> ===== Hugging Face のモデルカードに、vLLM 用の起動例が掲載されています。Hugging Face<ref>{{cite web|title=Hugging Face|url=https://huggingface.co/PrimeIntellect/INTELLECT-3|publisher=Hugging Face|access-date=2025-11-29}}</ref> ===== * BF16 版(2× H200): <syntaxhighlight lang="bash">vllm serve PrimeIntellect/INTELLECT-3 \ --tensor-parallel-size 2 \ --enable-auto-tool-choice \ --tool-call-parser qwen3_coder \ --reasoning-parser deepseek_r1 </syntaxhighlight> * FP8 版(1× H200): <syntaxhighlight lang="bash">vllm serve PrimeIntellect/INTELLECT-3-FP8 \ --enable-auto-tool-choice \ --tool-call-parser qwen3_coder \ --reasoning-parser deepseek_r1 </syntaxhighlight> ポイント: * 107B パラメータ MoE(アクティブ ~12B) なので、それなりに GPU が必要。 * 公式例では H200 を想定していますが、 Hugging Face 側の量子化モデルを使えば小さめの GPU(A100 80G 相当など)でも現実的になります。Hugging Face<ref>{{cite web|title=Hugging Face|url=https://huggingface.co/PrimeIntellect/INTELLECT-3|publisher=Hugging Face|access-date=2025-11-29}}</ref> * vLLM を立ててしまえば、あとは OpenAI 互換の HTTP API として どのクライアントからも使えます。 ==== INTELLECT-3 の大きな売りは、'''「中身の RL スタックごと全部オープン」'''な点です。 ==== ===== - INTELLECT-3 自体が、 GLM-4.5-Air-Base → SFT → RL(prime-rl) というレシピで訓練されています。Hugging Face<ref>{{cite web|title=Hugging Face|url=https://huggingface.co/PrimeIntellect/INTELLECT-3|publisher=Hugging Face|access-date=2025-11-29}}</ref> ===== * 同じ prime-rl を使って、 自前データや独自環境で 自分のモデルを RL で強化することが可能。 おおまかな流れ: # prime-rl / 関連パッケージをインストール # ベースモデル(GLM-4.5-Air か、自前モデル)を用意 # verifiers / Environments Hub から環境を選ぶ or 自作する # prime-rl の設定ファイルで - どの環境を使うか - 報酬設計 - ロールアウト長・バッチサイズ などを指定して学習ジョブを走らせる INTELLECT-3 のテクニカルレポートには、 非同期オフポリシー学習・連続バッチング・in-flight weight update など prime-rl の実装詳細がかなり丁寧に書かれているので、それを参考に自前トレーニング設計を詰めていく形です。storage.googleapis.com<ref>{{cite web|title=storage.googleapis.com|url=https://storage.googleapis.com/intellect-3-paper/INTELLECT_3_Technical_Report.pdf|publisher=storage.googleapis.com|access-date=2025-11-29}}</ref> ===== - GitHub: PrimeIntellect-ai/verifiersGitHub<ref>{{cite web|title=GitHub|url=https://github.com/PrimeIntellect-ai/verifiers|publisher=github.com|access-date=2025-11-29}}</ref> ===== * Environments Hub に、数学・コード・科学・推論・ディープリサーチなどの環境がまとまっていて、 verifiers ライブラリを通じて prime-rl から呼び出せます。primeintellect.ai<ref>{{cite web|title=primeintellect.ai|url=https://www.primeintellect.ai/blog/intellect-3|publisher=primeintellect.ai|access-date=2025-11-29}}</ref> CLI の典型的な使い方(概要): # uv tool install prime で CLI を入れる # prime login で認証 # 自作環境をパッケージ化して prime env push で Hub に公開 # 学習用ノード側では prime env install owner/name で環境を取得 こうして 環境をコードとしてバージョン管理しつつ、複数のモデル・実験から再利用できます。 ===== - HF コレクションには INTELLECT-3-RL Viewer / INTELLECT-3-SFT Viewer が含まれ、 どういうタスク・報酬で学習したかを可視化したスペースが公開されています。Hugging Face<ref>{{cite web|title=Hugging Face|url=https://huggingface.co/collections/PrimeIntellect/intellect-3|publisher=Hugging Face|access-date=2025-11-29}}</ref> ===== これを読むと、 * どのカテゴリの環境がどれくらい効いていそうか * 学習中にベンチマークスコアがどう立ち上がっているか などが分かるので、自分で RL 設計するときのかなり具体的な参考資料になります。 ==== - 単に使う(推論) - Web UI で試す - OpenRouter 経由で他モデルと並べて試す - 自前 vLLM サーバとして立てて、OpenAI 互換 API で統合 ==== * プロダクトに組み込む - Prime Intellect のネイティブ API(レイテンシ・性能重視) - OpenRouter 経由(マルチモデル統合・課金一本化) * 研究・自作モデル強化に使う - prime-rl+verifiers+Environments Hub で、 GLM-4.5-Air や自前モデルに同種の RL レシピを適用 - INTELLECT-3 のテクニカルレポートや Viewer を見ながら エージェント的 RL のスケーリング設計をコピー & 変形する こういう層構造になっているイメージです。
Summary:
Please note that all contributions to freem are considered to be released under the Creative Commons Attribution-ShareAlike 4.0 (see
Freem:Copyrights
for details). If you do not want your writing to be edited mercilessly and redistributed at will, then do not submit it here.
You are also promising us that you wrote this yourself, or copied it from a public domain or similar free resource.
Do not submit copyrighted work without permission!
Cancel
Editing help
(opens in new window)