fix(docs): translations
This commit is contained in:
@@ -306,7 +306,7 @@ Pro/Max サブスクリプションをお持ちでない場合は、[**API キ
|
||||
2. [Azure AI Foundry](https://ai.azure.com/) に移動し、モデルをデプロイします。
|
||||
|
||||
:::note
|
||||
オープンコードが正しく動作するには、デプロイメント名がモデル名と一致する必要があります。
|
||||
opencodeが正しく動作するには、デプロイメント名がモデル名と一致する必要があります。
|
||||
:::
|
||||
|
||||
3. `/connect` コマンドを実行し、**Azure** を検索します。
|
||||
@@ -347,13 +347,13 @@ export AZURE_RESOURCE_NAME=XXX
|
||||
### Azure コグニティブ サービス
|
||||
|
||||
1. [Azure portal](https://portal.azure.com/) に移動し、**Azure OpenAI** リソースを作成します。必要なものは次のとおりです。
|
||||
- **リソース名**: これは API エンドポイント (`https://RESOURCE_NAME.openai.azure.com/`) の一部になります。
|
||||
- **リソース名**: これは API エンドポイント (`https://AZURE_COGNITIVE_SERVICES_RESOURCE_NAME.cognitiveservices.azure.com/`) の一部になります。
|
||||
- **API キー**: リソースの `KEY 1` または `KEY 2` のいずれか
|
||||
|
||||
2. [Azure AI Foundry](https://ai.azure.com/) に移動し、モデルをデプロイします。
|
||||
|
||||
:::note
|
||||
オープンコードが正しく動作するには、デプロイメント名がモデル名と一致する必要があります。
|
||||
opencodeが正しく動作するには、デプロイメント名がモデル名と一致する必要があります。
|
||||
:::
|
||||
|
||||
3. `/connect` コマンドを実行し、**Azure Cognitive Services** を検索します。
|
||||
@@ -485,7 +485,7 @@ export CLOUDFLARE_API_TOKEN=your-api-token
|
||||
/models
|
||||
```
|
||||
|
||||
オープンコード構成を通じてモデルを追加することもできます。
|
||||
opencode構成を通じてモデルを追加することもできます。
|
||||
|
||||
```json title="opencode.json"
|
||||
{
|
||||
@@ -684,7 +684,7 @@ GitLab Duo は、GitLab の Anthropic プロキシを介したネイティブ
|
||||
|
||||
:::note
|
||||
必要がない場合は、「GITLAB_TOKEN」環境変数を指定することもできます。
|
||||
トークンをオープンコード認証ストレージに保存します。
|
||||
トークンをopencode認証ストレージに保存します。
|
||||
:::
|
||||
|
||||
##### 自己ホスト型 GitLab
|
||||
@@ -731,8 +731,8 @@ GitLab 管理者は以下を有効にする必要があります。
|
||||
|
||||
1. [Duo Agent Platform](https://docs.gitlab.com/user/gitlab_duo/turn_on_off/) (ユーザー、グループ、またはインスタンス用)
|
||||
2. 機能フラグ (Rails コンソール経由):
|
||||
- `command.executed`
|
||||
- `command.executed`
|
||||
- `agent_platform_claude_code`
|
||||
- `third_party_agents_enabled`
|
||||
:::
|
||||
|
||||
##### セルフホスト型インスタンスの OAuth
|
||||
@@ -791,7 +791,7 @@ GitLab ツール (マージ リクエスト、問題、パイプライン、CI/C
|
||||
|
||||
### GitHub コパイロット
|
||||
|
||||
GitHub Copilot サブスクリプションをオープンコードで使用するには:
|
||||
GitHub Copilot サブスクリプションをopencodeで使用するには:
|
||||
|
||||
:::note
|
||||
一部のモデルでは [Pro+] が必要になる場合があります。
|
||||
@@ -957,7 +957,7 @@ export VERTEX_LOCATION=global
|
||||
|
||||
#### オプションの構成
|
||||
|
||||
オープンコードを通じて自動的に構成されていない Helicone の機能またはモデルを見つけた場合は、いつでも自分で構成できます。
|
||||
opencodeを通じて自動的に構成されていない Helicone の機能またはモデルを見つけた場合は、いつでも自分で構成できます。
|
||||
|
||||
これは [Helicone のモデル ディレクトリ ](https://helicone.ai/models) です。追加するモデルの ID を取得するためにこれが必要になります。
|
||||
|
||||
@@ -1041,7 +1041,7 @@ npm install -g opencode-helicone-session
|
||||
|
||||
### ラマ.cpp
|
||||
|
||||
[llama.cpp の s](https://github.com/ggml-org/llama.cpp) llama-server ユーティリティ] を通じて、ローカル モデルを使用するようにオープンコードを構成できます。
|
||||
[llama.cpp の s](https://github.com/ggml-org/llama.cpp) llama-server ユーティリティ] を通じて、ローカル モデルを使用するようにopencodeを構成できます。
|
||||
|
||||
```json title="opencode.json" "llama.cpp" {5, 6, 8, 10-15}
|
||||
{
|
||||
@@ -1108,7 +1108,7 @@ IO.NET は、さまざまなユースケースに最適化された 17 のモデ
|
||||
|
||||
### LMスタジオ
|
||||
|
||||
LM Studio を通じてローカル モデルを使用するようにオープンコードを構成できます。
|
||||
LM Studio を通じてローカル モデルを使用するようにopencodeを構成できます。
|
||||
|
||||
```json title="opencode.json" "lmstudio" {5, 6, 8, 10-14}
|
||||
{
|
||||
@@ -1225,7 +1225,7 @@ Moonshot AI の Kim K2 を使用するには:
|
||||
|
||||
### オラマ
|
||||
|
||||
Ollama を通じてローカル モデルを使用するようにオープンコードを構成できます。
|
||||
Ollama を通じてローカル モデルを使用するようにopencodeを構成できます。
|
||||
|
||||
:::tip
|
||||
Ollama は OpenCode 用に自動的に構成できます。詳細については、「Ollama 統合 docs](https://docs.ollama.com/integrations/opencode)」を参照してください。
|
||||
@@ -1391,7 +1391,7 @@ OpenCode Zen は、OpenCode チームによって提供される、テストお
|
||||
/models
|
||||
```
|
||||
|
||||
オープンコード構成を通じて追加のモデルを追加することもできます。
|
||||
opencode構成を通じて追加のモデルを追加することもできます。
|
||||
|
||||
```json title="opencode.json" {6}
|
||||
{
|
||||
@@ -1406,7 +1406,7 @@ OpenCode Zen は、OpenCode チームによって提供される、テストお
|
||||
}
|
||||
```
|
||||
|
||||
5. オープンコード設定を通じてカスタマイズすることもできます。プロバイダーを指定する例を次に示します。
|
||||
5. opencode設定を通じてカスタマイズすることもできます。プロバイダーを指定する例を次に示します。
|
||||
|
||||
```json title="opencode.json"
|
||||
{
|
||||
@@ -1622,7 +1622,7 @@ Vercel AI Gateway を使用すると、統合エンドポイントを通じて O
|
||||
/models
|
||||
```
|
||||
|
||||
オープンコード構成を通じてモデルをカスタマイズすることもできます。プロバイダーのルーティング順序を指定する例を次に示します。
|
||||
opencode構成を通じてモデルをカスタマイズすることもできます。プロバイダーのルーティング順序を指定する例を次に示します。
|
||||
|
||||
```json title="opencode.json"
|
||||
{
|
||||
@@ -1732,7 +1732,7 @@ Vercel AI Gateway を使用すると、統合エンドポイントを通じて O
|
||||
/models
|
||||
```
|
||||
|
||||
オープンコード構成を通じて追加のモデルを追加することもできます。
|
||||
opencode構成を通じて追加のモデルを追加することもできます。
|
||||
|
||||
```json title="opencode.json" {6}
|
||||
{
|
||||
@@ -1754,7 +1754,7 @@ Vercel AI Gateway を使用すると、統合エンドポイントを通じて O
|
||||
`/connect` コマンドにリストされていない **OpenAI 互換**プロバイダーを追加するには:
|
||||
|
||||
:::tip
|
||||
OpenAI と互換性のある任意のプロバイダーをオープンコードで使用できます。最新の AI プロバイダーのほとんどは、OpenAI 互換の API を提供しています。
|
||||
OpenAI と互換性のある任意のプロバイダーをopencodeで使用できます。最新の AI プロバイダーのほとんどは、OpenAI 互換の API を提供しています。
|
||||
:::
|
||||
|
||||
1. `/connect` コマンドを実行し、**その他**まで下にスクロールします。
|
||||
|
||||
Reference in New Issue
Block a user