fix(docs): locale markdown issues
This commit is contained in:
@@ -53,7 +53,7 @@ OpenCode использует [AI SDK](https://ai-sdk.dev/) и [Models.dev](http
|
||||
OpenCode Zen — это список моделей, предоставленный командой OpenCode, которые были
|
||||
протестировано и проверено на хорошую работу с OpenCode. [Подробнее](/docs/zen).
|
||||
|
||||
:::кончик
|
||||
:::tip
|
||||
Если вы новичок, мы рекомендуем начать с OpenCode Zen.
|
||||
:::
|
||||
|
||||
@@ -89,7 +89,7 @@ OpenCode Zen — это список моделей, предоставленн
|
||||
Рассмотрим некоторых провайдеров подробнее. Если вы хотите добавить провайдера в
|
||||
список, смело открывайте пиар.
|
||||
|
||||
:::примечание
|
||||
:::note
|
||||
Не видите здесь провайдера? Разместите пиар.
|
||||
:::
|
||||
|
||||
@@ -229,7 +229,7 @@ OpenCode Zen — это список моделей, предоставленн
|
||||
/models
|
||||
```
|
||||
|
||||
:::примечание
|
||||
:::note
|
||||
Для пользовательских профилей вывода используйте имя модели и поставщика в ключе и задайте для свойства `id` значение arn. Это обеспечивает правильное кэширование:
|
||||
|
||||
```json title="opencode.json"
|
||||
@@ -278,7 +278,7 @@ OpenCode Zen — это список моделей, предоставленн
|
||||
/models
|
||||
```
|
||||
|
||||
:::информация
|
||||
:::info
|
||||
Использование вашей подписки Claude Pro/Max в OpenCode официально не поддерживается [Anthropic](https://anthropic.com).
|
||||
:::
|
||||
|
||||
@@ -292,7 +292,7 @@ OpenCode Zen — это список моделей, предоставленн
|
||||
|
||||
### Azure OpenAI
|
||||
|
||||
:::примечание
|
||||
:::note
|
||||
Если вы столкнулись с ошибками «Извините, но я не могу помочь с этим запросом», попробуйте изменить фильтр содержимого с **DefaultV2** на **Default** в своем ресурсе Azure.
|
||||
:::
|
||||
|
||||
@@ -677,14 +677,14 @@ GitLab Duo предоставляет агентский чат на базе и
|
||||
- **duo-chat-sonnet-4-5** — сбалансированная производительность для большинства рабочих процессов.
|
||||
- **duo-chat-opus-4-5** — Наиболее способен к комплексному анализу.
|
||||
|
||||
:::примечание
|
||||
:::note
|
||||
Вы также можете указать переменную среды «GITLAB_TOKEN», если не хотите.
|
||||
для хранения токена в хранилище аутентификации открытого кода.
|
||||
:::
|
||||
|
||||
##### Самостоятельная GitLab
|
||||
|
||||
:::примечание[примечание о соответствии]
|
||||
:::note[примечание о соответствии]
|
||||
OpenCode использует небольшую модель для некоторых задач ИИ, таких как создание заголовка сеанса.
|
||||
По умолчанию он настроен на использование gpt-5-nano, размещенного на Zen. Чтобы заблокировать OpenCode
|
||||
чтобы использовать только свой собственный экземпляр, размещенный на GitLab, добавьте следующее в свой
|
||||
@@ -721,13 +721,13 @@ export GITLAB_AI_GATEWAY_URL=https://ai-gateway.company.com
|
||||
export GITLAB_TOKEN=glpat-...
|
||||
```
|
||||
|
||||
:::примечание
|
||||
:::note
|
||||
Ваш администратор GitLab должен включить следующее:
|
||||
|
||||
1. [Платформа Duo Agent](https://docs.gitlab.com/user/gitlab_duo/turn_on_off/) для пользователя, группы или экземпляра
|
||||
2. Флаги функций (через консоль Rails):
|
||||
- ХХ0ГГ
|
||||
- ХХ0ГГ
|
||||
- `agent_platform_claude_code`
|
||||
- `third_party_agents_enabled`
|
||||
:::
|
||||
|
||||
##### OAuth для локальных экземпляров
|
||||
@@ -788,7 +788,7 @@ export GITLAB_OAUTH_CLIENT_ID=your_application_id_here
|
||||
|
||||
Чтобы использовать подписку GitHub Copilot с открытым кодом:
|
||||
|
||||
:::примечание
|
||||
:::note
|
||||
Некоторым моделям может потребоваться [Pro+
|
||||
подписка](https://github.com/features/copilot/plans) для использования.
|
||||
|
||||
@@ -853,7 +853,7 @@ export GITLAB_OAUTH_CLIENT_ID=your_application_id_here
|
||||
export VERTEX_LOCATION=global
|
||||
```
|
||||
|
||||
:::кончик
|
||||
:::tip
|
||||
Регион `global` повышает доступность и уменьшает количество ошибок без дополнительных затрат. Используйте региональные конечные точки (например, `us-central1`) для требований к местонахождению данных. [Подробнее](https://cloud.google.com/vertex-ai/generative-ai/docs/partner-models/use-partner-models#regional_and_global_endpoints)
|
||||
:::
|
||||
|
||||
@@ -1023,12 +1023,12 @@ npm install -g opencode-helicone-session
|
||||
|
||||
##### Общие разъемы Helicone
|
||||
|
||||
| Заголовок | Описание |
|
||||
| --------- | ------------------------------------------------------------------------------ |
|
||||
| ХХ0ГГ | Включить кэширование ответов (`true`/`false`) |
|
||||
| ХХ0ГГ | Отслеживание показателей по пользователю |
|
||||
| ХХ0ГГ | Добавьте пользовательские свойства (например, `Helicone-Property-Environment`) |
|
||||
| ХХ0ГГ | Связывание запросов с подсказками |
|
||||
| Заголовок | Описание |
|
||||
| --------------------------- | ---------------------------------------------------------------------- |
|
||||
| `Helicone-Cache-Enabled` | Включить кэширование ответов (`true`/`false`) |
|
||||
| `Helicone-User-Id` | Отслеживание показателей по пользователю |
|
||||
| `Helicone-Property-[Name]` | Добавьте пользовательские свойства (например, `Helicone-Property-Environment`) |
|
||||
| `Helicone-Prompt-Id` | Связывание запросов с версиями промптов |
|
||||
|
||||
См. [Справочник заголовков Helicone](https://docs.helicone.ai/helicone-headers/header-directory) для всех доступных заголовков.
|
||||
|
||||
@@ -1222,7 +1222,7 @@ IO.NET предлагает 17 моделей, оптимизированных
|
||||
|
||||
Вы можете настроить открытый код для использования локальных моделей через Ollama.
|
||||
|
||||
:::кончик
|
||||
:::tip
|
||||
Ollama может автоматически настроиться для OpenCode. Подробности см. в документации по интеграции Ollama](https://docs.ollama.com/integrations/opencode).
|
||||
:::
|
||||
|
||||
@@ -1254,7 +1254,7 @@ Ollama может автоматически настроиться для OpenC
|
||||
- `options.baseURL` — конечная точка локального сервера.
|
||||
- `models` — это карта идентификаторов моделей с их конфигурациями. Название модели будет отображаться в списке выбора модели.
|
||||
|
||||
:::кончик
|
||||
:::tip
|
||||
Если вызовы инструментов не работают, попробуйте увеличить `num_ctx` в Олламе. Начните с 16–32 тысяч.
|
||||
:::
|
||||
|
||||
@@ -1638,11 +1638,11 @@ Vercel AI Gateway позволяет получать доступ к модел
|
||||
|
||||
Некоторые полезные параметры маршрутизации:
|
||||
|
||||
| Вариант | Описание |
|
||||
| ------- | ------------------------------------------------------------------- |
|
||||
| ХХ0ГГ | Последовательность действий поставщика, которую стоит попробовать |
|
||||
| ХХ0ГГ | Ограничить конкретными поставщиками |
|
||||
| ХХ0ГГ | Используйте только поставщиков с нулевой политикой хранения данных. |
|
||||
| Вариант | Описание |
|
||||
| ------------------- | ------------------------------------------------------------- |
|
||||
| `order` | Последовательность провайдеров для попытки |
|
||||
| `only` | Ограничить конкретными провайдерами |
|
||||
| `zeroDataRetention` | Использовать только провайдеров с политикой нулевого хранения данных |
|
||||
|
||||
---
|
||||
|
||||
@@ -1748,7 +1748,7 @@ Vercel AI Gateway позволяет получать доступ к модел
|
||||
|
||||
Чтобы добавить любого **совместимого с OpenAI** поставщика, не указанного в команде `/connect`:
|
||||
|
||||
:::кончик
|
||||
:::tip
|
||||
Вы можете использовать любого OpenAI-совместимого провайдера с открытым кодом. Большинство современных поставщиков ИИ предлагают API-интерфейсы, совместимые с OpenAI.
|
||||
:::
|
||||
|
||||
|
||||
Reference in New Issue
Block a user