fix(docs): locale markdown issues

This commit is contained in:
Adam
2026-02-09 13:55:55 -06:00
parent d9b4535d64
commit 274bb948e7
213 changed files with 1776 additions and 1789 deletions

View File

@@ -53,7 +53,7 @@ OpenCode использует [AI SDK](https://ai-sdk.dev/) и [Models.dev](http
OpenCode Zen — это список моделей, предоставленный командой OpenCode, которые были
протестировано и проверено на хорошую работу с OpenCode. [Подробнее](/docs/zen).
:::кончик
:::tip
Если вы новичок, мы рекомендуем начать с OpenCode Zen.
:::
@@ -89,7 +89,7 @@ OpenCode Zen — это список моделей, предоставленн
Рассмотрим некоторых провайдеров подробнее. Если вы хотите добавить провайдера в
список, смело открывайте пиар.
:::примечание
:::note
Не видите здесь провайдера? Разместите пиар.
:::
@@ -229,7 +229,7 @@ OpenCode Zen — это список моделей, предоставленн
/models
```
:::примечание
:::note
Для пользовательских профилей вывода используйте имя модели и поставщика в ключе и задайте для свойства `id` значение arn. Это обеспечивает правильное кэширование:
```json title="opencode.json"
@@ -278,7 +278,7 @@ OpenCode Zen — это список моделей, предоставленн
/models
```
:::информация
:::info
Использование вашей подписки Claude Pro/Max в OpenCode официально не поддерживается [Anthropic](https://anthropic.com).
:::
@@ -292,7 +292,7 @@ OpenCode Zen — это список моделей, предоставленн
### Azure OpenAI
:::примечание
:::note
Если вы столкнулись с ошибками «Извините, но я не могу помочь с этим запросом», попробуйте изменить фильтр содержимого с **DefaultV2** на **Default** в своем ресурсе Azure.
:::
@@ -677,14 +677,14 @@ GitLab Duo предоставляет агентский чат на базе и
- **duo-chat-sonnet-4-5** — сбалансированная производительность для большинства рабочих процессов.
- **duo-chat-opus-4-5** — Наиболее способен к комплексному анализу.
:::примечание
:::note
Вы также можете указать переменную среды «GITLAB_TOKEN», если не хотите.
для хранения токена в хранилище аутентификации открытого кода.
:::
##### Самостоятельная GitLab
:::примечание[примечание о соответствии]
:::note[примечание о соответствии]
OpenCode использует небольшую модель для некоторых задач ИИ, таких как создание заголовка сеанса.
По умолчанию он настроен на использование gpt-5-nano, размещенного на Zen. Чтобы заблокировать OpenCode
чтобы использовать только свой собственный экземпляр, размещенный на GitLab, добавьте следующее в свой
@@ -721,13 +721,13 @@ export GITLAB_AI_GATEWAY_URL=https://ai-gateway.company.com
export GITLAB_TOKEN=glpat-...
```
:::примечание
:::note
Ваш администратор GitLab должен включить следующее:
1. [Платформа Duo Agent](https://docs.gitlab.com/user/gitlab_duo/turn_on_off/) для пользователя, группы или экземпляра
2. Флаги функций (через консоль Rails):
- ХХ0ГГ
- ХХ0ГГ
- `agent_platform_claude_code`
- `third_party_agents_enabled`
:::
##### OAuth для локальных экземпляров
@@ -788,7 +788,7 @@ export GITLAB_OAUTH_CLIENT_ID=your_application_id_here
Чтобы использовать подписку GitHub Copilot с открытым кодом:
:::примечание
:::note
Некоторым моделям может потребоваться [Pro+
подписка](https://github.com/features/copilot/plans) для использования.
@@ -853,7 +853,7 @@ export GITLAB_OAUTH_CLIENT_ID=your_application_id_here
export VERTEX_LOCATION=global
```
:::кончик
:::tip
Регион `global` повышает доступность и уменьшает количество ошибок без дополнительных затрат. Используйте региональные конечные точки (например, `us-central1`) для требований к местонахождению данных. [Подробнее](https://cloud.google.com/vertex-ai/generative-ai/docs/partner-models/use-partner-models#regional_and_global_endpoints)
:::
@@ -1023,12 +1023,12 @@ npm install -g opencode-helicone-session
##### Общие разъемы Helicone
| Заголовок | Описание |
| --------- | ------------------------------------------------------------------------------ |
| ХХ0ГГ | Включить кэширование ответов (`true`/`false`) |
| ХХ0ГГ | Отслеживание показателей по пользователю |
| ХХ0ГГ | Добавьте пользовательские свойства (например, `Helicone-Property-Environment`) |
| ХХ0ГГ | Связывание запросов с подсказками |
| Заголовок | Описание |
| --------------------------- | ---------------------------------------------------------------------- |
| `Helicone-Cache-Enabled` | Включить кэширование ответов (`true`/`false`) |
| `Helicone-User-Id` | Отслеживание показателей по пользователю |
| `Helicone-Property-[Name]` | Добавьте пользовательские свойства (например, `Helicone-Property-Environment`) |
| `Helicone-Prompt-Id` | Связывание запросов с версиями промптов |
См. [Справочник заголовков Helicone](https://docs.helicone.ai/helicone-headers/header-directory) для всех доступных заголовков.
@@ -1222,7 +1222,7 @@ IO.NET предлагает 17 моделей, оптимизированных
Вы можете настроить открытый код для использования локальных моделей через Ollama.
:::кончик
:::tip
Ollama может автоматически настроиться для OpenCode. Подробности см. в документации по интеграции Ollama](https://docs.ollama.com/integrations/opencode).
:::
@@ -1254,7 +1254,7 @@ Ollama может автоматически настроиться для OpenC
- `options.baseURL` — конечная точка локального сервера.
- `models` — это карта идентификаторов моделей с их конфигурациями. Название модели будет отображаться в списке выбора модели.
:::кончик
:::tip
Если вызовы инструментов не работают, попробуйте увеличить `num_ctx` в Олламе. Начните с 1632 тысяч.
:::
@@ -1638,11 +1638,11 @@ Vercel AI Gateway позволяет получать доступ к модел
Некоторые полезные параметры маршрутизации:
| Вариант | Описание |
| ------- | ------------------------------------------------------------------- |
| ХХ0ГГ | Последовательность действий поставщика, которую стоит попробовать |
| ХХ0ГГ | Ограничить конкретными поставщиками |
| ХХ0ГГ | Используйте только поставщиков с нулевой политикой хранения данных. |
| Вариант | Описание |
| ------------------- | ------------------------------------------------------------- |
| `order` | Последовательность провайдеров для попытки |
| `only` | Ограничить конкретными провайдерами |
| `zeroDataRetention` | Использовать только провайдеров с политикой нулевого хранения данных |
---
@@ -1748,7 +1748,7 @@ Vercel AI Gateway позволяет получать доступ к модел
Чтобы добавить любого **совместимого с OpenAI** поставщика, не указанного в команде `/connect`:
:::кончик
:::tip
Вы можете использовать любого OpenAI-совместимого провайдера с открытым кодом. Большинство современных поставщиков ИИ предлагают API-интерфейсы, совместимые с OpenAI.
:::