Skip to content

Commit ef6eec2

Browse files
committed
fix(l10n): Update translations from Transifex
Signed-off-by: Nextcloud bot <[email protected]>
1 parent 9a679e1 commit ef6eec2

File tree

6 files changed

+20
-4
lines changed

6 files changed

+20
-4
lines changed

l10n/de_DE.js

Lines changed: 1 addition & 1 deletion
Some generated files are not rendered by default. Learn more about customizing how changed files appear on GitHub.

l10n/de_DE.json

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -118,7 +118,7 @@
118118
"Max input tokens per request" : "Maximale Eingabetoken pro Anfrage",
119119
"Split the prompt into chunks with each chunk being no more than the specified number of tokens (0 disables chunking)" : "Die Eingabeaufforderung in Blöcke aufteilen, wobei jeder Block nicht mehr als die angegebene Anzahl von Tokens umfassen darf (0 deaktiviert das Aufteilen)",
120120
"Max output tokens per request" : "Maximale Ausgabetoken pro Anfrage",
121-
"Maximum number of output tokens generated for a single text generation prompt. This also applies to the Speech-to-Text tasks." : "Maximale Anzahl generierter Ausgabetoken für eine einzelne Texterstellunganforderung. Dies gilt auch für die Speech-to-Text-Aufgaben.",
121+
"Maximum number of output tokens generated for a single text generation prompt. This also applies to the Speech-to-Text tasks." : "Maximale Anzahl generierter Ausgabetoken für eine einzelne Texterstellunganforderung. Dies gilt auch für die Sprache-zu-Text-Aufgaben.",
122122
"Default image generation model to use" : "Zu verwendendes Standard-Bilderzeugungsmodell",
123123
"No models to list" : "Keine Modelle zum Auflisten",
124124
"Default image size" : "Standardbildgröße",

l10n/pt_BR.js

Lines changed: 3 additions & 0 deletions
Some generated files are not rendered by default. Learn more about customizing how changed files appear on GitHub.

l10n/pt_BR.json

Lines changed: 3 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -117,6 +117,8 @@
117117
"Extra completion model parameters" : "Parâmetros extras do modelo de conclusão",
118118
"Max input tokens per request" : "Máximo de tokens de entrada por solicitação",
119119
"Split the prompt into chunks with each chunk being no more than the specified number of tokens (0 disables chunking)" : "Dividir o prompt em partes, sendo que cada parte não deve ter mais do que o número especificado de tokens (0 desativa a divisão em partes)",
120+
"Max output tokens per request" : "Máximo de tokens de saída por solicitação",
121+
"Maximum number of output tokens generated for a single text generation prompt. This also applies to the Speech-to-Text tasks." : "Número máximo de tokens de saída gerados para um único prompt de geração de texto. Isso também se aplica às tarefas de conversão de voz em texto.",
120122
"Default image generation model to use" : "Modelo de geração de imagem padrão a ser usado",
121123
"No models to list" : "Sem modelos a listar",
122124
"Default image size" : "Tamanho da imagem padrão",
@@ -129,6 +131,7 @@
129131
"Usage limits" : "Limites de uso",
130132
"Quota enforcement time period (days)" : "Período de aplicação da cota (dias)",
131133
"Usage quotas per time period" : "Cotas de uso por período",
134+
"A per-user quota for each quota type can be set. If the user has not provided their own API key, this quota will be enforced." : "É possível definir uma cota por usuário para cada tipo de cota. Se o usuário não tiver fornecido sua própria chave de API, essa cota será aplicada.",
132135
"\"0\" means unlimited usage for a particular quota type." : "\"0\" significa uso ilimitado para um tipo específico de cota.",
133136
"Quota type" : "Tipo de cota",
134137
"Per-user quota / period" : "Cota por usuário / período",

l10n/ru.js

Lines changed: 6 additions & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -5,6 +5,7 @@ OC.L10N.register(
55
"Default" : "По умолчанию",
66
"Text generation" : "Генерация текста",
77
"Image generation" : "Создание изображений",
8+
"Text to speech" : "Текст в речь",
89
"Unknown" : "Неизвестно",
910
"tokens" : "токены",
1011
"images" : "изображения",
@@ -16,6 +17,7 @@ OC.L10N.register(
1617
"Bad credentials" : "Неверные учетные данные",
1718
"API request error: " : "Ошибка запроса API:",
1819
"Maximum output words" : "Максимум слов в выводе",
20+
"The maximum number of words/tokens that can be generated in the output." : "Максимальное количество слов/токенов, которые могут быть сгенерированы в выводе.",
1921
"Model" : "Модель",
2022
"Analyze images" : "Проанализировать изображения",
2123
"Ask a question about the given images." : "Задать вопрос по предоставленным изображениям.",
@@ -68,11 +70,14 @@ OC.L10N.register(
6870
"Using the chat endpoint may improve text generation quality for \"instruction following\" fine-tuned models." : "Использование конечной точки чата может улучшить качество генерации текста для точно настроенных моделей при 'следовании инструкциям'.",
6971
"Default completion model to use" : "Используемая модель завершения по умолчанию",
7072
"Extra completion model parameters" : "Дополнительные параметры модели завершения",
71-
"Max input tokens per request" : "Максимальное количество входных токенов на запрос",
73+
"Max input tokens per request" : "Макс. входных токенов на запрос",
7274
"Split the prompt into chunks with each chunk being no more than the specified number of tokens (0 disables chunking)" : "Разделять промпт на фрагменты, каждый из которых содержит не более указанного количества токенов (0 отключает разбиение на фрагменты)",
75+
"Max output tokens per request" : "Макс. выходных токенов на запрос",
76+
"Maximum number of output tokens generated for a single text generation prompt. This also applies to the Speech-to-Text tasks." : "Максимальное количество выходных токенов, сгенерированных для одного текстового запроса на генерацию. Это также применяется для задач преобразования текста в речь.",
7377
"Usage limits" : "Ограничения на использование",
7478
"Quota enforcement time period (days)" : "Период времени соблюдения квоты (дни)",
7579
"Usage quotas per time period" : "Квоты использования за определенный период времени",
80+
"\"0\" means unlimited usage for a particular quota type." : "\"0\" означает безлимитное использование для определенного типа квоты.",
7681
"Quota type" : "Тип квоты",
7782
"Per-user quota / period" : "Квота / период для каждого пользователя",
7883
"Current system-wide usage / period" : "Текущее общесистемное использование / период",

l10n/ru.json

Lines changed: 6 additions & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -3,6 +3,7 @@
33
"Default" : "По умолчанию",
44
"Text generation" : "Генерация текста",
55
"Image generation" : "Создание изображений",
6+
"Text to speech" : "Текст в речь",
67
"Unknown" : "Неизвестно",
78
"tokens" : "токены",
89
"images" : "изображения",
@@ -14,6 +15,7 @@
1415
"Bad credentials" : "Неверные учетные данные",
1516
"API request error: " : "Ошибка запроса API:",
1617
"Maximum output words" : "Максимум слов в выводе",
18+
"The maximum number of words/tokens that can be generated in the output." : "Максимальное количество слов/токенов, которые могут быть сгенерированы в выводе.",
1719
"Model" : "Модель",
1820
"Analyze images" : "Проанализировать изображения",
1921
"Ask a question about the given images." : "Задать вопрос по предоставленным изображениям.",
@@ -66,11 +68,14 @@
6668
"Using the chat endpoint may improve text generation quality for \"instruction following\" fine-tuned models." : "Использование конечной точки чата может улучшить качество генерации текста для точно настроенных моделей при 'следовании инструкциям'.",
6769
"Default completion model to use" : "Используемая модель завершения по умолчанию",
6870
"Extra completion model parameters" : "Дополнительные параметры модели завершения",
69-
"Max input tokens per request" : "Максимальное количество входных токенов на запрос",
71+
"Max input tokens per request" : "Макс. входных токенов на запрос",
7072
"Split the prompt into chunks with each chunk being no more than the specified number of tokens (0 disables chunking)" : "Разделять промпт на фрагменты, каждый из которых содержит не более указанного количества токенов (0 отключает разбиение на фрагменты)",
73+
"Max output tokens per request" : "Макс. выходных токенов на запрос",
74+
"Maximum number of output tokens generated for a single text generation prompt. This also applies to the Speech-to-Text tasks." : "Максимальное количество выходных токенов, сгенерированных для одного текстового запроса на генерацию. Это также применяется для задач преобразования текста в речь.",
7175
"Usage limits" : "Ограничения на использование",
7276
"Quota enforcement time period (days)" : "Период времени соблюдения квоты (дни)",
7377
"Usage quotas per time period" : "Квоты использования за определенный период времени",
78+
"\"0\" means unlimited usage for a particular quota type." : "\"0\" означает безлимитное использование для определенного типа квоты.",
7479
"Quota type" : "Тип квоты",
7580
"Per-user quota / period" : "Квота / период для каждого пользователя",
7681
"Current system-wide usage / period" : "Текущее общесистемное использование / период",

0 commit comments

Comments
 (0)